
조회 158
2026-04-01 00:00
진실과 거짓을 섞는 콘텐츠, 국내 여론을 겨냥한 정보 작전, 그리고 우리가 갖춰야 할 검증 습관
안녕하세요. 디지털에이전시 이앤아이입니다.
요즘 전쟁 관련 소식에서 특히 눈에 띄는 건 ‘정보’가 전장 밖에서도 싸움을 만든다는 점입니다. 미국·이스라엘-이란 갈등 국면에서 AI로 만든 이미지와 영상이 빠르게 퍼졌는데, 단순히 누가 속았다/안 속았다의 문제가 아니라는 지적이 나왔습니다. 저널리즘 연구기관 포인터는 이 흐름을 “국가 차원의 선전 전략”으로 봐야 한다고 짚었죠.
핵심은 AI가 거짓을 ‘완전히 새로 만들기’만 하는 게 아니라, 사실과 그럴듯한 허구를 섞어 설득력을 높인다는 점입니다. 디지털 포렌식 전문가 에머슨 브루킹은 이란이 가짜뉴스 웹사이트, 허위 소셜 계정, 독립 언론처럼 보이는 대리 미디어 네트워크를 통해 정권의 메시지를 꾸준히 퍼뜨려 왔다고 설명합니다. “편향돼 있지만 완전히 조작된 경우는 드물다”는 말이 오히려 섬뜩합니다. 우리가 익히 떠올리는 ‘가짜뉴스’보다 한 단계 더 교묘하기 때문입니다.

실제 사례도 이어졌습니다. 피 묻은 아이의 가방 사진을 ‘미국 폭격으로 초등학생 170명 사망’과 연결 지어 올리거나, 미국 레이더가 파괴됐다는 ‘현장 사진’을 공개하는 식입니다. 뒤늦게 두 이미지 모두 AI 생성물로 드러났지만, 이미 한 번 확산된 뒤였고 일부 언론 보도에서는 AI 제작 가능성 언급이 거의 없었습니다. 포인터는 과거에도 격추된 F-35 이미지가 AI로 만들어졌던 정황, ‘스톰-2035’로 불린 단체가 미국 언론사를 사칭한 웹사이트를 운영하며 AI로 기사를 재가공한 사례도 함께 전했습니다.
더 중요한 대목은 “자국민을 겨냥한다”는 분석입니다. 글로벌 인권단체 위트니스의 마사 알리마르다니는 이란의 정보 통제 수단이 허위정보뿐 아니라 검열과 인터넷 차단까지 포괄한다고 말합니다. 또 2008~2020년 이란 관련 트윗 930만 건 이상을 분석한 결과, 국내 시위 등 불안이 커질 때 정권이 시위대를 폄하하고 ‘외세 사주’ 프레임을 퍼뜨리는 캠페인을 반복해 왔다고 지적했죠. 전쟁이든 시위든, 결국 목표는 국내 여론을 ‘관리’하는 데 있다는 뜻입니다.
해외 플랫폼도 안전지대가 아닙니다. 뉴욕타임스는 최근 2주간 소셜미디어에 확산된 전쟁 관련 AI 이미지·영상 110개 이상을 확인했다고 보도했습니다. 엑스, 틱톡, 페이스북에서 실제와 구분이 어려운 폭격 영상이 수백만 조회를 기록했고, 이란의 군사적 우월성을 강조하는 콘텐츠가 다수를 차지했습니다. 가장 많이 본 영상 중 하나는 텔아비브에 폭격이 떨어지는 장면에 이스라엘 국기를 함께 넣어 ‘현장감’을 강화했지만, 허위 영상으로 분석됐습니다. AI는 여기서 ‘편집 도구’가 아니라, 감정을 조종하는 연출 장치가 됩니다.
그렇다면 기업과 기관, 그리고 개인은 무엇을 준비해야 할까요. 첫째, 이미지·영상은 ‘출처’가 곧 신뢰입니다. 최초 게시 계정의 과거 이력, 동일 이미지의 역검색, 원문 기사·공식 발표와의 연결고리를 확인하는 습관이 필요합니다. 둘째, 전쟁·재난처럼 감정이 크게 흔들리는 이슈일수록 단일 콘텐츠로 결론을 내리기보다, 서로 다른 성향의 복수 매체를 비교해 맥락을 맞춰야 합니다. 셋째, 조직 차원에서는 임직원 대상 미디어 리터러시 교육과 내부 공유 가이드(검증 전 공유 금지, 출처 표기 의무화 등)를 갖춰야 ‘의도치 않은 확산자’가 되는 일을 줄일 수 있습니다.
메타 설명: AI 생성 이미지·영상이 전쟁 선전과 여론 조작에 활용되며 ‘가짜뉴스’보다 더 교묘한 정보 작전으로 확산되고 있습니다. 이란 사례와 소셜미디어 확산 흐름을 바탕으로, 기업·기관·개인이 갖춰야 할 검증 습관과 대응 포인트를 정리합니다.
이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!
#AI선전 #딥페이크 #허위정보 #정보작전 #미디어리터러시 #콘텐츠검증 #소셜미디어리스크 #OSINT #디지털포렌식 #사이버안보 #이앤아이 #디지털에이전시 #대학교홈페이지 #병원홈페이지 #AI전문기업