
조회 128
2026-02-16 00:00
전면 금지 촉구 성명과 함께, 기업이 지금 준비해야 할 안전 설계 체크포인트
안녕하세요. 디지털에이전시 이앤아이입니다.
요즘 이미지·영상 생성형 AI의 발전 속도는 놀랄 만큼 빠릅니다.
적은 비용으로도 짧은 영상을 뚝딱 만들어내는 서비스가 화제가 되는가 하면, 같은 기술이 전혀 다른 방향으로 악용될 수 있다는 경고도 동시에 커지고 있죠.
최근 국제인터넷핫라인협회(INHOPE)와 IWF 등 국제기구들이 ‘비동의 신체 합성(nudify) 이미지 생성 기술을 전면 금지해야 한다’는 공동 성명을 낸 배경도 여기에 있습니다. 한국에서는 방송미디어통신심의위원회가 성명에 참여하며 국제 공조 흐름에 힘을 보탰습니다.
핵심은 단순합니다. 누군가의 동의 없이 나체 이미지를 합성하거나, 아동 대상 불법 이미지를 만들어내는 도구는 ‘표현의 도구’가 아니라 ‘착취의 지름길’이 되기 쉽다는 점입니다.
단체들은 이런 도구가 피해자의 사진을 구하지 않아도 그럴듯한 결과물을 대량 생산하게 만들고, 일부 가해자들이 이를 수익화하면서 새로운 ‘착취 경제’가 생겨났다고 지적합니다. 기술의 접근성이 높아진 만큼, 피해의 문턱도 같이 낮아진 셈입니다.

이번 성명에서 눈여겨볼 부분은 “늦어도 2년 안에 금지·규제가 필요하다”는 시간표입니다.
규제가 실제로 어떻게 정리될지는 국가마다 다르겠지만, 방향은 분명히 ‘사후 처벌’에서 ‘사전 차단’으로 이동하고 있습니다.
앱스토어나 플랫폼 사업자에게 유통 차단 의무를 부여하고, 이를 통해 이익을 얻는 기업과 개인에게도 법적 책임을 물어야 한다는 주장도 함께 나왔습니다.
최근 일부 해외 플랫폼에서 AI 생성 성적 콘텐츠가 확산해 논란이 된 사례들까지 겹치며, “일단 퍼지고 나면 되돌리기 어렵다”는 문제의식이 더 강해졌습니다.
그렇다면 기업과 서비스 운영자 입장에서는 무엇을 준비해야 할까요.
첫째, ‘설계부터 안전하게’라는 요구를 가볍게 보면 안 됩니다. 생성형 기능을 도입할 때는 유해 콘텐츠 차단 정책, 프롬프트·업로드 필터링, 신고·삭제 프로세스, 재발 방지 로직을 기능 기획 단계에서 함께 묶어야 합니다.
둘째, 운영 체계도 중요합니다. 성착취물 의심 콘텐츠가 발견되면 빠르게 신고되고, 내부에서 즉시 비공개 처리되며, 필요 시 관계기관과 연계되는 흐름이 마련돼야 합니다. 국제기구들이 말한 것처럼 ‘신고·비난·폐쇄’가 현실에서 작동하려면, 신고 버튼 하나가 아니라 실제 대응이 가능한 시스템이 있어야 하니까요.
기술은 계속 발전합니다. 다만 신뢰는 저절로 따라오지 않습니다. 사용자 보호와 안전 설계가 선행될 때, 생성형 AI는 ‘쓸만한 기능’이 아니라 ‘안심하고 쓰는 서비스’가 됩니다.
이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!
#비동의신체합성 #누드합성 #딥페이크대응 #생성형AI안전 #콘텐츠모더레이션 #플랫폼책임 #아동보호 #디지털성범죄 #AI거버넌스 #신고삭제프로세스 #이앤아이 #디지털에이전시 #대학교홈페이지 #병원홈페이지 #AI전문기업
메타 설명: 국제기구들이 비동의 신체 합성(nudify) 이미지 생성 기술의 전면 금지를 촉구한 배경과, 기업·플랫폼이 생성형 AI 도입 시 반드시 갖춰야 할 안전 설계·운영 대응 포인트를 정리합니다.