텔레그램방에서 ‘가짜 나체’ 합성…1년간 피해자 최소 10만명

신진호 기자
신진호 기자
업데이트 2020-10-21 09:24
입력 2020-10-21 09:24
이미지 확대
텔레그램 채팅방에서 인공지능(AI)을 이용해 가짜 나체 사진을 합성해주는 과정을 보여주는 일러스트.
센서티 보고서 캡처
원본 이미지입니다.
손가락을 이용하여 이미지를 확대해 보세요.
닫기
인공지능(AI)을 이용해 여성 얼굴에 가짜 나체 사진을 합성해주는 텔레그램 대화방 피해자가 지난 1년간 10만명이 넘는 것으로 조사됐다고 영국 BBC방송이 20일(현지시간) 보도했다.

민간 정보업체 센시티의 최근 보고서에 따르면 문제의 텔레그램 대화방은 사람들이 여성의 사진을 전달하면 ‘딥페이크 봇’(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다.

딥페이크란 실존 인물의 얼굴이나 신체를 인공지능 기술을 이용해 다른 인물이나 이미지에 감쪽같이 합성한 편집물을 뜻한다.

해당 텔레그램 대화방은 사진을 받고 몇 분 만에 편집을 완료하며, 비용도 청구하지 않는다고 보고서는 전했다.

텔레그램 대화방 1곳을 통해서만 지난해 7월부터 1년간 약 10만 4852명의 여성이 가짜 나체 사진이 유포되는 피해를 본 것으로 파악됐다.

BBC는 몇몇 여성의 동의를 얻고 그들의 사진을 이 대화방에 제출한 결과, 실제로 편집물을 받았다고 전했다. 다만 한 사진에선 배꼽이 횡격막 쪽에 달리는 등 편집물이 사실적이진 않았다고 설명했다.

‘P’라고만 알려진 이 대화방 운영자는 BBC에 “이 서비스는 오락물일 뿐 폭력 행위는 없다”면서 “사진 퀄리티도 사실적이지 않아, 이를 이용해 누군가를 협박하려는 사람도 없을 것”이라고 주장했다.

그러나 딥페이크봇은 그 어떤 사진이라도 무차별적으로 편집해 피해가 급격히 확산할 수 있다고 보고서는 지적했다. 딥페이크 봇에 의뢰된 사진 중 일부는 미성년자도 있는 것으로 조사됐다.

조지오 파트리니 센시티 대표는 “사진이 노출된 SNS 계정만으로도 충분히 공격 대상이 될 수 있다“고 경고했다.

문제의 서비스는 특히 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신이라고 보고서는 밝혔다.

전문가들은 이처럼 딥페이크를 활용한 범죄가 증가하고 있지만 이를 규제할 법적 장치는 미비하다고 지적한다.

책 ‘딥페이크와 인포컬립스’의 저자 니나 식은 ”딥페이크물이 더욱 정교해지는 건 시간 문제“라며 ”우리의 법 제도는 이 문제를 해결하기에 적합하지 않다“고 지적했다.

그는 ”페이크 포르노 피해자들을 생각하면 절망적인 상황“이라며 ”이들은 사생활 침해와 모욕감으로 인생이 완전히 뒤집힐 수 있다“고 우려했다.

신진호 기자 sayho@seoul.co.kr

에디터 추천 인기 기사

많이 본 뉴스

120년 역사의 서울신문 회원이 되시겠어요?
닫기