“바깥 활동을 할 수가 없었어요. 결국 경제 활동도 끊겼고, 집에만 박혀 살았던 것 같아요. 그 당시에는 아무것도 할 수 없었습니다. 부정적인 생각들로 머리가 꽉 차서 사람이 너무 싫고, 믿지도 못하겠고. 대인기피증이 이런 거구나 싶었어요. 사람이랑 대화하는 것 자체가 너무 싫었거든요.”
“너무 힘들어서 입원 치료까지 했어요. 한번은 제가 난리를 치던 상황이 있었는데 병원 직원들이 저를 붙잡았거든요. 그렇게 타인이 제 신체를 붙잡는 것조차도 저는 폭력처럼 느껴지는 거예요. 트라우마가 너무 컸던 것 같아요. 카메라 플래시 터지는 소리가 계속 귀에 맴도는 느낌이었어요.”
2023년 한국여성인권진흥원 디지털성범죄피해자센터에서 진행한 <디지털 성범죄 유포 및 유포 불안 피해 경험에 관한 연구>에서 발췌한 피해자 증언 일부를 각색한 내용들이다.
디지털 성범죄 피해자들은 피해 사실을 알고 난 후부터 ‘실존적 생지옥’을 일상적으로 겪는다. 나도 모르는 사이버 공간에 영상물이 버젓이 남아 있진 않는지 누군가 자신을 알아보는 것은 아닐지, 이러한 극도의 불안함과 공포가 계속해서 이어지다가 결국 일상이 붕괴되는 것이다.
딥페이크 성범죄는 인공지능(AI) 기술이 발전하고, 이로 인한 딥페이크 합성이 고도화되면서 피해자들의 얼굴을 성착취물 영상에 합성해 실제처럼 보이게 만드는 범죄 유형이다. 이미 연예인이나 케이팝 아이돌을 대상으로 퍼지고 있는 범죄 양상이었는데, 최근에는 일반인을 대상으로 한 딥페이크 합성편집물이 많아지고 있어 사회적 이슈로 떠오르고 있다.
여가부 산하기관인 한국여성인권진흥원에 설치된 디지털성범죄피해자지원센터(이하 디성센터)는 이러한 디지털 성범죄에 노출된 피해자들을 위해 2018년 4월 30일 개소한 이후, 디지털 성범죄 피해상담과 피해촬영물에 대한 삭제를 지원하고, 수사·법률·의료지원 연계 등 종합적인 서비스를 제공하고 있다.
딥페이크 피해 사실을 알게 된 피해자들은 주저하지 말고 디성센터에 연락해 피해영상물 삭제를 요청해야 한다. 디지털 성범죄는 특성상 유포가 굉장히 빠르고 쉽게 이뤄지지만, 추적은 어렵기 때문이다.
삭제지원팀을 진두지휘하는 박성혜 팀장은 디지털 성범죄 피해를 인지하자마자 골든타임 내 반드시 신고해야 한다고 강조했다. 한번 유포되면 재유포가 반복되는 디지털 범죄 특성상 빠른 신고만이 피해를 최소화할 수 있는 유일한 방법이기 때문이다.
이를 위해 삭제지원팀은 피해자들을 위해 최대한 많은 합성물을 삭제하려고 노력하고 있다. 지난해 센터가 삭제지원한 영상은 3만 5000여 건으로 이는 2022년 3만 1000여 건에 비해 무려 14% 늘어난 수치이다.
무엇보다도 디지털 성범죄가 근본적으로 차단되기 위해서는 ‘딥페이크와 같은 허위영상물의 제작·소지·시청·유포는 명백한 범죄’라는 인식개선이 우선되어야 한다고 박성혜 팀장은 강조했다.
박 팀장은 디지털 성범죄는 더 이상 특정인을 대상으로 한 범죄가 아닌 나도 피해자가 될 수 있는 범죄 유형이며 내 주변 사람이 가해자가 될 수도 있는 범죄 유형이라는 점이 다른 범죄 유형과의 차이점이라고 말했다. 그러나 가해자 상당수가 “단순한 놀이”라고 인식하고 있다는 점에 놀랐고 합성편집물 유포는 명백한 범죄라는 인식개선의 필요성을 절감했다고.
현재 39명의 센터 구성원과 함께 상담·삭제지원 업무에 매진하는 것만으로도 벅찬 것이 사실이다. 하지만 근본적인 원인개선이 선행되어야 함을 잘 알기에 관계부처 협업으로 교육 지침서를 제작하고 국제공조 등을 통해 피해자 사례 분석, 기술 고도화에도 힘을 쏟으며 피해 발생 자체를 낮추기 위한 노력에도 공을 들이고 있다.
다음은 박성혜 팀장과의 일문일답.
◆ 한국여성인권진흥원 디지털성범죄피해자지원센터에 대해 소개 부탁드립니다.
2018년 4월 30일 개소한 디지털성범죄피해자지원센터(이하 디성센터)는 불법촬영물 및 딥페이크와 같은 허위영상물 삭제, 아동·청소년성착취물 선제적 삭제 업무를 기본으로 디지털 성범죄 삭제 업무 실효성 확보를 위한 국내외 유관기관 협력 체계 구축, DNA 검출·얼굴 인식 등 모니터링 자동화 기술 개발 및 고도화, 매뉴얼 제작 및 실무자 교육 등 역량 확산을 통한 일반의 디지털 성범죄 피해지원 서비스 접근성 강화, 기타 연구 및 홍보활동을 하는 국내 유일의 디지털 성범죄 피해자 지원 업무를 수행하는 국가 전문기관입니다.
◆ 디지털성범죄피해자지원센터는 어떤 업무를 하는지 구체적으로 알려주세요.
현재 삭제지원팀, 상담연계팀, 청소년보호팀 총 3개 팀으로 구성되어 운영 중입니다. 삭제지원팀은 불법촬영물과 딥페이크와 같은 허위 영상물 삭제, 아동·청소년 성착취물 선제적 삭제 등 기본적인 업무 외에도 국내외 유관기관과 협력해 DNA 검출과 인식 등 모니터링 자동화 기술 개발 및 고도화, 설명 제작·실무자 교육 등 역량 강화를 통한 디지털 성범죄 피해지원 서비스 접근성 강화 사업을 통해 디지털 성범죄 피해자를 지원하고 있습니다. 그리고 상담연계팀에서는 피해자가 국가로부터 온전히 보호받고 있다는 신뢰와 안정감을 통해 빠르게 회복하고 일상으로 복귀할 수 있도록 심리상담과 법률지원 등 다각도로 지원해 드리고자 노력하고 있습니다. 청소년보호팀은 청소년 피해자를 해바라기 센터의 아동센터에 연계해 상담과 치료, 법률적 지원을 받을 수 있도록 합니다.
◆ 딥페이크 성범죄가 최근 사회적 이슈로 떠오르는 이유가 무엇일까요?
디지털 성범죄의 심각성은 과거에도 마찬가지였지만, 기존에는 피해가 특정 대상 또는 계층에 한정된 범죄라는 인식이 많았습니다.
그런데 최근 전국 대다수의 학교와 직업군에서 피해 사례가 확인되고 있어 특정의 누군가가 아닌, ‘나도 피해자’가 될 수 있다는 불안감이 확산되고 있습니다. 주로 연예인이나 케이팝 아이돌을 대상으로 퍼지던 범죄 양상이 이제는 일반인을 대상으로 한 합성편집물로 확대되고 있는 것이죠.
또한, 친척, 친구, 직장 동료 등 내 주변인이 가해자라는 점에서 사회 전체가 공동으로 두려움을 체감하게 되면서 이와 같은 현상이 나타나고 있다고 생각합니다.
◆ 딥페이크 성범죄 양상은 어떻게 변화하고 있나요?
딥페이크 성범죄와 같은 합성편집물들은 가해 연령대가 현저히 낮다는 것이 특징입니다. 이미 초등학생들도 성적인 사진에 학교 선생님 얼굴을 합성해 친구들과 돌려보는 사례가 몇 년 전부터 시작되고 있고 딥페이크 앱을 활용한 합성이 누구나 손쉽게 가능해지면서 불법적인 합성편집물을 만드는 연령대가 더 낮아지고 있습니다.
또한, 미성년자인 아이들은 성착취물 영상에 친구, 선생님, 부모님들의 얼굴을 합성하고 유포하는 것을 그저 놀이문화 중 하나라고 인식하는 경우가 많습니다.
게다가 요즘 아이들은 디지털 네이티브 세대라고 불릴 만큼 스마트폰과 AI기술에 익숙하기 때문에 부모님과 선생님의 눈길을 피해 손쉽게 딥페이크 합성편집물을 만들 수 있는 거죠. 특히, 코로나19 기간 중 바깥 활동에 제약이 많았고 고립되는 시간이 늘어나면서 온라인상의 놀이문화가 청소년들에게 더욱 익숙해진 계기가 되면서 유독 미성년자 가해자들이 많았던 것은 아닌지, 저희 센터에서도 다양한 관점에서 분석해 보는 중입니다.
◆ 피해자들의 유형에 대해 더 자세히 들려주실 수 있으세요?
디성센터에서 합성편집물 피해로 삭제 지원 등을 요청한 피해자들의 비중을 살펴보면 성인이 절반, 미성년자가 절반가량입니다. 워낙 쉽게 딥페이크 합성물을 만들 수 있기에 피해자분들도 다양한데요, 이분들이 자신의 피해 사실을 바로 알기는 어렵습니다. 가해자가 직접 협박 연락을 하는 경우도 있지만 대부분은 친구, 전 애인, 지인들이 합성물을 보고 연락을 주는 경우가 많습니다. 미성년자의 경우, 부모님들이 피해 사실을 인지하거나 발견해 신고하는 경우도 있고요.
신고가 들어오면 저희는 긴급삭제를 바로 진행합니다. 당장 눈에 띄는 합성물부터 삭제를 시작하고요. 피해자들이 극도로 불안함과 공포를 느끼는 경우가 대부분이라 일단 눈앞에 보이는 합성물을 삭제하는 것만으로도 안도감을 느끼곤 합니다. 하지만 ‘누군가 날 알아보면 어쩌지?’라는 불안함에 집 밖에 나가지 못하는 분들도 계시고 직장을 그만두는 등 사회생활이 중단되는 분들도 많습니다.
아동·청소년의 경우, 피해 아이뿐 아니라 부모님들도 함께 무너지는 경우가 참 많습니다. 그래서 아예 등교를 시키지 않는 부모님들도 계시죠. 그런 숱한 경우를 지켜보면서 저희 삭제지원팀은 최대한 많은 합성물을 삭제하려고 노력합니다. 다만, 디지털 성범죄 특성상 유포가 쉽고 추적이 어려워 100% 삭제까진 쉽지 않은 상황입니다.
◆ 접수된 사례 중 기억에 남는 범죄 사례를 소개해 주실 수 있을까요?
기존의 불법합성물은 매우 조악한 형상의 이미지들이 많았는데, 기술이 고도화되면서 현재는 일반인 누구나 정교한 불법영상물을 제작하고 소지할 수 있게 되었습니다. 특히, AI 기술을 활용한 피해 유형이 최근 늘어나고 있습니다.
피해자 일상 사진을 기반으로 옷을 투명하게 만들거나 신체를 노출한 것처럼 보이게 만드는 소위 ‘딥누드(Deep nude)’ 형태로 피해자의 실제 몸이 아님에도 실제처럼 보이도록 합성한 영상이 등장하고 있는 것입니다. 또한, 피해자 얼굴 사진에 미소, 눈빛, 입술 모양 등 표정까지도 성적으로 변형시켜 피해자 이미지를 왜곡하고 성적인 의도를 담아 원본과 전혀 다른 형태로 변형시키는 딥누드 영상들이 새로운 범죄 유형으로 떠오르고 있습니다.
◆ 딥페이크 영상 피해에 대응하는 방법에 대해 자세히 말씀해주세요.
저희가 늘 말씀드리는 것은 ‘피해 사실을 인지한 즉시, 저희 센터나 경찰에 신고하라’는 것입니다. 생각보다 피해 사실 인지 후에 신고를 못하는 경우가 많습니다. 가해자들이 ‘신고하면 네 사진을 유출한다’고 협박하거나 심리적 지배(가스라이팅)를 하기 때문입니다.
그러나 유포 사실을 알게 된 즉시, 바로 신고하셔야 합니다. 24시간을 넘기면 그 피해가 걷잡을 수 없이 커지기 때문입니다. 저희 센터에 신고할 경우, 바로 삭제작업을 진행합니다. 디지털 성범죄는 온라인이라는 특성상 유포가 매우 빠르고 쉬우나 추적은 어렵습니다. 그럼에도 삭제지원팀원들 모두 최대한 많은 영상을 찾아 반드시 삭제한다는 각오로 업무에 임하고 있습니다.
피해 사실을 확인하면 바로 연락주셔야 합니다. 24시간 골든타임 내 삭제를 시작한다면 피해를 확실히 줄일 수 있습니다. 가해자의 위협이 두려워도 반드시 신고해주세요. 변호사와 연계한 법률지원은 물론, 지역 상담센터와 연계한 심리상담도 지원해 피해자 여러분이 하루빨리 일상으로 복귀할 수 있도록 다양한 방법을 동원해 도와드리고 있습니다.
◆ 딥페이크 성범죄 근절과 방지 대책을 위해 어떤 점들이 필요하다고 생각하시나요?
이미 저희 센터와 여성가족부, 교육부가 협력해 딥페이크 성범죄 관련 교육 과정을 제작하고 있습니다. 하지만 딥페이크 성범죄가 기술을 활용한 범죄인만큼 아이들에게 올바른 기술 활용을 위한 교육을 강화하고 성인지적 가치 교육 등이 필요하다고 생각합니다.
많은 기관에서 소개하는 예방책은 피해자가 행위 주체로서 무엇을 하지 말아야 할 지를 주로 소개하는데, 막상 마련된 정책과 이를 이행하는 법적 절차에서는 피해자는 당사자로서의 권리를 제대로 보장받지 못하고, 피해자의 안녕은 도외시되는 경향이 있습니다. 피해자가 국가로부터 온전히 보호받고 있다는 신뢰와 안정감을 통해 빠르게 회복하여 일상에 복귀할 수 있도록 다각도의 노력도 필요할 것입니다.
◆ 향후 계획에 대해 말씀 부탁드립니다.
앞으로 센터는 딥페이크 성범죄 대응 범정부 대응 전담팀을 설치하고 기술과 시스템 고도화를 추진할 계획입니다. 이를 위해 절실한 것은 인력 증원입니다. 현재 39명이 근무 중이며 2025년 2명 증원이 예정되어 있습니다. 삭제 요청 수요에 비하면 부족한 것이 사실입니다. 더 많은 인력이 안정적으로 근무한다면 상당한 기술이 요구되는 삭제지원 업무가 더 안정적으로 이뤄질 것이라 확신합니다.
국제공조를 통해 삭제 요청에 응답하지 않는 해외 사이트에 대한 대응도 강화할 것입니다. 해외법령 분석을 연구하고 우수한 기술력도 도입하고 싶습니다.
현재 해외의 디지털 성범죄 사례를 분석한 자료들을 종합해 보면 한국의 피해자 지원제도는 매우 선도적입니다. 무관용 원칙을 기본으로 하고 있기 때문이라 생각합니다. 이러한 점들도 널리 홍보하고 싶습니다. 우리가 하는 일들이 디지털 성범죄 발생과 확산을 막고 대한민국이 디지털 성범죄로부터 자유로운 나라, 청정한 온라인 세상을 구현한 수준 높은 디지털 국가로 도약할 수 있는데 계속해서 보탬이 되고 싶은 게 저의 바람입니다.