|
[이데일리 김지완 기자] 인공지능(AI) 머신러닝 데이터베이스에서 아동 성착취 사진 2000장이 삭제됐다. 이들 사진이 딥페이크 성범죄에 악용될 수 있단 우려 때문이다.
30일 AP통신에 따르면, 오픈 소스 데이터 셋을 만드는 비영리 단체인 ‘레이온’(LAION)은 미국 스탠퍼드대, 캐나다·영국 기관들과 협업해 아동 성 착취 이미지 2000여 장을 삭제했다.
이같은 조치는 최근 AI를 이용한 아동 딥페이크 성범죄가 증가했기 때문이다.
전문가들은 딥페이크 영상이 또 다른 아동 학대로 이어질 수 있다고 경고했다. 이들은 아동 성 착취 이미지가 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다고 한목소리를 내는 이유다.



!['190억 펜트하우스' 장동건♡고소영의 집 내부 어떤가 봤더니…[누구집]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/03/PS26030800090t.jpg)


!['720만원 복지비' 2주 휴식에 최신장비도 지원하는 이 회사[복지좋소]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/03/PS26030800141t.jpg)