얘두라..
어젯밤 끔찍한 트윗을 봤어
(DSO)디지털 성범죄 아웃 @soraeliminate지인/연예인 합성사진이 다가 아닙니다. 포르노 영상에 여성 유명인들의 얼굴을 합성하는 딥페이크(Deepfake) 포르노가 일파만파 퍼지고 있습니다. 아마추어 프로그래머 딥페이크는 소스를 공개했고 현재 수많은 네티즌들이 여성들의 사진으로 영상을 만들어내고 있습니다.
영국 BBC 한국지사발 기사
https://www.bbc.com/korean/news-42942152
오전 2:53 - 2018년 2월 9일
기사 요약하면
1. 동영상 속 얼굴을 교체해주는
무료 프로그램이 개발됨.
사용법도 어렵지않고
PC만 있으면 됨.
벌써 10만 다운로드 됨.
2. 다양한 각도의 얼굴 사진만 있으면
일반PC로 40시간정도 걸려서
인공지능이 알아서 합성해줌
합성 완성도가 생각보다 높음
3. 헐리웃 여배우들이
제일 먼저 합성 피해자가 됨
4. 울나라 걸그룹멤버도
피해자가 됨.
알파고가 자기 스스로 학습하는거
그 기술을 여기다 응용하는거..
이제 내 인스타에 내 사진도 못올리겠다..
ㅅㅂ 이런 세상에
어떻게 살라는거냐 진짜
너무 욕나온다

인스티즈앱
82년생김지영 내용이 제정신이 아닌 이유