近几周,韩国人震惊地发现,大量年轻女性和女孩儿,包括未成年幼女的不雅照片在社群媒体上曝光,而这些照片被用来做成性剥削图片或电影片段。难道 "N 号房 " 再现?不。其实,这次女性不雅照片传播的始俑者是 " 深伪技术 " 与其操纵者。尽管如此,这次事件带来的恶劣影响不亚于 "N 号房 " 丑闻。
深伪技术伪造的不雅照,就是硬把你的脸贴到别人脸上,而那人的身体照片是露点的。近年来,有些 A Ⅰ研发者醉心于追求真实度,无意中 " 帮助 " 了某些别有用心的人。后者将先进的科技成果用来换人脸、脱衣服。 人工智能本可以轻松、快速且廉价地生产深度伪造的视听材料,用于更有益的方面。不幸的是,深度伪造技术最常见的应用却是色情内容。