2019-06-28 10:12:00
来 源
cnBeta.COM
人工智能
近日一款名叫“DeepNude”的女性AI脱衣应用在互联网上引起了轩然大波,因为人们只需提交一张他人照片,即可通过算法来模拟出裸体的效果。与早前的DeepFakes换脸应用类似,DeepNude同样打开了AI工具的阴暗面,因为开发者很难确保其他人会恪守道德准则。

image.png

(截图 via Cnet)

最新消息是,开发者已经迫于舆论压力关闭了 DeepNude 应用程序。其在某条 Twitter 消息中写到:“我们其实并不希望以这样的方式去赚钱”。

然而这个“潘多拉的魔盒”并不会就此消失,因为一些 DeepNude 的副本仍会被人在网络上分享。只是最初的开发者已经放弃了继续销售的打算,理由是“世界尚未做好准备”。

显然,这款应用对社会造成了巨大的冲击,但也引发了人们对于隐私和同意权的思考,因为人工智能已经能够创建出以假乱真的视频和照片。

尽管计算机媒体创作已经存在了数十年,但类似 DeepNude 和 DeepFakes 这样的图像 / 视频变造程序,正在让普通人陷入更深的困惑 —— 你根本无法通过肉眼来分辨真假。

据说这款应用程序最终只是“闹着玩”,DeepNude 官方不鼓励胡乱应用,并表示通过其它来源下载或分享软件是违反其使用条款的。但是说到具体的执行,就又是另外一回事了。

相关文章:

换脸视频后 AI又出偏门应用:用算法“脱掉”女性衣服

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。