直击“换脸”真相:“深度伪造”是网络狂欢还是安全威胁?

2019-09-18 21:05:36 | 来源:互联网联合辟谣平台
--

近期,一款人工智能换脸APP在国内推出。用户只需上传一张正面照,就可以一键操作,把一些影视剧片段中演员的脸换成自己的,立刻生成视频,还可通过社交媒体传播,仿佛瞬间圆了明星梦。这款换脸APP很快就成了爆款,颇受欢迎,但也很快引起有关部门的注意,工信部就网络数据安全问题约谈了相关公司。与此同时,“换脸” 软件所依托的一项AI技术,也引起了人们的关注,它被称为:DeepFake, 深度伪造。Deepfake是“Deep learning”(深度学习)和“Fake”(伪造)结合而成的新单词。简单来说,这是一种可以实时伪造面部表情,并将其渲染成2D合成视频的人工智能技术。


图片来源:央视新闻

随着技术的发展,这样的合成图像或视频,真实度越来越强,欺骗性也越来越强。从“深度学习”到“深度伪造”,照片、声音、视频都可轻松造假,而识别深度伪造则要比制作深度伪造难得多。已有报道指出,相对于“换脸”技术本身,安全风险更集中于人脸信息的收集、加工、存储和传输等环节。目前,“刷脸”支付、认证、办事等已广泛应用在各种生活工作场景中,AI换脸后,用户的面部信息面临被泄露的风险,不仅可能让用户“丢脸”,还有可能让用户丢钱、丢清白、丢信用等。


图片来源:央视新闻

为什么网络时代的个人信息安全防护如此脆弱?许多用户没想到,只是玩了一个App,就面临如此严重的信息泄漏风险。问题的解决不能只寄望于网民自身提高辨别能力和网络安全意识,毕竟全社会媒介素养的进步不是一朝一夕之功。那么,行业自律的紧箍咒应该更强,外部监管也应该走在更前,共同堵住漏洞,防患于未然。技术是中立的,但使用技术的人是有立场的。企业应该加强新技术、新业务的安全评估,切实采取有效措施,积极防范自有业务平台被利用实施电信网络诈骗等风险隐患。监管部门也可以加强App上架前的审核规范。另外,对于虚假AI信息的识别,相关企业或研究机构也应该尽快研究开发。科技进步日新月异,对监管手段与方法的与时俱进提出了更高要求。面对公民个人信息保护的短板和难题,立法者、执法者和相关机构需要共同寻求符合互联网发展规律的破解之道。

标签: {list.tags}
编辑:韩迪

相关新闻

精彩评论:0

登录

还可以输入250个字