全新人工智能模型“变色龙”可在不破坏图像质量情况下保护隐私

🤖 由 文心大模型 生成的文章摘要

基于人工智能(AI)可以将个人照片隐藏起来,防止被不必要的面部识别软件和欺诈者窃取,而且不会破坏图像质量。

美国佐治亚理工大学的一项新研究于7月19日发表在预印本arXiv数据库中,详细介绍了研究人员如何创建一个名为“变色龙”(Chameleon)的人工智能模型,该模型可以为个人照片生成一个数字“单一、个性化隐私保护(P-3)面具”,阻止不必要的面部扫描检测人脸,并会让面部识别扫描仪将照片识别为其他人。

这项研究的主要作者、佐治亚理工学院计算机科学学院数据与智能计算教授Ling Liu(与其他研究人员一起开发了变色龙模型)表示:“像变色龙这样保护隐私的数据共享和分析将有助于推进人工智能技术的治理和负责任地采用,并刺激负责任的科学和创新。”

虽然图像蒙版并不是什么新鲜事,但现有系统通常会混淆人物照片的关键细节,或通过引入数字伪像而无法保留真实质量的图像。

而“变色龙”使用跨图像优化,可为每个用户创建一个P3-Mask,而不是为每个图像创建一个新的掩码。这意味着人工智能系统可以为用户提供即时保护,同时还能更有效利用有限的计算资源。

面部识别系统如今已是日常生活中常见的设备,从警用摄像头到iPhone Face ID。但未经授权或未经许可的扫描可能会导致网络犯罪分子收集图像,用于诈骗、欺诈或跟踪;甚至可以收集图像来建立数据库,用于不必要的广告定位和网络攻击。

「93913原创内容,转载请注明出处」