AI换脸伪造的“色情不雅照”泛滥,X平台屏蔽搜索Taylor Swift

3 个月前
4.5k 次浏览
时事新闻
 

上周多个社交媒体平台上出现了大量天后 Taylor Swift 的“色情不雅照”,而这些照片,是通过 AI “深伪技术”(deepfake)合成伪造的,并非 Swift 本人。为了阻止这些照片传播,X平台近日宣布,他们暂时屏蔽了对 Swift 名字的搜索功能。当用户搜索她的全名,或 taylorswift、Taylor Swift AI 等类似关键词时,就会收到系统发出的错误提示。

X平台的业务运营负责人 Joe Benarroch 表示,该举措是出于对安全的考虑,“这是一项临时行动,我们在处理这个问题时格外小心,以确保安全。”除了官方行动外,Swift 的粉丝们“Swifties”也在社交媒体上发起了一场 #ProtectTaylorSwift 运动,力图用正面形象取代这些不当内容,并报告分享这些深伪图像的帐户。

这些虚假且具有攻击性的图像使 Swift 成为 AI 虚假照片的最著名受害者,引起了科技界和反虐待团体的关注。深度伪造检测组织 Reality Defender 发现,X平台上出现了大量未经同意的涉及 Swift 的色情内容,其中一些还传播至 Facebook 等其他平台。研究人员指出,这些 AI 生成的图像多与美式足球相关,对 Swift 进行物化,有的图像甚至是对 Swift 造成暴力伤害,展示了被涂画或流血的她。

自 2019 年以来,由于相关技术的普及和易用性,深伪图像问题愈加严重,尤其是针对女性的攻击性内容愈演愈烈。AI 公司 DeepTrace Labs 的报告显示,好莱坞演员和韩国 K-pop 歌手是这类攻击的主要目标。

责任编辑:  
来源:  ABC7
点赞 (0)
脸书分享
微信分享
0条评论