眼见不为实?AI正在改写现实,我们还能相信什么?

如果你还在社交媒体平台X上冲浪,最近可能刷到一场奇葩互怼。X平台的人工智能聊天机器人Grok,居然和一位辟谣专家杠上了,上演了一出诡异的“他说/它说”口水战。
开源情报分析师兼媒介素养专家塔尔·哈金,曾让Grok核实X上一则宣称伊朗导弹袭击特拉维夫的帖子。结果Grok不仅搞错了视频中的地点和日期,还死不认错,甚至用AI生成的图片来搪塞。
哈金当场拆穿,Grok居然回呛了一句带刺的话:“生成图片是为了直观展示规模,语境很清楚。战争会放大宣传;我用实时工具校准准确性。原始信息你自己交叉核对去。”
问题在于,现在没人知道该信谁——就连Grok口中的“原始信息”也不例外。
深度追踪
在现代战争中,数字前线——尤其是AI驱动的信息战——已成主战场。这不仅是利用AI识别目标;社交媒体上假信息泛滥,连官方账号都在转发AI篡改过的视频。
平台如何重获信任?在这个万物皆内容、争议博流量的时代,这太难了。
本周,负责审核Instagram和Facebook内容的监督委员会,喊话母公司meta必须加大力度,帮助用户识别AI生成内容。他们要求更强大的检测工具、更透明的媒体来源信息、更醒目的内容标签,还敦促meta制定政策,以更有效应对AI生成的欺诈内容。
这场喊话的起因,是监督委员会推翻了meta之前的一个决定:未给一则高风险AI内容打标签就任其传播。
那则争议帖子展示了建筑物损毁画面,声称是以色列海法的实时影像。尽管用户已举报,meta既未审核,也未转交第三方事实核查机构。案件最终上诉至监督委员会才被受理。
meta的解释是,该帖“未直接导致迫在眉睫的人身伤害风险”,因此不违反平台虚假信息社区准则。
虽然此案特指2025年的帖子,但类似内容在当今各大社交平台早已泛滥。
AI内容生产速度极快,传播更是光速。最新技术让小白用户也能轻松制作逼真视频,或篡改原片捏造事实。
专家们早就拉响警报。今年1月,AI与网络虚假信息研究者警告:下一阶段智能技术——AI智能体,本应改善生活并为科技公司赚大钱,却可能被用来对付我们。言论自由活动家玛丽亚·雷萨,及哈佛、牛津、耶鲁等机构的研究者指出,类人AI机器人可能被用于破坏民主,通过社交媒体和通讯渠道操纵舆论。
过去,机器人水军曾试图影响全球选举;想象一下,如果换成能像人一样反应、更擅长撒谎且更具说服力的AI智能体,效果会多可怕。
如果你对过去两周网上AI造假的数量感到震惊,说明你一直没留意。AI拥护者曾保证:AI有多聪明,打假系统就有多高明。可惜事实并非如此。
《纽约时报》测试了一批号称能鉴别真伪图像的工具,它们依赖隐藏水印、构图错误等线索识别。结果令人心凉:虽然揪出部分AI内容,但漏网之鱼也不少。
当低画质图像视频通过社交媒体传播时,打假难度更是直线上升。
AI能造出如此以假乱真的内容,已经够让人焦虑;更焦虑的是,本该识别并标记假货的系统频频失灵。虽然欧盟《人工智能法案》等法律能遏制部分恶劣行径,但无法覆盖所有场景。
或许最令人担忧且持久的影响是:我们再也无法相信眼前的证据,哪怕它看起来无比真实。真实事件可能被斥为AI生成的垃圾,导致我们所有人都有可能忽视重大事态发展。
保持怀疑是健康的,图像篡改也不是AI时代才有的。但AI生成的内容过于逼真,足以用它重写历史,而AI检测器可能永远无法将其标为胡扯。
当我们连自己的眼睛都无法相信时,就不得不时刻提防假货。而这,最终会让人精疲力尽。
本文由极观网原创发布,未经许可,不得转载!
本文链接:http://huioj.com/oth/12173.html