AI检测器漏洞频现,催生“付费代写”骗局

编者按:在人工智能浪潮席卷全球的当下,一个令人不安的新骗局正在悄然滋生。当伊朗战地报道和百年文学经典都被AI检测器判定为“机器生成”,当“付费人工化”成为数据欺诈的标准化话术,我们面对的已不仅是技术误判,更是一场精心设计的信任围猎。虚假检测工具如同数字时代的炼金术士,将真实文字转化为“可疑数据”,再兜售昂贵的“净化服务”。这场骗局不仅侵蚀着学术诚信的基石,更成为政治抹黑的新型武器——匈牙利反对派的竞选纲领竟被执政党支持者用检测截图“定罪”。当康奈尔大学等顶尖学府无辜“被代言”,当百年经典在算法眼中沦为AI赝品,我们不得不警惕:在真相与谎言的灰色地带,这些打着科学旗号的检测器,是否正悄然编织着更大的谎言?
把一篇伊朗新闻报道或文学经典作品输入某些文本检测器,它们会给出相同的判定结果:AI生成。紧接着就会出现诱导信息:付费即可将文本“人工化”——专家指出这种模式明显带有诈骗特征。
当AI制造的虚假信息在社交媒体上爆炸式传播,其速度往往超越专业事实核查团队的处理能力,而伪劣检测器的出现,可能在这个本已支离破碎的信息生态系统中再添一层欺骗。
研究人员表示,尽管连可靠的AI检测器也可能产生误判,但网络上已涌现出一批欺诈工具,它们极易被武器化,用于诋毁真实内容并破坏声誉。
法新社事实核查团队发现了三款此类文本检测器,它们声称能估算文本中AI生成内容的百分比。这些工具在接收四种语言的文本输入后,不仅将真实文本误判为AI生成,还试图通过这些错误判定进行牟利。
其中一款名为JustDone AI的检测器在处理一篇关于美伊战争的人工撰写报告时,错误地得出“包含88%AI内容”的结论,随后提出付费即可清除所有AI痕迹。
该网站宣称“您的AI文本正在人工化”,随后跳转至付费页面——所谓“100%原创文本”被锁定在最高9.99美元的付费墙之后。
另外两款工具TextGuard和Refinely也出现类似误判,并试图借此盈利。
法新社向这三款检测器出示了调查结果。
TextGuard技术支持团队回应称:“我们的系统采用现代AI模型运行,所提供的结果在我们的技术范畴内被认为是准确的。同时,我们无法保证或与其他系统的结果进行比较。”
JustDone也重申“没有任何AI检测器能保证100%准确”,并承认其免费版检测器“由于高负荷及采用轻量化快速响应模型,可能提供精确度较低的结果”。
某评测平台的用户抱怨印证了法新社的发现:“即便是100%人工撰写的内容,JustDone仍会标记为AI生成。”
法新社向这些工具输入了多语种人工撰写样本(包括荷兰语、希腊语、匈牙利语和英语),所有文本均被错误标记为高AI含量,其中甚至包含1916年匈牙利经典文学段落。
这些工具对任何输入都会返回AI标记——包括无意义文本。
JustDone和Refinely甚至在断网状态下仍能运行,暗示其检测结果可能是预设脚本而非真实技术分析。
研究检测工具的德国学者德博拉·韦伯-伍尔夫指出:“这些根本不是AI检测器,而是兜售‘人工化’工具的骗局,其生成的所谓‘扭曲短语’往往充斥着无关术语或荒谬替代词。”
此类工具如何被用于诋毁个体?今年早些时候,匈牙利亲政府网红声称反对派的竞选纲领文件完全由AI生成,为支撑这一毫无根据的指控,他们在社交媒体传播JustDone检测结果的截图。
法新社测试的这些工具试图吸引学生和学者客户,其中两款声称用户来自康奈尔大学等顶尖机构。
康奈尔大学向法新社明确表示“与任何AI检测公司均无合作关系”,并指出:“生成式AI确实增加了学生使用非原创作品提交作业的风险,但检测技术不太可能为此提供可行解决方案,准确识别AI生成内容极为困难。”
包括法新社在内的核查机构常依赖专家开发的AI视觉检测工具,通过识别隐藏水印等数字线索进行判断,但这些工具同样可能出现误差,需要结合开源数据等证据进行补充验证。
不可靠检测器产生的误判风险极高,不仅可能全面削弱人们对AI验证的信任,更助长被研究者称为“骗子红利”的虚假信息策略——将真实内容污蔑为AI伪造。
虚假信息追踪机构NewsGuard的分析员瓦卡尔·里兹维警示:“我们常报道造假者利用AI伪造图像视频的现象,现在则观察到相反却同样危险的现象——将真实影像诬指为AI生成。”
本文由极观网原创发布,未经许可,不得转载!
本文链接:http://huioj.com/tech/22136.html