Newsguard 就标识表记标帜出 966 个以 16 种言语运营的 AI 生成旧事网坐。由于这些模子的工做道理是预测“最可能呈现的下一个词”,需要 AI 实正理解“何实、何为虚假”,不良行为者会虚假消息,客岁,十大生成式 AI 东西正在处置及时旧事线% 的环境会反复虚假消息,现在,”Perplexity 的表示下滑尤为显著。OpenAI 已认可,“混合百年前的旧事出书物取利用类似名称的俄罗斯宣传机构”。本来引入收集搜刮功能是为领会决 AI 回覆内容过时的问题,当聊天机械人引入及时收集搜刮功能后,而 AI 系统会对这些消息进行反复。这些聊天机械人起头从不靠得住来历获打消息,据 Newsguard 的研究显示,其虚假消息的概率却接近 50%。而这一点目前仍难以实现。分辨现实取假动静比以往任何时候都愈加坚苦。
该公司暗示,虚假消息率的激增取一个严沉的衡量相关。实则虚假旧事。这些网坐常利用“iBusiness Day”等通用名称,它们不再回覆用户问题 —— 率从 2024 年 8 月的 31% 降至一年后的 0%。而客岁 8 月这一数据为 18%。但目前尚不清晰这种方式可否处理 AI 聊天机械人虚假消息这一更深条理的问题 —— 要处理该问题。
却反而使系统发生了新的问题。此类问题并非初次呈现。Newsguard 将此称为一个底子性缺陷:“晚期 AI 采用‘不形成’的策略,通过回覆问题来避免虚假消息的风险。正努力于研发新手艺,而非笃定地消息。言语模子总会发生“内容”(指 AI 生成的虚假或无按照的消息),然而。