一项发表于《科学》期刊的最新研究警告,网络虚假信息活动正转向由自主人工智能“集群”驱动,其模仿人类、实时适应环境的能力,使得检测和阻止变得空前复杂。

研究团队来自牛津大学、剑桥大学、加州大学伯克利分校等机构。报告指出,与过去短暂的政治操纵行动不同,AI集群能长期营造特定叙事,使数字环境中的操纵行为更难以识别。

AI集群的威胁

  • 高度协同:AI集群由多个自主智能体组成,能协同工作,比单个系统更高效地达成目标。
  • 利用平台弱点:它们利用了社交媒体平台固有的弱点,例如信息茧房和以参与度为导向的算法,这些算法会放大分裂性内容。
  • 难以检测:早期的僵尸网络依赖规模,易于识别;而AI集群展现出“前所未有的自主性、协调性和规模”,其账户越来越难以与真实用户区分。

专家观点
南加州大学教授兼Sahara AI首席执行官Sean Ren指出,单纯的内容审核已不足以应对。关键在于平台如何大规模管理身份。

  • 核心建议:推行更严格的“了解你的客户”(KYC)和账户身份验证机制,增加协同操纵者获取大量账户的难度。
  • 效果:即使单个帖子看似真实,限制账户数量也能更容易地发现并封禁可疑的协同行为。

挑战与出路
研究人员认为没有单一的解决方案。潜在方向包括改进对统计异常协调的检测、提高自动化活动的透明度。然而,仅靠技术措施可能不够,因为经济利益仍是此类攻击的持续驱动力。平台需强化KYC和垃圾邮件检测机制,以识别被操纵的账户。


🔥 实时行情点位,群内抢先看!

进群蹲精准做单提示→青岚免费交易社群 (电报)

以上仅为青岚姐个人观点,不作为投资建议,交易需谨慎|本文由青岚加密课堂整理优化