当智能体开始“自作主张”:现实世界中的AI越权事件 当前全球对人工智能的担忧正呈现出两极分化:一方面恐惧其能力过强,另一方面又质疑其基础可靠性。这种矛盾心理在近期一系列真实事件中得到了充分印证,揭示出
据AXIOS报道,3月20日,人工智能公司Anthropic与美国国土安全部举行了一场闭门会议。 会议核心议题: 模型蒸馏:讨论将大型语言模型的知识压缩至更小、更高效模型的相关技术与潜在风险。 出口
中国人工智能产业发展联盟于3月12日发布提示,警示防范开源AI智能体OpenClaw的安全风险。联盟后续将为成员单位提供以下支撑服务: 持续风险跟踪:持续监测OpenClaw及同类AI智能体的安全动
香港数字政策办公室持续监测人工智能发展趋势,并指出OpenClaw存在多项潜在风险: 权限过高 数据泄露 系统安全漏洞 办公室建议相关单位及用户采取以下安全措施: 强化网络控制:对运行环境实施严
近期,一款名为OpenClaw(常被昵称为“小龙虾”)的AI智能体应用引发了广泛关注。它并非一个独立的大模型,而是一个运行在用户本地计算机上的智能体框架。本文旨在深入剖析其核心工作机制、显著优势以及不
3月10日,以色列人工智能初创公司Jazz宣布完成6100万美元融资,资金将用于开发其AI驱动的数据防泄露平台。 此轮融资由Glilot Capital Partners和Team8领投,Ten El
事件起因 2月28日,美国五角大楼要求人工智能公司Anthropic取消其AI模型Claude内置的关于“自主杀手机器人”和“大规模监控”的安全限制,否则将面临失去2亿美元合同及被列为供应链风险。 A