你“养过虾”吗? OpenClaw是一个开源代理项目,最近迅速流行起来。由于其标志是红色龙虾,因此在日本被亲切地称为“龙虾”。与传统的对话式人工智能应用不同,它的定位是“真正工作并持续工作的个人助理”。越来越多的人,从技术社区到企业,从开发者到日常用户,开始“养虾”。您可以编写代码、组织信息、生成定期报告,甚至在离线状态下也可以自动完成任务。是名副其实的24小时“数字助理”。在社交平台上,有人分享了“让机器人做事”的经验,以及如何通过简单的设置,系统自动生成报告和发送电子邮件。在“龙虾”崛起的背后,以OpenClaw为代表的代理人正在推动人工智能从“对话工具”向“行动者”的转变。中国人民大学高瓴人工智能学院副教授林扬凯表示:“我们正处于智能代理技术从‘示范’向‘大规模部署’过渡的关键时期。”但与此同时,问题也出现了。国家知识产权局4月1日发布风险提示,表示利用智能代理准备专利申请可能带来多重风险。随着一系列安全警告的出现,人们不再仅仅担心是否会出现问题,而是开始怀疑事情是否失控以及是否可以信任。对技术的热情和对安全的担忧同时被放大。我 OpenClaw 到底是什么?怎么现在就爆发了?您准备好面对所涉及的风险了吗?人工智能已经从响应转变为行动。 “上周末我去崇礼滑雪。在缆车上,我意识到我有一些任务还没完成,我立即通过手机屏幕将它们分配给“龙虾”。经过一番交谈后,自动生成了一个文件,并以我独特的语气和风格发送给我的同事。收到的反馈基本达到了我们的要求。”字节跳动飞书研发工程师杨一哲讲述了他的“养虾”经历。流行的OpenClaw密码就隐藏在这个简单的场景中,让它为你做事。近年来,大规模模型的开发主要停留在这个阶段。通过大量的数据训练,AI能够具备像人类一般的理解能力来回答问题和生成内容。OpenClaw让AI跨越了这个边界,而不是简单地调用模型来生成内容。响应,它将这些功能集成到一个系统中,让AI能够理解任务、分解步骤并自主执行,这更像是一个新的基础设施,一个围绕智能运行的“操作系统”。清华大学计算机学院教授、壁面智能联合创始人兼首席研究员刘志远表示,igent 代理。从这个层面来看,人工智能具有非常重要的技术示范意义。从结构上来说,它由三层组成。底层是模型功能的抽象封装,中间层是负责规划和决策的代理,顶层是执行特定操作的技能(功能补充)。但值得注意的是,接受采访的专家普遍认为,OpenClaw的出现并不是底层算法突破的结果,无论是语言理解还是代码生成,核心仍然依赖于现有的大规模模型系统。真正的改变发生在工程层面。它是一种将原始分布式功能集成到可用、可扩展和可持续的操作系统中的方法。这个陈ge不易被发现,但却非常“致命”,因为它直接降低了以前需要团队开发的复杂系统的使用门槛。现在个人开发者也可以快速创建Stem。 OpenClaw之所以如此受欢迎,是技术成熟和需求混合的结果。另一方面,大型模型在工具的调用和任务的执行方面已经跨过了“可用”的门槛,不再停留在演示阶段。与此同时,围绕人工智能的工具链已经逐渐成熟,复杂的功能可以像积木一样组装和使用。与此同时,用户的认知也在发生变化。人们不再满足于第一次对话,并开始将人工智能视为工作“匹配”。更重要的是,代理具有“记忆能力”,可以为用户提供丰富的体验。通过管理短期信息和长期知识,智能体可以保持多个过程的连续性。多轮任务,逐渐形成“经验”。互动时间越长,表现就会越“亲密”。这些因素结合在一起,使得 OpenClaw 有别于传统的 AI 产品。这种技术进步解放双手的体验已经渗透到许多人的日常生活和工作中。高特权伴随着巨大风险。虽然是“入侵物种”,但OpenClaw进入中国后迅速蔓延并引起关注。国内厂商正在努力将安装服务做到“一键安装”,一些互联网公司则推出“白痴式”配置方案。我们还将 OpenClaw 集成到我们的即时通讯软件中。一个不可忽视的因素是,国内养虾成本远低于国外。研究报告指出,国内机型的API(应用程序编程接口)调用价格约为国外同类产品的六分之一。这种优势得益于更便宜的功耗、更灵活的硬件配置以及国家算力背后模型厂商之间的激烈竞争。由于入门门槛低、人气爆棚,“龙虾”已经登上了AI的顶峰。然而,一旦人工智能开始“在野外”使用,风险就会加倍。奇安信公布的“OpenC” 根据Law的生态威胁分析报告,截至3月13日,全球部署的OpenClaw实例超过23万个,其中超过2万个实例可能存在安全漏洞。受操纵的代理可以窃取数据、升级权限,甚至在几分钟内扰乱您的业务。 “OpenClaw 不仅引入了更多安全漏洞,而且还扩大了整体风险范围。”长亭科技安全研究员姜晨伟表示:“以前,人工智能风险通常仅限于对话层,比如说错话或产生不适当的内容。但现在,代理可以腾讯iOS产品业务总监刘登峰表示,企业一直在防御“系统攻击”,但从现在开始,他们将不得不面对“系统攻击”。这意味着“系统受到攻击”。“像‘龙虾’这样的代理是一个不知疲倦、自动执行的超级用户。”如果安装了‘龙虾’的设备被攻破,攻击者可以完全访问设备的计算机,并可以横向渗透并传播到公司内的所有网络终端和服务器,带来重大的安全风险是供应链污染和滥用。刘登峰解释说,攻击者可以将恶意文件伪装成普通的技能,例如.dump文件格式或检查天气信息,这对于普通用户甚至企业级员工来说很难辨别。世界各地都曾发生过这种情况。例如,当 Meta 的安全专家要求 OpenClaw 处理真实电子邮件时,他们发现由于上下文压缩而错过了关键的“执行前提交”约束。这导致了无法控制的行为,导致代理意外删除电子邮件。国家层面,工信部网络安全漏洞威胁信息共享平台也发布风险预警,揭露OpenClaw存在信任边界模糊、未经授权操纵等系统风险。我们建议屏蔽不必要的公网访问,完善身份认证和安全审核机制,严格控制插件来源,持续关注安全补丁和更新。国家知识产权局发布更新的风险提示。 OpenClaw等智能代理存在权限过多等隐患、安全漏洞和插件中毒。如果用它们来准备申请文件,很容易泄露技术公开文件等基本信息。如果专利申请中的技术方案被泄露,则可能会失去新颖性而无法获得批准,或者可能被其他人抢先获得专利。因此,申请人应注意增强风险防范意识。 “技防+民防”构筑安全墙,“龙虾”走红,风险焦虑随之而来。在此背景下,围绕智能代理的安全保护必须从传统模式转向系统化治理。中国工程院院士吴世忠认为,自主智能带来的最大风险是过度的“系统独立性”。作为对此进行过测试的“龙虾养殖户”,他提醒用户时刻加强安全措施。建议用户将“龙虾”存放在单独的智能终端上,物理隔离他们,并尊重最小特权原则。您应该设置第二次确认,特别是对于涉及删除的操作。腾讯电脑管家高级产品经理董静特别提到,不要向AI暴露敏感信息,比如银行密码或云服务密钥,也不要让AI访问一些你不应该访问的服务和内网。在 IAA 上执行有风险的操作请务必先备份重要数据,然后再继续。平台还需要构筑坚固的防线。董静将其比喻为“建造一个人工智能看不见的细胞并将其困住”。这个“单元”是一个孤立的安全机制。董静介绍,腾讯电脑管家团队近期推出了AI安全沙箱功能“龙虾管家”。它主要处理三类问题。如果AI权力太大,沙盒政策就会束缚AI“成员”。它实时监控脚本是否被调用AI包含恶意指令等风险,并防止清理垃圾时误删除所有文件等事故。 OpenClaw自身迭代中出现的安全漏洞得到及时修复。 “‘龙虾管家’还提供人工智能操作的实时日志,让任何操作该操作的人都能一目了然地看到人工智能正在访问和调用什么,”Dongin 说。关于基础安全设计,蒋辰伟指出,代理应该部署在受控环境中,并结合限制与内网直接通信的网络隔离策略。还应该在运行时级别建立明确的安全边界。对于高风险行为,例如严酷的管家操作,应该设置不可逾越的界限。必须引入文件、外部下载和权限更改以及手动审批机制,以实现效率和安全性之间的必要平衡。对于功能插件系统,审核机甲必须建立代码扫描、源码验证等制度,防止恶意插件对系统的破坏。从逻辑上讲,真正的安全离不开制度的限制。 “在政策层面,加快建立健全开源代理安全治理体系。”赛迪研究院信息与软件产业研究院副院长黄文红表示:建议尽快探索发布开源代理的安全实施指南和行业标准,重点明确执行活动审计、敏感操作验证等关键环节的基本安全要求。对于政府关系、金融、医疗等敏感敏感领域,应实施更严格的部署准入和使用控制。同时,需要建立准入和安全审查机制尽快完善开源代理的哈比市场,加快研究开源代理自主运行的责任归属规则,明确开源框架开发者、部署运营者、大型模型提供者、技能发布者等的法律责任,填补目前“人工智能错误无人负责”的制度空白。 “OpenClaw 目前发现的各种问题是比故障更主动的‘压力测试’。”黄文宏认为,在大规模部署智能代理之前,行业将能够了解未来可能面临的风险类型。这次“养虾热潮”的重要性或许不在于事件本身,而在于它所指向的方向。行业专家预测,未来的智能设备很可能会在操作系统级别上实现智能平台,而 OpenClaw 的论文就是这种格式的第一个原型之一。人工智能是开始“实践”,安全治理是摆在人类面前必须回答的问题。只有在释放生产力的同时设定明确的界限,人工智能才能真正从“可用”走向“可信”。
(编辑:杨淼)