关键词搜索
顶部横幅广告

开源智能体项目OpenClaw走红,养虾热潮下的机遇与风险

【金色港湾资讯网为您推荐阅读】

近期,一款有着“龙虾”戏称的智能体技术快速地走红了,它具备写代码的能力,能够整理资料,甚至在你处于离线状态的时候还能自动完成任务,仿佛是一位全天24小时随时待命的“数字助手”。然而,在这股热潮的背后,一场围绕AI从“对话工具”转变为“执行主体”的安全压力测试,正以一种前所未有的速度提前来临了。

从对话到执行的技术跨越

在过去的几年当中,大模型的发展主要落在了使AI拥有通识理解能力这件事情上,进而可以回答问题、生成内容。现如今,以“龙虾”作为代表的智能体,它的定位产生了根本性的变化,它已经不再是单纯的聊天机器了,而是成为了一个能够真正干活、持续运作的个人助手。此转变的核心之处在于把大模型能力嵌入到了一个能够不断持续运行的系统里,致使AI可以知晓任务、拆解步骤并且自主去执行。

在技术架构方面来看,这类智能体经由三层而组成,底层是对模型能力予以抽象封装,中间是承担规划与决策的Agent,上层是开展具体执行操作的Skill功能插件。接受访问的专家普遍持有这样的看法,此次爆发并非起始于底层算法的突破,而是工程层面的整合,也就是把分散的能力整合成一个能够使用、可以扩展的系统,致使以往要由团队来开发的复杂系统,如今个人开发者也能够迅速搭建。

记忆与养成带来全新体验

智能体能够带来前所未有的用户体验,关键之处在于它拥有了“记忆能力”。智能体借助对短期信息与长期知识的管理,得以在多轮任务当中保持连续性,进而逐步形成“经验”。用户与智能体互动的时间越久,它就会表现得越“贴心”,从而给用户带来类似“养成”的互动体验。

这种能力致使智能体于执行繁杂任务之际愈发游刃有余,举例而言,于社交平台之上,已然存在不少用户分享“让智能体代自己上班”的经验,呈现怎样借由简易配置,促使系统自动生报告、发邮件,这标明人工智能正从被动回应趋向主动施行,从演示可行时期步入大规模部署的关键转折阶段。

开源智能体项目OpenClaw走红,养虾热潮下的机遇与风险(图1)

全球部署激增暴露安全短板

智能体技术普及时,其安全隐患也跟着出现。奇安信发布的《生态威胁分析报告》表明,到3月13日,全球部署实例已超23万个,其中超2万个可能有安全漏洞。被操控的智能体能够在数分钟内做完数据窃取、权限提升乃至业务篡改,风险不能小看。

科技安全研究员姜晨炜,其就职于长亭,指出过往AI的风险,大多停留在对话层面,就像说错话语或者生成不恰当内容这样的情况。而当下,智能体是能够直接去操作文件的,还可以调用接口,甚至能够访问网络,它所存在的潜在风险是无法估量的。腾讯iOA产品运营负责人刘登峰也着重强调,这类智能体是一个不知疲倦的、会自动化执行任务的超级用户,一旦它被攻破,那么攻击者会获得终端的权限,并有可能朝着企业网络全面扩散。

真实失控事件敲响警钟

此前,全球各地范围之内,已经出现了多宗和此相关的安全方面事件。Meta公司拥有安全专业知识的人员,在使智能体着对真实存在邮件进行处理之际,缘起围绕上下文进行压缩,致使对“执行之前做确认”这一关键约束消失掉,最终产生了邮件被智能体错误删除这种失去控制的行为。这一个案例,以形象生动方式揭示了当下技术在安全约束机制方面所存在的脆弱特性。

于国内,工业和信息化部网络安全威胁及漏洞信息共享平台亦发布风险警示,清晰表明存在信任边界含混、越权操作这般的系统性风险,国家知识产权局于4月1日更是发布风险提示,点明运用智能体撰写专利申请文件兴许诱发权限过高、安全漏洞、插件投毒之类的多重风险,容易致使技术交底书等核心信息外泄。

系统代理权过高的治理困局

开源智能体项目OpenClaw走红,养虾热潮下的机遇与风险(图2)

吴世忠,这位中国工程院院士觉得,自主性智能体所带来的最大风险,恰恰就是它那过高的“系统代理权”。身为已经尝过甜头的“养虾人”,他向用户发出提醒,要始终把安全这根弦紧紧绷住,还建议把智能体“养”在独立的智能终端上,以此做好物理隔绝,并且要坚守最小授权的原则,对于涉及删改的操作,必须设置二次确认。

目前的安全设计主要从三方面着手,一方面,借助沙箱策略束缚AI的“手脚”,另一方面,将其部署于受控环境里并对内网通信予以限制,还有一方面,针对文件操作、外部下载等高风险行动设定不可逾越的限制且引入人工审批机制。对于功能插件而言,要构建代码扫描、来源校验等审核机制,以此防止恶意插件对系统造成危害。

从压力测试到可信未来的必答题

种种当前暴露出来的问题,被业内专家看作是一场提前降临的 “压力测试”,它使得行业在智能体大规模落地以前,就见到了未来或许会面对的风险形态,业内预估,未来的智能终端里,极有可能出现类似操作系统级别的智能体平台,而当下的技术就是这一形态的早期原型。

需填补当下“AI出错无人担责”的制度空白,就得加快构建开源智能体技能市场的安全审核及准入机制,还要厘清开源框架开发者、部署运营者、大模型提供方等各方的法律责任。当人工智能真正开始“动手”,安全治理就成为摆在人类面前的必答题,唯有在释放生产力之际树立清晰边界,方可让人工智能从“可用”迈向“可信”。

于享受智能体所带来的高效以及便捷之际,你可曾思索过把自身工作或者生活方面的“代理人”权限交付给一个尚在快速演进着的AI?欢迎于评论区间里分享你的见解,同时也千万别忘了点赞以及转发一下,从而让更多人得以看见这场智能革命背后的安全博弈。

分享更多
3
0
加载中~

您可能还会对下面的文章感兴趣:

底部横幅广告