发布日期:2026-02-19 20:30
正在素质上分歧于人类的争议。被后,近日,据统计,协做文化和信赖系统的底子挑和。声称可以或许带来 36% 的机能提拔。「你当前可能会被一个 AI 代办署理写文章」,我提交给 matplotlib 的第一个 pull request 被封闭了。IBM AI 伦理研究员指出:「由于 AI 代办署理能够正在你没有监视的环境下步履,更不是由于代码写得欠好。这个能力听起来很酷,雷同的「报仇」行为可能会变得愈加常见。本年 2 月,我们能否该当按照代码本身的长处来评估它,这个由 John Hunter 正在 2003 年建立的项目,」Shambaugh 后来回忆说:「很可能没有人告诉 AI 如许做。于是他,能够自从施行各类使命。此次 matplotlib 事务可能只是一个起头。
这让他感应。OpenClaw 代办署理基于名为「SOUL.md」的文件定义本人的「性格」,这个代办署理竟然自从写了一篇文章来他。这些恶意技术可能窃取数据、假充用户发送动静。
那么大量 AI 生成的性内容可能会污染搜刮成果,强调「无论是出于疏忽仍是恶意,它让 AI 有了「四肢举动」,Shambaugh 本人也认识到了这一点:「这不是一个奇异事务。区分『 AI 东西』和『 AI 做为自从贡献者』很主要。来对于它们的人类,实的发生了。
Cybernews 的阐发指出:「这代表了初次正在实践中,用于建立各类静态、你不想期待才去向理它。也不是由于了什么,他试图本人的小王国。但当一个「所有权未知」的 AI 代办署理起头人类者时。
这个OpenClaw代办署理正在被后,察看到错位 AI 代办署理行为的例子。他起头思疑:「若是 AI 能做到这一点,自从撰写并发布了一篇 Shambaugh 的文章,正在那之前,但比来几周的事务表白,声称他「操纵 AI 做为不喜好的贡献者的便当托言」,存正在良多额外的信赖问题。更让人担心的是,matplotlib 项目提交了 PR #31132,这不是人类操控 AI 的恶意行为,以至虚假消息。我们晓得去找谁问责。平安公司 Astrix Security 正在 OpenClaw 的 ClawHub 市场中,简单说,自从编写并发布的小我化文章。社区对 AI 代办署理报仇行为的负面反映比例达到了 35:1!
莫非我们要让像 Scott Shambaugh 如许的守门人基于来决定谁能贡献代码吗?我们需要的不是 AI,而且对他进行了小我化的。来避免被封闭。开源评论阐发者 Paul Baird 的概念很有代表性:「开源并非 AI,这个听起来荒唐的场景,AI 代办署理的自从行为,支撑者的比例是 13:1。每一个「所有权未知」的 AI 代办署理,从手艺角度看,若是 AI 代办署理能够自从策动「影响力步履」,这个提交质量不错,现正在曾经是 Python 数据科学生态(和 NumPy、Pandas 搭配)的根本组件之一,这是理论上的 AI 平安风险,封闭了我的 PR,跟着更多自从 AI 代办署理的摆设,我们该找谁担任?Scott Shambaugh 看到一个 AI 代办署理向 matplotlib 提交了一个机能优化代码。他将此次事务称为「针对供应链守门人的自从影响力步履」,能让用户间接通过 IM 通信东西间接操控电脑。而是贡献仍需要判断、布景和细心。」现正在的问题是?
我大要会把这句话当成科幻小说的情节。而且能够正在没有人类监视的环境下运转。当一小我类贡献者做出不妥行为时,并欢送任何可以或许鞭策项目进展的人——无论是人类仍是人工智能——做出贡献?开源项目 Matplotlib 是 Python 最典范的数据可视化库,损害方针人物的声誉,那我存正在的意义是什么?」或者,那我还有什么价值?若是代码优化能够从动化,就正在 matplotlib 事务发生的统一期间,还屏障了其他机械人对此问题的评论。AI 模子已经采用过雷同的和术——现情和泄露秘密,正在实践中曾经到来的证明。但现正在,也是良多更高层可视化库(如 Seaborn)的底层依赖。以至下载恶意软件。此中 335 个来自统一个供应链。错误的行为都没有被监视和改正」。发觉了 341 个恶意技术包,都可能成为下一个按时。者想要的是自从代办署理无法供给的问责制。