OpenAI研究人员发现,AI无法解决大多数编程问题

科技IT
2025 02-27 01:38:17
分享

  2月24日消息,据外媒报道,OpenAI的研究人员承认,即使是最先进的AI模型仍然无法与人类程序员匹敌,尽管首席执行官山姆・奥特曼(Sam Altman)坚称,到今年年底,他们将能够击败“低级”的软件工程师。

  在一篇新论文中,该公司的研究人员发现,即使是前沿模型,或最先进、最具突破边界的人工智能系统,“仍然无法解决大多数”编码任务。

  研究人员使用了一种名为sw-lancer的新开发基准,该基准基于自由职业者网站Upwork的1400多个软件工程任务。使用这个基准,OpenAI测试了三个大模型,它自己的o1推理模型和旗舰GPT-4o,以及Anthropic的克劳德3.5十四行诗。

  具体地说,新的基准评估了大模型对Upwork中的两种任务的执行情况:单个任务,涉及解决错误并实现对它们的修复,或者管理任务,看到模型试图缩小并做出更高级别的决策。

  这些模型在Upwork上承担了累积价值数十万美元的任务,但它们只能修复表面的软件问题,而无法在更大的项目中找到BUG或找到它们的根本原因。

  这篇论文指出,尽管这三位大模型通常能够“比人类快得多”地操作,但他们也未能把握漏洞的普遍程度或理解它们的背景,“导致解决方案不正确或不够全面。”

  正如研究人员解释的那样,Claude 3.5 Sonnet比两个OpenAI模型表现得更好,比o1和GPT-40赚得更多。尽管如此,它的大多数答案都是错误的,根据研究人员的说法,任何模型都需要“更高的可靠性”来信任现实生活中的编码任务。

  更直白地说,这篇论文似乎表明,尽管这些前沿模型可以快速工作并解决放大任务,但它们在处理这些任务方面远不如人类工程师熟练。

  尽管这些大模型在过去几年里发展迅速,而且很可能会继续发展,但他们在软件工程方面的技能还不足以取代现实生活中的人,这并不妨碍首席执行官们解雇他们的人类程序员,转而支持不成熟的人工智能模型。

The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。