参考封面|人工智能发展面临关键选择
创始人
2025-06-16 18:01:32

参考消息网6月16日报道英国《展望》月刊7月号(提前出版)刊登题为《人工智能的最大秘密:我们可以塑造它》的文章,作者为美国麻省理工学院教授、诺贝尔经济学奖得主达龙·阿杰姆奥卢。全文摘编如下:

几乎所有技术界业内人士和许多科技新闻从业者都认为,未来必定会实现“强大的人工智能”或通用人工智能(AGI)。人们对此前景喜忧参半。一些人认为,通用人工智能是社会走向极大丰富的必经之路,另一些人则担心如此强大的人工智能可能会反噬人类,或者至少会给我们带来危险。

在这些讨论中,有一个词被忽略了:选择。

人工智能将对社会、劳动力与就业、错误信息与民主以及地缘政治紧张局势产生什么样的影响,与我们在开发这项前途光明的新生技术时所做的选择息息相关。

我们至少面临四种选择,它们之间是相互关联的。第一种是在通用人工智能与为给人类当辅助工具而设计的人工智能之间作对比。第二种重点考虑要实现人类任务的自动化,还是人类能力的扩展。第三种是比较大型通用模型与特定领域模型,前者的主要代表是“基础模型”,也就是开放人工智能研究中心(OpenAI)用来驱动ChatGPT的那种模型;后者的设计目的则是只做好一件事即可。第四种是讨论人工智能是在国际冲突中得到开发,还是在有限的合作中发展。

四种选择

虽然许多行业人士一再声称实现通用人工智能指日可待,但更大的问题是,这个目标真的值得追求吗?

从计算机科学和人工智能诞生之初,关于通用人工智能的梦想就一直存在,图灵等领军人物早在1949年就提出过,后来人工智能领域早期奠基人之一马文·明斯基在20世纪60年代曾试图付诸实践,却反复受挫。但他在1970年接受《时代》周刊采访时说:“三到八年内,我们将拥有一台具有普通人智力的机器。它能阅读莎士比亚的作品、给车加油、搞办公室政治、讲笑话、打架。它还会以惊人的速度开始自学,几个月后,它将达到天才的水平,然后再过几个月它的能力将无法估量。”

如今,生成式人工智能复活了这些梦想,并赋予它们更多现实意义,尽管通用人工智能在当前的架构和方法下能否实现还存在争议。

关键问题在于是要致力于发展通用人工智能,还是要努力实现机器增强人类能力。你可能会认为,从技术角度看,后者处于不利地位,那你就错了。以人机互补为核心的理念,而不是通用智能的模糊理论,催生了我们今天日常依赖的技术:电脑鼠标、菜单驱动式计算机、超链接、超文本,当然别忘了还有互联网。

还要记住重要的一点,即便通用人工智能在短期内还无法实现,对它不遗余力的追求也可能造成重大危害,例如会让人忽视提升人类能力的其他方向。

第二个选择关注的是当人工智能驱动的商业产品开发出来时,它们是主要致力于将人类任务的自动化,还是为人类工作者创造新的任务和能力。

从之前广泛应用于办公室和工厂作业自动化的数字技术可以看出,这种自动化潮流一定程度上能提高利润和生产率,但也加剧了不平等,它导致美国大量劳动力的实际工资持续下降。

更糟的是人们会不遗余力地追求自动化。人工智能还没为自动化潮流做好准备,但围绕人工智能的种种宣传铺天盖地,在这种氛围中,不难想象有多少企业急于跟风,尽管他们并不了解人工智能具体能给工作带来什么帮助,也没有想好怎么调整企业组织,让人工智能和人类员工能协同工作。

第三个选择关乎架构。目前大部分研究集中在GPT这样的通用大模型上,这种基础模型可以一边写莎士比亚十四行诗,一边为护肤霜写广告营销文案。另一个选项是针对特定领域的模型,最著名的成功案例是“阿尔法折叠”程序,它能预测蛋白质的三维结构,但不会推销护肤霜,你也别向它寻求约会建议。

如果人工智能是百事通,要想从它那里获得深层次的专业知识并不容易。可以合理推测,当人工智能被要求处理并整合多种来源的大量差异信息时,它更有可能产生幻觉,向客户提供错误的答案。

因此,投资特定领域模型还是值得的,尤其是考虑到基础模型还挣不到什么钱。因为除编程之外,基础模型似乎还没有开发出任何对商业领域特别有用的应用程序。

最后,第四种选择,在人工智能的发展方向上,不同国家之间,可以采取零和的方式,也可以进行更多的信息共享和共同监管。目前,国际社会选择了前者。

两大原因

我并不完全赞同当前人们做出的选择。人工智能可以提高人类的能力,从而产生更积极的社会影响。要实现这个目标,特定领域的模型更合适,它使用高质量的数据,嵌入训练有素、经验丰富的人类工作者的专业知识。而如果我们的目标是提高生产力,寻找从流行病到癌症等共同问题的解决办法,那么中美两国(以及任何其他国家)之间就有很大的合作空间。那么,为什么我们会被当前的这些方法所束缚呢?我认为主要有两个原因,第一个是经济上的,第二个是意识形态上的。

从经济方面看,任何技术都需要企业的支持,而硅谷的公司是新数字技术的天然投资者,它们具备有效推广这些技术的能力和经验。硅谷巨头们知道怎么把可用于数字广告的自动化技术和工具商业化。但对他们来说,在缺乏商业知识或明确市场的情况下,怎么从与人类互补的辅助技术中赚大钱就不太明确了。

科技巨头从用户那里采集大量数据却无需付费,相当于为他们的关键投入获得大量隐性补贴,这也有力推动了对人工智能的现行主流决策。

意识形态因素也许更重要。相信机器能够并应该最终超越人类是一种意识形态,它可能建立在数学和哲学基础上,也可能是科幻书籍和电影看多了的结果。

但更常见的情况是一种隐晦的意图:真正的潜台词可能并不是机器应该超越和主宰所有人类,而是由少数人设计和控制的机器应该统治其他人。因此,目前人工智能决策中隐藏着一种精英主义,本质上是专制的意识形态,它让技术成为一小撮人实现宏伟梦想的工具。

探索新路

还有一种选择:从技术层面来看是可行的,从社会角度来看也是有益的,那就是为人工智能设定一条不同的发展道路。

如果我们的目标不是通用人工智能,而是那种为人类服务的人工智能工具,那么我们就该努力开发有利于工人的人工智能,而不是大搞自动化。我们追求的人工智能可以扩展人类的能力,赋予工人权力。我们不该无休止地追求越来越大的模型,而应该努力用更多的专业知识和更高质量的数据来构建特定领域的模型。如果我们摒弃当前决策圈和硅谷盛行的简单零和思维,尝试找到一种更具合作性的方法来发展和监管全球人工智能,或许会取得更有效的成果。

我们不能指望目前的发展路径自动进行自我修正。国家、社会、劳工运动、监管机构和独立分析师必须携手合作,来改善关于发展人工智能的叙事,制定研究议程和监管框架,来支持人工智能朝着更有益于社会的方向发展。

我们可以采取一些必要的措施。但最重要的是,人工智能研究人员本身需要认识到,他们所做的每一个选择都会产生社会和伦理后果。也许没有绝对的正确和绝对的错误,但只要选择就会产生后果,结果有好有坏,有的甚至糟透了。对人工智能做出决策的人负有责任,无论他们是工程师,还是企业家。(编译/戴晓峥)

英国《展望》月刊7月号(提前出版)封面

相关内容

热门资讯

大屏幕电视机哪个品牌好?京东方... 周末的晚上,客厅永远是一个多线程运行的地方:有人窝在沙发正中准备刷一集又一集的爆款剧,有人抱着手柄进...
林草生态水文水质监测站 为实现... 林草生态水文水质监测站使用背景 在生态文明建设向纵深推进、林草生态系统保护与修复纳入国家生态安全战略...
北京小草互联网医院可以轻松挂号... 在追求美好生活的道路上,健康是基石,然而复杂的就医流程却常成为负担。为响应时代呼唤,北京小草互联网医...
机构:看好脑机接口产业投资机会 12月11日,工业和信息化部脑机接口标准化技术委员会(MIIT/TC4)与全国信息技术标准化技术委员...
科交会现场揭秘!科研成果转化的... 12月15日至17日,由教育部高等学校科学研究发展中心与全国高校区域技术转移转化中心(粤港澳大湾区)...