Skip to content

诺姆·乔姆斯基谈ChatGPT的真正用途

原文翻译

人工智能(AI)正在席卷全球。它正在改变生活的方方面面,并在此过程中引发了重大的伦理问题,这些问题关乎社会和人类未来的命运。ChatGPT,这个在社交媒体上占据主导地位的人工智能聊天机器人,是由OpenAI开发的。它是机器学习的一个分支,依赖于所谓的大型语言模型,能够生成类似人类的回应。这种技术的潜在应用范围确实是巨大的,这也是为什么已经有呼声要求对像ChatGPT这样的人工智能进行监管。

人工智能能否超越人类的智慧?它是否对公众构成威胁?事实上,人工智能是否可能成为一种生存威胁?世界顶尖的语言学家诺姆·乔姆斯基,也是有史以来最受尊敬的公共知识分子之一,其学术地位可与伽利略、牛顿和笛卡尔相媲美,在接下来的采访中,他将解答这些令人烦恼的问题。

C. J. 波利克罗尼奥:作为一门科学学科,人工智能(AI)可以追溯到20世纪50年代,但在过去的几十年里,它已经在各种领域取得了进展,包括银行、保险、汽车制造、音乐和国防。事实上,在某些情况下,人工智能技术的表现已经超越了人类的能力,例如在国际象棋比赛中。机器有可能变得比人类更聪明吗?

诺姆·乔姆斯基:先澄清一下术语,“机器”在这里指的是程序,基本上是一种可以用计算机执行的符号编写的理论——这是一种在某些有趣的方式上与众不同的理论,我们可以在这里先不讨论。

我们可以大致区分一下纯工程学和科学。虽然两者之间没有明确的界限,但这是一个有用的初步近似。纯工程学旨在生产某种有用的产品。科学则寻求理解。如果主题是人类智能,或者是其他生物的认知能力,科学寻求理解这些生物系统。

据我所知,人工智能的创始人——艾伦·图灵、赫伯特·西蒙、马文·明斯基等人——将它视为科学,视为当时新兴的认知科学的一部分,利用新的技术以及计算理论的数学发现来推进理解。多年来,这些关注点逐渐淡化,并且在很大程度上被工程学取向所取代。早期的关注点现在通常被轻蔑地称为GOFAI——好的老式人工智能。

回到问题上来,是否有可能开发出超越人类能力的程序?我们得小心“能力”这个词,稍后我会回到这一点。但如果我们把“能力”理解为人类的表现,那么答案是:肯定的。事实上,它们早就存在了:例如笔记本电脑里的计算器。它之所以能够远远超出人类的能力,仅仅是因为人类缺乏时间和记忆。对于像国际象棋这样的封闭系统,在20世纪50年代人们就已经明白,迟早,随着大规模计算能力的进步和长期的准备,可以开发出一个程序来击败在时间和记忆受限的情况下下棋的国际象棋大师。多年后的成就基本上是IBM的公关活动。许多生物在认知能力上远远超出人类,不仅仅是表现上。我后院的沙漠蚂蚁大脑微小,但在原则上,它们的导航能力远远超过人类,不仅仅是表现上。人类并不是处于顶端的“伟大的存在之链”。

人工智能工程的产品被用于许多领域,是好是坏都有。即使是简单而熟悉的程序也相当有用:在语言领域,像自动填充、实时转录、谷歌翻译等程序。有了更强大的计算能力和更复杂的编程,应该还有其他有用的应用,尤其是在科学领域。已经有一些了:协助研究蛋白质折叠是一个最近的案例,大规模和快速的搜索技术帮助科学家解决了这个关键且棘手的问题。

工程学项目可能有用,也可能有害。在人工智能工程中,这两个问题都存在。目前对大型语言模型(LLMs)的研究,包括聊天机器人,提供了用于传播虚假信息、诽谤和误导无知者的工具。当它们与人工图像和声音复制结合起来时,威胁就更大了。出于不同的考虑,数以万计的人工智能研究人员最近呼吁暂停开发,因为他们感知到了潜在的危险。

正如往常一样,技术的潜在好处必须与潜在成本相权衡。

当我们转向人工智能和科学时,会出现完全不同的问题。在这里,我们需要谨慎,因为存在过度夸张和鲁莽的主张,这些主张常常被媒体放大。为了澄清问题,让我们考虑一些案例,有些是假设的,有些是真实的。

我提到了昆虫导航,这是一个令人惊叹的成就。昆虫科学家在研究它是如何实现的方面取得了很大的进展,尽管神经生理学是一个非常困难的问题,仍然难以捉摸,就像这些系统的进化一样。同样,鸟类和海龟令人惊叹的壮举也是如此,它们旅行数千英里并准确无误地返回原点。

假设汤姆·琼斯,一个工程人工智能的倡导者,走过来对我们说:“你们的工作都被推翻了。问题解决了。商业航空飞行员总是能取得相同甚至更好的结果。”

如果有人觉得有必要回应,我们也会觉得好笑。

再看看波利尼西亚人的航海壮举,这种壮举在土著部落中仍然存在,他们利用星星、风和洋流,将独木舟停靠在数百英里外指定的地点。这也是一个研究课题,研究他们是如何做到的。汤姆·琼斯给出了答案:“别浪费时间了;海军舰艇总是能做到。”

反应是一样的。

现在让我们来看一个真实的案例,语言习得。近年来,这一领域已经有了广泛且极具启发性的研究,研究表明婴儿对周围语言(或语言)有着非常丰富的知识,远远超出了他们在表现中所展现出来的。这种知识的获取几乎没有证据,而在一些关键情况下,根本没有任何证据。正如仔细的统计研究所表明的那样,可用的数据很少,特别是当考虑到词频(“齐普夫定律”)时。

汤姆·琼斯出现了:“你们被推翻了。无视你们的发现,扫描天文数字的数据以找到统计规律的LLMs,使得它们能够模拟它们所训练的数据,产生看起来非常像正常人类行为的东西。聊天机器人。”

这个案例与其他案例不同。首先,它是真实的。其次,人们不会觉得好笑;事实上,许多人被吓到了。第三,与假设案例不同,实际结果远非所声称的那样。

这些考虑提出了一个关于当前LLM热情的小问题:它的荒谬性,就像在假设案例中我们立刻就能认出来一样。但比荒谬性更严重的问题是,LLM系统的设计方式使得它们无法告诉我们任何关于语言、学习或其他认知方面的知识,这是一个原则问题,是不可弥补的。将扫描的太字节数翻倍,再增加一万亿个参数,使用更多的加州能源,模拟行为会有所改善,同时更清楚地揭示了这种方法在原则上无法产生任何理解的失败。原因是简单的:这些系统对婴儿无法习得的不可能语言和他们能快速且几乎本能地习得的语言同样有效。

这就像是一个生物学家说:“我有一个关于生物体的伟大新理论。它列出了一些存在的生物体和一些不可能存在的生物体,而我无法告诉你这两者之间的区别。”

再次,我们会觉得好笑。或者应该觉得好笑。

但汤姆·琼斯——现在指的是实际案例——坚持他与科学背道而驰的观点:“你怎么知道这些,直到你研究了所有语言?”此时,对正常科学的抛弃变得更加明显。按照同样的逻辑,我们可以抛弃遗传学和分子生物学、进化论,以及所有其他生物科学,它们只研究了极小一部分生物体。为了保险起见,我们还可以抛弃所有物理学。为什么要相信运动定律?有多少物体实际上被观察到在运动?

此外,还有关于举证责任的小问题。提出理论的人有责任证明它是有道理的,在这个案例中,就是要证明它对不可能的语言无效。这不是其他人的责任去反驳这个提议,尽管在这种情况下,反驳似乎很容易。

让我们将注意力转向正常的科学,在这里事情变得有趣。即使是单个语言习得的例子也能提供丰富的见解,以区分可能和不可能的语言。

原因很简单,也很熟悉。所有的生长和发展,包括所谓的“学习”,都是一个过程,从生物体的初始状态开始,逐步将其转变为后续阶段。

语言的习得就是这样一个过程。初始状态是语言能力的生物禀赋,显然存在,即使它像有些人认为的那样,是其他能力的特定组合。这不太可能,原因早已为人所知,但与我们目前的讨论无关,所以我们可以先把它放在一边。显然,人类有语言能力的生物禀赋。这是不言而喻的。

转变过程会过渡到一个相对稳定的状态,之后只会发生一些表面的变化:对语言的了解。外部数据触发并部分塑造了这个过程。通过研究达到的状态(对语言的了解)和外部数据,我们可以得出关于初始状态的深远结论,即使语言习得成为可能的生物禀赋。关于初始状态的结论强加了一个区分,即可能和不可能的语言之间的区别。这个区别适用于所有拥有初始状态的人——据我们所知,是所有人类;在习得语言的能力上,似乎没有现存人类群体之间的差异。

所有这些都是正常的科学,并且已经取得了许多成果。

实验表明,稳定状态在三到四岁时就基本达到了。人们也已经很好地确定,语言能力具有人类特有的基本属性,因此它是一个真正的物种属性:为人类群体所共有,并且在根本上是人类独有的属性。

在这个简化的描述中,省略了很多内容,尤其是自然法则在生长和发展中的作用:在像语言这样的计算系统中,是计算效率的原则。但这就是问题的本质。再次,这是正常的科学。

重要的是要清楚亚里士多德关于知识的拥有和知识的使用之间的区别(用当代术语来说,就是能力与表现)。在语言的情况下,达到的稳定状态是知识的拥有,在大脑中编码。内部系统决定了一个无界的、结构化的表达式数组,每一个都可以被视为表达了一个思想,每一个都可以通过某种感觉运动系统外化,通常是声音,尽管也可能是手势,甚至是(有困难地)触觉。

在知识的使用(表现)中会访问到内部编码的系统。表现包括在思考中内部使用语言:反思、计划、回忆,以及更多。从统计学的角度来看,这是语言使用的主要部分。它无法通过内省来获取,尽管我们可以通过科学的正常方法,从“外部”来了解很多。所谓的“内心独白”,实际上是被抑制了发音器官的外化语言的片段。它只是内部使用语言的一个遥远的反映,这里我无法深入探讨这些重要的问题。

语言的其他使用形式是感知(解析)和产出,后者涉及的属性对我们来说仍然像在现代科学黎明时期被伽利略和他的同时代人视为神奇和令人惊叹的一样神秘。

科学的主要目标是发现内部系统,既包括人类语言能力中的初始状态,也包括在习得过程中它所呈现的特定形式。在我们理解了这个内部系统之后,我们可以进一步研究它是如何进入表现的,与许多其他进入语言使用因素相互作用。

表现的数据为了解内部系统的性质提供了证据,尤其是当它们通过实验进行提炼时,就像在标准的实地工作中一样。但即使是最大量的数据收集也必然在关键方面具有误导性。它只关注通常产生的内容,而不是大脑中编码的语言知识,这是那些想要了解语言的本质及其使用的主要研究对象。这个内部对象决定了无限多的可能性,这些可能性在正常行为中不会被使用,因为存在与语言无关的因素,如短期记忆限制,这些话题在60年前就已经被研究过了。观察到的数据还将包括许多大脑中编码的系统之外的内容,通常是出于修辞目的而违反规则的有意识的语言使用。这些都是所有实地工作者都知道的常识,他们依靠与信息提供者的引出技术,基本上是实验,来产生一个经过提炼的语料库,排除了不相关的限制和异常表达。当语言学家自己作为信息提供者时也是如此,这是一种完全合理且正常的程序,在心理学史上一直如此。

进一步进行正常的科学探索,我们发现语言的内部过程和元素无法通过观察现象来检测。通常这些元素甚至不会出现在语言(或写作)中,尽管它们的效果,往往是微妙的,可以被检测到。这是另一个原因,为什么限制在观察现象上,就像在LLM方法中一样,严重限制了对语言本质、其习得和使用的核心探究对象——内部过程的理解。但如果已经放弃了对科学和理解的关心,转而追求其他目标,那么这就不相关了。

更广泛地说,在科学领域,数千年来,人们一直通过实验——通常是思想实验——来得出结论,每个实验都是对现象的一种激进的抽象。实验是由理论驱动的,旨在抛弃进入观察现象的无数无关因素——就像语言表现一样。所有这些都是如此基础,以至于很少被讨论。并且是熟悉的。如上所述,基本的区别可以追溯到亚里士多德关于知识的拥有和知识的使用之间的区别。前者是研究的核心对象。次要的(但相当严肃的)研究调查了内部存储的知识体系是如何在表现中使用的,以及许多进入直接观察的非语言因素。

我们还可以回忆一下进化生物学家西奥多西斯·多布赞斯基的观察,他主要以对果蝇的研究而闻名:每个物种都是独特的,而人类是最独特的。如果我们对了解我们是什么样的生物感兴趣——遵循2500年前德尔斐神谕的劝诫——我们将主要关注使人类成为最独特的因素,主要是语言和思想,它们紧密相连,正如一个丰富的传统所认识到的那样,这个传统可以追溯到古典希腊和印度。大多数行为是相当常规的,因此在某种程度上是可以预测的。真正能提供对我们独特性的深刻见解的是那些非常规的行为,我们有时通过实验发现,有时通过观察,从普通孩子到伟大的艺术家和科学家。

最后再补充一点。一个世纪以来,社会一直受到大规模企业运动的困扰,这些运动鼓励人们轻视科学,这些话题已经被娜奥米·奥雷斯克斯等人广泛研究。这一切始于那些产品致命的公司:铅、烟草、石棉,后来是化石燃料。它们的动机是可以理解的。在资本主义社会中,企业的目标是利润,而不是人类福祉。这是一个制度事实:如果你不参与游戏,你就会出局,被一个愿意参与的人取代。

公司的公关部门很早就认识到,否认其产品致命影响的日益增长的科学证据将是一个错误。那很容易被反驳。更好的办法是播下怀疑的种子,鼓励不确定性,轻视这些尖头尖脑的家伙,他们从未粉刷过房子,却从华盛顿下来告诉我不要使用含铅油漆,毁了我的生意(这是一个真实案例,很容易就能找到更多)。这已经太成功了。现在,它正把我们引向一条毁灭地球上人类文明的道路。

在知识界,后现代对科学的批判也产生了类似的效果,尽管让·布里蒙特和艾伦·索卡尔已经对它进行了批判,但它在某些圈子中仍然很有活力。

也许我不应该提出这个问题,但我认为,公平地说,汤姆·琼斯们以及那些不加批判地重复甚至放大他们轻率声明的人,是否在助长同样的有害倾向?

CJP:ChatGPT是一个自然语言驱动的聊天机器人,它使用人工智能来实现类似人类的对话。在最近《纽约时报》的一篇文章中,你和另外两位作者一起,认为新的聊天机器人是炒作,因为它们无法与人类的语言能力相匹配。然而,未来的人工智能创新是否有可能产生在工程学项目上与人类能力相匹配甚至超越人类能力的产品呢?

NC:文章的实际作者应该是杰弗里·瓦图穆利,他是一位杰出的数学家、语言学家和哲学家。另外两位被列为共同作者的人是顾问,他们同意文章的观点,但并没有撰写它。

确实,聊天机器人从原则上就无法与人类的语言能力相匹配,原因如上所述。它们的基本设计阻止了它们达到人类语言理论的最低条件:区分可能和不可能的语言。由于这是设计的一个属性,因此它不能通过这种人工智能的未来创新来克服。然而,未来工程学项目在人类行动能力方面与人类能力相匹配甚至超越人类能力是完全有可能的,正如上文提到的,自动计算器就是一个例子。更有趣的是,如上所述,大脑微小的昆虫在能力上超越了人类,这里的“能力”指的是人类的语言能力。

CJP:在上述文章中,还观察到今天的人工智能项目不具备人类的道德能力。这一明显的事实是否使人工智能机器人对人类种族的威胁减小了?我认为,这种说法可能是,它使它们对人类的威胁更大。

NC:这确实是一个明显的事实,这里的“道德能力”是广义上的。除非仔细控制,否则人工智能工程可能会带来严重的威胁。例如,假设患者的护理实现了自动化。不可避免的错误,这些错误本可以通过人类的判断来克服,可能会引发一场灾难。或者假设人类被排除在评估自动化导弹防御系统所确定的威胁之外。正如一段令人震惊的历史记录所告知我们的那样,那将是人类文明的终结。

CJP:欧洲的监管机构和执法机构对ChatGPT的传播表示担忧,而最近提交的一份欧盟立法正在尝试通过根据这些工具所感知的风险水平对它们进行分类来处理人工智能。你是否同意那些认为ChatGPT构成严重公共威胁的人?此外,你真的认为可以暂停人工智能工具的进一步发展,直到引入了保障措施吗?

NC:我很容易就能同情那些试图控制先进技术带来的威胁的努力,包括这个案例。然而,我对这样做的可能性持怀疑态度。我怀疑这个精灵已经出了瓶子。恶意行为者——无论是机构还是个人——可能都能找到绕过保障措施的方法。当然,这种怀疑并不是我们不去尝试、不去保持警惕的理由。

人物介绍

Noam Chomsky

Noam Chomsky(艾弗拉姆·诺姆·乔姆斯基),1928年12月7日出生于美国宾夕法尼亚州费城,是麻省理工学院语言学的荣誉退休教授。他被认为是现代语言学之父,其理论在语言学、心理学、哲学等多个领域产生了深远影响。乔姆斯基的《生成语法》被认为是20世纪理论语言学研究上最伟大的贡献之一。此外,他还在政治领域非常活跃,是一位著名的社会批评家和政治活动家,以其对美国政府的批评而闻名。

乔姆斯基在宾夕法尼亚大学获得学士、硕士和博士学位后,于1955年加入麻省理工学院,成为语言学和哲学系的教授。他在语言学领域的贡献包括提出生成语法理论和建立乔姆斯基层级,这些理论对语言学和认知科学产生了深远影响。乔姆斯基还因其在政治领域的批评和活动而闻名,他反对美国参与越南战争,并在1967年发表的《知识分子的责任》一文中,对美国的帝国主义行为进行了批判。

C.J. Polychroniou

C.J. Polychroniou是一位政治学家、政治经济学家、作家和记者,曾在欧洲和美国的多所大学和研究中心任教和工作。他的主要研究兴趣包括美国政治、美国政治经济学、欧洲经济一体化、全球化、气候变化和环境经济学,以及对新自由主义政治经济项目的解构。