杨庆峰:ChatGPT的生成特性及其意义
2023年03月08日  |  来源:复旦发展研究院   |  阅读量:2370

随着聊天程序ChatGPT成为时下关注的焦点,人们意识到人工智能正在影响着各个领域与学科,正在成为推动人类文明进入一段新旅程的力量。复旦大学通识教育中心组织“人工智能”系列,邀请校内外不同领域的学者,从多学科视角入手、以平实的语言,尝试与读者一起了解有关人工智能的方方面面。以下是中国科协-复旦大学科技伦理与人类未来研究院杨庆峰教授的文章《ChatGPT的生成特性及其意义》。

ChatGPT是一种内容生成式的嵌入性工具,本文将重点讨论生成特性,对于嵌入不加讨论。生成主要是过程生成和内容生成。前者是算法的生成机制,后者是指借助算法进行话语、文本生成,如可以写电子邮件、书籍大纲和修改文章。可以说这项技术把我们正带入一个智能生成的时代,不断产生新物的过程。但是这个新物并不是存在之新,而是注意之新。换句话说,新是从旧的东西中发现未曾见过的过程,本质上仍是旧的东西,是重新注意的过程。最近乔姆斯基认为ChatGPT本质上是高科技剽窃,这引起了我们的关注,希望对此进行分析和反思。

01 ChatGPT能做什么?

我曾经询问过两个问题:第一个是“吃了吗”,第二个是数据伦理学的大纲。第一个问题多少是有些无聊和刁难,因为这是一个日常问题,对于ChatGPT来说,怎么回答都是有问题的。ChatGPT回答“吃了”,虽说回应了问题,却又给我们留下疑惑:ChatGPT不需要吃东西,当它回答吃了,是否意味着一种不诚实的表达呢?如果说它的回应只是回应一个问题,但是“吃了吗”很显然不是一个一般问题。大多数人都知道这只是打招呼用的,显示了人们在生活世界层面的交往。我们日常见面,“吃了吗”几乎是一句带疑问的问候,回答“吃了”也只是无实际内容的回应,更重要的是回应对方的问候。通过这种方式实现了人类之间的交流。我最担心它的回答是“吃了吃了”,带重复的两个回应那简直是人类一样的回应,而且这种回应最为精准地表达了一种问候的回应。很可惜,ChatGPT的“吃了”的回应是以一种常见方式回答了问题,而不是实现人与人之间的问候。另一个问题是让它生成一份数据伦理的教材大纲。很快,它给我们一份带有导论的大纲。说实话,当我看到生成的结果时有点震惊了,这个大纲像模像样。大纲包括导论和章节内容。导论说“当我们继续倚重技术和它生产的数据时,这种趋势的伦理意义逐渐变得重要。数据伦理是一个检验在搜集、存储、分析和使用数据过程中的研究领域。本大纲目的是提供数据伦理中关键问题和理念的面貌性概览,并对哲学的、社会的和技术方面做出勾勒。”可以看出导论简洁而清楚;章节包括七章,包括数据伦理介绍、数据搜集中的伦理问题、数据分析中的伦理问题、数据使用中的伦理问题、数据伦理方法、数据伦理中的新兴问题以及结论。这个大纲从专业角度看,确实有些窄了,紧扣数据处理的伦理问题进行生成而且不全。通过这两个问题可以确定ChatGPT作为一种智能生成工具,能够生成各式文本,能够借助生成的文本进行互动交流。

然而,乔姆斯基却不看好,他认为ChatGPT是从海量数据中发现规律,然后依据规则将数据进行连接,形成类似人写的内容,在此基础上他指出ChatGPT是剽窃工具。这个看法有些不准确。对于新的认识存在一种情况:新是从旧的东西中发现未曾见过的过程,换句话说,本质上仍是旧的东西,但却是重新注意的过程。AIGC使用了交叉注意力的机制,这种注意力机制可以执行自注意力提取和执行交叉注意力提取,从而确保了新的内容的出现。谷歌是从一篇《注意力就是你全部需要的》(Attention is all you need)提出了transformer。从Midjourney等看,这种生成也并非完全是一种剽窃,它可以生成图像,如2022年9月,杰森·艾伦(Jason Allen)使用AI工具Midjourney生成的绘画作品《太空歌剧院》在美国科罗纳州博览会上获得艺术比赛一等奖,它所生成的作品令人惊异。另外,从对话生成来说,它依靠算法的推理,所产生的结果并非是剽窃所能概括的。比如杨立昆(Yann LeCun)的增强语言模型(augmented language Models)在很大程度上依靠将一个潜在复杂任务分解成更简单子任务的推理。

02ChatGPT是否是颠覆性技术?

在描述第四次工业革命的时候,有一个概念是值得关注的,这就是数智时代。对这个概念我们给出两种解释,其一数智时代是数据和智能的并列,这是从国家战略的角度来说的,如今大数据与人工智能分别是国家重大科技战略,因此在地位上有种等同性。然而这种描述只是外在描述,而且没有把握住数据和智能的内在关联。从二者的内在关联就构成了第二种解释,即相关关系,对于智能体而言,智能的生成离不开数据。尽管有很多学者如斯图尔特·罗素(Stuart Russell)已经指出,更多的数据和更多的算力不能带来真正的智能。但是从经验生成角度来说,智能的生成离不开记忆,而这一点与过去的数据无法分开。而如今AIGC就成为典型代表,而其中文本生成就是GPT系列,其中包括今天最为火爆的ChatGPT。

智能生成是从两个意义上来说的。其一是从内容生产的方面来讲,ChatGPT的意义就是进行内容生成。它有两个特征,一是具有自主学习特征,它是在对海量数据进行分析、组合而进行的生成;二是智能生成的特征,ChatGPT在生成中进化,从而获得“心智”。美国学者米切·康辛斯基(Michal Konsinski)认为ChatGPT拥有9岁左右儿童心智。这让我们想到LaMDA,布莱克·勒蒙(Blake Lemoine)认为它具有灵魂。其二是从与机械复制时代相对的角度来讲。德国学者本雅明曾经提出机械复制时代的观念,并用这一观念来描述工业社会中艺术生产的特性,艺术作品可以实现无限复制。我们用智能生成来描述的恰恰是智能社会的产品生产特征。此时范围更为宽广,不仅包括艺术作品,还有日常生活的对话文本以及包括医学在内的治疗文本。此时,对于这个范畴的阐述有利于我们重新认识文本的概念。我们曾提到数字文本,但是时代发展使得超越了这个范畴,而需要新的范畴来理解我们所面对的对象。

我们已经确立了ChatGPT具有的特性,然后再来看这项技术本身。我们问题是:ChatGPT是否是颠覆性技术(disruptive technology)?美国学者罗素·芬克(Russell Funk)曾经提到巩固性技术(Consolidating technology)和颠覆性技术等两类技术的分类,并称之为CD模式。他指出,目前科学技术发展的特征不再是创新、颠覆,而更多是一种巩固。换句话说,科学技术发展呈现出的图景是科学技术的突破性都在随时间流逝而下降。从这个观点来看,ChatGPT是否是对以往技术的颠覆和突破就成为一个问题。从其发展历史来看,ChatGPT具有延续性,是OpenAI公司的GPT系列。2018年发布GPT-1,包括1.17亿个参数,预训练数据量达到5GB;2019年发布GPT-2,包括15亿个参数,预训练数据量达到40G;2020年发布GPT-3包括1750亿个参数,预训练数据量45TB;随后推出了GPT-3.5。从算法来看,ChatGPT是Transformer的应用,可以做到通过重新注意旧数据从而产生新东西。所以ChatGPT作为一种技术类型,也并不是全新的,而是属于巩固性技术范畴。杨立昆也认为这项底层技术并不是革命性的。目前对它的应用的期望和技术的过度想象造成了当前的迷思局面。

03ChatGPT在什么意义上是可信的?

2023年2月13日,英国哲学家萨夫拉斯库(Julian Savulescu)发表了《比得洛夫悖论:GhatGPT时代的道德责任》(The Petrov dilemma: Moral responsibility in the age of ChatGPT)。在这篇文章中他把ChatGPT看作是从人类对话中搜集信息和做出快速反应的机器智能。他从ChatGPT思考人类面对AI应该做三件事情:先思考、承担责任和合乎伦理的行动。先思考是涉及机器信任,生成的答案、文本是否值得相信;承担责任涉及某人负责任的程度依靠他们确保福利或者避免伤害的努力和承诺;合乎伦理的行动涉及行动要合乎伦理,而这一点的前提是需要意识到技术的价值,然而要确保风险是合理的。他这篇文章非常应景,尤其是他提到的信任问题是最为重要的问题之一。而这一点取决于ChatGPT给出的回答是否正确的。然而,他忽略了ChatGPT的透明性问题,这也是信任的另一个基础。

回答正确是ChatGPT可信的根据之一,因为ChatGPT可以做到事实正确,所以我们可以信赖它。从提问-回答本身来说,目前在很多使用者那里提出的问题希望ChatGPT回答正确而不出错,也只有在这个基础上,人类才能够信任并且接受它。这在搜索领域是如此,我们希望获得正确而有效的答案。当然,事实正确并无法保证道德正确。从伦理要求角度来说,我们希望它们的回答是友好的、无偏见的。无偏见是人类对于人工智能的基本伦理要求,希望在执行任务时表现得公正。友好的是一种基于人类自身的要求,我们总希望对话者表达友好,而不至于怼我们,以至于让我们情感上难以接受。然而,目前在使用ChatGPT过程中已经出现不友好的表现,比如不会回应、无视问题等等。这可以看作是无法做到道德正确的表现。事实正确与道德正确的完全是一个外在于ChatGPT的要求,这是人工智能伦理的要求,换句话说,是人类把自己的道德期望作为一种必然的要求给予它。可以看出,这种要求不是必然的。

透明性问题也是会影响ChatGPT的可信的。这一点为萨夫拉斯库忽略了。ChatGPT学习的数据来自人类历史数据,充满了各式各样的偏见。此外,ChatGPT的黑箱问题尤其明显,罗素非常明确地指出,我们不清楚ChatGPT的工作原理和机制,他也不认为语言大模型让我们距离真正的智能更近。面对比如Stable Diffusion、LaMDA和ChatGPT等生成式AI的迅速发展,欧盟即将出台新的人工智能法规,强迫AI公司阐明其人工智能模型的内部运作原理,违反者将面临高达其全年收入6%的罚款。但是,事实上,那些试图让ChatGPT变得更加透明的想法有可能是一种奢望。

04 ChatGPT是否是可错的?

一般说来,ChatGPT是可错的(fallible),它的回答可以模糊、错误、带有偏见。上面的分析指出,ChatGPT无法做到道德正确,它的回答明显充满了偏见。还有一种情况是ChatGPT的幻觉,即会产生不准确的、误导或错误的信息。OpenAI的首席执行官山姆·阿尔特曼(Sam Altma)承认ChatGPT给人一种误导性印象。在科学家的眼里,这一缺陷是可以通过技术方式来解决和弥补的。面对这种缺陷和有限,他们通过对改进现有架构或者AI方法论变更来解决这一问题。

可以看出,技术的可错性有其自身特性,能够通过技术方式加以解决。这与人类的可错性存在极大区别。人类的有限性是人自身的先天特性,斯蒂格勒将这种有限性称之为先天的缺陷;此外,人类的有限性是无法彻底克服,换句话说,人类无法做到完美,通过各种技术手段无法实现完美;最后,人类的有限性是主体意志的必然结果。在保罗·利科的哲学中,“可错的人”是一个专有的概念用来描述人的特征,人的可错与人的意志相关。

ChatGPT的出错与意志没有任何关系,是参数和数据导致的偏差,甚至是神秘的黑箱导致的无法避免的结果。在这个分析中,我们把ChatGPT的可错性分析与意志的关系完全剥离出来。毕竟它只是一个智能体,而不是主体。我们需要做的是把ChatGPT可错程度控制到一定范围内,完全不犯错误是不可能的。

(作者系复旦发展研究院研究员、中国科协-复旦大学科技伦理与人类未来研究院教授)

分类: 东亚
回到顶部