如果问到最近一段时间中最火热的技术是什么,我想很多人都会回答「ChatGPT」。

如果你是一名科技从业者,我相信你一定会从社交媒体或者身边人那里听到关于 ChatGPT 的各种消息,又或许你已经在担心 AI 取代自己工作的那一天快要来临。如果已经使用过 ChatGPT,你一定会震惊于它回答的准确和行文的流畅。那么,你是否了解这么一个能讲笑话、写文章、编代码,甚至可能把你「取而代之」的人工智能是怎么出现的,以及它又会带来怎样的影响?

ChatGPT 是什么?

本图来自 OpenAI 官网

想要讨论 ChatGPT,就离不开开发它的公司 OpenAI。

成立于 2015 年的 OpenAI 是一家人工智能研究公司,其致力于打造一种更加安全、透明、可控的人工智能,以便更好地服务人类社会。著名的「钢铁侠」埃隆·马斯克曾是它的联合创始人之一,后因其与特斯拉存在潜在的利益冲突而离开。该公司在 2018 年开发了一种基于深度学习的模型 GPT(Generative Pre-trained Transformer),它可以使计算机像人一样阅读和理解自然语言的文本。这个程序会通过阅读大量的文章、书籍和网页等文本进行学习,并从中获取语言的规则和模式,然后用来进行文本生成、回答问题、翻译语言等任务。使用 GPT,你可以让计算机自动化地完成许多文本处理任务,而不需要你手动编写复杂的算法。

ChatGPT 正是由 OpenAI 针对对话生成任务进行训练和调整所得到的一个 GPT 的变种,主要用于生成自然对话流程。它的第一个版本于 2018 年 6 月发布,之后经过了多次升级和优化。目前我们所使用的 ChatGPT 是在 2022 年 11 月公布的,它可以看作是一个基于 OpenAI 于 2020 年发布的 GPT-3 简化版。ChatGPT 针对某些具体应用场景进行了优化和精简,具备更高的效率和可定制性。该模型也是目前通常被称作「GPT-3.5」的一个变种。需要注意的是,「GPT-3.5」并不是一个正式的名称,这个词通常被人们用来描述各种基于 GPT-3 模型的优化版本。因此,并不存在「GPT-3.5」这一特定版本的模型。

ChatGPT 有多厉害?

或许你已经知道 ChatGPT 能够生成可执行的代码、帮助学生撰写课程论文等,但可能你仍旧没有清楚地意识到它到底有多厉害。

首先,向大家介绍一个概念:「心智理论」(Theory of Mind,ToM),是指人类理解自己和他人的心理状态、信念、欲望和意图,并且用这些信息来推断行为和预测未来行为的能力。例如,当我们观察他人时,我们可以通过他们的面部表情、语言和行为来推断他们的情感状态和意图,从而预测他们未来的行为。这种能力被认为是人类的独特特征,因为它需要高级的认知能力和复杂的社会交互。研究表明,儿童在3-4岁时开始展示相关能力,而其他灵长类动物则没有明显展示出这种能力。因此,这种能力被认为对人类的社会交互和沟通至关重要,它也成为了人工智能中最具有挑战性的问题之一。

杜克大学教授陈怡然的微博

许多学者都曾猜想过 AI 也会有「心智理论」的一天,但大部分都认为这一天离我们还很遥远。然而,斯坦福大学的教授 Michal Kosinski 于 2 月 4 日在开放论文数据库 arXiv 上发表的论文《Theory of Mind May Have Spontaneously Emerged in Large Language Models》论述了 ChatGPT 所使用的大型语言模型可能已经产生类似于心智理论的能力。具体而言,研究人员使用了两个实验来探究包括 GPT-3.5 在内的 9 种语言模型是否具有心智理论的迹象。第一个实验用来测试 AI 对意料之外事情的判断力,而第二个实验用来测试 AI 预估他人想法的能力。这两个任务通常是用来判断人类是否具备心智理论的测试,例如患有自闭症的儿童通常难以通过这些测试。实验结果显示,text-davinci-002 所代表的 GPT-3 模型已经能够完成其中 70% 的任务,已经相当于 7 岁左右孩童的心智。而 text-davinci-003 所代表的 GPT-3.5 模型已经能够完成测试中 85% 的意外内容任务和 100% 的意外转移任务,这已经体现出了相当于 9 岁孩童的心智。大型语言模型在这些任务上的表现与人类非常相似,表明模型可能已经具有类似于心智理论的能力。该发现具有重大意义,因为这表明即使在没有明确指导的情况下,大型语言模型也开始发展出复杂的认知能力。这不仅仅只是体现了 ChatGPT 的厉害之处,更是为研究人员提供了探索模型内部运作和推动 AI 发展的新方向。

ChatGPT 会带来什么影响?

在本文之前,已经有许多地方对 ChatGPT 说出了「不」:纽约市早在 1 月 3 日就颁布禁令,禁止所有师生使用 ChatGPT;国际学术期刊《自然》和《科学》也开始规定限制 ChatGPT 的使用;许多公司更是禁止员工将代码上传到 ChatGPT。 2 月 18 日,香港大学副校长何立仁在内部邮件中指出,禁止在港大所有课堂、作业和评估中使用 ChatGPT 或其他 AI 工具。

有人认为这些禁令是对自由研究的限制,会阻碍学术创新和科学发展;也有人认为这是必要的保护措施,避免敏感数据被滥用或泄露。我个人认为这个问题需要综合考虑。语言模型在各个领域的应用日益广泛,尤其是在教育领域,如智能辅导、自动评估等方面都有很大的潜力。但是,这些模型也存在滥用的风险,如恶意攻击、个人隐私泄露等。因此,需要对使用这些模型的人员进行相应的监管和管理。对于高校和学术机构来说,限制使用大型语言模型可以保护学生和教职工的数据隐私和知识产权,同时避免不恰当的使用。但是,过度限制可能会对研究和教学产生不利影响,因此需要权衡利弊。最终,我们需要找到一种平衡的方式来管理和监管这些模型的使用,保护数据隐私和知识产权,同时也保持创新和发展的活力。这需要学术界、政府和技术公司的共同努力和协作。

不可否认的是,ChatGPT 产生的文本回复非常真实,甚至在多种任务中都有类人的表现。这种能力将在未来取代很大一部分人的工作,如新闻报道、社交媒体管理、客服支持等。但ChatGPT的应用也有局限性,它目前仍然存在一些缺陷和不足之处,如语义理解、知识表示等方面,因此在某些特定的领域和任务中,人类专业知识和经验仍然是不可替代的。另外,由于ChatGPT本身也需要大量的数据和计算资源进行训练和优化,这对于某些小型企业或个人而言可能会有较高的门槛。因此,在工作中避免被ChatGPT取代的关键是不断提高自己的技能和专业知识,学习新的工具和技术,以适应不断变化的市场需求。

未来已至,ChatGPT无法彻底取代人类。但只有展现出 AI 所不能取代的能力,我们才能在这个数字化智能时代继续生存下去。

参考文献

  1. Yao Fu, Hao Peng and Tushar Shot.「How does GPT Obtain its Ability? Tracing Emergent Abilities of Language Models to their Sources」:https://yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756
  2. 「心智理论」: https://baike.baidu.com/item/%E5%BF%83%E6%99%BA%E7%90%86%E8%AE%BA/8719175
  3. Kosinski M. Theory of Mind May Have Spontaneously Emerged in Large Language Models[J]. arXiv preprint arXiv:2302.02083, 2023.
0
0