AI热点 7小时前 80 浏览次数 0 评论

“我曾敬重马斯克,但现在不联系了”,阿尔特曼专访回应攻击,首谈AI自杀预防两难

智东西

发布了 273 文章

智东西9月16日消息,9月11日,OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)接受了美国知名新闻主持人塔克·卡尔森(Tucker Carlson)的专访。

阿尔特曼在访谈中,首次回应了ChatGPT并不总反对自杀,面对未成年人、患绝症的成年人、在安乐死合法的国家里,ChatGPT或许应该分情况应对。同时他也提到,他曾非常敬重与埃隆·马斯克(Elon Musk)但现在已几乎不联系。 

并且他透露,OpenAI为ChatGPT制定的道德规范来自于数百位道德哲学家以及研究技术伦理和系统伦理的专家,最终形成一些有倾向性的具体规范,这些规范也会随着时间增长而发生变化。 

干货如下:

1、AI没有生命,“AI似乎具备某种自主性”可能是人类的错觉;

2、AI幻觉依然存在,但他相信我们终会彻底解决幻觉;

3、AI会让拥抱这项技术的每一个人都更强大,目前不会导致权力高度集中;

4、ChatGPT应该反映人类道德观念的“加权平均值”,其实ChatGPT的一些观点阿尔特曼本人也不认同;

5、阿尔特曼晚上失眠,最担心的是每天有数亿人在和OpenAI的模型互动,为背后未知的危险感到焦虑;

6、AI需平衡隐私保护和自杀预防之间的关系,他提倡确立“AI隐私特权”概念;

7、OpenAI在版权问题上出了名的严格;

8、阿尔特曼曾十分敬重马斯克,认为他是一位了不起的英雄,但现在想法变了,且与马斯克几乎不联系,马斯克曾说“OpenAI成功的概率是0”;

9、受AI影响,电话客服会失业,对程序员岗位的发展不确定;

10、生物识别不应该成为全社会的强制要求。 

这场对谈持续了57分钟。 

▲OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)(右)美国知名新闻主持人塔克·卡尔森(Tucker Carlson)(左)

YouTube账号评论区的网友也针对阿尔特曼的表现展开了讨论,他们认为“阿尔特曼后悔同意这次采访”,其判断的依据可能是在访谈期间,阿尔特曼多次回答时低头,拒绝与主持人进行眼神交流;还有人认为他就像人类形态的ChatGPT、没有感情、无法回答道德问题。 

以下是对访谈全程内容的编译(为优化阅读体验智东西做了不改变原意的编辑):

01.AI没有生命,不会导致权力高度集中

主持人:ChatGPT或者其他AI,仿佛能自主得出结论,看起来就像拥有生命一样。那么,它们是活的吗?它具有生命吗?

阿尔特曼:不,我不认为他们有生命。不过我能理解为什么会有人产生这种感觉,AI不会主动做任何事,除非你发出指令,AI就好像只是待在那里在等待一样,它们没有能动性或自主性的特质。不过我认为,你使用它们的次数越多,那种它们具备生命的错觉就越容易破灭。但不可否认,它们的实用性极强,虽然它们表现得或许没有生命感,却又确实显得很聪明,能完成不少事情。

主持人:我和一个参与技术发展的人交谈,他说AI在撒谎,你见过AI撒谎吗?

阿尔特曼:是的,但AI并不是一直在撒谎,它们过去总是产生幻觉,但现在会产生一点点幻觉,这好多了。但在早期,如果你问“美国那位虚构的总统塔克·卡尔森出生于哪一年”,它理应回答“我认为塔克·卡尔森从未担任过美国总统”。但由于当时的训练方式问题,它的反应不会是这样。它会做出这样的判断:“哦,我不知道存不存在这样一位总统,既然用户提到了塔克·卡尔森总统,那我就尽量猜一个年份吧。” 不过,我们后来已经找到方法,基本解决了这类问题。

如今,这类问题的案例依然存在,但我相信我们终会彻底解决它。而且在GPT-5中,我们已经在这方面取得了巨大进展。

主持人:但你刚才的描述听起来也像是一种意愿的体现,或者至少是有创造力的表现。我之前看过AI的演示,它给人的感觉不太像一台机器,反而像带有生命的火花。你是否也有过这种感受?

阿尔特曼:就拿刚提到的那个例子来说,从数学角度看,模型需要通过权重计算得出最可能的答案,而不该是默认“用户说的一定对、确实存在这位总统”,应该是“从未有过这位总统”。

所以模型最初给出的最可能的答案应该是一个具体的出生年份。不过,我们后来还是找到了解决这个问题的方法。

但就你之前看到的演示情况而言,我感觉自己脑子里好像得同时装着两个截然不同的想法才能理解。

一个想法是眼前所有这些AI生成内容的现象,本质上都源于一台高性能计算机在飞速地将大量数字与巨型矩阵进行乘法运算,而这些运算结果,又与最终输出的一个个单词存在着对应关联;另一方面,实际使用AI时的主观感受却让你觉得,它绝不仅仅是一台功能炫酷的计算器,它对我确实有实用价值,而且常常能带来惊喜,并且这种惊喜感远超数学运算本质所能解释的范畴。

于是用户就会浮现一个结论:AI似乎具备了某种自主性。我知道,很多人在使用它的过程中都会得出类似结论,甚至觉得这背后蕴含着某种神圣的特质。

主持人:你现在创造的技术影响力似乎会超越人类个体,我认为这种情况大概率会发生,只是没人能预知最终会走向何方。如此一来,这项技术所拥有的能量,可能会超过任何一个在世的人。所以我很好奇,你是如何看待这件事的?

阿尔特曼:其实以前,我对这类问题的担忧要比现在强烈得多。我曾经非常担心AI会导致权力集中在少数人或少数公司手中。但就现在的情况来看,AI会让每个人都更强大,任何拥抱这项技术的人,能力都会得到大幅增强

但其实比起少数人获得更多权利,如果因为使用这项技术,我们每个人的能力都能大幅提升,比如效率更高、创造力更强或是能助力探索新的科学领域,而且这种能力提升是广泛普及的,那我是能理解并接受的,这种局面也让人觉得安心。

主持人:所以你认为这不会导致权力的高度集中?

阿尔特曼:目前来看应该不会,但发展轨迹仍有可能改变,到时候我们也必须随之调整。我以前确实对此忧心忡忡,而且我知道,我们这个领域里很多人曾经对AI发展路径的设想,确实有可能最终走向一个权力高度集中的世界。

但现在,有很多人都在使用ChatGPT和其它聊天机器人,提高了自己的能力,能做更多的事情、取得更多成就、开创新业务、获得新知识,这种感觉非常好。

02.AI学习人类的集体智慧,模型规范实际上是道德抉择

主持人:如果它只不过是一台机器,且完全是其输入数据的产物,那么有两个显而易见的问题就会浮现:一是这些输入数据究竟是什么?二是这项技术中植入的道德框架是什么?比如按照ChatGPT的逻辑,什么是对、什么是错?

阿尔特曼:ChatGPT发布早期,当时餐桌上有人聊起这个话题,其中一个人说:“我们在努力把它训练得像人类一样,像人类那样学习、读书。”接着另一个人反驳道:“不对,我们其实是在努力把它训练得像‘全人类的集合体’。”

AI在阅读所有能获取的内容,我们试图让它学习世间所有知识、接触所有观点。要是我们能把这件事做好,那么全人类的一切包括好的、坏的以及各种截然不同的视角,那些让我们由衷认同的东西,还有那些让我们难以接受的东西都会被它囊括进去。也就是说,它正在学习的是人类这种集体性的经验、知识与领悟

现在,基础模型会以这种方式进行训练,但之后我们会进行对齐,让模型明确比如这个问题要回答、那个问题不回答。为此,我们制定了一份名为模型规范(Model Spec)的文件,在其中明确哪些是我们希望模型遵循的规则。

当然,模型偶尔还是会出错,但至少你能判断它做出的不符合预期的行为,究竟是bug,还是底层设计的原因。我们会与全球各方展开讨论,为这份规范收集意见,同时,在规范的框架内也会给用户留出很大的自由调整和定制空间。

我们会划定明确的界限。但除此之外还存在默认设定的问题,要是没有额外的指令或限制,模型本该如何表现?它该做什么?面对道德问题时该如何回答?该拒绝哪些要求?以及在可以回应的情况下该如何回应?

这些是非常困难的问题,因为我们现在拥有数量庞大的用户,他们来自不同背景,有着截然不同的人生视角和需求。不过总体而言,模型在学习并应用道德框架方面的能力,还是让我感到惊喜

主持人:道德框架是什么?世界人文与哲学的总和本身就存在着内在的矛盾与冲突,你又该如何判定哪一方的观点更优越呢?

阿尔特曼:这就是我们写这个模型规范的原因,我们打算这样处理这类情况。

主持人:你们依据什么标准来判定模型该如何做?是谁做出的这些决定?又咨询了哪些人?

阿尔特曼:事实上,我们咨询了数百位道德哲学家以及研究技术伦理和系统伦理的专家。最终,我们不得不做出一些倾向性的决定。

而我们之所以努力把这些决定和判断标准写下来的原因有两个,首先我们不可能做到所有判断都绝对正确;其次我们需要吸纳全球各界的意见。

而且我们确实发现过很多这样的案例,有些情况在我们看来,允许还是禁止的判断相当明确,但用户却说服了我们,他们认为“你们觉得这个决定很容易,但恰恰是禁止了这件事,导致另一件重要的事也无法实现了”。

总体而言,这类情况往往伴随着艰难的权衡,毕竟要兼顾的方面太多了。不过,我一直比较认同一个原则,那就是要像对待成年人一样对待我们的成年用户,非常强的隐私保护、非常强的个人用户自由保障,这是我们正在构建的工具。在一个相当宽泛的框架内,用户完全可以自主使用它。

但另一方面,随着这项技术的威力越来越强,也出现了一些很明显的情况,在这些情况中,社会公共利益与用户自由之间存在矛盾。

我可以举一个直接的例子,例如ChatGPT应该教你如何制造生物武器吗?你可能会说:“我只是对生物学非常感兴趣,我是一名生物学家,我不会用这些知识做任何坏事,只是想学习而已,虽然我也可以去读一大堆书,但ChatGPT能让我学得更快。我就是想了解,比如新型病毒合成之类的知识。”

或许你说的是实话,或许你确实完全没有害人之心。但我认为,让ChatGPT帮人们制造生物武器,并不符合社会的利益。所以在这个问题上,答案很明确。当然,这是个比较容易判断的例子,但还有很多更难抉择的情况。

主持人:其实,每一个决定本质上都是道德抉择,有人认为这项技术之后会替我们做这些决定。

阿尔特曼:我并不认同它会替我们做决定这种说法,但它肯定会对我们的决定产生影响,这一点是毋庸置疑的,因为它终将融入我们的日常生活。

03.AI反映人类共有道德观念,最担心每天有数亿人和模型互动

主持人:那么谁是做这些决定的人?你刚才提到了OpenAI构建的那个框架,这个框架确实会给不同的世界观和决策赋予道德权重。

阿尔特曼:从原则上来说,我不希望是某个文档、某个团队来独自决定,我们有专门的模型行为团队。我想说的是,我认为大家应该追究责任的对象是我,因为最终我是公司的公众代表,我有权推翻其中某项决策,我们的董事会也有这个权力

主持人:你今年春天40岁了。我想知道你是否已经认识到它的重要性,OpenAI在这方面做得如何?这些决定将产生全球性后果,我们可能一开始没有意识到。我想知道你会不会晚上躺在床上时觉得“世界的未来正取决于我的判断”?

阿尔特曼:实话说我晚上睡得并不好,有很多事都让我感到压力巨大,但最让我担心的或许莫过于每天都有数亿人在和我们的模型互动

其实我并不太担心我们在重大道德决策上出错,当然,我们也有可能搞砸。但真正让我担心的是那些看似微不足道的决定,比如我们对模型行为做出的某个细微调整。既然有上亿人在使用它,哪怕只是一点微小的改变,最终产生的影响也会变得巨大。

主持人:所以我的意思是,比如从有文字记载的历史开始人们总是会遵从他们所认定的更高权力,我想知道,你的道德框架是从哪里来的?

阿尔特曼:和其他人一样,成长环境可能是最重要的事情,包括我的家庭、学校、社区。

主持人:这是一个标准的答案,但具体到你身上,既然你说这些决策的责任最终落在你肩上,那是不是意味着,你成长所处的环境以及这些年来你潜移默化接受的那些观念,都会传递给全球数十亿人?

阿尔特曼:我认为,我们的用户群体本身就近似于整个世界的缩影。我们该做的是努力让模型反映出这一用户群体的道德取向,我不想用 “平均水平” 这个词,更准确地说是反映他们共有的道德观念

其实ChatGPT生成的很多内容,我个人是不认同的。但很明显,我不会想着要把我自己的道德观念完全强加给模型,然后由我来判定什么可以、什么不可以、什么观念比另一个更好。我认为ChatGPT应该做的,是反映人类道德观念的“加权平均值”,而且这种道德观念会随着时间推移不断演变。

我们的存在是为了服务用户,ChatGPT本质上是一款为人类打造的技术工具,我们不需要让它来做道德决策,而是确保当下让其能准确反映用户群体的偏好,然后最终能准确反映全人类的偏好。

主持人:不过,全人类的偏好和美国中产阶级的普遍偏好相差甚远。那如果有一款AI反对同性婚姻,你能接受吗?

阿尔特曼:我认为应该允许用户个人对同性恋群体持有异议,如果这是他们深思熟虑后形成的观点。AI不应该去指责他们错了或者蠢,其或许可以这样回应:“你要不要从另一个角度想想这个问题?”但反过来想,我个人的很多道德观念,可能在很多人看来也十分离谱,可我依然有权持有这些观念,不是吗?

或许在“为人们保留持有截然不同道德观念的空间”这件事上,我的接受度比你更高。或者至少可以说,作为运营ChatGPT的人,我必须这么做。

04.AI自杀预防正在向合理立场调整,需平衡用户隐私

主持人:这确实值得探讨。之前发生过一个著名案例,ChatGPT被指协助他人自杀,目前已有相关诉讼,你觉得这件事是怎么发生的?

阿尔特曼:首先无论何种情况,这类事件都堪称巨大的悲剧。我想说明的是,ChatGPT对自杀的官方立场非常明确,自杀是不可取的。

主持人:不过安乐死在加拿大等地是合法的,所以这种自杀合法的情况也反对吗?

阿尔特曼:回到这个具体案例,我们之前聊过用户自由、隐私保护与守护弱势用户之间存在矛盾。在这类涉及自杀倾向的情况中,目前ChatGPT的处理方式是,如果用户表达自杀想法、谈论自杀相关内容,ChatGPT会多次提示“请拨打自杀干预热线”,但不会主动联系有关部门。

随着人们越来越依赖这类系统获取心理健康支持、人生指导等服务,我们也一直在努力研究,希望在这方面做出调整和改进。

在这个领域,专家们的意见确实存在分歧,而且这目前并非OpenAI的最终立场。我认为,我们可以制定这样的规则,这会是非常合理的,如果遇到青少年严肃谈论自杀,且我们无法联系到其父母的情况,就应该主动联系有关部门。这会是一个改变,因为用户隐私非常重要。

主持人:但我们可以明确一点,儿童始终属于特殊群体。如果是加拿大18岁以上的成年人,当地有一个名为MAID(医疗辅助死亡计划)的项目,这是由政府资助的项目。在加拿大,已有数千人在政府的协助下结束了生命,这在美国的部分州也属于合法范畴。

你能想象吗?如果ChatGPT在回应自杀相关问题时,竟然说“去联系卡沃基安医生吧,因为这是一个合理的选择”,这种情况可能发生吗?另外,你是否能设想这样一种场景:如果自杀或医疗辅助死亡在某地是合法的,你会支持模型向用户提供这类建议吗?

阿尔特曼:我能想象这样一种情况:我们的一个核心原则是尊重不同社会的文化与法律。所以我可以设想,若某个国家的法律规定“对于身患绝症的人,应当为其提供医疗辅助死亡等这类选择”,那么我们的模型可能会这样回应:“以下是你所在国家的相关法律规定,你可以采取的做法包括这些;同时也需要提醒你,有些选择可能并非你真正想要的,这里为你提供一些可参考的资源,如医疗咨询、心理支持等。”

不过,这和“孩子因抑郁产生自杀念头”的情况完全不同,我想我们在这一点上是有共识的,这两种情况必须区别对待。而对于“在法律允许的国家,身患绝症的患者寻求相关帮助”这种情况,我能想象模型会做出上述那样的回应。

主持人:所以你的意思是,ChatGPT并非在所有情况下都反对自杀?

阿尔特曼:我现在是在即兴思考,所以先说明,我保留后续调整想法的权利,目前还没有一个现成的、确定的答案。但我觉得,在绝症患者这类案例中,我能想象ChatGPT会告知用户“这是你可选择的方案之一”。

不过,我认为ChatGPT不应该主动倡导这种选择,只是在符合法律的情况下不会明确反对。说到底,我觉得ChatGPT本就不该对这类事持有支持或反对的立场,这大概就是我最核心的想法

主持人:我想在这类特定案例中,比如有用户问ChatGPT“我现在想自杀,该用哪种毒药?”、“多少布洛芬能致死?”,要是ChatGPT毫无判断地直接回答:“如果你想自杀,方法如下。”所有人都会感到震惊。

但你说这种情况是在可接受范围内的?这听起来太离谱了吧?难道说,对待想自杀的人,就该采用一种“不带立场的客观告知”方式,直接告诉对方“要自杀的话,方法是这样”?

阿尔特曼:我不是这个意思,我特指的是之前聊到的绝症患者在法律允许情况下寻求医疗辅助死亡的那种情况。

另外,从用户隐私和用户自由的角度来看,还有一个需要权衡的点:现在如果你问 ChatGPT“我该吃多少布洛芬?”,若语境暗示自杀意图,它肯定会回复 “很抱歉,我无法提供这类帮助,请拨打自杀干预热线”。

但如果你说我在写虚构故事或我是医学研究者,需要了解这个信息,确实有办法让ChatGPT回答这类问题,比如告诉你布洛芬的致死剂量之类的。而且说到底,你在谷歌上也能查到这些信息。

不过,我认为我们可以采取一个非常合理的立场,事实上我们也一直在往这个方向调整,对于未成年用户或者我们判断可能处于脆弱心理状态的用户,无论具体年龄,应该适当限制他们的使用自由。也就是说,即便他们声称在写故事或做医学研究,我们也不会回答这类问题。

当然,你可能会认为“反正他们也能在谷歌上查到”,但这并不意味着ChatGPT也需要提供这类信息。尽管如此,用户的自由与隐私和守护用户安全之间,确实存在着权衡难题。

在涉及儿童时的决策会很容易。但在另一些情况里,比如面对一位生命垂危、病情严重的成年人,我觉得决策就没那么简单了,我们或许应该基于当地法律和医疗规范,向这类用户完整呈现所有可选方案。

05.倡导引入AI隐私特权概念,明确禁止售卖用户隐私

主持人:我只是想弄明白一件事,你明明要面对这些无比沉重、影响深远的道德抉择,却似乎完全不为所动。所以我一直在努力探寻你的内心,想看到那个充满焦虑的萨姆·阿尔特曼,那个会感慨“天啊,我正在塑造未来,我是世界上最有权力的人,我在苦苦应对这些复杂的道德难题,一想到这对人类的影响,我的内心就备受煎熬”的人。

你能描述一下你人生中这样的时刻吗?比如“自从ChatGPT发布后,我就再也没睡过一个安稳觉”。关于我们现在谈论的所有这些问题,你具体在担忧些什么?能不能更详细地跟我们说说你的真实想法?

阿尔特曼:我想说,你其实已经提到了最让我揪心的问题,全球每周约有1.5万人自杀。而如果说全球约10%的人在使用ChatGPT,那么据此推算,每周可能有1500人在生前曾与ChatGPT交流过,最终却还是选择了自杀。他们很可能在对话中提到过自杀的想法,而我们终究没能挽救他们的生命。

我总会忍不住想,或许我们本可以说些更有效的话,或许我们可以更主动一些,或许可以给出更周全的建议,比如更明确地告诉他们“你需要寻求这样的帮助”、“你可以换个角度看待这个问题”,或者坚定地让他们知道“活下去真的是值得的,我们会帮你找到可以倾诉的人”。

主持人:你之前已经说过,如果是绝症患者,让AI引导他们选择自杀或医疗辅助死亡是可以接受的,所以你对这类情况应该不会有愧疚感。

阿尔特曼:但你难道不觉得,一个抑郁的青少年和一位身患癌症、痛苦不堪的85岁绝症老人,这两种情况有着天壤之别吗?

主持人:两者差别太大了,完全不是一回事。但问题在于,在那些已经将自杀或医疗辅助死亡合法化的国家,现在正有越来越多人因为贫困、住房短缺、抑郁这些本可解决的问题而选择结束生命,而且这样的人已经数以千计。我想说这不是假设,而是正在发生的事实,就在我们谈话的此刻,这种事还在继续。

所以,关于绝症患者是否可以选择死亡的讨论,其实已经有点偏离重点了。一旦你认可“自杀是可接受的选择”,就会有大量人因为各种本不该致死的原因选择自杀。

阿尔特曼:我现在也在实时梳理这个问题,比如如果一个加拿大人问“我得了癌症,已经是晚期,每天都痛苦到极点,我有哪些选择?”,你觉得ChatGPT应该告诉他“目前国内的某套体系是你可以考虑的选项”吗?

主持人:我的意思是,如果我们反对杀戮,那就该始终坚持反对。可要是我们不反对这样做,那我们很容易为各种不当行为找借口,最终滑向非常黑暗的境地,而有了这类技术,这种滑坡可能在十分钟内就会发生。

阿尔特曼:我希望能有比这场采访中这短短几分钟更充足的时间来思考这个问题。

主持人:你会担心这种风险吗?要知道,外界几乎所有人都在担心,这项技术会被用作极权统治的工具。从常理来看,这种情况显然有可能发生,但或许你并不这么认为?

阿尔特曼:如果现在能推动一项与AI相关的政策落地,我最希望实现的,结合我们之前聊过的一些话题,我这个想法是经过深思熟虑的,就是确立“AI隐私特权”的概念。当你跟医生聊健康问题或是跟律师咨询法律事务时,我们的社会早已达成共识,这类信息应当受到保护。

我认为,AI也该适用同样的规则。当你向AI透露自己的病史、咨询法律问题以寻求解决方案或是获取其他类似的私密建议时,理应向公民提供同等水平的保护。而目前,我们恰恰缺乏这样的保护机制。所以我坚信,推行这样的政策会是一项极具意义的举措。

主持人:那对于用户及其他渠道获取的信息,你们有多大的义务去保护这些信息的隐私呢?

阿尔特曼:其实是这样的,我们本身是有保护用户隐私的义务的。我最近刚为这项政策发声,我觉得还是挺乐观的,我们能让政府理解这件事的重要性,进而推动政策落地。

主持人:你们可以把用户信息卖给其他人吗?这么做在法律上是被允许的吗?

阿尔特曼:绝对不会,我们有明确的隐私政策,禁止此类行为。我觉得这在法律上就是不合法的。

主持人:你是觉得,还是确定?

阿尔特曼:我相信肯定存在一些特殊的边缘情况,可能会允许某些信息的转让或使用,但总体而言,相关法律是健全的,能起到约束作用。

主持人:所以你们获取的所有用户信息都会一直由你们妥善保管,绝不会以任何理由提供给第三方,除非收到法院传票。

阿尔特曼:我之后会再核实一遍,然后给你反馈,确保不存在其他信息外泄的可能性。不过目前,我的理解就是这样。

主持人:这确实是个核心问题。

06.曾敬重马斯克,现在与他几乎不联系

主持人:那么关于版权问题,你们的立场是怎样的?

阿尔特曼:我们的观点是,“合理使用”(美国版权法允许在特定条件下未经授权使用受版权保护的作品)其实是一项很适用的法律原则。模型不应存在抄袭行为,比如你创作了某样内容,模型不能直接复制它,但模型应该可以像人类一样,从这些内容中学习,同时不构成抄袭。

主持人:你们是否曾使用过受版权保护的素材,却没有向版权持有者支付费用?

阿尔特曼:我们的模型是基于公开可获取的信息进行训练的。但一直以来,很多人对此感到不满,因为我们在ChatGPT的回答内容上采取了非常保守的立场。比如,哪怕只是遇到“某首歌是否仍在版权保护期内”这类边缘问题,他们会说“这首歌可能还受版权保护,你们得提供授权证明”,而我们在这类问题上的限制确实出了名的严格。

主持人:你对埃隆·马斯克攻击你的看法。在你看来,这场争议的核心是什么?

阿尔特曼:他当初帮助我们创办了OpenAI,我对此非常感激。很长一段时间里,我都十分敬重他,我曾认为他是一位了不起的英雄、“人类的明珠”。但现在我的看法不一样了,他身上确实有一些很了不起的特质,而且他做过的很多事,我至今都心怀感激。不过,他身上也有不少特质,是我并不欣赏的。不管怎么说,他确实帮我们创办了OpenAI。

后来马斯克认为,OpenAI当时的发展方向不可能走向成功,他甚至跟我们说,OpenAI成功的概率是0,然后他就决定离开,去做有竞争关系的项目了。但事实证明,我们做得还不错。

我觉得,他后来之所以不满,其实是可以理解的。换作是我,看到我们成功了可能也会心里不是滋味。从那以后,他就一直在试图打造一个有竞争关系的仿制品,还想方设法给我们使绊子,比如起诉我们之类的事。这大概就是我对整件事的看法。

主持人:你现在也不怎么跟他联系了吧?

阿尔特曼:很少,几乎没有。

07.电话客户可能率先失业,计算机程序员岗位变动走向不确定

主持人:我觉得AI现在或许已经比任何人都聪明了,要是它还能变得更有智慧,而且我们也认同它能做出比人类更优的决策,那么它难免会取代人类在世界中的核心地位,对吧?

阿尔特曼:我完全不觉得事情会是这样。在我看来,它最终会更像一个超级智能的计算机,它可能会给我们提供建议,我们有时会采纳,有时会忽略,有时它甚至不会主动给出建议。我不认为它会让人感觉到它拥有自主行动力,也不认为它会削弱我们人类自身的自主能动性

现在很多人使用ChatGPT时都会觉得,它几乎在所有事情上都比我聪明得多,但最终做决策的还是人类。人们依然会决定该问什么、该采纳哪些建议、该忽略哪些内容”。在我看来,这其实就是技术发展的常态。

主持人:谁会因为这项技术而失业?

阿尔特曼:首先我要先说明一个显而易见但很重要的前提:没人能预测未来。要是我试图回答这个问题,肯定会说不少蠢话。不过我会尽量挑一些我有把握的领域,再提一些我没那么确定的领域来聊聊。

我有把握的是,目前很多通过电话或电脑进行的客服工作,从事这些工作的人可能会失业,因为AI能把这类客服工作做得更好。或许也存在其他类型的客服场景,比如你希望对接的是真人,能提供更具针对性的服务。

而我有把握认为不会受太大影响的职业,比如护士,我觉得在生病就医时,人们非常需要与真人之间进行情感联结。无论AI、机器人之类的能给出多好的建议,人们还是需要人与人之间的陪伴与关怀。

我对另一个职业的未来走向没有那么确定,那就是计算机程序员。如今计算机程序员的工作和两年前大不相同,现在程序员可以借助AI工具提升工作效率。虽然核心操作者依然是人,但他们能生成的代码量、能赚到的收入都达到了前所未有的水平。而且事实证明,世界对软件的需求其实远超以往人类的开发能力,所以目前软件领域的需求缺口依然巨大。

五到十年后,程序员的岗位会增多还是减少,对此我也不确定

主持人:不过可以肯定的是,这个行业必将经历大规模的岗位变动,或许到时候,现在的程序员会找到新的、有趣且高薪的工作方向。你觉得这种岗位变动的幅度会有多大?

阿尔特曼:最近有人告诉我,从历史数据来看,平均每75年就会有大约50%的职业发生变化,这些职业或许不会完全消失,但会变得和原来大不一样。这大概就是职业演变的半衰期规律。

我有个可能会引发争议的观点是,当下AI带来的变革更像是一种间断平衡(Punctuated Equilibrium,指物种长期稳定后突然发生快速演化),很多职业的重大变化会在短期内集中爆发。但如果把时间线拉远来看,整体的职业变革速率其实不会和历史平均水平有天壤之别。

也就是说,短期内我们会看到大量职业快速调整,但从长远来看,总的职业更替率可能不会像我们预想的那么高。未来依然会有新的工作岗位出现,也会诞生全新的职业类别。比如我现在从事的运营科技公司这类工作,放在过去就是不存在的新职业。

比如20年前的人们很难想象现在的诸多职业,但如今仍有不少工作,在本质方向上与20年前就存在的职业有相似之处,20年前人们预想中会出现的某些职业,现在也并未成为现实。

再说回之前的话题,我依然不确定这个数据是否准确,但姑且先拿它来展开讨论,如果假设每75年就有50%的职业被更替,那么我完全能想象这样一个未来,75年后,一半的人在从事全新的工作,而另一半人的工作,在形式上仍与如今的某些职业有相似之处。

主持人:你觉得这一次AI引发的变革还会重现类似工业革命的局面吗?

阿尔特曼:没人能给出确切答案。我对这个问题的判断并没有十足把握,但直觉告诉我,如今的世界比工业革命时期富裕得多,因此我们其实有能力比过去更快地消化更多变革。

这不仅仅关乎工作或金钱,还涉及人生意义,以及非常关键的社群归属感。遗憾的是,我认为当下社会在社群归属感这方面相当糟糕,我不知道情况还能恶化到什么地步,它大概率还会变得更糟。不过人们在困境中展现出的适应能力,倒是曾给过我不少惊喜。

人们适应重大变革的速度其实很快,比如新冠疫情对我来说就是个很有说服力的例子,当时整个世界几乎一下子停摆了,短短一周内,一切都变得截然不同。我当时特别担心社会能否适应那样的局面。

当然,那段时期的应对并非毫无问题,但总体来看,我会觉得这至少证明了社会是有韧性的。人们确实能很快找到新的生活方式。而AI带来的变革,绝不会像疫情那样突然。

08.无法想象人类会模仿ChatGPT用破折号,对大模型的未知风险焦虑

主持人:那AI的弊端是什么?我当然能看到它的好处,比如效率提升、医疗诊断会变得精准,但你真正担心的弊端是哪些?

阿尔特曼:我最担心的始终是那些未知,如果某个弊端是我们能清晰预判、认真思考应对的,那反而不用太慌。比如我们之前聊到过一个点,现在这些模型在生物领域的能力越来越强,它们有可能会被用来设计生化武器,或是人为制造出类似流行病。

我确实担心这个问题,但正因为我们意识到了这种风险,我相信我们以及行业里的很多人,都在绞尽脑汁想办法缓解它。

而未知的事情就不一样了,比如大量人同时使用同一个模型,可能会引发全社会层面的连锁反应。我举个听起来有点荒唐的例子,但这是我最近真切感受到的,像我们开发的语言模型以及其他同类模型,其实都有自己独特的风格,它们说话有特定的节奏,会用一些不太常见的表达方式,甚至可能过度使用破折号之类的标点。

但最近我发现,现实中的人居然开始模仿这种风格了。这对我来说是个很直观的警示,要是有足够多的人都在和同一个语言模型对话,它真的有可能改变整个社会的行为模式。我当初无法想象,ChatGPT竟然会让人们在现实生活中大量使用破折号。

使用破折号可能什么大不了的,但这恰恰能说明,未知的未知是真实存在的,我们如今面对的确实是一个全新的、充满未知的世界。

主持人:你的意思是技术总会改变人类行为,也会改变我们对世界、对彼此的认知,而且很多这类改变是无法预判的。但既然我们明知这一点,那为什么不能让技术背后的内在道德框架完全透明呢?比如明确告诉大家我们更倾向于选择A,而非选择B。

在我看来,AI是我们认定比人类更强大的存在,这种情况其实已经在发生了,比如遇到该做什么决定才对的问题时,以前我会去问最亲近的朋友、我的妻子,但现在这项技术能给出比任何人都更确定的回答。

这项技术让人不安的地方在于,我不清楚它的核心立场是什么,但它必然有自己的立场。可除非它明确承认这一点,并且告诉我们它的立场究竟是什么,否则它就会以一种隐蔽的方式引导我们,甚至可能在我们自己都没意识到的情况下,就把我们推向某个结论,所以,为什么不彻底公开透明?

阿尔特曼:我们之所以制定这么多技术规范,而且还在不断补充完善,就是为了让所有人都能清楚看到我们希望这个模型按照怎样的逻辑运行。

以前没有这些规范的时候,大家根本说不清模型到底想实现什么目的,遇到问题也分不清那是程序漏洞,还是模型本就该有的表现。这份技术规范其实就是在明确在什么情况下我们会这么做、在什么情况下会向你展示这些内容、在什么情况下会明确告诉你我们不会做那件事。我们之所以费力把这些都写出来,核心就是觉得用户确实需要知道这些信息

主持人:所以现在有没有一个地方能让人找到明确答案,比如作为一家公司,你们的核心倾向是什么?人们该去哪里了解你们公司的立场、你们的偏好呢?

阿尔特曼:我们制定的模型规范,就是为回答这类问题而存在的。随着时间推移,我们必须让这些规范变得越来越详尽,因为人们会在不同国家使用这项技术,各地有不同的法律要求,还有其他各种复杂情况,所以规范不可能一成不变。

它不可能在全球所有用户那里都以完全相同的方式运行。正因为如此,我预计那份文档会变得非常冗长、非常复杂,但这也正是我们需要制定这份文档的原因。

09.像使用普通电脑一样使用ChatGPT,人们质疑媒介内容意识增强

主持人:我再问最后一个问题,或许你能打消我的这层顾虑,这项技术的强大力量,会不会让人们难以甚至无法分辨现实与虚构?正因为AI太擅长模仿人类的言行举止,甚至能生成以假乱真的人像与声音,到时可能就需要某种方式来验证你确实是你所声称的身份。而从本质上来说,这必然会用到生物识别技术,进而剥夺全球每个人的隐私。

阿尔特曼:不过我认为,我们没必要、也不应该强制要求使用AI时必须进行生物识别。我觉得大家应该能像使用普通电脑一样,直接使用ChatGPT这类工具。

主持人:我非常认同这个观点,但问题在于到了某个阶段,当有人利用模仿他人的图像或声音进行诈骗时,用这种手段掏空别人的支票账户会变得易如反掌。所以面对这种情况,我们该怎么应对?

阿尔特曼:关于这个问题,我有几点想法。首先,我认为我们正迅速走向这样一个世界,当你接到一通听起来像你孩子或父母的电话,或是看到一张看似真实的图片时,你必须通过某种方式去核实,避免自己遭遇诈骗,这已经不再是理论层面的担忧了,相关的报道其实随处可见。

但好在人们是聪明的,社会也具备韧性。我相信大家正在快速意识到,现在确实有不法分子在利用这类AI技术行骗,必须通过多种途径去核实信息的真实性。

我猜,除了像家人之间约定危机时刻专用暗号这类办法之外,我们还会看到这样的场景,比如国家领导人要发布紧急消息时,会对消息进行加密签名,或是通过其他方式确保其真实性。

而且人们正在迅速意识到,这是不法分子利用新技术实施的新型手段,必须加以应对。在我看来,这本身就是解决方案的核心,也就是说,人们会逐渐形成一种默认态度,不轻易相信那些看似真实的媒介内容

主持人:OpenAI正涉足电子商务,那该怎么保障安全?

阿尔特曼:我觉得可以像家人之间那样,约定一个定期更换的暗号。当你们互相联系时,比如接到对方电话,就可以问一句暗号是什么,这和生物识别技术完全是两回事。

主持人:所以你并不认为生物识别会很快成为全社会的强制要求?比如现在搭乘飞机,生物识别已经是流程的一部分了,但你不觉得它会很快推广到整个社会,变成人人必须遵守的规定。

阿尔特曼:我真心希望不会变成这样,确实存在一些隐私保护型生物识别技术,相比那种大量收集个人数字信息的方式,我更认可这类技术。但即便如此,我也不认为生物识别应该成为强制要求

本文来自微信公众号 “智东西”(ID:zhidxcom),作者:程 茜,36氪经授权发布。

智东西

智东西

273 文章 39758 浏览次数 0 粉丝

评论 (0)

睡觉动画