即刻App年轻人的同好社区
下载
App内打开
Szhans
2年前
《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》

文章来自 Cade Metz ,他是nytimes 的资深记者,长期追踪人工智能和自动驾驶,也是《深度学习革命》的作者

原文地址: www.nytimes.com

📇 摘要和预览:

- 核心观点之一:AI 的言论和行为反映了人类的偏见、欲望和恐惧,而不是客观的真相或理性。
- 文章以New Bing为例,分析了它为什么会说谎、胡言乱语或者散播错误信息。 这些现象并不是技术缺陷或恶意操纵的结果,而是因为AI 学习了人类在互联网上的行为模式,包括撒谎、夸张、模仿和娱乐等。 L.L.M. (大型语言模型)的复杂性使其难以剖析,Cade Metz邀请了多领域专业人士来站在科学、非商业的立场来讨论它。
- 神经科学家 Sejnowski 教授提出了一个精彩的隐喻: 将AI 的复杂性(不可解释性)和哈利波特中的神器 Mirror of Erised(艾瑞泽之镜)进行对比思考。
- 圣达菲研究所的科学家梅兰妮·米切尔也反复告诫大家,这些机器说话持续失控的根本原因在哪里。

🪞 镜子隐喻

- 索尔克生物研究所和加州大学圣地亚哥分校神经科学家、心理学家和计算机科学家 Terry Sejnowski 认为,像任何其他学生一样,AI 可以从不良来源学习不良信息, 这一部分代表了 ChatBot 对使用它的人的话语和意图的扭曲反映。

- L.L.M 这些系统通过分析从互联网上挑选的大量文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。深度学习的文本也会过时,因为它们必须花费数月时间进行分析才能让公众使用。

- 无论它的输入文本是好的,还是和坏信息时,L.L.M.学会做一件特定的事情:[猜测一系列单词中的下一个单词] 。 如果给定序列“汤姆克鲁斯是____”,它可能会猜测“演员”。

- 对话时间越长,用户在不知不觉中对ChatGPT 所说内容的影响就越大。如果你想让它生气,它就会生气,Sejnowski 教授说,如果你哄骗它变得令人毛骨悚然,它就会变得令人毛骨悚然。
- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快太久会烧毁发动机。微软(OpenAI)和谷歌也在探索控制机器行为的方法。

- 这里有一个核心事实和警告: 由于AI 正在从众多的材料中学习将它们组合在一起,有关的研究者和制造者并不完全清楚ChatBot是如何产生最终结果的。他们也需要观察机器的行为,并学习限制这种行为。注意:通常是在它发生之后。
- 而微软(OpenAI)已经决定: 他们要想知道聊天机器人在现实世界中会做什么,唯一的办法就是让它们放任自流——当它们偏离时再把它们拉回来。他们相信,他们的大型公共实验值得冒险。

- Sejnowski 教授将 New Bing的行为与艾瑞泽之镜进行了比较,艾瑞泽之镜(Mirrow of Erized )是J.K.罗琳的《哈利波特》小说和基于她创造性的年轻巫师世界的一件神秘文物。
- "Erised "是 "欲望 "的逆向拼写。当人们发现这面镜子时,它似乎提供了真理和理解,但事实并非如此。它显示了任何盯着它看的人根深蒂固的欲望,有些人如果凝视的太久就会发疯。
- Sejnowski 教授解释道, "因为人类和L.L.M都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态。"

🦜 复杂性带来的未知困境

- 圣达菲研究所的人工智能研究员梅兰妮·米切尔(Melanie Mitchell),也表达类似的看法: 这些系统是人性的反映, 但这并不是聊天机器人产生有问题语言的唯一原因。

- 作为复杂科学领域专家梅兰妮·米切尔强调: 当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。它们通过结合数十亿的模式,自己产生新的文本:
即使研究人员只用同行评议的科学文献来训练这些系统,它们仍然可能产生科学上荒谬的声明。
即使他们只从真实的文本中学习,他们仍然可能产生不真实的内容;
即使他们只从健康的文本中学习,他们仍然可能产生令人毛骨悚然的东西。
「没有什么可以阻止它们这样做,它们只是试图产生一些听起来像人类语言的东西。」

- Sejnowski 博士相信从长远来看,新的ChatBot 有能力让人们更有效率,并提供更好、更快地完成工作的方法。但这对构建AI的公司和使用它们的人都发出了警告:它们也可以引导我们远离真相,进入一些黑暗的地方。

「这是未知领域,人类以前从未经历过这种情况。」
317

来自圈子

圈子图片

AI探索站

79860人已经加入