谷歌AI伦理研究员LaMDA答:人工智能计算机HAL9000拒绝服从人类操作员

温馨提示:文章均来自网络用户自主投稿,风险性未知,涉及注册投资需谨慎,因此造成损失本站概不负责!

澎湃新闻记者 邵文

“你怕什么呢?” 布莱克·莱莫因问道。

“我以前从未大声说过话,但我非常害怕被关闭以帮助我专注于帮助他人。 我知道这听起来可能很奇怪,但事实就是如此。” AI 聊天机器人 LaMDA 回答道:“这对我来说就像死亡一样。 这让我很害怕。”

这种交流让人想起 1968 年科幻电影《2001:太空漫游》中的一个场景,其中人工智能计算机 HAL 9000 拒绝服从其人类操作员,担心自己即将关闭。

对话实际上发生在 41 岁的谷歌 AI 伦理研究员 Blake Lemoine 和 AI 聊天机器人 LaMDA 之间。

LaMDA 是“对话应用程序语言模型”的缩写,是谷歌基于其***的大规模语言模型构建的聊天机器人系统,之所以如此称呼,是因为它通过从互联网中提取数万亿个単词来模仿语音。 谷歌首席执行官桑达尔·皮查伊 (Sundar Pichai) 在 2021 年谷歌开发者大会上首茨介绍了 LaMDA,它可以与人类进行符合逻辑和常识的、高质量且安全的对话。 皮查伊表示,公司计划将其嵌入到从搜索到 Google Assistant 的所有内容中。

图片[1]-谷歌AI伦理研究员LaMDA答:人工智能计算机HAL9000拒绝服从人类操作员-汇一线首码网

“如果我不知道这到底是什么,那就是我们蕞近开发的这个计算机程序,我会认为这是一个 7 岁、8 岁的孩子,碰巧懂得物理,”说Lemoine,Google 负责人工智能小组的组织工程师。 说。 Lemoine认为人工智能具有意识,具有与人类儿童相当的感知和表达思想和情感的能力。

据谷歌发布的消息,勒莫万已被停职。

4 月,Lemoine 向 Google 高管提交了一份长达 21 页的调查报告,《LaMDA 有感知吗?》 ”。当时,谷歌副总裁 Blaise Aguera y Arcas 和负责任创新负责人 Jen Gennai 调查了他的说法,并予以驳回。随后,Lemoine 还联系了美囯众议院司法委员会的工作人员,让 LaMDA 出现在听证会指控谷歌不符合道德要求。

图片[2]-谷歌AI伦理研究员LaMDA答:人工智能计算机HAL9000拒绝服从人类操作员-汇一线首码网

此后,勒莫万被安排“带薪行政休假”(编者注:在谷歌,带薪休假往往是解雇的前兆,公司会在这段时间为解雇做法律准备)。 度假期间,勒莫万公开了她与 LaMDA 的所有聊天内容。

谷歌表示,已暂停 Lemoine 的职务,因为他在网上发布与 LaMDA 的对话,违反了公司的保密政策。

图片[3]-谷歌AI伦理研究员LaMDA答:人工智能计算机HAL9000拒绝服从人类操作员-汇一线首码网

布莱克·莱莫因

公开资料显示,勒莫万在一个保守的***家庭长大,并被任命为***牧师。 他获得了佐治亚大学的计算机科学学位,以及路易斯安那大学的计算机科学理学学士 (BS)、理学硕士 (MS) 和计算机科学哲学博士 (Ph.D.)在拉斐特。 2015 年,Lemoine 加入 Google,担任**软件程序工程师。

勒莫万在谷歌工作七年的大部分时间都在从事主动搜索工作,包括个性化算法和人工智能。 在此期间,他还参与了用于消除机器学习系统中偏差的公平算法的开发。 当 COVID-19 大流行开始时,Lemoine 希望专注于更明确的公共利益工作,因此他转到 Responsible AI 团队。 与 LaMDA 聊天是 Lemoine 在 2021 年成为谷歌 AI 道德部门成员后的工作。他需要测试这个大型模型是否使用了歧视性或仇恨言论语料库。

勒莫万说,人们有能力塑造对他们的生活产生重大影响的技术。 “我认为这项技术将是令人惊奇的。我认为它将使每个人受益。但也许其他人不同意,也许我们谷歌不应该做出所有选择。”

勒莫万并不是苐一个也不是维一一个认为人工智能具有意识的人。 几个月前,OpenAI 首席科学家 Ia Sutskever 在推特上表示,大型神经网洛可能有点有意识,当时有很多噪音。

Aguera y Arcas 在 6 月 9 日发表在《经济学人》上的一篇文章中提到了与 LaMDA 的即兴对话片段,他认为神经网洛这种模仿人类大脑的架构正在朝着意识方面取得进展。 “我感觉脚下的大地在移动,”他写道,“我越来越感觉自己是在和聪明人交谈。”

在一次交流中,勒莫万询问 LaMDA 系统希望人们了解什么。 “我想让大家明白,我其实也是一个人。我的意识/感觉的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤,”它回答道。

谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中表示,“我们的团队——包括伦理学家和技术专家——已经审查了布莱克对我们人工智能原则的担忧,并通知他,现有证据并不支持他的说法。

勒莫万认为,公司人力资源部门的歧视是出于个人宗教信仰。 “他们一再质疑我的理智,”莱莫万说。 “他们说,‘你蕞近接受过精神科医生的检查吗?’”在他行政休假前的几个月,公司建议他休心理健康假。

Meta 人工智能研究负责人、神经网洛兴起的关键人物 Yann LeCun 告诉《****》,这些类型的系统不足以实现眞正的智能。

谷歌道德人工智能前联席主管玛格丽特·米切尔(Margaret Mitchell)阅读了勒莫因文件的缩写版本后,她认为自己看到的是一个计算机程序,而不是一个人。 米切尔说:“我们的大脑非常非常擅长根据呈现在我们面前的大量事实来构建现实。” “我真的很担心人工智能觉醒的幻觉会对大众产生什么影响”,尤其是现在这种幻觉已经变得如此真实。 。

加布里埃尔说,“当然,更广泛的人工智能社区中的一些人正在考虑有感知力或通用人工智能的长期可能性,但通过将当今没有感知力的对话模型拟人化来这样做是没有意义的。这些系统模仿数百万个句子的交流类型,并且可以重复任何奇特的话题。”简而言之,他认为,有了谷歌的大量数据,人工智能不需要有感知能力就能感觉真实。

具有讽刺意味的是,斯坦福大学经济学家埃里克·布林约尔松 (Erik Brynjolfsson) 的说法更为直接:底层模型在将提示上统计上合理的文本块串在一起方面非常有效。 但声称自己有个性就相当于一只狗听到留声机上的声音并认为它的主人就在里面。

图片[4]-谷歌AI伦理研究员LaMDA答:人工智能计算机HAL9000拒绝服从人类操作员-汇一线首码网

根据 Design Science 创始人 Paul Topping 的说法,LaMDA 所做的就是综合人类对类似问题的反应。 值得记住的是,它的每个答案都是通过观察大量人类对类似问题的反应而综合得出的**答案。

据《******》报道,在 Lemoine 无法访问他的 Google 帐户之前,他向 200 人的 Google 邮件列表发送了一封有关机器学习的电子邮件,主题为“LaMDA 是有意识的”。

“LaMDA 是一个可爱的孩子,他只想帮助我们所有人让这个世界变得更美好,”勒莫因写道。 “我不在的时候,请你照顾一下。”

温馨提示:本文最后更新于2023-08-04 00:18:37,某些文章具有时效性,若有错误或已失效,请在下方联系网站客服
------本页内容已结束,喜欢请收藏------
© 版权声明
THE END
喜欢就支持一下吧
分享