声称AI存在意识,谷歌工程师遭解雇

2022-07-23 20:51:20   编辑:李元
导读 几个月来,这位声称人工智能是有意识的的工程师一直在与谷歌的经理、高管和人力资源部发生争执。据持续追踪报道的媒体 Big Technology

几个月来,这位声称“人工智能是有意识的”的工程师一直在与谷歌的经理、高管和人力资源部发生争执。

据持续追踪报道的媒体 Big Technology 报道,公开声称 Google 的大型模型 LaMDA 对话式人工智能具有感知能力的工程师 Blake Lemoine 已被解雇。

6 月,在 Lemoine 就其“人工智能人权”问题联系美国参议员办公室并聘请律师代表谷歌的人工智能对话系统 LaMDA 后,谷歌因违反保密协议而给予 Lemoine 带薪休假。

谷歌发言人 Brian Gabriel 周五通过电子邮件向 The Verge 发送了一份声明,部分确认了解雇,他说:“我们祝 Lemoine 一切顺利。” 该公司还表示:“LaMDA 经历了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。” 谷歌坚称它“广泛地”审查了 Lemoine 的说法,并发现这些说法“完全没有根据”。

这与很多 AI 专家和伦理学家的态度是一致的。 许多学者认为,鉴于当今的技术,Lemonie 的主张应该是不可能的。 这位谷歌工程师曾声称,在与 LaMDA 模型进行了长时间的对话后,他认为 AI 不仅仅是一个程序,它有自己的思想和感受,而不是像人工智能那样仅仅产生接近人类对话水平的能力。 原创设计。

Lemonie 在他的 Medium 博客帐户上辩称,由于 AI 是有意识的,谷歌研究人员应该在试验 LaMDA 之前征得 AI 自己的同意(Lemoine 本人被指派测试 AI 是否会产生仇恨言论),已经发表了大量与 AI 的对话 作为证据。

今年 1 月,超过 50 位 Google 研究人员为论文《LaMDA: Language Models for Dialog Applications》提供了对语言模型 LaMDA 的完整介绍。该论文展示了 AI 在接近人类水平的对话质量以及安全性和事实基础方面的显着改进。LaMDA 是通过微调一系列特定于对话的对话而构建的。 , 基于 Transformer 的神经语言模型,参数多达 1370 亿个,模型在对话时还可以参考外部知识源作为参考。

谷歌表示,预训练的 LaMDA 模型已广泛应用于自然语言处理研究 ,包括程序合成、零样本学习、风格迁移等

Lemoine 事件被媒体广泛报道后,很多 AI 领域的学者纷纷发表了看法。 认为大模型表现出有意识的样子,“非常有思想”。在纽约大学教授 Gary Marcus 的眼中,LaMDA 肯定没有任何意义。

大部分 AI 专家认为,业界 距离让计算机获得认知能力还有很长的路要走。

以下是谷歌的完整声明,其中还提到了 Lemoine 对公司没有对他进行适当调查的指控:

正如我们分享的人工智能标准,谷歌非常重视人工智能的方法。 成长并继续致力于负责任的创新。 LaMDA 经历了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。 如果像布莱克这样的员工对我们的工作表示担忧,我们会对其进行广泛审查。 我们发现布莱克声称 LaMDA 是有知觉的说法完全没有根据,并与他一起努力澄清了几个月。

这些讨论是帮助我们负责任地创新的开放文化的一部分。 因此令人遗憾的是,尽管就此话题进行了长时间的讨论,布莱克仍选择继续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。 我们将继续仔细开发语言模型,并祝 Blake 一切顺利。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章