据《华盛顿邮报》报道,谷歌的一名工程师在担心人工智能聊天机器人系统已经获得感知能力后,因涉嫌违反其保密政策而将其置于带薪行政假。工程师 Blake Lemoine 在 Google 的责任 AI 组织工作,正在测试其 LaMDA 模型是否会产生歧视性语言或仇恨言论。
据报道,这位工程师的担忧源于他看到人工智能系统对其权利和机器人伦理产生的令人信服的回应。4 月,他与高管分享了一份文件,标题为“ LaMDA Sentient 吗?” 包含他与 AI 对话的记录(在休假后,Lemoine通过他的 Medium 帐户发布了记录),他说这表明它认为“它是有感觉的,因为它有感觉、情感和主观体验。”
谷歌认为 Lemoine 与他在 LaMDA 上的工作有关的行为违反了其保密政策、《 华盛顿邮报》和《卫报》的报道。据报道,他邀请了一名律师代表 AI 系统,并与众议院司法委员会的一名代表就谷歌声称的不道德活动进行了交谈。在6 月 6 日的 Medium 帖子中,在 Lemoine 被行政休假的那天,这位工程师说他寻求“最少的外部咨询来帮助指导我的调查”,他与之讨论过的人名单包括美国政府雇员。
这家搜索巨头去年在 Google I/O 上公开宣布了 LaMDA ,它希望这将改善其对话式 AI 助手并进行更自然的对话。该公司已经在 Gmail 的 Smart Compose 功能或搜索引擎查询中使用了类似的语言模型技术。
在给WaPo的一份声明中,谷歌的一位发言人表示,“没有证据”表明 LaMDA 是有知觉的。“我们的团队——包括伦理学家和技术专家——根据我们的人工智能原则审查了布莱克的担忧,并告知他证据不支持他的说法。他被告知,没有证据表明 LaMDA 是有知觉的(并且有很多证据反对它),”发言人布赖恩·加布里埃尔 (Brian Gabriel) 说。
采访 LaMDA。谷歌可能会称之为共享专有财产。我称之为分享我与一位同事的讨论。https://t.co/uAE454KXRB
“当然,更广泛的人工智能社区中的一些人正在考虑有感知或一般人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没有意义的,”加布里埃尔说。“这些系统模仿了数以百万计的句子中的交流类型,并且可以重复任何奇幻的话题。”
“数百名研究人员和工程师已经与 LaMDA 进行了交谈,我们不知道还有其他人像 Blake 那样做出广泛的断言,或将 LaMDA 拟人化,”Gabriel 说。
WaPo采访的一位语言学教授同意,将令人信服的书面答复与感知等同起来是不正确的。“我们现在拥有可以无意识地生成文字的机器,但我们还没有学会如何停止想象它们背后的思想,”华盛顿大学教授 Emily M. Bender 说。
2020 年被 Google 解雇的著名 AI 伦理学家Timnit Gebru (尽管这家搜索巨头声称她已辞职)表示,关于 AI 感知的讨论可能会“破坏”围绕人工智能使用的更重要的伦理对话。“没有讨论这些公司的危害,而是性别歧视、种族主义、人工智能殖民主义、权力中心化、白人的负担(建立良好的“AGI”[人工智能]来拯救我们,而他们所做的却是剥削)。整个周末都在讨论感知,”她在推特上写道。“脱轨任务完成。”
尽管有他的担忧,Lemoine 表示他打算在未来继续研究人工智能。“无论谷歌是否让我继续工作,我的意图都是留在人工智能领域,”他在推文中写道。
标签:
版权声明:本文由用户上传,如有侵权请联系删除!