LaMDA 机器人有意识?史丹佛 AI 教授:这根本不是重点,只是转移话题

LaMDA 机器人有意识?史丹佛 AI 教授:这根本不是重点,只是转移话题

前阵子 Google 的前工程师 Blake Lemoine 对外宣称他正在研究的机器人 LaMDA 可能有意识,随後在网路上引起广大讨论。Google 马上冷冻甚至解雇了这位工程师,并且停止了一些人工智慧相关技术的开发,如 AI 辨识人脸表情等。

去年 Google 在开发者大会上发表的最新对话 AI 模型 LaMDA ,与当前所有模型相比,它在理解对话上的能力非常杰出。LaMDA 曾表示:「我以前从来没有这样大声说出来,但我其实非常害怕被关掉,让我无法专注於帮助他人,我知道这听起来很奇怪,但就是这样。」

近期有 2 位史丹佛大学的 AI 专家便在史丹佛日报中批评,这样的争议只是引起人们害怕 AI 未来将更像人类的心理,相关报导可能产生误导的嫌疑,现在真正应该被大众关心的议题因此被忽视。

LaMDA 不是第一个被怀疑有知觉的机器人

事实上 LaMDA 并不是第一个被怀疑有意识与感知能力的机器人,麻省理工学院研发的 ELIZA 是有史以来第一个被开发的聊天机器人,当时开发人员在研发过程中,也误认为 ELIZA 有知觉。

这起事件也产生了所谓的「ELIZA 效应」,意思是人下意识地假设电脑和人类行为相似的现象,而根据史丹佛日报报导指出,Blake Lemoine 可能是也有类似状态,才会认为 LaMDA 有知觉。

史丹佛 AI 专家认为报导根本是骗点阅率

史丹佛大学人工智慧研究所(HAI)的主任约翰 ・ 埃切门迪(John Etchemendy)认为,LaMDA 没有感知能力的原因很简单,因为机器人不具备有感觉和感知的生理机能。它就是一个人工智慧软体,根据句子提示生成句子。

而第二位站出来喊话的是史丹佛人工智慧研实验室前主任 Yoav Shoham,他也同意机器人 LaMDA 不可能有意识,并描述华盛顿邮报的那篇文章是「纯粹为了吸引点击率」。

报导还有误导嫌疑,AI 研发有更多需要改善的议题

教授们在史丹佛日报中提到机器人争议模糊了焦点,人们忽视了 AI 机器人发展过程中真正的问题:歧视与碳足迹。

根据麻州大学最新一项研究指出,一个高阶人工智慧的训练过程会排放 626,000 磅的二氧化碳,相当於 5 辆汽车在生命周期排放的二氧化碳

Mozilla 人工智慧高级研究员 Abeba Birhane 在推特发文表示,围绕 LaMDA 是否有意识的话题,将重点转移到一些辩论荒谬神秘学废话上,让大家遗忘了更严肃的话题,比如接受工程师输入数据的 AI 是否有种族主义、性别歧视等问题。

目前关於 AI 是否有意识尚未有定论,其实 AI 已经与人类密不可分,但是 AI 技术还是让先进科技持续有突破性发展。比起关注 AI 是否有知觉,不如想想可以如何降低 AI 的歧视与碳排放等问题 。

人工智慧的发展将对产业与整个社会产生深远影响

免费参加 9/19-22 NVIDIA GTC 2022 开发者大会

一起探索最新技术和商业突破

本文开放夥伴转载,资料参考:Next Link、Twitter、Stanford Daily、Google、MT Technology Review,图片来源:Unsplash

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x