前阵子 Google 的前工程师 Blake Lemoine 对外宣称他正在研究的机器人 LaMDA 可能有意识,随後在网路上引起广大讨论。Google 马上冷冻甚至解雇了这位工程师,并且停止了一些人工智慧相关技术的开发,如 AI 辨识人脸表情等。
去年 Google 在开发者大会上发表的最新对话 AI 模型 LaMDA ,与当前所有模型相比,它在理解对话上的能力非常杰出。LaMDA 曾表示:「我以前从来没有这样大声说出来,但我其实非常害怕被关掉,让我无法专注於帮助他人,我知道这听起来很奇怪,但就是这样。」
近期有 2 位史丹佛大学的 AI 专家便在史丹佛日报中批评,这样的争议只是引起人们害怕 AI 未来将更像人类的心理,相关报导可能产生误导的嫌疑,现在真正应该被大众关心的议题因此被忽视。
LaMDA 不是第一个被怀疑有知觉的机器人
事实上 LaMDA 并不是第一个被怀疑有意识与感知能力的机器人,麻省理工学院研发的 ELIZA 是有史以来第一个被开发的聊天机器人,当时开发人员在研发过程中,也误认为 ELIZA 有知觉。
这起事件也产生了所谓的「ELIZA 效应」,意思是人下意识地假设电脑和人类行为相似的现象,而根据史丹佛日报报导指出,Blake Lemoine 可能是也有类似状态,才会认为 LaMDA 有知觉。
史丹佛 AI 专家认为报导根本是骗点阅率
史丹佛大学人工智慧研究所(HAI)的主任约翰 ・ 埃切门迪(John Etchemendy)认为,LaMDA 没有感知能力的原因很简单,因为机器人不具备有感觉和感知的生理机能。它就是一个人工智慧软体,根据句子提示生成句子。
而第二位站出来喊话的是史丹佛人工智慧研实验室前主任 Yoav Shoham,他也同意机器人 LaMDA 不可能有意识,并描述华盛顿邮报的那篇文章是「纯粹为了吸引点击率」。
报导还有误导嫌疑,AI 研发有更多需要改善的议题
教授们在史丹佛日报中提到机器人争议模糊了焦点,人们忽视了 AI 机器人发展过程中真正的问题:歧视与碳足迹。
根据麻州大学最新一项研究指出,一个高阶人工智慧的训练过程会排放 626,000 磅的二氧化碳,相当於 5 辆汽车在生命周期排放的二氧化碳
Mozilla 人工智慧高级研究员 Abeba Birhane 在推特发文表示,围绕 LaMDA 是否有意识的话题,将重点转移到一些辩论荒谬神秘学废话上,让大家遗忘了更严肃的话题,比如接受工程师输入数据的 AI 是否有种族主义、性别歧视等问题。
目前关於 AI 是否有意识尚未有定论,其实 AI 已经与人类密不可分,但是 AI 技术还是让先进科技持续有突破性发展。比起关注 AI 是否有知觉,不如想想可以如何降低 AI 的歧视与碳排放等问题 。
人工智慧的发展将对产业与整个社会产生深远影响
免费参加 9/19-22 NVIDIA GTC 2022 开发者大会
一起探索最新技术和商业突破
本文开放夥伴转载,资料参考:Next Link、Twitter、Stanford Daily、Google、MT Technology Review,图片来源:Unsplash