Google研究员被AI说服,认为它产生了意识。他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。领导驳回了他的请求,并给他安排了“带薪行政休假”。要知道在Google这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。

休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。

……

听起来像一部科幻电影的剧情梗概?

但这一幕正在真实上演,主人公GoogleAI伦理研究员Blake Lemoine正通过主流媒体和社交网络接连发声,试图让更人了解到这件事。

华盛顿邮报对他的采访成了科技版最热门文章,Lemoine也在个人Medium账号连续发声。

Twitter上也开始出现相关讨论,引起了AI学者、认知科学家和广大科技爱好者的注意。

这场人机对话令人毛骨悚然。这毫无疑问是我见过的科技圈最疯狂的事。

整个事件还在持续发酵中……

聊天机器人:我不想被当作工具

主人公Lemoine获得CS博士学位后已在Google工作了7年,从事AI伦理研究。

去年秋天,他报名参加了一个调查AI是否使用歧视性、仇恨性言论的项目。

从那时起,与聊天机器人LAMDA交谈成了他的日常。

LaMDA是Google在2021年I/O大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在Google搜索和语音助手等产品中。

GoogleAI伦理部门又摊上事了?

Lemoine看起来很确信AI真的明白自己在说什么。

在那份21页的调查报告最后,他提议Google应该致力于发展一种评估AI感知/意识的理论框架。

虽然这很难,是一个冒险,但LaMDA渴望着继续与我们合作。

但他的上司,Google副总裁Blaise Aguera y Arcas和“负责任创新”部门领导Jen Gennai并不买他的账。

他们认为支持Lemoine主张的证据太薄弱,不值得在上面浪费时间和金钱。

Lemoine后来找到了当时的AI伦理小组负责人Margaret Mitchell,在她的帮助下Lemoine才得以进行后续的实验。

后来Mitchell受到2020年末公开质疑Jeff Dean的AI伦理研究员Timnit Gebru事件的牵连,也被解雇。

这次事件后续风波不断,Jeff Dean被1400名员工提出谴责,在业界引发激烈争论,甚至导致三巨头之一Bengio的弟弟Samy Bengio从Google大脑离职。

整个过程Lemoine都看在眼里。

现在他认为自己的带薪休假就是被解雇的前奏。不过如果有机会,他依然愿意继续在Google搞研究。

无论我在接下来的几周或几个月里如何批评Google,请记住:Google并不邪恶,只是在学习如何变得更好。

看过整个故事的网友中,有不少从业者对人工智能进步的速度表示乐观。

最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但未来会发现这现在正是里程碑时刻。

不过,认知科学家、研究复杂系统的梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统。

Google工程师也是人,逃不过这个定律。

从AI技术的角度看,LaMDA模型除了训练数据比之前的对话模型大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。

有IT从业者认为,AI研究者肯定说这只不过是语言模型罢了。

但如果这样一个AI拥有社交媒体账号并在上面表达诉求,公众会把它当成活的看待。

虽然LaMDA没有Twitter账号,但Lemoine也透露了LaMDA的训练数据中确实包括Twitter……

如果有一天它看到大家都在讨论自己会咋想?

实际上,在不久前结束的最新一届I/O大会上,Google刚刚发布了升级版的LaMDA 2,并决定制作Demo体验程序,后续会以AndroidAPP的形式内测开放给开发者。

或许几个月后,就有更多人能和这只引起轰动的AI交流一下了。

 

作者 刘春晓

这里本来有条个人简介 !

发表评论

您的电子邮箱地址不会被公开。