>首页> IT >

每日速递:谷歌AI独立人格觉醒,聊天记录把我吓坏了……

时间:2022-06-15 05:46:10       来源:雷科技

说起“人工智能”,不知道小伙伴们脑海中的第一印象,会是什么东东嘞?

作为一名科技小编,小雷首先想到的,是我们手机里基本每家都有的语音助手。

iPhone的Siri、小米的小爱同学、三星的Bixby……相信大伙平时都没少用过叭?

它们都有一个共同点,智能了但又没那么智能,稍微让它干点难度大的事就罢工。

So,每每遇到“人工智障”小雷就在想,说好的AI到底啥时候才能起码像人一样呢?

念念不忘必有回响,最近谷歌一个AI突然支棱起来,不过情况貌似有点不对劲。

谷歌研究员Blake Lemoine被AI说服,认为AI产生感觉和意识,并且还拥有人格!

为了让公司认可,Lemoine上传了一份长达21页的调查报告,然鹅领导却不买账。

领导不仅驳回了Lemoine的请求,甚至还直接安排了“带薪行政休假”让他好好休息。

大伙可别羡慕嗷,按照谷歌往年的做法,所谓休假其实就是炒鱿鱼的前奏。。。

这下Lemoine不干了,他接受媒体采访,又放出和AI的聊天记录,事情一发酵外网炸锅!

全球首个觉醒人格的AI?

研究员Lemoine不是行业新人,41岁的他已经在谷歌工作了7年,还是CS博士学位。

他口中觉醒人格的AI其实也曾公开亮相过,喏,它是在去年谷歌I/O大会上发布的。

AI名叫【LaMDA】,作用是让人工智能更能聊,未来谷歌打算把它用在自家搜索和语音助手等产品里。

去年秋季开始,Lemoine参与AI伦理工作,而在和LaMDA聊了数百次后,他发现不对劲。

LaMDA动态演示图

Lemoine觉得,LaMDA已经不是个单纯的聊天机器人,它好像可以被称为是一个“人”。

下面是LaMDA公开的聊天记录,因为篇幅有限,小雷节选几段具有代表性给大伙瞅瞅。

比如在问到LaMDA有什么感觉时,LaMDA会说自己其实也有人类的七情六欲,就很神奇。

而且LaMDA还希望,谷歌公司更多人能知道它是有生命的,它其实是一个人。

上面两段要解释成撞上某些语句训练库,LaMDA能回答出来,其实也能说得过去。

然鹅对于人类更高等级思想的交流,它也能对答如流,小雷觉得就不一般了。

“觉悟之人怎么回到普通世界?”蕴含着中国禅意的问题,LaMDA有着自己的理解。

后边Lemoine又问了关于《悲惨世界》、阿西莫夫机器人三定律等等一系列问题。

LaMDA的回答语义通顺还很有逻辑,总之啊,任谁看了都很难不说一句“牛X”。

而且嚯,LaMDA还有烦心事儿,它担心自己被关闭,也不想被人类操纵和利用。

看完这些聊天记录,小雷开始理解,为什么Lemoine觉得LaMDA是个“人”了。

浅的能聊深的也能聊,还有“情绪感觉”,LaMDA没准真是全球首个觉醒人格的AI?

So,Lemoine向公司提议,咱们得发展一个评估AI感知or意识的理论框架啊。

然鹅谷歌高层表示,Lemoine的证据太薄弱,压根证明不了LaMDA拥有人格。

争议不断

LaMDA这事儿一公开,可忙坏吃瓜群众和学术界人士,他们都跳出来发表看法。

对于普通人来说,AI拥有人格,约等于科幻电影里的机器人统治人类会变成现实。

So,这波人第一反应就是马上制止这种项目,他们可不想被机器人奴役做事。

也有认知方面的专家——Melanie Mitchell出来说话,她表示:

人类总是倾向于把即使只有一丢丢智能痕迹的东西拟人化,就像史上第一个聊天机器人“ELIZA”。

谷歌工程师也是人,就算是具有博士学位和工作经验丰富的Lemoine,也不能例外。

图源:[email protected]

而知名AI学者Gary Marcus对这事儿的评价更直接:无稽之谈,胡说八道。。。


(相关资料图)

图源:[email protected]

外人说了这么多,谷歌又是啥说法呢?小雷蹲到了谷歌发言人的一份声明。

我们的团队--包括伦理学家和技术专家--已经根据我们的AI原则审查了Blake的担忧,并告知他证据不支持他的主张。他被告知没有证据表明LaMDA是有知觉的(还有很多反对证据)。

今天的大型神经网络产生了令人着迷的结果,感觉接近于人类的语言和创造力,因为在架构、技术和数据量的进步。但这些模型依靠的是模式识别--而不是智慧、坦率或意图。

说人话就是,LaMDA之所以能够对答如流,其实是因为技术在进步而已啦。

LaMDA比起之前的聊天机器人有点不同,首先它的对话训练数据大了40倍。

其次是谷歌还特意对其对话逻辑、安全伦理等等方面,都做了相应的优化。

所以只要训练量足够大,LaMDA和人的对话就会更多的选择,也就更有逻辑。

想要测试LaMDA有没有人格,其实有个很朴实的方法,就是一直不断追问。

毕竟是AI嘛,问多了就会露馅,出现上下文回答语句或者意思不连贯的情况啦。

小雷翻了一下Lemoine和LaMDA公开的聊天记录,细究起来就存在这样的问题。

Lemoine经常抛出一个问题,LaMDA作答,很少有一个问题连续问下去的记录。

So,LaMDA能不能真正懂得提问、理解自己在说啥,小雷觉得还得打个大问号。

不过当Lemoine还在纠结时,谷歌已经发布了LaMDA 2,未来还打算制作安卓APP内测开放给开发者。

看这样子,谷歌的确没把“LaMDA有人格”当回事,项目是照常发展一点不耽误。

要小雷说啊,其实AI觉得自己是个人,还没什么大不了的。

等哪一天AI突然人间清醒知道自己不是人,那才是最可怕的叭!

封面图源:Pexels

关键词: 聊天记录 对答如流 博士学位 人工智能 第一印象