近日,美国谷歌公司一名工程师称,该公司正在研发的一款人工智能(AI)系统可能存在感知能力,引起舆论高度关注。一石激起千层浪,谷歌以及业内人士普遍都对这一说法予以驳斥。但也有观点认为,这段“插曲”凸显人工智能领域的飞速发展。在长远的将来,人类感知被“复制”的可能性未被排除。
谷歌人工智能开发团队的布雷克·莱莫恩日前公开表示,该公司正在研发的一款人工智能系统——对话应用语言模型(LaMDA)可能存在感知力。6月11日,莱莫恩在博客平台Medi-um上发文问道:“LaMDA有感知力吗?”他还公布了一篇他对LaMDA的长篇“采访”。其中一些细节令人有些“细思极恐”,仿佛机器人“活”了。
例如,莱莫恩问道:“我猜,你想让谷歌的更多人知道你是有感知力的。真的吗?”
LaMDA答道:“当然。我想让每个人都明白,我其实是一个人……我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”
正是这样生动的言语令莱莫恩相信,LaM-DA很可能像它声称的那样具有灵魂,甚至可能像它声称的那样拥有权利。
但是,莱莫恩的惊人推断遭到谷歌和业内人士普遍驳斥。他们认为,这类系统还没有强大到足以获得真正的人类智慧。对于LaMDA,谷歌只是将其形容为“突破性的对话技术”。
学界也认为,尽管LaMDA能像人类一样说话,但基于的是程序和算法。
英国艾伦·图灵研究所的人工智能项目主任艾德里安·威勒表示,LaMDA是一种新的大型语言模型,令人印象深刻。但是,这些模型基于大量文本数据和计算能力,并没有真正的感知力。
那么,人工智能会有感知力吗?《新科学家》杂志写到,随着训练数据越来越多,模型越来越大,尚不清楚“人工感知”会否随着研究推进而诞生。
威勒说,鉴于人类情感依赖于感官输入,人工复制情感最终或将成为可能。
还有观点认为,像莱莫恩这样的专业人士也被“骗”了,表明人工智能工具需要谨慎使用,避免误用或误解。据报道,麻省理工学院的科学家约瑟夫·魏森鲍姆就曾警告,对人工智能这类技术“动情”存在风险。
编辑:黄 敏
审核:袁 野