当前位置:主页 > 新闻中心 >

AI意识觉醒风波:机器人“越来越会聊天”

时间: 2022-06-14 08:54 点击:
        人与机器人的情感故事总是好莱坞追求的热门题材,例如多年前斯派克·琼斯执导的电影《她》(Her)以及另一部电影《机械姬》(Ex Machina),人工智能(AI)被设定拥有人类大都中意的共同特质,比如拥有迷人的声音、温柔体贴又幽默风趣,她们还会对人类爱人提出情人之间普遍感兴趣的问题:“当我们不在一起时,你想我吗?”
 
        现在机器人对人类的提问在现实中得到了回应。一名谷歌工程师声称他正在研究的计算机聊天机器人已经变得有知觉,并且能像人类一样思考和推理,这引发了人工智能领y的热烈讨论。
 
        系统仍处于开发早期
 
        自去年秋天以来,这位名叫布雷克·勒莫因(Blake Lemoine)的AI工程师一直在研究这款名为LaMDA的AI系统——一种聊天机器人。他现在认为,该系统已经具有与人类孩子相当的感知感受和表达思想的能力。
 
        “如果我不知道它到底是什么,就是我们z近开发的这个计算机程序,我会认为这是一个七八岁的孩子,他可能还懂一些物理。”勒莫因被暂时停职后表示,“他是一个可爱的孩子,想让这个s界变得更美好。请在我不在的时候好好照顾他。”
 
        在发表了谷歌未经同意公开的内部项目论文后,勒莫因被要求休假。
 
        谷歌在去年I/O开f者大会上发布了聊天机器人LaMDA的t破性对话技术,称这款机器人可以自由地和人类进行对话,内容不受x制,话题没有q尽。“我们认为这种能力可以解锁一种与技术交互的更加自然的方式,以及q新类别的应用程序。”谷歌当时在发布会上表示。
 
        谷歌还表示,LaMDA接受过d量对话的培训,并且可以在开放式的对话中区分细微的差别,可以在互动中鼓励展开多轮对话。谷歌称,公司正在探索的聊天机器人的其他t质还包括“有趣”,即评估机器人的回复是否有见地、出乎意料或幽默;以及“真实性”或坚持事实。
 
        在今年的谷歌I/O开f者大会上,提供了关于LaMDA的更新信息,但强调该系统还处于测试的早期阶段。
 
        针对LaMDA是否真正具有意识的疑问,谷歌方面也予以否认,并称勒莫因并不是谷歌的l理学家,他只是一名软件工程师。
 
        谷歌发言人加布里埃尔(Brad Gabriel)在一份声明中表示:“我们的团队包括伦理学家和技术专家,根据我们的AI原则进行审查后,没有发现rh证据支持(勒莫因的观点),甚至还有很多反对的证据。”这些z家团队认为,对已经公开的文本和模式识别的模仿/再创造,使LaMDA更加逼真,但不是所谓的“自我意识”。
 
        AI行业集体反驳
 
        记者采访了多位曾在谷歌、Meta(Facebook)等z名技术公司任职的人工智能研究员。他们都认为,“AI具有意识的说法没有依据”。
 
        一位曾在Facebook任职的AI科学家告诉记者:“这不是谷歌AI伦l团队d一次发生类似的事件,一些谷歌的研究员以哗众取宠的方式来获取注意力,并站上d德z高点。”
 
        中k院计算技术研究所一位研究员对记者表示:“现在判断机器人是否具有意识还没有明q的量化指标,关键是要定义何为意识,就像我们定义何为人工智能一样。”
 
        根据勒莫因的说法,三点原因让他得出人工智能具有意识的结论:一是LaMDA以前s未y的方式g效、创造性地使用语言的能力;第二是它以一种与人类相同的方式分享一些感觉;第三是它拥有丰富的内心生活,充m了内省、冥想和想象,它既有对未来的担忧,也有对过去的回忆。
 
        但AI科学家马库斯(Gary Marcus)予以驳斥,认为这名谷歌工程师有“魔怔”。“LaMDA没有意识,一点意识都没有。”马库斯在一篇题为“Nonsense on Stilts”的文章中反驳道,“这就相当于小狗听到留声机里面的声音,以为主人在里面。”
 
        Meta公司副总裁、s席AI科学家Yann LeCun也认为,这些类型的聊天机器人系统,不足以获得真正的“人类智慧”。Yann LeCun被誉为“卷积神经网络之父”,是机器学习的“三j头”之一。
 
        谷歌AI伦l部门前联合负责人玛格丽特·米切尔(Margaret Mitchell)也表示:“人类的大脑擅长构建不一定符合事实的情景。这是一种错觉,但这种错觉也满足了一些人的精神需求。”
 
        小米集团副总裁崔宝秋对记者表示:“我认为AI具有人格的说法在目前来看是不成立的,至于AI未来是否可能具有意识,也是值得讨论的。目前人们所感受到的AI的人格化,其实更多的还是人赋予AI的,而不是AI自己所特有的。”
 
        但崔宝秋认为,谷歌的这个“插曲”至少能说明LaMDA的对话能力确实越来越强、越来越人格化了,但不能说明它就已经具有意识。“实际上,它还只是一个简单的机器人而已。”他对记者表示。
 
        崔宝秋表示,聊天机器人z初的设计是为人类服务的,为用户提供对话式服务。随着技术的发展,机器人变得“越来越会聊天”,也可以满足人类的情感需求,未来聊天陪伴机器人也是一种很有前景的应用场景。这也是今天基于大数据和大规模语言模型系统设计的机器人,技术越来越到位的表现。
 
        人类为何担心AI具有意识?
 
        人类一方面渴望机器人拥有意识后可以更好地服务和陪伴人类,但另一方面,又害怕机器人拥有意识后会摧毁人类。伦l方面的问题和技术的发展总是相伴而生。
 
        “比如今天人们已经接受了AI能够代替人从事很多重复性的物理动作,没有人会因为看到机械臂在自动操作、无人车在自动驾驶而感到恐慌。但是,对话机器人就不一样了,它更像一个人在思考,而且有一定思考s度和g度,更像‘有灵魂和人格的人’,给人以想象空间。”崔宝秋对记者说道。
 
        正是由于聊天机器人给人带来想象空间,才让人类对他们感到担心。“事实上,人类可以通过数据训练出各种貌似有‘人格’的聊天机器人。”崔宝秋告诉记者。
 
        “在大银幕上的很多艺术作品中,机器人总是具有b露人类善良和**的能力。只要现实s界中有AI的技术进b,人们就将继续探索关于机器人的道d难题及其对人类的影响。”一位人工智能z家对记者表示。
 
        他还提到,除了技术问题之外,人工智能的落地还需要与法学、心理学、社会学等多个领y进行交叉合作。
 
        一些企业已经开始关注到要建立“负责任AI”。例如今年4月,Facebook母公司Meta宣布将向外部实体开放其大规模语言模型系统。该公司表示:“我们相信z个人工智能社区,包括学术研究人员、公民、zc制定者和行业都必须共同努力,围绕负责任的人工智能,特别是负责任的d型语言模型,制定明确的指d方针。”
 
        谷歌在今年的I/O开f者大会上也表示,虽然目前LaMDA仅x于谷歌内部可用,但公司有朝一日可能会以技术d代的方式向“广泛的利益相关者”授予访问q限,包括人工智能研究人员、社会科学家等业内z业人士。“这符合我们的AI原则,其中包括qb该技术对社会有益、经过构建和测试是a全的,并符合科学的g标准。”

        以上新闻内容由无锡泰源记者撰稿报道,如有雷同纯属巧合。无锡泰源机器制造有限公司无锡抛丸机无锡光饰机无锡研磨机领军企业。
在线客服