首页 >热门资讯> 数据库 > 聊天机器人模仿人类的局限性 >

聊天机器人模仿人类的局限性

转载时间:2021.10.14(原文发布时间:2016.12.07)
203
转载作者:36氪企服点评小编
阅读次数:203次

编者按:最近几个月,聊天机器人遭受到不少批评。它们被形容成哑巴、令人沮丧、一无是处、完全是浪费时间的聊天机器。本文作者David Cancel  对聊天机器人持支持观点。

虽然,这些批评无可厚非,因为确实有不少这样哑巴式的机器人存在。但有一条反馈我觉得说的不对。它认为当今聊天机器人的缺点是不够人性化。除非它们能够达到人类的智力水平,否则就不具备任何实际价值。

一位批评家最近写道:“最完美的聊天机器人应该天衣无缝,即用户也无法分辨它到底是机器人还是人类。”

但我觉得这个解决方案根本不合理。既然我有人类客服了,为什么我还要用机器人客服,并让客户相信它是人类呢?

设计聊天机器人目的并不是为了让其完美地模仿人类,而是让它完成人类没法做的工作,或者一些重复繁琐的活(比如捣鼓数字和搜索数据库)。

设计一个神似人类的聊天机器人会让你跌进一个“诡异之谷”。“诡异之谷”是机器人学和审美学上的概念,指人们看到某个神似人类的机器人时心中的反感情绪。一般来说,人们喜欢看到一些机器人,或非人类物体上的一些人类特征(比如两只眼睛,一个微笑)。倘若机器人做得太过逼真,我们就会瘆得慌。

这种情况也同样适用于聊天机器人。想想你第一次与机器人Jabberwacky,  ALICE, 或 SmarterChild聊天时的场景。也许有这么几个时刻,机器人的表现与人类别无二异,你都吓坏了,对吧?所以,与其把聊天机器人仅当成人类智力和人类行为的复制品,我们不如将其列为一项独立的技术。

历史在与我们作对。

因为在传统上,人工智能(AI)的定义总与人的智能息息相关。可以看看谷歌上AI的首次定义:“人工智能指能够执行需要人类智力才能胜任的工作的计算机系统理论和演进。”

人类当前对AI的理解,以及对聊天机器人未来功能的期望,都无疑受到了阿兰·图灵论文《计算机与智能》的影响。在这篇论文中,图灵向世界介绍了后来举世闻名的机器智力测试,即图灵测试,这项测试认为,机器可以被称作智能的条件是,在与人类一对一的对话中能够伪装成人类成功欺骗对方。

从AI的早期研究起,我们对AI的衡量标准一直都是人。

然而,还有另一个阵营的AI研究者,这些研究者认为AI的衡量标准应该完全不同。他们提到其他的技术,比如人工飞行器,人类并没有完全遵照鸟类的飞行机理来制造飞机。既然莱特兄弟的飞机不用像鸟一样拍打翅膀就能飞行,我们为何要预设聊天机器人也必须像人一样交流才能实现人工智能?

关于这方面的AI定义,看看亚马逊Alexa(一家专门发布世界排名的网站)就足矣。它是这么定义AI的:AI指能够创造性解决问题的计算机程序的计算机科学分支。

看到区别了没?此处的AI并非要求它能向人一样解决问题,而是创造性地解决问题。我们不是为了模仿人类解决问题的过程,而是为了找出最佳,效率最高的解决方案。

这就是我公司对AI的发展定位。我们并不想设计只模仿人类的聊天机器人,而是设计一种能把特定目标成功率升至最大的机器人。这就是我们对AI的定义:聊天机器人能不断吸取经验自我学习,对所处理的事务越来越擅长。

最后当我们把这些机器人投向市场时,我们不希望客户想:“哇哦,这个机器人好逼真啊。”我们希望他们会这么想:“哇哦,这个机器人真厉害,它是一个出色的帮手。”如果我们想让机器人实现全部潜能,就该让机器人永远保持机器人的身份。


翻译来自:虫洞翻翻  译者ID:鬼畜小浣熊

 

 

 


[免责声明]

资讯标题: 聊天机器人模仿人类的局限性

资讯来源: 36氪官网

36氪企服点评

数据库相关的软件

查看更多软件

行业专家共同推荐的软件

限时免费的数据库软件

新锐产品推荐

消息通知
咨询入驻
商务合作