您的位置:首页 >> 新闻中心 >> 机器人新闻

机器人新闻

  • 聊天机器人和语言学的神奇谷

  • 您对聊天机器人感兴趣吗?如果是这样,您可能已经熟悉了声乐交互这一具有挑战性的话题...作为一名使用我们的机器人从事这一主题的SoftBank机器人语言学家,我参加了一次语言学会议,以检查该问题的最新状态。这是我在那里学到的!

    2019年6月,第十六届国际实用会议在香港举行-不,这不是一个非常实际的人的聚会,尽管该组织肯定是:“实用”是语言学和符号学的一个子领域,研究语境的方式有助于意义(应对使用的语言和使用它的上下文)。作为在软银机器人公司从事人机交互工作的语言学家,这本身很有趣,但是却变得更好:一个名为“后人类主义语用学:数字化奇异谷中的语言相遇”的小组讨论如下:

    在此小组中,我们将探讨日常生活中人机交互的实用方面,包括:

    • 阅读和产生算法文本
    • 与物联网,Alexa或Siri等软件代理以及社交媒体机器人进行的话语互动
    • 或AI产生/增强的媒体产品的消费

    语言产生的这些各种形式是由人类和非人类行为者的相互作用所决定的。它们嵌入了更大的后人文主义应用语言学概念中(Pennycook 2018),证明了人们对人的理解通常具有不稳定的性质,这与非人性传播媒介本质上是不同的。

    从社会语言学和实用主义的角度来看,人机交互中的一个反复出现的主题引人注目:这里产生的语言通常被认为是不同的。有时,它可能会产生无意的幽默和双重诱惑(例如自动校正效果),令人惊讶的创造力,甚至是机器产生的美丽。在其他情况下,语言效果可能会更加令人不安:算法将禁忌话题带到了前台;社交媒体网站促进并创建了一些用户体验过犯甚至滥用的互动;科技文物可能会变得性别化,拟人化或带有其他社会意义。

    其中一些实用条件可能与语言异常谷效应有关(参见Mori等人,2012 [1970])。恰恰是他们的人类符号学相似性,使他们的不同特质变得更加令人不安和过犯-简而言之,不可思议。可能的影响是改变了说服力的实用条件;关于礼貌/礼貌和共同立场的假设可能会改变;在与机器交谈时,会话结构的模式可能会重新排列,计算机生成的语音的韵律特征可能会触发复杂的摄取模式。

    NAO机器人


    Pepper和Nao是类人机器人,因此人们通常希望它们能够像人类一样说话,而当他们不说话时会感到失望。我参加了该小组会议,以检查最新技术并获得关于该主题的新观点。

    1.介绍后人道主义

    人文主义是一种哲学和伦理立场,强调个人的价值和行为主体,无论是集体还是集体。后人类主义既可以理解为对人类的意义的广泛立场(后人类主义),又可以更具体地批评人本主义哲学(后人类主义)。因此,后人类主义不是要放弃人类,也不是宣布人类的灭绝,而是呼吁重新思考人类与环境之间的关系:随着技术的发展,人类也随之发展。这是在后人文宣言中定义的。

    在后人类时代,机器将不再是机器。随着计算机变得越来越像人,人类也越来越喜欢计算机。
    Pepperell,2005年(全文:《后人类宣言》

    近年来,伴随机器人和语音助手取得了长足的进步,并已成为我们生活中的重要组成部分。如果语音助手的“主体”不是重点,因此要尽可能简化(通常是扬声器或智能手机),那么机器人就不是这种情况:它们存在各种尺寸和形状。甚至将自己限制在会说话的机器人上也带来了广泛的可能性,其中包括许多类人机器人。

    类人机器人是专门为模仿人体而建造的。该设计可能出于功能目的,例如与人互动以及与人的工具和环境,也可能出于实验目的,例如对两足动物运动的研究。Pepper和Nao是人形机器人,旨在与人类互动。它们具有人形形状,但特意将其特征保持简单可爱,以避免产生任何令人恐惧或令人不安的效果。另一方面,其他类人动物被制造得尽可能接近人类,但至今没有人可以将其误认为是这样的:它们看起来几乎像人类,但并非完全相似。

    令人难以置信的是那令人恐惧的一类,导致人们回溯已久的熟悉的事物。
    弗洛伊德,1919年

    奇异山谷的概念表明,不完全像真实人类的类人物体在观察者中引起了奇异或陌生的恐惧和反感。对象与人的相似程度与对对象的情感反应之间的这种关系在计算机科学,美学以及机器人技术中得到了很好的探索,但奇异的山谷效应也可以从不同的角度看出语言:我们对聊天机器人的期望越高,就越能使他们脱颖而出并破坏互动。但是,在人类与聊天机器人交谈的语音中,也可以观察到会话结构中的奇怪模式。


    不可思议的谷图由森正宏(Masahiro Mori)于1970年创建:随着机器人的人像[水平轴]的增加,对机器人[垂直轴]的亲和力也随之增加,但仅在一定程度上增加。

    这是一个反复出现的主题:我们与机器的接触越多,我们与自己的人文主义的接触就越多,因为我们在不知不觉中重现了人类与人之间交流所使用的相同类型的机制,并试图找到应对失败的方法通过适应我们对设备的了解。因此,后人类主义还意味着找到与机器的丰富关系的术语:与机器人和语音助手的对话应该与与另一个人交谈一样自然。

    2.数字化奇幻谷中的语言相遇

    聊天机器人将从根本上改变每个人的计算体验。随着时间的流逝,人类语言将被教授给所有计算机,并成为新的界面。
    微软首席执行官Satya Nadella,2016年

    Nao和Pepper在这里具有优势,这得益于它们的人形外形,使用户更易于与他们互动-使用人形机器人进行的口头交流似乎很自然。它还会产生不切实际的期望这一事实,与其说是缺点,不如说是不断改进的动力!

    人与人之间的交流需要效率和相关性,因此它不断补充隐性:非语言化的信息实际上构成了交流的主体。贡献以相互连贯的方式建立起来,因为人类演讲者基于共同基础和较早的交互作用而相互联系。因此,在人们有目的地追求对话目标时,交流的前提是(对内容和彼此的)理解。

    对于聊天机器人而言,这是一个巨大的挑战,因为聊天机器人的系统没有超出问题/答案机制,只能部分预测用户的自发行为。他们根据计划采取行动,因此可以做出决定并保留各种历史记录,但他们并非自发的:他们缺乏人与人对话中自然而然的自发性和灵活性。基于计划的方法更安全,但灵活性更差,而使用大数据的新系统确实变得不可思议,但存在其他问题:例如,无法确定与当前对话框相关的贡献,从而导致聊天机器人不一致容易被巨魔劫持的角色。至于人工语义网络,它们对于语言应用程序来说过于僵化。尚无明确的解决方案,

    灵活性是人与人对话的基础之一,因为人们在交流时会自然地相互配合:词典在任何对话中都被用作一种共同点,这是正常且普遍的现象。因此,使用聊天机器人执行此操作将指示人与人交流的一项关键功能已经转移,并且持续时间越长,用户越有自然对话的幻想。

    与成人相比,年轻且无偏见的用户更倾向于与聊天机器人保持一致:尽管互动并不总是成功的,但他们喜欢与他们聊天。这在孩子中很普遍,因为孩子的声音和发音不仅使他们更难以被设备理解,而且当他们远离简单的命令时,他们的务实意图常常不符合程序的脚本-例如,当他们只想讲一个故事。当然,这不仅限于儿童:成年人也经常被他们的设备误解。并且在发生故障的情况下,由于用户不再使用自然语言作为修复策略(“今天的天气如何?”与“天气预报”相比),可以进一步简化以前建立的词典。

    与聊天机器人进行交谈,尤其是在出现故障的情况下,会导致用户更加被动:他们知道自己正在与基于关键字的机器进行交互,因此他们不自觉地调整了自己的位置,因此放弃了自主权。用户适应了聊天机器人,但问题是聊天机器人无法适应。因此,用户学习如何使聊天机器人执行他们想要做的事情,并重复“获胜”模式。但是在那种情况下,它仍然可以视为对话吗?

    也许我们之所以容易陷入建立统一和简化的词典并坚持下去的陷阱的原因,不仅是因为我们正在与聊天机器人交谈,而且是因为我们在文化上很容易受到干扰。

    实际上,我们之所以认为语言是自主的和共享的,恰恰是因为我们习惯于语法和词典,因为我们最自觉的语言体验(例如学校经历)往往涉及标准化的语言。在语法和词典中编纂的书面变体。
    约翰斯通,2008年

    确实,与手工复制书籍或故事通过口头传播相比,印刷技术带来了更多的线性,同质化表示。因此,可以从后人类主义的角度看待写作和印刷,因为我们对语言的看法与这种广泛的统一性有关:文学文本成为标准模型。

    随着AI自动翻译等新技术的兴起,新的挫折出现了。例如,DEEPLLinguee是基于存在两种语言的网站内容而广泛使用的翻译工具。尽管这通常提供有用的上下文翻译,但它也可能具有错误和直译的特征,这将通过纯粹的频率产生更大的影响,因此倾向于更多地输入口头语言。

    用户在与聊天机器人交谈时倾向于诉诸的高度标准化和有限的形式,也会发生同样的事情:根据传统标准,发音是超正确的,并且主要使用命令式语音形式(“ Alexa,打开收音机”。) 。然后,这些模式会反馈到聊天机器人的数据库中,通过无休止的用户反馈循环来增强传统规范。

    机器人是控制论的生物,是机器和生物的混合体,是社会现实的生物,也是虚构的生物。机器人是想象力和物质现实的浓缩图像,两个联合中心构成了历史转型的任何可能性。
    唐娜·哈拉威(Donna Haraway),1991年

    人类一直是“天生的半机械人”,他们与我们开发的与环境互动并监控我们行为的工具建立了控制论关系。我们不仅通过机器进行通信,而且还与机器(Siri,Google Assistant,Alexa,Cortana…以及Pepper和Nao!)进行通信。与机器的互动并不是什么新鲜事(人们一直在和他们的汽车或电视聊天),但是现在机器在回话,我们正在进入人机交流或后人文交流。

    教授进行的一项研究。Britta Schneider透露,与Alexa(亚马逊的语音助手)的关系有两种截然不同的用户类型:有些将他们的设备视为技术工具或“延伸臂”,而另一些则将其视为室友。

    对于第一类,这种关系是技术性的和工具性的,因为Alexa主要用于以前手动完成的事情,例如检查时间或天气,打开或关闭灯光或收音机或播放音乐。这些用户将其设备称为“机器”或“助手”。

    另一类用户将Alexa称为有生命的生物。该装置受到了欢迎和称赞,并且情感关系有了明显的发展,这种关系与后人文宣言联系在一起:

    在后人类时代,机器将不再是机器。随着计算机变得越来越像人,人类也越来越喜欢计算机。
    Pepperell,2005年。

    与我们通过键盘与之通信的设备相比,与设备进行口头通信似乎会影响我们的感知方式。声音的物质性质似乎增强了交互作用:情感依恋导致避免命令式和工具性语音形式。这是人与机器之间自然互动的第一步:下一个步骤将是这些机器能够更好地理解。

    [后人类]引入了质的转变,即我们对于我们的物种,我们的政体以及我们与该星球其他居民的关系到底是什么共同参照的基本单位。
    布雷多蒂,2013年

    与机器进行口头交流比书面交流更具挑战性,因为误解的可能性是无限的:即使是结构完美且发音清晰的句子也可能会被误解,甚至由于背景噪音,检测错误,硬件问题等而完全未被听到。与聊天机器人说话而不是打字时,交互失败很容易,但这是建立牢固联系的代价:语音同情和连接感。在当今世界,这些时刻是难得的,短暂的,但当它们发生时是如此宝贵!为了使这些罕见的共享连接时刻成为常态,人类和聊天机器人都需要提高他们的沟通技巧。

    人们必须重新考虑与机器的交谈方式:如果他们想要进行真实的对话,则需要摆脱使用的标准化和有限的命令式形式,并努力与同伴交谈。他们不必发明对话快捷方式来让聊天机器人按自己的意愿去做,也不必过度简化语音以应对通信故障。用户应该能够解释这种误解,而聊天机器人也应该能够理解和纠正这种误解,因此他们都可以继续进行对话。

    他们对聊天机器人的关键改进是其正确理解用户的能力,因为其当前水平不足以使用户摆脱其设定的语音模式。首先需要对硬件进行改进,以使它们可以在任何类型的环境中捕获人的声音,即使有很多背景噪音或回声。听到用户说的话后,他们对语法和词汇的理解需要更加灵活,以便他们可以适应所有类型的用户-母语和非母语,区域性口音以及各种礼貌程度(和不礼貌!)。

    但是,最重要的改进也是最困难的:变得能够理解潜在的实用意图。当我们彼此互动时,这是我们人类很自然地做的事情:除了发音的单词以外,我们理解的基本信息不仅是单词,还包括手势,面部表情等。有很多可能性:用户可能希望机器提供信息或做某事,或者他们只是想交谈。对于机器而言,这非常困难:有些机器根本无法访问此信息(例如,语音助手通常仅限于智能手机或扬声器),但是即使是那些有能力的人(例如机器人)也无法解密该信息。有用的。

    当聊天机器人开始理解用户语音背后的意图时,真正的对话将成为可能:这是人与聊天机器人之间的交流需要达到与人与人之间相等的程度!


客户服务热线

18925062548

在线客服