本篇文章1576字,读完约4分钟

在激烈的世纪人机战争之后,似乎每个人都在一夜之间谈论人工智能。对于真正智能的人工智能来说,人机交互是不可避免的,而语音在人机交互中的潜力也普遍受到人们的青睐。

语音交互一般包括语音识别、语义理解和语音合成。其中,语音识别是将人的声音正确地识别并记录成文字,但在这个时候,计算机不能真正“读懂”你在说什么,而语义理解是试图让计算机“理解”句子意思的关键一步。该公司希望实现流畅的人机交互,“哦,拉语音学”,正专注于语义理解。

成立于2013年初的“欧拉语音学”是威亚电子内部孵化的一个开创性项目。自成立以来,“欧拉语音”在中文自然语言理解、语音识别、语音控制和语音交互系统方面拥有20多项独立专利,主要包括:

口音识别和多语言模型使语音对话系统中的tts更加自然。用于全文检索的结构化知识库、知识辅助的自然语言理解的领域识别、通过多语言模型应用的增强固定词方法的自然语言处理、基于拼音的语言模型、云地址簿查询、用户隐私保护、上下文相关语义理解。目前市场上具有语义理解功能的主要产品有iFlytek下的讯飞语言点、百度秘闻和最近炒的微软萧冰。创始人张国凤说,“噢啦语音学”的技术优势主要体现在基于语义理解的对话控制上。

解决上下文相关性 哦啦语音想让人机交互不再 “前言不搭后语”

“如今,许多进行语义理解的产品实际上并没有达到人机交互的目的。虽然从技术上来说,它们可以对用户的话做出反应,但上下文缺乏相关性。”张国凤告诉36台,“例如,如果用户提出‘明天去北京帮我订票’,然后加上‘火车票’,机器很难连接两句信息来回答。”我们需要解决的是这个问题。”

为了使人机对话更加顺畅,“哦-拉之声”将记录用户在对话中提到的需求,包括人、事、时间、地点等关键词,然后根据当前的语句信息,通过人工智能判断通信逻辑,并结合上下文使机器做出的响应更符合用户的语言表达和心理预期。

“哦,拉语音学”开发的许多专利也旨在提高对话的流畅度。以全文检索的结构化知识库为例,“哦啦语音”通过爬虫+人工评论构建底层知识库,使机器能够识别那些不能从表层语法中识别的表达。再举一个流行的例子,如果用户问“刘德华的青花瓷怎么样?”这时,机器将首先判断主客体之间的关系,并在数据库中搜索这两个关键词。如果两者没有关联,它会回答:“刘德华从来没有唱过青花瓷。”据报道,《噢啦语音学》的知识库现在包含了60多个领域的知识,基本上可以涵盖日常会话所涉及的知识范围。

解决上下文相关性 哦啦语音想让人机交互不再 “前言不搭后语”

就技术的应用场景而言,“哦啦语音”的早期方向是智能手机应用,类似于智能助理产品,如萧冰和迅飞宇电。但是,在实际操作过程中,张国凤发现“该功能用户的使用场景仍然太少,几乎是基于调侃,技术价值没有最大化。”现在,他们认为智能家居将是未来语音交互需求最大的领域之一,他们在上海的智能家居工作室将于今年8月前开业。

解决上下文相关性 哦啦语音想让人机交互不再 “前言不搭后语”

在商业模式下,“哦-啦-语音”主要通过提供智能语音交互技术来实现。目前,合作项目包括环迅智能汽车后视镜、岐狐智能眼镜、中兴语音助理、天一导航、中国电信语义互动api服务best tone等。与此同时,“噢,啦,声音”是nuance唯一的中文语义技术合作伙伴,nuance是mainland China的一家siri语音技术提供商。

在团队方面,创始人张国凤毕业于上海交通大学,拥有15年的技术算法经验。目前,整个团队有40多人,技术人员占大多数。该团队正在寻求一轮融资。

36支氪星和krypton/だよ0/团队已进驻上海,每月将定期举行线下沙龙或私人晚宴。我们正在招聘一名全职/实习作家。如果你有自己的想法并且对创业服务充满好奇,请将你的简历发送到贾琮@36kr,一大群来自魔术资本的企业家将会等着你!

原创文章,作者:二水水,如果转载,请注明出处:http://36kr/p/5044728

“读完这篇文章还不够吗?如果你也开始创业,希望你的项目被报道,请点击这里告诉我们!”

标题:解决上下文相关性 哦啦语音想让人机交互不再 “前言不搭后语”

地址:http://www.j4f2.com/ydbxw/9526.html