音频 频道

哦啦语音想让人机交互不"前言不搭后语"

  轰轰烈烈的世纪人机大战结束后,一夜间似乎所有人都在谈论人工智能。真正智能的 AI 自然免不了人机交互,而语音在人机交互上的潜力普遍被人们看好。

  语音交互一般包括语音识别、语义理解和语音合成。其中,语音识别是把人的声音正确识别并记录成文字,但这时的计算机并不能真的 “读懂” 你在说什么,语义理解则是试图让计算机 “理解” 句子意思的关键一步。想要实现流畅的人机交互的 “哦啦语音”,正是专注于语义理解的一家公司。

  “哦啦语音” 2013年 初成立,是威盛电子内部孵化的创业项目。成立至今,“哦啦语音” 已经拥有在中文自然语言理解、语音识别、语音控制和语音交互系统等方面的 20 多项自主专利,主要包括:

  口音识别和多语言模型在语音对话系统中让 TTS 更自然全文检索的结构化知识库知识辅助的自然语言理解领域识别和多语言模型应用增强的固定词语法的 NLP 基于拼音的语言模型云端通讯录查询的用户隐私保护上下文相关的语义理解目前,市面上主打语义理解功能的产品还有科大讯飞旗下的讯飞语点、百度度秘及近期炒的比较火的微软小冰等。创始人张国峰表示,“哦啦语音” 的技术优势主要体现在其基于语义理解所作出的对话控制上。

  “现在许多做语义理解的产品事实上没有达到人机交互的目的,技术上虽然能对用户的话作出反应,但上下文缺少关联性。” 张国峰告诉 36 氪,“举个例子,用户如果提出 ‘明天去北京,帮我订票’ 后再补充 ‘要火车票’ 的话,机器很难把两句话的信息串联起来作出回答,我们要解决的就是这个问题。”

  为使人机对话更通畅,“哦啦语音” 会记录下对话中用户所提过的需求,包括人、事、时间、地点等关键词,再根据当前语句信息通过人工智能对沟通逻辑做出判断,结合上下文使机器做出的反应更符合用户的语言表达和心理预期。

  而 “哦啦语音” 开发的多项专利也是为了提高这种对话的通畅性。拿全文检索的结构化知识库来说,“哦啦语音” 以爬虫 + 人工审核的方式搭建了一个底层数知识数据库,让机器能够判别那些从表层语法上无法识别的表达意图。同样举个通俗点的例子,如果用户提问 “刘德华的青花瓷怎么样?” 这时候机器会首先判断主语和宾语间存在的关系,并将两个关键词放在数据库中检索,如果两者没有关联就会回复:“刘德华没有唱过青花瓷。” 据悉,现 “哦啦语音” 的知识库中已包含了六十多个领域的知识,可基本覆盖日常对话所涉及的知识范围。

  哦啦智能音箱

  关于技术的应用场景,“哦啦语音” 前期的方向是智能手机应用,与小冰、讯飞语点等智能助手产品类似。但实际操作过程中,张国峰发现 “这种功能用户的使用场景还是太少了,几乎以调侃为主,技术价值没有得到最大发挥。” 现在,他们认为智能家居未来会是存在语音交互强需求的领域之一,其位于上海的智能家居 Demoroom 计划将在今年8月 前开幕。

  商业模式上,“哦啦语音” 主要依靠提供智能语音交互技术方案变现。目前达成合作的包括智能音箱、智能车载后视镜、奇狐智能眼镜,中兴语音助手,以及天翼导航、中国电信号码百事通的语义交互 API 服务等项目。同时,“哦啦语音” 还是 Siri 语音技术提供商 Nuance 大陆唯一的中文语义技术合作伙伴。

  团队方面,创始人张国峰上海交大毕业,在技术算法方面拥有 15年 从业经历。目前团队整体 40 余人,技术人员占大多数。该团队正在寻求 A 轮融资。

  (本文转载自36氪,作者:二水水)

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
0
相关文章