語音助手=人工智能 機器人和你聊天是怎么做到的


語音助手=人工智能 機器人和你聊天是怎么做到的

文章插圖
大家好,小動來為大家解答以上問題 。機器人和你聊天是怎么做到的,語音助手=人工智能很多人還不知道,現在讓我們一起來看看吧!
1、導讀:讓機器理解人類語言,或者說模仿人類語言,是每個人對人工智能最初的幻想,所以在早期 , 圖靈測試一度成為評判人工智能的標準 。對話和翻譯是自然語言處理(NLP)在人工智能許多分支中的應用,旨在解決人與機器之間的交流問題 。它是人工智能處理的起源 , 仍然面臨許多問題 。
2、贏了柯潔的AlphaGo,讓很多人看到了AI過于強大的一面,但生活中我們大多數人感受到的AI卻非?!爸钦稀?,并不具備人工智能應有的樣子 。
3、這種巨大的反差,主要是因為在很長一段時間內,可以應用于生活的人工智能還處于早期階段 。
4、比如語音助手 。
5、但是對話和翻譯其實是人工智能介入最早的領域 。
6、讓機器理解人類語言或者模仿人類語言是每個人對人工智能最初的幻想,所以在早期,圖靈測試一度成為評判人工智能的標準 。
7、對話和翻譯是自然語言處理(NLP)在人工智能許多分支中的應用,旨在解決人與機器之間的交流問題 。它是人工智能處理的起源,仍然面臨許多問題 。
8、以對話系統為例 。市面上各大巨頭都推出了自己的智能語音助手,但能完全擺脫“智障”嫌疑的卻寥寥無幾 。
9、可以說,在這條賽道上,誰都跑不快 。但是它還是一直在運行,就連長期卡在手機里的Siri也要推出自己的智能音箱了 。
10、“雖然目前的情況不是很樂觀,但是堅持跑下去,總會看到成效的 。”6月1日,微軟亞洲研究院副院長周明表示,自然語言處理如果堅持5-10年,會有很大的發展 。
11、周明博士認為,自然語言處理的發展有三個階段:
12、第一層是基礎技術:分詞、詞性標注、語義分析等 。
13、第二層是核心技術:詞匯、短語、句子、篇章的表達 。包括機器翻譯、問答、信息檢索、信息抽取、聊天對話、知識工程、語言生成和推薦系統 。
14、第三層是“NLP”:模仿“人工智能”或“互聯網”的概念,實際上是將自然語言處理技術滲透到各種應用系統和垂直領域 。比較有名的是搜索引擎、智能客服、商業智能、語音助手,——法律、醫療、教育等方面的垂直領域應用比較多 。
15、關于第三層的“NLP”,市面上有很多大大小小的語音助手 。其中兩人畢業于微軟:小娜和蕭冰 。雖然都是語音助手,但是兩者還是有一些區別的 。
16、通過小娜的手機和智能設備,人們可以與計算機交流:用戶下達命令,小娜理解并執行任務 。同時 , 小娜可以記住一些用戶的性格特征、喜好和習慣,然后主動給出一些貼心的提示 。
17、比如你以前路過某個地方買牛奶 。下次路過的時候,她會提醒你,問你要不要買 。她過去從被動應用到主動應用,從最初的手機到微軟所有的產品,比如Xbox,Windows 。
18、蕭冰只是在聊天 。他不想幫你解決任何問題 。他聊天的主要目的就是盡可能的“人” 。
19、“這是一個新的想法,很多人一開始并不理解 。
20、而小冰最開始是怎么學習聊天的?主要是跟網友學的 。
21、首先將網上的論壇、微博或是網站里出現過的對話句子抽取出來 , 當成訓練語料庫 。當用戶輸入一個句子時,系統會從語料庫里找到一個跟這個句子最相像的句子,而這個句子對應的答復就可以直接輸出作為電腦的回復 。雖然看起來簡單粗暴,但確實奏效 。
22、有的時候,系統找到的句子可能對應了很多回復,它不知道哪個回復最適合當前的輸入語句 。這時就會再有一個匹配的過程,去判斷輸入語句跟語料庫里的回復在語義上是相關的或者是一致的 。
23、到目前,小冰已經覆蓋了三種語言:中文、日文、英文,累積了上億用戶,平均聊天的回數23輪 , 平時聊天時長大概是25分鐘左右 。
24、目前取得的自然語言方面的成果,是微軟18年的努力 。
25、微軟在1998年11月5日成立微軟亞洲研究院時就開創了自然語言處理的研究領域 , 除了200多篇頂級期刊、學術大會的論文,還有大量的NLP人才 。
26、2014年5月,微軟推出小冰,同年7月,推出Cortana 。
27、2016年,微軟首席執行官薩提亞在Build大會上提出了一個概念“對話即平臺”(“Conversation as a Platform”,他認為圖形界面的下一代就是對話,它會對整個人工智能、計算機設備帶來一場新的革命 。
28、而小冰和小娜就是微軟為這場革命做出的準備之一 。
29、其實無論小冰這種閑聊,還是小娜這種注重任務執行的技術,背后單元處理引擎無外乎就三層技術 。
30、第一層:通用聊天,需要掌握溝通技巧、通用聊天數據、主題聊天數據,還要知道用戶畫像,投其所好 。
31、第二層:信息服務和問答,需要搜索的能力,問答的能力,還需要對常見問題表進行收集、整理和搜索,從知識圖表、文檔和圖表中找出相應信息,并且回答問題,這些統稱為Info Bot 。
32、第三層:面向特定任務的對話能力,例如訂咖啡、訂花、買火車票,任務是固定的,狀態也是固定的,狀態轉移也是清晰的,就可以用Bot一個一個實現 。通過一個調度系統,通過用戶的意圖調用相應的Bot 執行相應的任務 。它用到的技術就是對用戶意圖的理解,對話的管理,領域知識,對話圖譜等 。
33、除了創造出小娜小冰,微軟還要技術釋放 , 讓開發者能開發自己的Bot 。如果開發者的機器不懂自然語言,這時就可以通過一個叫Bot Framework的工具來實現 。
34、任何一個開發者只用幾行代碼 , 就可以通過Bot Framework完成自己所需要的Bot 。比如,有人想做一個送披薩外賣的Bot,可以用Bot Framework填入相應的知識、相應的數據 , 就可以實現一個簡單的Bot 。很多沒有開發能力的小業主,通過簡單操作 , 就可以做一個小Bot吸引來很多客戶 。
35、在這個開源平臺里有很多關鍵技術 。微軟有一個叫做LUIS(Language Understanding Intelligent Service)的服務,提供了用戶的意圖理解能力、實體識別能力、對話的管理能力等等 。
36、比如說這句話“read me the headlines”,識別的結果就是朗讀 , 內容就是今天的頭條新聞 。再比如說“Pause for 5 minutes”,識別的結果是暫停,暫停多長時間?有一個參數:5分鐘 。通過LUIS,可以把意圖和重要的信息抽取出來,讓Bot來讀取 。
37、這些對于人類來說甚至不需要動腦思考的對話,對于機器來說是難到了另一個層次上 。
38、周明博士認為人工智能有四個層次,從下往上依次是:運算智能、感知智能、認知智能和創造智能 。
39、運算智能已經達到很高的水平了,感受一下來自世界頂級圍棋選手對AlphaGo的評價 。
40、其次是感知智能,主要體現在聽覺、視覺和觸覺方面,也就是我們通常說的語音技術、圖像技術 。語音技術用的就多了,比如讓Cortana聽懂你說的話,圖像識別主要應用在人臉識別上,喜歡跟隨科技潮流的公司一般會把門禁換成人臉識別 。
41、認知智能是我們今天說的重點,主要包括語言、知識和推理 。語言的重要性體現在什么地方呢?Cortana不能只是識別出來你在說啥,它需要根據你說的話做出回應 , 這時候就需要理解你在說什么 。
42、創造智能就是一種最高級的形態了 , 也就是當AI擁有想象力的時候 。
43、在運算和語音、圖像識別上 , 機器已經能達到很高的準度,目前的主要缺口在認知智能上 。過去認知智能主要集中在自然語言處理,它簡單理解了句子、篇章,實現了幫助搜索引擎、仿照系統提供一些基本的功能、提供一些簡單的對話翻譯 。
44、周明博士認為語言智能是人工智能皇冠上的明珠,如果語言智能能實現突破,跟它同屬認知智能的知識和推理就會得到長足的發展,就能推動整個人工智能體系,有更多的場景可以落地 。
45、對于未來語音智能的發展,周明博士認為有幾個方向:
46、第一,隨著大數據、深度學習、云計算這三大要素推動,口語機器翻譯會完全普及 。
47、第二,自然語言的會話、聊天、問答、對話達到實用程度 。
48、第三,智能客服加上人工客服完美的結合 , 一定會大大提高客服的效率 。
49、第四,自動寫對聯、寫詩、寫新聞稿和歌曲等等,
50、第五,在會話方面,語音助手、物聯網、智能硬件、智能家居等等,凡是用到人機交互的,基本上都可以得到應用 。
51、最后,在很多場景下,比如說法律、醫療診斷、醫療咨詢、法律顧問、投融資等等,這些方面自然語言會得到廣泛的應用 。
52、當然,現在的自然語言現在也面臨許多困境 。最關鍵的一點是如何通過無監督學習充分利用未標注數據 ?,F在都依賴于帶標注的數據,沒有帶標注的數據沒有辦法利用 。但是很多場景下,標注數據不夠,找人工標注代價又極大 。
53、那么如何用這些沒有標注的數據?這就要通過一個所謂無監督的學習過程,或者半監督的學習過程增強整體的學習過程 。
54、再給NLP一些時間,語音助手也許就能說服你它其實是人工智能了 。
【語音助手=人工智能 機器人和你聊天是怎么做到的】本文到此結束,希望對大家有所幫助 。

    推薦閱讀