面對你的呼喊,她充耳不聞;
面對你的疑惑,她答非所問;
面對你的命令,她顛三倒四;
這就是Siri,你的“智能”語音助手!
自2011年Siri上線以來,智能語音助手已經(jīng)走過了10個(gè)年頭,但用戶對它的吐槽不絕于耳,比如有時(shí)會(huì)喚醒失敗,或者答非所問。這些問題的背后原因是什么?智能語音助手目前處于什么水平?終極形態(tài)會(huì)是怎樣?如何看待它和用戶之間的關(guān)系?
近日,搜狐科技全新直播欄目《AI十二談》首期圓滿舉行,清華大學(xué)計(jì)算機(jī)系長聘副教授、智能技術(shù)與系統(tǒng)實(shí)驗(yàn)室副主任黃民烈,“小冰之父”、小冰公司CEO李笛就這些問題進(jìn)行了精彩的觀點(diǎn)分享。
《AI十二談》是搜狐科技今年下半年重磅推出的全新欄目,將針對大家日常關(guān)心、關(guān)注的人工智能的痛點(diǎn)問題,邀請相關(guān)專家、企業(yè)高管組成嘉賓陣容,進(jìn)行知識(shí)科普,答疑解惑。
在首期直播中,黃民烈教授分析稱,智能語音助手喚醒失敗的原因跟沒有帶出關(guān)鍵詞、算法等有關(guān),答非所問則受到解析錯(cuò)誤、匹配程度、語言等因素影響。他認(rèn)為,未來智能語音助手發(fā)展的最理想的境界,就是人機(jī)協(xié)作,把所有的事情都交給智能助理去做還是不太靠譜。
李笛認(rèn)為,目前智能語音助手還處在特別早期的階段,而用戶的期望過高。他還表示,很難定義什么是最好的智能助理,因?yàn)槊總€(gè)人的需求不同,但智能語音助手可以成為人的朋友。
兩位嘉賓還就智能語音助手發(fā)展中的倫理、隱私等問題進(jìn)行了探討。李笛認(rèn)為,目前全球范圍內(nèi),AI倫理都還處于非常早期的階段,數(shù)據(jù)到底應(yīng)該怎么使用等問題都還沒有明確,某種意義上只能靠自律。
黃民烈表示,智能語音助手人性化體驗(yàn)和法律倫理邊界的平衡,主要涉及到個(gè)性化技術(shù)和持續(xù)學(xué)習(xí)兩個(gè)方面,在這個(gè)過程中,需要讓機(jī)器人形成正確的價(jià)值觀。
智能語音助手為何會(huì)喚醒失敗或答非所問?
使用過Siri等智能語音助手的朋友可能都遇到過這樣的情況——呼喚它好多次,但是它卻沒有響應(yīng),或者答非所問,甚至給出匪夷所思的回答。
黃民烈認(rèn)為,現(xiàn)在很多語音助手都依賴于特定的關(guān)鍵詞做喚醒,沒有帶出相應(yīng)關(guān)鍵詞就無法做出響應(yīng)。這還涉及到算法的魯棒性(指系統(tǒng)受到持續(xù)擾動(dòng)保持原來狀態(tài)的能力)問題,在同樣的場景、同樣的聲音、同樣的命令下,語音識(shí)別可能會(huì)有一些小錯(cuò)誤或者小擾動(dòng),這些再經(jīng)過算法去做語義分析,可能就會(huì)跟預(yù)想的不一致,就沒有辦法給到正確的響應(yīng)。
作為“小冰之父”,李笛認(rèn)為,智能助手最好的喚醒方式是不需要喚醒詞,應(yīng)該像人一樣,能夠判斷用戶是不是在跟它交流,同時(shí)能夠不停地邊聽邊說邊想,也就是所謂的全雙工的方式。他表示,今天的AI產(chǎn)品或者智能語音助手還處在特別早期的階段,目前的準(zhǔn)確性可能還做不到像用戶所期望得那樣好。
對于智能助手有時(shí)會(huì)答非所問,黃民烈分析稱,這主要是兩方面原因。一是問題解析錯(cuò)誤,比如語音識(shí)別錯(cuò)誤、結(jié)構(gòu)化分析對話意圖出錯(cuò)等。另一個(gè)原因就是問題和答案的相關(guān)性與匹配度不夠高,這里面的算法會(huì)綜合決定答案好不好、質(zhì)量高不高。
清華大學(xué)計(jì)算機(jī)系長聘副教授、智能技術(shù)與系統(tǒng)實(shí)驗(yàn)室副主任黃民烈
同時(shí),他認(rèn)為,這和語言本身也有一定關(guān)系。資源豐富的語言相對資源貧乏的語言做起來更加容易,而中文沒有明確的語法和組合的規(guī)則,英文則相對來講比較固定,因此中文自然語言處理會(huì)面臨更多難點(diǎn)。
而在李笛看來,智能助手或人工智能交互的場景比較難做,主要因?yàn)槿鄙購椥钥臻g?!八阉饕鏁?huì)有多