術(shù)和產(chǎn)品上取得很大進(jìn)展,但在自然語言理解、算法魯棒性、領(lǐng)域外的泛化能力等方面也面臨新的挑戰(zhàn)?!斑@些挑戰(zhàn)隨著技術(shù)的迭代、產(chǎn)品的發(fā)展,會變得越來越多?!?/span>
語音助手也要有價值觀
隨著智能語音助手更多滲透到我們的生活中,安全和隱私問題開始逐漸成為人工智能發(fā)展過程中的一大關(guān)注焦點,比如我們在家里告訴家人銀行卡密碼的時候,會不會被手機上的智能助手或家里的智能音箱偷聽到?
對此,黃民烈認(rèn)為,從技術(shù)上來講,最難的是智能助手得知道什么樣的信息屬于隱私,聽到是一回事兒,最關(guān)鍵的是會不會說出來,什么樣的信息能說,什么樣的信息不能說,這才是最根本的地方。
“人在講任何話的時候可能知道潛在的后果是什么,會帶來什么樣的影響,但機器人它不知道,這也涉及到各種常識,相關(guān)研究是很重要的事情?!秉S民烈說到,這可以通過技術(shù)的手段來實現(xiàn)。
由安全和隱私而引發(fā)的信任問題可能會成為阻礙智能語音助手進(jìn)一步發(fā)展的絆腳石。咨詢公司埃森哲曾經(jīng)發(fā)布的一項調(diào)研顯示,從國內(nèi)受訪者來看,安全顧慮(45%)、設(shè)備未能理解用戶需求(42%)以及隱私問題(40%)是三大最主要的擔(dān)憂。此外,有34%的中國消費者表示,他們不知道哪些個人數(shù)據(jù)為智能語音助手所用,透明度有待提高。
一般來說,要想使得智能語音助手達(dá)到更好的體驗,就意味著需要獲取用戶更多的信息,或讓渡自己更多的權(quán)利,如何把握這個邊界非常重要。
李笛在分享中就提到了常見的Long-termmemory(長期記憶網(wǎng)絡(luò),一種算法,可以記住長時間段的信息)問題,將其放到產(chǎn)品中來,就會涉及到AI倫理問題——是不是允許對用戶進(jìn)行畫像?是不是能夠記錄或者嘗試分析用戶各方面的特點?
他表示,AI倫理還處于非常早期的階段,但從某種程度上來講,智能語音助手需要了解到的信息不用那么多,就可以做到和人之間是很好的朋友關(guān)系。但實際情況是用戶會恐慌,企業(yè)也會恐慌。他認(rèn)為,人和智能語音助手要想達(dá)到很默契的狀態(tài),Long-term memory不需要特別多。
黃民烈從技術(shù)上就智能語音助手的人性化體驗和法律倫理的邊界進(jìn)行了分析。他認(rèn)為,這涉及到兩個關(guān)鍵點,一是個性化,其本質(zhì)是把助手的能力跟用戶的個人信息、偏好、愛好做匹配;二是真正好的智能助手應(yīng)該具有持續(xù)學(xué)習(xí)的能力,在跟人交互的過程中能夠聽從人類指令,可以從人的反饋中不斷學(xué)習(xí),自動地去積累知識,讓它的能力持續(xù)躍升。
“這就涉及到很多價值判斷,得知道什么東西學(xué),什么東西不學(xué),其實就是要給機器人一個正確的價值觀。”黃民烈表示,但這個價值觀是什么非常復(fù)雜,跟文化、地域都有關(guān)系,還需要去探索。