產(chǎn)品很快就將以完全不同的方式進行開發(fā);而且還會變得聯(lián)網(wǎng)化和智能化。
教育:在世界規(guī)模的數(shù)字化內(nèi)容、數(shù)據(jù)以及科學與一般知識的基礎上,整個教育體系將因為人工智能而得到極大改善。
智能教育代理將會捕捉學生的需求,組合出優(yōu)化的個性化教育計劃——匹配學生的意圖、節(jié)奏、喜好的內(nèi)容類型等參數(shù)。
在另一個場景下,AI驅(qū)動的應用將能夠主動推薦教育機會以及個性化教育內(nèi)容——這種推薦會考慮當用戶職業(yè)的現(xiàn)狀,教育水平以及過往經(jīng)驗。
這將會采取一種永遠在線的、智能的“教育顧問”的形式,為每一位用戶發(fā)現(xiàn)合適的學習機會。
擔憂
AI的大規(guī)模采用在社會、政治、道德方面的潛在影響仍存在著嚴重擔憂和未回答的問題。比方說,通過利用人工智能規(guī)模實現(xiàn)的“智能自動化”,預計將改變我們的工作方式以及所需要的技能:特定角色將會變得不合時宜,俄日寫職業(yè)最終將會消失。
致命自動武器:自動機器的概念令人印象深刻——想想看,一輛能夠捕捉環(huán)境和動態(tài)并作出實時決定的無人車,在特定約束下可以實現(xiàn)從A點轉(zhuǎn)移到B點的預定目標。
但在軍事的背景下,這種自主決策卻是令人恐懼的:將來的機器人系統(tǒng),所謂的致命自動武器,可以在沒有人類干預和許可的情況下?lián)糁心繕?。但是,誰來空子此類“殺手機器人”的設計、操作以及目標設定呢?此類機器人如何能夠理解復雜情況下的微妙之處并且做出有生命威脅的決定呢?問題還有很多很多。
偏見的風險以及對透明的需要:AI系統(tǒng)通過分析海量數(shù)據(jù)來學習,而且它們還不斷通過對交互的數(shù)據(jù)建模以及用戶反饋來進行適配。我們?nèi)绾尾拍艽_保對AI算法原先的訓練是不帶偏見的呢?如果一家公司通過(未必是故意地)傾向于特定類別的客戶或者用戶的訓練數(shù)據(jù)集而引入了偏見該怎辦?比方說,如果負責從簡歷池中識別有才華的候選人的算法本身具有某種已知或者未知的偏見,導致了多樣性相關的問題時該怎么辦?
我們必須確保此類系統(tǒng)在決策和處理環(huán)節(jié)是透明的。這是更好地處置極端情況,以及爭取到一般的理解以及更廣發(fā)受眾和社會的接受的關鍵。
對數(shù)據(jù)、知識以及技術(shù)的訪問:在我們這個相互交織在一起的世界里,相當少量的公司正在收集著海量的數(shù)據(jù);我們每個人的數(shù)據(jù)。訪問這一數(shù)據(jù)可以對我們的日常生活進行活動、交互以及顯性或者隱性興趣的復盤;某人(或者某個東西)訪問了這一數(shù)據(jù),就會“知道”我們的行動歷史,我們的在線搜索以及社交媒體活動、聊天、郵件等在線微行為和交互。
AI系統(tǒng)將會“理解”任何在線用戶——此人的興趣、日常習慣以及將來需求;可以做出令人印象深刻的估計和預測,包括購買興趣以及用戶的情緒狀態(tài)等。
考慮到這種AI輸出的規(guī)?!匀丝诩墑e來分析數(shù)據(jù)——這些預測和洞察能夠描述整個人群的狀態(tài)和動態(tài)。這顯然會為那些控制著掌握了海量數(shù)據(jù)的系統(tǒng)的公司賦予極其強大的力量。不妨回顧一下Cambridge Analytica這個例子:特定用戶的數(shù)據(jù)價值也許不大,但如果分析上規(guī)模之后——也就是利用先進分析和推斷模型對足夠大的用戶群進行分析——就有可能推動大規(guī)模的社會政治影響。
隱私權(quán):如果對一個人的在線歷史(或其他)數(shù)據(jù)進行未授權(quán)訪問的話,隱私權(quán)顯然就有風險了。但即便是離線用戶——故意保持“斷線”狀態(tài)的某人——其隱私權(quán)也仍然處在威脅之中。
想象一下,一位離線用戶(沒有智能手機或其他能感知用戶位置的設備)在未來的“智能城市”中移動。在幾條主街上行走可能就足以讓安保攝像頭捕捉到用戶的行蹤,甚至通過可靠的面部識別(通過中心數(shù)據(jù)存儲)認出他。很