簡稱人工智慧(人工智能)的 AI,給人的感覺像是躲在暗處的幫手,或者像一個法力無邊的黑盒子,替我們排難解惑,告訴我們什麼我們就得聽從,因為 AI 解決問題的複雜流程,遠超過一般人的理解,更複雜的甚至連創製的人也無法解釋,比如 AI 下一盤圍棋是怎麼贏的就是例子。這是因為我們不斷的讓電腦學習,來累積知識、增長智慧,只是電腦的智慧每增長一分,就似乎距離我們越遠一分,直到電腦把自己關進黑盒子。
黑盒子並沒有什麼不好,至少把事情變得簡單了,黑盒子說什麼我們就做什麼,不必思考、也無從思考,直到 AI 從實驗室移植轉到日常生活,申請學校、貸款、升級加薪,甚至更敏感的醫療、財務、司法,偏差的傾向就漸漸浮現,像是較貧困地區的郵遞區號,可能成為貸款的負面因素,司法的裁決,也被懷疑對族群有偏頗傾向,這些屢被專家與媒體揭發,大家明知卻無能為力,因為不知道黑盒子是怎麼決定的。
美國杜克 (Duke) 大學電腦教授 Cynthia Rudin,15 年來追逐的目標只有一個,就是要洞視 AI 黑盒子。她發展了「可解釋的」(Interpretable) 機器學習模型,讓人類看得懂 AI 的運作,從中找出演算的偏差,加以匡正,打破長久以來 AI 不可解釋的概念,讓 AI 透明不再裝在黑盒子,因獲「AI 促進協會」(AAAI) 一百萬美元的「松鼠AI獎」(Squirrel AI Award),表彰她對人類福祉的貢獻。
百萬美元獎金的科學獎,除了諾貝爾獎,僅有圖靈 (A.M.Turing) 電腦科學獎,松鼠獎相當 AI 的諾貝爾,由 AAAI 與中國「松鼠 AI 學習」機構聯合成立的獎項,今年是第二年。敘獎委員會主席、也是 AAAI 前會長 Yolanda Gil 說,Rudin 教授的創舉強化了 AI 高風險領域的透明度,她的勇氣捕捉了爭議性的問題,她並呼籲研究的關鍵挑戰,在讓 AI 負責任的、不違背倫理的使用。
大家為什麼熱衷 AI?簡單的說,AI 可以把經常重複要做、但需要評估與決擇的工作,自動化的取得一致性的結果,節省人力與時間。要達到這個效果,就要設計一套「機器學習模型」,所謂模型可以說是一組電腦碼,經過訓練之後可以辨識特定的類型與模式。訓練的方法是用資料輸入到一個演算法,藉演算從資料學習,累積推斷的能力,這就是所謂的機器學習。一旦模型的訓練完成,就可以對前所未見的資料進行推斷或預測。
上面解釋的有些繞口,舉一個大家熟悉的決策樹 (Decision Tree) 為例,邏輯明確易懂,成為 AI 機器學習的愛用的演算法。Rudin 教授指出,決策樹在分隔連續性資料有盲點,以醫院系統為例,年齡在決策樹的某一點需要分枝,但年齡要在幾歲分隔才不影響最後結果的一致性,如果在某一點又要分隔血壓與體重,而最底層的樹葉又代表治療方法,那問題就更會嚴重而敏感了。事實上教授也的確為許多醫療 AI 解決了不少問題。
COMPAS 是一個判斷嫌犯再犯傾向的 AI 工具,用做保釋的依據,被 ProPublica 調查新聞網質疑有種族偏向,經 Rudin 教授團隊簡單的設計透明模型,很快就找到原因,而精確度準確度與原系統相同。多年來 Rudin 教授在高敏感的領域,證實了透明的設計不會損失運算的精確度,包括了司法的刑事裁決、醫學影像的醫療決定、輸電網維護方式的選擇、以及財務借貸的決策,一次次的改變了 AI 不能自我解釋的想法。
什麼是黑盒子的機器學習模型,Rudin 教授的解釋是過於複雜,致人類無法瞭解,或使用專屬的客製運算,致外人無從知悉內在運作。另外,黑盒子模型很難偵錯,在醫事資料上更為明顯,黑盒子模型也經常從錯的理由導引出對的答案。
「可解釋的」透明機器學習模型,除了讓人類能夠瞭解,一個重點是不必然創造或加強可信度,相反的,可能加強不信任度,讓產生的結果由人來決定是否可信,而不是讓人直接相信產生的信果,這與傳統 AI 有很大的概念差異,等於用人的經驗再核對一次 AI 的智慧。
Rudin 教授也同時呼籲,一般可以統計等方法解決的問題,未必要用 AI 的複雜方式去解決,但對高度敏感的問題,務必要用可解釋的透明設計,讓結果更準確的容易判斷。
AI 的發展不會中斷,使用也只會越來越多,而黑盒子的偏差造成傷害也勢必增多,Cynthia Rudin 教授多年的努力,讓 AI 不必再裝進黑盒子,為人類福祉發揮正向能量,獲獎最高榮譽,實至名歸。