人工智慧的陰暗面相 The Dark Side of Artificial Intelligence。圖片:itij.com
在成長的對面,也就是正向光明的另一面,存在了陰暗的一面。自駕車的車禍,無疑引起行人與一般駕駛人的憂慮;臉書洩漏大量個資,操縱政治活動,引發的軒然大波是否會重演;深度學習技術,可以維妙維肖的仿製變造語音與影視,精密到真假難辨;Google 為國防部提供 AI 技術,分析中東影片,引發 Google 員工抗議,AI 的軍事用途成為全球話題;偏差的演算法與數據,導致 AI 偏差,弱勢族群或遭受不平等待遇。這許多陰暗面的 AI,在 2019 年能否清理消除?
自駕車,可以自動行駛但有人坐在駕駛座,遇到狀況切換成手動駕駛。去年一輛自駕車,在一條亞利桑納州公路夜間行駛,一名婦人推自行車橫跨馬路,自動系統沒有煞車,駕駛人也一時疏忽沒看到路上有人,當場撞死這名婦人。即使如此,亞利桑納州還是開闢有限的區域,供 Google 的 Waymo 無人車以計程車載客行駛,無人車,指的是駕駛座上不坐人。
臉書的紕漏,可以說驚天動地,同時也暴露了設計的缺失,製造機會任人玩弄,讓放大不實、暗藏爭論、分化族群的新聞與資訊,在適當時機浮出水面。執行長札克伯格在國會被煎熬兩天,應允訓練 AI 找出有害的內容。但基本的問題,是機器無法理解人類的溝通語言,即使學習,仍難瞭解文字、圖像、影視的真正意涵。所以臉書為此仍雇用人力,偵測有害內容,提出警訊。
紐約時報比喻社群網路有如每晚與 500 個朋友喝酒,你可能聽到一些消息,但不太會記得誰說了什麼,也不會在意消息是否真實向誰求證,因為消息太多了。我們聽到的幾乎都是二手消息,但是否相信,多取決於對傳播者的信任,但這種證言規範 (Norm of Testimony) 並不存在於社群網路,因為大多數的「朋友」在真實世界可能都不認識。今年有南非與奈及利亞選舉,且看臉書預防的措施能否生效。
一個月以前,Nvidia 宣佈把深度學習推向另一層次,製造出的精緻人臉,不是幾可亂真,因為就是真的,從式樣、皮膚、毛髮,與真人的照片無異,無法辨認是製造出來的,但這是假人,在世界上不存在的人。Nvidia 從大批的人臉照片取出各部位的式樣,用來建造不存在的人像,這不是 AI 造假,是造「真」。國防部外圍組織 DARPA 預備用新技術偵測深度造假,新技術免不了還得用 AI,AI 捉 AI?貓捉耗子的遊戲。
Nvidia AI 的產品,真人面孔不存在的人。圖片:Nvidia
去年 Google 參與國防部 Maven 計畫,用 AI 工具協助美軍分析在中東空拍的圖片,Google 員工知道了以後大力反彈,堅持 AI 不能用於戰爭,引發學界科技業的聲援,有點像當年反越戰的味道,迫使 Google 當局停止 Maven 計畫的合作,宣示不發展戰爭 AI,並制定倫理規範。
AI 用在軍事,似乎是再自然不過了,軍方除了自行發展,也需要業界協助,即使 Google 不幫忙,微軟與亞馬遜仍保留協助的態度。但 AI 化的戰爭是否會肆無忌憚的殺戮,成為有識者最關心的事,像「制止機器殺人運動」組織,就試圖藉一連串的會議,寄望聯合國盡快能約制這些不需人操控的全自動武器。
當 AI 的運用逐漸普及,在漫不經心之下,進入了我們的生活,許多生活上的選擇,求學、謀事、借貸、醫保,都不再由人、而是由機器來決定。理論上大家用同一尺度,摒棄人為的偏頗,是一個公平的法則,但背後所用的數學模型,既不受管制、又無法驗證,即使錯了也任其走下去,致不斷的擴大歧視,支撐了幸運的人,卻懲罰了不幸的人,數學就成了毀滅武器。
這是去年 2 月 6 日「我們背後的數學引擎」所闡述的 AI 負面效應。AI 所以有用,是由演算法、或說是數學模型,用大量資訊、或稱大數據,訓練學習產生的,無論演算法在設計上的偏差,或大數據取得的不確實,都會扭曲 AI 的運作。說起來這是一個嚴重的問題,長期下去 AI 所製造的不平等,更增加社會的分歧。去年 9 月 IBM 推出一個 AI Fairness 360 工具,幫助偵測 AI 的偏差,效果如何,拭目以待。