一個市面上的 AI 口語軟體,經過訓練瞭解人類的語言,成為可用的商品,在訓練期間電腦運轉所花耗的電能,如果轉換成二氧化碳 (CO2) 排放量,相當五輛汽車壽命的總和,約 280 噸。
電腦的電源來自電廠,電廠燃燒煤、油、天然氣、或其他燃料發電,所排放 CO2 的重量,即是所謂的「碳腳印」(Carbon Footprint)。上面那個軟體的「碳腳印」,就是 280 噸。
AI 的機器學習往往留下一個大「碳腳印」,引發了環保議題。Image by Pixabay from Pexels
碳腳印是怎麼計算出來的?當然不是在工廠煙囪外面量出來的,而是根據多年的經驗發展出來計算方式。每燃燒一個碳 (C) 原子,就會產生一個二氧化碳 (CO2) 分子,也就是除了原來的 C,又增加了兩個氧 (O) 原子,C 的原子量為 12,O 為 16,所以 CO2 的重量為 12+16x2=44,為 C 的 3.67 倍。
每一種燃料都含有碳的成份,煤的含碳量約 60% 至 80%,無煙煤更可能到 90%,汽油與柴油含碳量約 86%,石油、天然氣、別的燃料也都含不同的碳成份,所以:
燃料使用量 x 燃料含碳成份 x 3.67 = CO2 排放量
以一家燃煤電廠使用 70% 含碳的煤為例,燃燒 100 萬噸的煤,也就是 70 萬噸碳,所產生的 CO2 約 250 萬噸,遠大過燃料本身的重量。
有人把我們日常生活的碳腳印算出來了。一個人從舊金山飛到紐約來回,碳腳印約 0.9 噸;一個人平均活動一年的碳腳印約 5 噸;一個美國人平均活動一年的碳腳印約 16 噸,為別國人的三倍;一輛美國汽車總壽命的碳腳印約 57 噸。
我們的個人電腦,只要一開機就有碳腳印,因為耗電不多沒有在意,但一旦用來訓練 AI 就不同了。以去年一名 Google 實習生為例,建構了一個 AI 神經網路,把圖片的影像展現得栩栩如生,為了讓圖像顯現細節,這名實習生不斷的增加神經網路的複雜度,結果所耗用的電能,足夠一個家庭半年所需。
美國麻州大學 (UMass) 研究生 Emma Strubell 作博士論文時,發現設計的演算法耗用電能的碳腳印高達 35 噸,相當一個美國人兩年的排放量,於是寫了一篇論文,將在七月底在義大利佛羅倫斯「計算語言協會」的年會上發表,論述 AI 的深層學習、特別是自然語言的處理,務必要考量所花耗的能源。
自然語言處理是近年AI的一大優勢,但也是在訓練上花耗的能源,依結構的複雜、與調整的精細,顯著增加。Transformer 是兩年以前的協助寫作軟體,訓練的碳腳印僅有87公斤,今年初升級,用神經網路調整的學習方式,不斷的精緻寫作功能(如作詩、作文),務使趨近完美。但訓練所耗用的電能,卻高達 656,000 千瓦小時(度),碳腳印也高達 284 噸,電費可高達 300 萬美元之譜。
Emma Strubell 特別強調,像這一類的 AI 付出巨大的代價,卻與提升的品質不成比例,是否可避免,或在運算技術上大幅度提昇效益。幸好欣見 Google 上月宣佈投資新的機器學習模型,能源的使用效率可以增加 10 倍。
除了 AI 會使用高額度能源、所有的技術都會留下碳腳印,以目前趨勢,到了 2040 年全球 20% 的碳腳印會來自技術。Youtube 僅是一個播放影片的平台,大家用來觀賞影視,但每年消耗的能源的碳腳印卻高達 110 萬噸。數位器具雖小,龐大的數量加在ㄧ起,就了製造環保衝擊。
人的腦子思考與運算,不需要那麼多能源,問題是如何製造跟人腦一樣的機器?
|