國際勞工組織2023年的一份報告發現, ChatGPT等生成式人工智慧的主要影響是「增強職業,而不是讓職業自動化」。只有「文書工作」不免受到工作自動化的影響,估計有24%的工作被歸納為「高度受影響」。由於女性在文書工作的占比過高,女性工作受影響的可能性是男性的兩倍。(本文節錄自《血汗AI》一書,作者:詹姆斯.默登,馬克.格雷厄姆,卡倫.坎特,大塊文化出版,以下為摘文。)
根據預測,人工智慧將導致天文數字般的大量失業,高達3億(高盛〔Goldman Sachs〕)或4億至8億(麥肯錫〔McKinsey〕)的工作,將被自動化系統或人工智慧所取代。
業務諮詢公司埃森哲(Accenture)發現,由於許多人的工作含有大量以語言為基礎的任務,40%的工作時間可能受到大型語言模型的影響。
然而,我們應該對這些龐大的數字保持警惕,畢竟顧問的工作是為客戶炒作產業。這些數字通常來自高度抽象的分析,這些分析辨識出不同工作中能被自動化的潛在任務,並根據令人難以置信的大規模採用情景進行計算。
上一波在2010年代初發生的技術性失業恐慌,部分原因是牛津大學的兩位研究人員檢視了電腦化對工作的影響程度,發現在未來10年至20年間,美國就業人口總數大約有47%將面臨自動化的「高風險」。
2013年的那項研究,讓人們對機器取代人類的可能性感到警覺,但10年多過去了,幾乎沒有證據能夠證明該研究的核心主張。研究人員擔心的問題從未發展到預期的程度,而且因為研究人員對不同工作的分類方式,這些數字被過度誇大。
在現實中,公司有各種理由不去取代員工,而是尋找可以增強技術而非取代人力的方法。
大型語言模型可能可以執行特殊書面內容製作的某些層面,但是教學、醫療保健、工程、法律、商業與文化產業,在當前人工智慧浪潮中完全自動化的風險非常低。大型語言模型有太多跟信任、偏見與準確性有關的基本問題,無法在重要角色上取代人類,只能提供協助。
國際勞工組織2023年的一份報告發現, ChatGPT等生成式人工智慧的主要影響是「增強職業,而不是讓職業自動化」。只有「文書工作」不免受到工作自動化的影響,估計有24%的工作被歸納為「高度受影響」。
由於女性在文書工作的占比過高,女性工作受影響的可能性是男性的兩倍。對於絕大多數的職業,只有1%至4%被認為是高風險。在其餘角色中,生成式人工智慧的影響,更多是改變執行這些角色可能需要的技術類型、完成工作的時間,以及工作的強度。
全球各地受到潛在自動化影響的程度有一些差異,高收入國家占總就業人口的5.5%,低收入國家則降到0.4%。這是因為高收入國家的文職與專業角色比例較大,而這些角色更容易受到自動化的影響。
(延伸閱讀│比爾蓋茲AI書單《控制邊緣》:我們即將跨過人類歷史重要關口)
根據我們先前對大型語言模型擅長的工作的分析(具有明確目標和大量文字資料的正式標準化任務),我們可以瞭解它們可能在哪些產業產生最大的影響。雖然完全自動化多半不會實現,但生成式人工智慧必然會徹底改變某些職業。
工作涉及大量編碼的軟體開發人員與電腦工程師,將受到重大影響。曾經需要一個程式設計師團隊才能完成的工作,很快就可能由一個人完成。
ChatGPT等聊天機器人具有高度價值的另一個領域,是廣告、行銷與媒體活動的內容創作。在這些領域,聊天機器人也可以提高速度與效率,讓原本需要幾小時才能完成的任務,在幾分鐘內就能搞定。
此外,涉及大量文字資料合成與分析的工作,譬如一些法律與金融工作、市場分析師與交易員,人工智慧工具都能強化大部分的工作內容。但我們應該小心謹慎,不要掉進ChatGPT的無底洞。
大型語言模型最大的風險之一,就是誇大其威力與生產力,導致各行各業毫無判斷力地採用,讓決策從負責任的人類轉到不負責任且不受監督的機器上。
2023年,人工智慧新創公司吸引了將近五百億美元的全球投資。人們冀望將大型語言模型安插在各種決策的關鍵點,以徹底改變他們的產業並提高效率。
然而,在涉及治安、銀行貸款、履歷篩選、福利支付與教育等領域時,演算法決策卻讓偏見、歧視與錯誤決策的情形逐步升高。大型語言模型缺乏背景知識、意識與同理心,因此試圖單純以這類模型取代原本由人類執行的功能,會困難重重。
像黎這樣的機器學習工程師,致力改進實驗室中的模型。然而,人工智慧發展的方式不僅掌握在這些技術人員手中,市場競爭壓力與各家公司爭相成為此新興領域先驅的態勢,也帶來強烈影響。
這項技術包裹的文化與政治經濟也是關鍵。它將如何影響特定職業,取決於採用的趨勢,而採用趨勢往往難以預測。最終,在現階段,缺乏有意義的人為監督下,將太多的權力與責任交給當前的大型語言模型,那就太魯莽了。
如同受過私立學校教育的政治階層傾向發表看似具有說服力且可信的資訊,細看之下卻充滿了不準確之處,並且反映出社會的偏見與權力不平衡。
(延伸閱讀│取代你的不是AI,而是使用AI的人!程世嘉:關於AI的6項關鍵思考)