負責任供應鏈不再只是「做得好看」的加分項,而是愈來愈硬的合規要求。歐盟《企業可持續發展盡責指令》(CSDDD)與美國《維吾爾強迫勞動預防法》(UFLPA),正在迫使亞太地區不少供應商與品牌拿出證據,證明其供應鏈不存在強迫勞動。
在這樣的高壓之下,AI被包裝成「答案」。
一些平台宣稱,幾分鐘就能掃描龐大的供應商網絡,在風險曝光之前就把強迫勞動風險標記出來。對長期被表格與電郵拉扯的合規團隊來說,這聽起來像救命稻草。但有個問題始終繞不開:機器真的能識別現代奴役那種隱蔽、複雜、且被刻意遮掩的現實嗎?
承諾:更快、更大規模
AI確實擅長處理海量資料。若你在新加坡負責越南、孟加拉、印尼等多地供應商,資訊量足以令任何團隊吃不消。
目前的工具通常在兩類任務上最「能打」。
它們能協助供應鏈描繪與溯源梳理。透過提取提單資料、企業登記資訊與貿易紀錄,工具可以把品牌原本不知道的二級、三級供應鏈主體「挖」出來。
它們能做公開資訊的風險掃描。所謂「社群聆聽/輿情監測」工具,會彙整多語言的本地新聞、社群媒體與NGO報告,並快速提示罷工、指控或負面報導。
若目標只是把資訊整理清楚,AI確實能顯著提效。但一旦目標變成「識別侵害人權」,事情就沒那麼讓人安心。
現實:強迫勞動往往不留痕
AI靠資料裡的模式做判斷,而強迫勞動常常發生在「資料缺失」或「資料被粉飾」的地方。
1)「乾淨資料」的錯覺
亞太地區一些高風險環節,往往藏在非正式用工、無證分包,或在帳外運作的勞務仲介裡。這些主體很少發布報告,也不會出現在被清洗得很漂亮的資料集中。就算在貿易紀錄裡出現,也未必能反映勞動條件。
如果工廠扣押外來務工者的護照,這類脅迫通常不會留下公開證據。只讀貿易流與工商資訊的模型,可能看到的是「營運穩定」的工廠,卻看不到傷害,因為傷害從來沒有變成資料。
2)語境缺口
勞動風險不是「關鍵字命中」那麼簡單。AI在細微語境上往往吃虧。
工具可能把印度的「勞資衝突」當作風險訊號;人權專家卻可能把它解讀為工人能組織、能表達、能談判的跡象。反過來,媒體一片沉默也不代表「沒問題」,也可能是恐嚇、審查或恐懼造成的噤聲。
誤報也會帶來現實負擔。許多團隊被含糊詞條觸發的海量警報淹沒,時間花在「消音」與排除噪音上,而不是去核實真正的傷害。
3)「黑箱」帶來的法律風險
新的盡責管理要求企業能解釋自己的判斷與行動。在德國《供應鏈盡責法》(LkSG)等制度下,企業可能需要說明:如何評估風險,以及為何採取某項措施。
若你因為「演算法標記了」就終止供應商合作,往往很難把理由講清楚。相反,如果系統給了「低風險」評分而你繼續合作,後來曝出嚴重侵害,「模型說沒事」同樣不能構成辯護。
諷刺的是:AI本身也有「供應鏈」
還有一層更尷尬的事實。許多AI系統依賴所謂「幽靈工作」,例如資料標註、內容審核等。這些工作常被外包到全球南方的低薪崗位,工作條件可能不穩定。於是,一些被宣傳為「道德合規利器」的工具,本身也可能背著需要被追問的勞動問題。
更可行的路徑:增強智能,而不是「全權代駕」
AI可以幫忙,但不該坐到駕駛位上。它更適合當副駕。
混合模式往往更可靠。
AI可用於前期分流與排查。它能做供應商映射,按產業與地域聚類風險,並把團隊引導到潛在熱點。
核查必須由人來完成。場外勞工訪談、突擊走訪、可信的本地夥伴,仍然是識別債務束縛、性騷擾、恐嚇與心理脅迫的關鍵手段。這些現實很少會在儀表板上「自己跳出來」。
科技能提升可追溯性,但替代不了責任。
你可以把文書流程自動化,但你無法把信任自動化。