Bolehkah algoritma benar-benar mengesan buruh paksa, atau kita sekadar mengautomasikan titik buta kita?

0
4
AI and forced labour

Rantaian bekalan yang bertanggungjawab kini bukan lagi “bagus kalau ada”. Ia semakin menjadi keperluan pematuhan. Corporate Sustainability Due Diligence Directive (CSDDD) di EU dan Uyghur Forced Labour Prevention Act (UFLPA) di Amerika Syarikat telah meningkatkan tekanan ke atas banyak pembekal dan jenama di Asia Pasifik untuk membuktikan rantaian bekalan mereka bebas daripada buruh paksa.

Dalam keadaan yang serba mendesak ini, AI sering dijual sebagai jawapan.

Banyak platform kini berjanji boleh meneliti rangkaian pembekal yang sangat besar dalam beberapa minit, lalu menandakan risiko buruh paksa sebelum isu itu meletup. Bagi pasukan pematuhan yang bertarung dengan hamparan data tanpa penghujung, ini kedengaran seperti jalan keluar. Namun satu soalan tetap menghantui: bolehkah mesin mengesan realiti perhambaan moden yang berlapis, tersembunyi, dan sering disorok dengan sengaja?

Janji: pantas dan berskala

AI memang kuat dalam memproses data yang banyak. Jika anda berada di Singapura dan memantau pembekal di Vietnam, Bangladesh, dan Indonesia, aliran maklumat boleh menenggelamkan mana-mana pasukan.

Setakat ini, alat AI biasanya paling berguna dalam dua perkara.

Ia membantu memetakan rantaian bekalan. Ia boleh menarik data bil muatan (bill of lading), daftar syarikat, dan rekod dagangan untuk mendedahkan entiti Tahap 2 dan Tahap 3 yang jenama sendiri tidak sedar wujud.

Ia membantu menjejak isyarat awam. Alat “social listening” menapis berita tempatan, media sosial, dan laporan NGO dalam pelbagai bahasa, lalu menandakan mogok, dakwaan, atau liputan negatif dengan cepat.

Jika matlamatnya menyusun maklumat, AI memang satu naik taraf yang nyata. Jika matlamatnya mengesan pencabulan hak asasi manusia, gambarnya menjadi jauh lebih rumit.

Realiti: buruh paksa jarang meninggalkan bukti yang jelas

AI bergantung pada corak dalam data. Buruh paksa pula sering berlaku apabila data tiada, atau data telah “dihias” sehingga mengelirukan.

1) Silap anggap tentang “data yang bersih”

Sebahagian risiko paling serius di Asia Pasifik berada dalam kerja tidak formal, subkontrak tanpa kebenaran, atau broker tenaga kerja yang bergerak di luar rekod. Mereka tidak mengeluarkan laporan. Mereka tidak muncul dalam set data yang kemas. Dalam rekod dagangan pun, mereka boleh muncul tanpa apa-apa petunjuk tentang keadaan kerja.

Jika sebuah kilang merampas pasport pekerja migran, paksaan itu boleh berlaku tanpa jejak awam. Model yang membaca aliran dagangan dan pemfailan korporat mungkin melihat tapak yang “normal”. Ia boleh terlepas penderaan kerana penderaan itu tidak pernah menjadi data.

2) Jurang konteks

Risiko buruh bukan isu kata kunci semata-mata. AI sering sukar menangkap nuansa.

Satu alat mungkin menandakan “kekacauan buruh” di India sebagai penunjuk risiko. Seorang pakar manusia mungkin membaca perkara yang sama sebagai tanda pekerja boleh berorganisasi, bersuara, dan berunding. Pada masa yang sama, senyap dalam media juga boleh bermakna ugutan, penapisan, atau ketakutan.

Amaran palsu (false positives) juga menambah beban kerja. Banyak pasukan kini berdepan banjir amaran yang dicetus oleh istilah kabur. Masa habis untuk menolak “bunyi bising”, bukan menyemak mudarat sebenar.

3) Risiko undang-undang daripada “kotak hitam”

Peraturan uji tuntas yang baharu menuntut keputusan yang boleh dijelaskan. Dalam rejim seperti Akta Rantaian Bekalan Jerman (LkSG), syarikat mungkin perlu menunjukkan bagaimana risiko dinilai dan mengapa tindakan diambil.

Jika anda menamatkan hubungan pembekal kerana “algoritma yang menandakan”, anda mungkin sukar mempertahankan keputusan itu. Jika anda mengekalkan pembekal kerana sistem memberi skor “risiko rendah”, dan kemudian pencabulan berat terbongkar, “model kata selamat” bukan alasan yang melindungi anda.

Ironinya: AI juga ada rantaian bekalan sendiri

Ada lapisan lain yang janggal. Banyak sistem AI bergantung pada kerja “di belakang tabir”, seperti pelabelan data dan moderasi kandungan. Kerja ini sering disumber luar kepada pekerja bergaji rendah di Global South. Keadaan kerja boleh rapuh. Ini membuatkan naratif pemasaran terasa canggung: alat yang dijual sebagai penguatkuasaan beretika boleh bergantung pada model kerja yang sendiri menimbulkan persoalan kebajikan.

Laluan yang lebih wajar: kecerdasan diperkukuh (augmented intelligence)

AI boleh membantu, tetapi ia tidak patut memegang stereng. Ia lebih sesuai sebagai pembantu.

Pendekatan hibrid biasanya memberi hasil yang lebih kukuh.

AI boleh membantu saringan awal (triage). Ia boleh mengendalikan pemetaan pembekal, mengelompokkan risiko mengikut sektor dan geografi, dan mengarahkan pasukan kepada titik panas yang perlu diteliti.

Manusia perlu melakukan pengesahan. Temu bual pekerja di luar tapak, lawatan mengejut, dan rakan tempatan yang dipercayai masih cara terbaik untuk mengesan ikatan hutang (debt bondage), gangguan seksual, ugutan, dan paksaan psikologi. Realiti ini jarang muncul dalam papan pemuka.

Teknologi boleh menaikkan tahap kebolehkesanan. Ia tidak boleh menggantikan tanggungjawab.

Anda boleh mengautomasikan urusan kertas kerja. Anda tidak boleh mengautomasikan kepercayaan.

Oh hi there 👋
It’s nice to meet you.

Sign up to receive awesome content in your inbox, every month.

We don’t spam! Read our privacy policy for more info.

This article is also available in: বাংলাদেশ (Bengali) 简体中文 (Chinese (Simplified)) 繁體中文 (Chinese (Traditional)) English हिन्दी (Hindi) Indonesia (Indonesian) 日本語 (Japanese) 한국어 (Korean) Punjabi Tamil ไทย (Thai) Tiếng Việt (Vietnamese)

Leave a reply