Beberapa tahun lalu, Akal Imitasi (AI) masih terasa seperti fiksi ilmiah. Kini, AI sudah ada di mana-mana. Ia menyaring email spam kita, merekomendasikan film di Netflix, bahkan membantu dokter mendiagnosis penyakit. Beberapa perusahaan menggunakannya untuk memilih siapa yang layak diwawancara kerja. Bank menggunakannya untuk memutuskan siapa yang berhak mendapat pinjaman.
Pertanyaannya, seberapa yakin kita bahwa mesin dapat membuat keputusan yang adil?
AI belajar dari data, dan data adalah rekaman sejarah manusia, lengkap dengan semua bias dan ketidakadilan yang pernah ada. Ketika kita menyerahkan keputusan penting kepada algoritma tanpa pengawasan yang memadai, kita berisiko mengotomatisasi diskriminasi dalam skala yang besar.
Inilah mengapa kita perlu bicara tentang etika AI. Bukan sebagai penghambat inovasi, tapi sebagai panduan agar teknologi ini tetap melayani dan membantu perikehidupan manusia.
Ketika algoritma mewarisi prasangka kita
AI seharusnya objektif. Mesin seharusnya tidak punya prasangka. Sayangnya, realitasnya lebih rumit dari itu.
Ambil contoh kasus di dunia kesehatan. Pada 2019, peneliti dari University of California, Berkeley menemukan bahwa sebuah algoritma yang digunakan rumah sakit untuk memprediksi pasien mana yang membutuhkan perawatan ekstra ternyata secara sistematis mengabaikan pasien kulit hitam. Bukan karena programmernya rasis—tapi karena algoritma itu belajar dari data historis yang mencerminkan ketimpangan akses kesehatan.
Hasilnya? Pasien kulit hitam yang sebenarnya lebih sakit daripada pasien kulit putih justru tidak mendapat perawatan prioritas, karena algoritma “belajar” bahwa mereka secara historis menghabiskan lebih sedikit biaya kesehatan. Padahal itu karena mereka memang kurang mendapat akses, bukan karena mereka lebih sehat.
Atau lihat kasus Amazon. Pada 2018, perusahaan teknologi terbesar di dunia ini terpaksa menutup proyek AI rekrutmen mereka setelah menemukan bahwa sistemnya mendiskriminasi kandidat perempuan. Mengapa? Karena AI-nya dilatih dengan data lamaran kerja dari 10 tahun terakhir, yang didominasi oleh laki-laki. Algoritma itu kemudian “belajar” bahwa laki-laki adalah kandidat yang lebih baik, dan secara otomatis menurunkan skor resume yang mencantumkan kata “women’s” (seperti “women’s chess club captain”).
Ini bukan masalah teknis semata. Ini masalah moral.
Filsuf John Rawls punya konsep menarik yang disebut “veil of ignorance” atau tirai ketidaktahuan. Bayangkan kita harus merancang sistem yang adil, tapi tanpa tahu posisi kita di dalamnya, apakah kita akan jadi orang kaya atau miskin, laki-laki atau perempuan, mayoritas atau minoritas. Dalam kondisi seperti itu, Rawls berargumen, kita akan memilih sistem yang paling menguntungkan mereka yang paling rentan, karena kita sendiri bisa berada di posisi itu.
Mari coba terapkan prinsip ini ke desain AI. Jika para pengembang membayangkan diri mereka sebagai pihak yang paling rentan terdampak oleh algoritma mereka sendiri, mungkin mereka akan lebih berhati-hati. Tapi dalam praktiknya? Tekanan deadline, target profit, dan kompetisi pasar sering membuat uji etika jadi sekadar formalitas.
Siapa yang salah ketika AI salah?
Bayangkan Anda melamar pekerjaan dan ditolak. Bukan oleh manusia—tapi oleh algoritma yang menyaring resume Anda. Kalau Anda merasa keputusan itu tidak adil, siapa yang Anda gugat? Programmernya? Perusahaan yang membeli software-nya? Atau AI-nya sendiri?
Di Amerika Serikat, regulator mulai memberikan jawaban tegas: perusahaan tetap bertanggung jawab, meskipun keputusan dibuat oleh AI. Komisi Kesetaraan Kesempatan Kerja (EEOC) menegaskan bahwa software rekrutmen tunduk pada hukum anti-diskriminasi yang sama dengan perekrut manusia. Anda tidak bisa lepas tangan dengan bilang “itu keputusan algoritma.”
Tapi masalahnya lebih dalam dari soal hukum. Banyak sistem AI beroperasi seperti “kotak hitam”—bahkan pembuatnya sendiri tidak sepenuhnya memahami bagaimana sistem itu sampai pada kesimpulan tertentu. Sosiolog Frank Pasquale menyebutnya sebagai “black box society”, alias masyarakat yang dikendalikan oleh keputusan-keputusan algoritmik yang tidak bisa dipertanyakan.
Ambil contoh algoritma COMPAS, yang digunakan dalam sistem peradilan pidana AS untuk memprediksi risiko seseorang mengulangi kejahatan. Investigasi oleh ProPublica menemukan bahwa sistem ini cenderung memberikan skor risiko lebih tinggi kepada terdakwa kulit hitam, bahkan ketika latar belakang kriminal mereka sama dengan terdakwa kulit putih. Akibatnya, orang-orang ini menerima hukuman lebih berat atau ditolak pembebasan bersyarat berdasarkan prediksi mesin yang bias.
Ketika kebebasan seseorang dipertaruhkan, kita tidak bisa sekadar menerima jawaban “algoritma mengatakan demikian.”
Etika AI yang sehat membutuhkan apa yang disebut “human-in-the-loop”, atau manusia yang tetap memantau, mempertanyakan, dan jika perlu, menolak keputusan algoritma. Tapi ini hanya bisa terjadi jika sistemnya transparan dan dapat diaudit. Sayangnya, banyak perusahaan melindungi algoritma mereka sebagai rahasia dagang, membuat pengawasan eksternal nyaris mustahil.
Jika Anda pernah merasa “diikuti” oleh iklan di internet, Anda tidak salah sangka. Setiap klik, scroll, dan detik yang Anda habiskan di sebuah halaman web direkam, dianalisis, dan digunakan untuk memprediksi apa yang akan Anda lakukan selanjutnya.
AI modern rakus data. Makin banyak data, makin pintar ia belajar. Tapi siapa yang mengontrol data itu? Dan apakah kita benar-benar memberikan izin secara sadar?
Kasus Clearview AI adalah contoh ekstrem. Perusahaan ini mengumpulkan lebih dari tiga miliar foto wajah dari media sosial—tanpa sepengetahuan atau izin orang-orang dalam foto tersebut. Mereka kemudian menjual akses ke database ini kepada polisi dan perusahaan swasta. Bayangkan: wajah Anda, dari foto liburan yang Anda posting bertahun-tahun lalu, kini ada dalam sistem pengawasan komersial.
Pada 2022, regulator Eropa menjatuhkan sanksi berat dan memerintahkan Clearview menghapus semua data warga Eropa. Tapi berapa banyak kasus serupa yang tidak pernah terungkap?
Filsuf Immanuel Kant pernah mengungkapkan sebuah prinsip: manusia tidak boleh diperlakukan hanya sebagai alat, melainkan selalu sebagai tujuan itu sendiri. Dalam bahasa sehari-hari: jangan perlakukan orang sekadar sebagai bahan bakar untuk mesin keuntungan Anda.
Ketika perusahaan mengumpulkan data pribadi kita; lokasi, riwayat kesehatan, pola komunikasi. Semua dikumpulkan tanpa consent yang jelas dan bermakna, mereka melanggar prinsip ini. “Consent” di sini bukan sekadar kotak centang di perjanjian pengguna sepanjang 50 halaman yang tidak ada yang baca. Consent yang bermakna adalah ketika Anda benar-benar tahu apa yang terjadi dengan data Anda, dan punya pilihan nyata untuk menolak tanpa kehilangan akses ke layanan penting.
Masalahnya, saat ini pilihan itu hampir tidak ada. Coba tolak memberikan data ke Google atau Facebook, dan kemungkinan besar Anda akan kehilangan akses ke sebagian besar internet modern.
Kolonialisme digital: eksploitasi abad 21
Kemajuan AI sering digambarkan sebagai kisah sukses global. Tapi seperti banyak cerita kemajuan, ada sisi gelap yang jarang diceritakan.
Pada Januari 2023, Time Magazine menerbitkan investigasi mengejutkan tentang pekerja di Kenya yang dibayar kurang dari dua dolar per jam untuk melatih chatbot AI. Tugas mereka? Menandai konten yang mengandung kekerasan seksual, penyiksaan, dan hal-hal mengerikan lainnya, tujuannya agar AI bisa belajar menyaring konten berbahaya.
Mereka bekerja tanpa dukungan kesehatan mental yang memadai, meskipun harus menatap konten traumatis berjam-jam setiap hari. Sementara itu, perusahaan teknologi yang menggunakan jasa mereka meraup miliaran dolar.
Ini bukan sekadar soal upah rendah. Ini tentang struktur ketimpangan global yang baru: negara-negara maju membangun AI canggih dengan mengekstraksi data dan tenaga kerja murah dari negara berkembang. Hal ini persis seperti kolonialisme jaman dahulu kala ketika mereka mengekstraksi rempah dan emas, tapi kali ini yang diambil adalah data dan keahlian digital.
UNESCO memperingatkan bahwa kesenjangan akses terhadap teknologi AI bisa memperlebar jurang pembangunan global. Negara yang tidak punya kemampuan mengembangkan AI sendiri akan semakin bergantung pada teknologi impor, yang nilai-nilai dan biasnya belum tentu cocok dengan konteks lokal.
Jika hanya Silicon Valley dan Beijing yang menentukan bagaimana AI dibangun dan nilai apa yang tertanam di dalamnya, maka kita tidak sedang membangun teknologi global, melainkan kita sedang membangun hegemoni digital.
Setiap revolusi teknologi dalam sejarah, mulai dari mesin uap, listrik, hingga internet, mereka semua membawa janji kemajuan sekaligus ancaman. Yang membedakan adalah apakah kita cukup bijaksana untuk mengantisipasi risiko sebelum terlambat?
Untuk AI, saatnya bertindak adalah sekarang. Berikut beberapa langkah konkret yang bisa kita ambil:
Pertama, pendidikan etika teknologi harus jadi bagian integral dari kurikulum. Bukan hanya untuk jurusan teknik, tapi juga bisnis, hukum, dan kebijakan publik. Para ilmuwan di masa depan harus dilatih untuk bertanya “seharusnya kita?” sebelum bertanya “bisakah kita?”
Kedua, audit algoritma harus transparan dan dilakukan pihak independen. Sama seperti laporan keuangan perusahaan publik harus diaudit akuntan eksternal, algoritma yang membuat keputusan penting tentang hidup orang harus diaudit oleh auditor independen yang punya akses penuh ke data, model, dan keputusan yang dihasilkan.
Ketiga, kita butuh governance global yang inklusif. Nilai-nilai yang tertanam dalam AI tidak boleh hanya mencerminkan Silicon Valley atau Beijing, tapi juga Jakarta, Nairobi, São Paulo. Ini membutuhkan forum global di mana negara-negara berkembang punya suara yang setara.
Keempat, dan mungkin paling penting, kita semua perlu literasi moral digital. Setiap kali kita berinteraksi dengan AI, setiap data yang kita berikan, kita sedang ikut “mengajarinya.” Kita tidak bisa sepenuhnya menyerahkan tanggung jawab kepada teknolog atau regulator. Ini tanggung jawab kolektif.
Hannah Arendt, filsuf yang menyaksikan bangkitnya totalitarianisme di Eropa, pernah menulis tentang “banalitas kejahatan”, sebuah gagasan bahwa kejahatan besar seringkali tidak dilakukan oleh monster, tapi oleh orang-orang biasa yang berhenti berpikir kritis. Mereka sekadar mengikuti prosedur, menjalankan perintah, tanpa mempertanyakan implikasi moral dari tindakan mereka.
Bahaya serupa mengintai di era AI. Ketika kita berhenti bertanya dan menerima output algoritma sebagai kebenaran objektif, ketika kita lupa bahwa di balik setiap keputusan AI ada pilihan-pilihan manusia tentang data mana yang digunakan, bias mana yang diabaikan, dan nilai apa yang diutamakan.
AI boleh semakin pintar dari hari ke hari. Tapi kebijaksanaan, kemampuan membedakan yang benar dari yang salah, yang adil dari yang tidak adil, tetap milik manusia. Teknologi akan terus maju. Tantangan kita adalah: apakah kemanusiaan kita bisa mengimbanginya?
Oleh: Gin Seladipura


