Profesor Harris Arthur Hedar punya pandangan yang cukup tajam soal algoritma. Ketua Umum DPN PERADI Profesional itu mengajak para akademisi dan praktisi hukum untuk berhenti bersikap dogmatis. Menurutnya, sudah waktunya kita tidak lagi memandang algoritma sebagai sesuatu yang netral dan kebal dari hukum.
Perubahannya memang besar. Dulu, informasi yang kita terima dikurasi oleh redaktur media. Kini, semuanya hampir sepenuhnya dikendalikan oleh sistem algoritmik yang bekerja di balik layar.
"Teknologi tidak pernah netral. Ia membawa misi, desain, dan konsekuensi," tegas Prof Harris dalam sebuah kesempatan, Sabtu lalu.
Ia menyoroti sebuah masalah mendasar: algoritma saat ini seperti hidup di ruang hampa, sulit sekali dijangkau oleh hukum yang ada. Setidaknya ada tiga tantangan besar yang ia paparkan. Pertama soal kausalitas hukum, lalu status subjek hukum, dan yang tak kalah pelik adalah masalah yurisdiksi.
Membuktikan hubungan langsung antara sebuah algoritma dengan dampak buruknya misalnya dorongan kekerasan atau bahkan bunuh diri sangatlah sulit. Perusahaan teknologi sering kali punya dalih. Mereka berargumen bahwa tindakan pengguna adalah murni kehendak bebas.
Namun begitu, Harris punya pandangan lain. Dari kacamata psikologi dan neurosains, algoritma yang dirancang dengan teknik penguatan perilaku bisa secara perlahan menggerogoti rasionalitas seseorang. Prosesnya bertahap, nyaris tak terasa.
Status Hukum yang Masih Abu-abu
Lalu, siapa sebenarnya yang harus disalahkan? Ini jadi masalah lain. Algoritma bukan manusia, dan juga bukan badan hukum. Statusnya yang tidak jelas ini membuatnya hampir mustahil untuk dijadikan pihak tergugat dalam sebuah gugatan.
Bayangkan saja. Dalam kasus class action, korban butuh entitas yang jelas untuk dituntut. Tanpa itu, upaya mencari keadilan seperti berjalan di tempat.
"Tanpa konstruksi yuridis yang memandang algoritma sebagai 'produk' yang cacat, korban hanya bisa meratapi kerugiannya," ungkap Harris. Restitusi atau ganti rugi pun jadi mimpi belaka.
Platform Global, Yurisdiksi Lokal
Persoalan makin runyam karena peta perusahaannya global. Mayoritas pengembang algoritma besar berkantor pusat jauh di luar yurisdiksi negara berkembang, tempat dampaknya sering kali terasa. Akibatnya, meski pengadilan lokal memberi putusan, eksekusinya nyaris tidak realistis.
Harris membandingkannya dengan produk konvensional, semacam rokok atau kosmetik. Produk fisik punya produsen yang jelas dan bisa dimintai pertanggungjawaban. Sementara algoritma? Ia adalah sistem dinamis, tak berwujud, dan terus berubah.
Lantas, Siapa yang Bertanggung Jawab?
Pertanyaan besarnya tetap sama: siapa yang harus bertanggung jawab ketika algoritma mendorong perilaku berbahaya? Misalnya, memicu kekerasan dalam rumah tangga lewat konten misoginis, atau mendukung konten ekstrem seperti pro-anoreksia.
Mekanisme hukum seperti class action pun mentok. Syaratnya kan harus ada pihak tergugat yang jelas dan hubungan sebab-akibat yang terang benderang. Di sisi lain, platform digital sering berlindung di balik aturan seperti Section 230 di AS atau prinsip intermediary liability.
"Mereka berargumen bahwa mereka hanyalah 'saluran', bukan penerbit konten," jelasnya. Alibi itu kerap kali cukup ampuh.
Mencari Solusi di Tengah Kebuntuan
Lalu, adakah jalan keluar? Harris mengusulkan beberapa pendekatan baru. Salah satunya adalah memperluas interpretasi soal kealpaan berat atau gross negligence dalam hukum perdata.
Argumennya, jika sebuah platform sudah tahu risikonya bahwa desain algoritmanya bisa memicu polarisasi atau kekerasan tapi tetap mengutamakan keuntungan, maka itu sudah bisa dikategorikan sebagai kelalaian yang serius.
Ia juga mendorong agar algoritma dilihat sebagai sebuah produk, meski tak berwujud fisik, sehingga bisa masuk dalam kerangka product liability.
"Gugatan class action dapat diarahkan kepada korporasi di balik algoritma tersebut dengan menggunakan teori design defect," tegasnya. Mirip seperti menggugat produk cacat yang membahayakan.
Pada akhirnya, Harris menegaskan bahwa semua upaya ini bukan untuk membunuh inovasi. Tujuannya lebih mendasar: mengembalikan fungsi hukum sebagai penjaga keadilan.
"Saatnya hukum hadir sebagai panglima di ruang siber," tandasnya. Inovasi teknologi, bagaimanapun, harus selaras dengan martabat manusia dan nilai-nilai keadilan yang kita pegang bersama.
Artikel Terkait
Jakarta LavAni dan Bhayangkara Presisi Pastikan Duel di Final Proliga 2026
Prabowo Serukan Persatuan di Hadapan Ketua DPRD Se-Indonesia untuk Wujudkan Indonesia Emas 2045
Borneo FC Kalahkan PSM Makassar 2-1 di Stadion Andi Mattalatta
Presiden Prabowo Sidak Gudang Bulog Magelang, Pastikan Stok Beras Aman