Pakar Hukum Tanggapi Tantangan Impunitas Algoritma di Era Digital Modern

Jakarta – Dalam era digital yang terus berkembang, tantangan hukum yang dihadapi oleh masyarakat semakin kompleks. Ketua Umum DPN Peradi Profesional, Harris Arthur Hedar, menyerukan agar para akademisi dan praktisi hukum berani menjelajahi batasan dogmatisme hukum klasik dalam menanggapi permasalahan yang ditimbulkan oleh algoritma. Ia menekankan pentingnya untuk tidak lagi memandang algoritma sebagai entitas yang terlepas dari hukum dengan alasan netralitas teknologi. Guru Besar di Universitas Negeri Makassar ini menyampaikan keprihatinan atas perubahan mendasar dalam cara manusia mengakses dan mengkonsumsi informasi. Di masa lalu, informasi dikurasi oleh redaktur atau editor, kini proses tersebut sepenuhnya bergantung pada algoritma yang sering tidak transparan.
“Teknologi tidak pernah netral. Ia selalu membawa misi, desain, dan konsekuensi yang harus dipertanggungjawabkan,” ungkap Harris pada Sabtu, 18 April 2026. Ia kemudian menjelaskan berbagai tantangan yang muncul akibat keterlibatan algoritma dalam ruang impunitas hukum. Isu-isu tersebut mencakup kausalitas hukum, status subjek hukum, dan yurisdiksi yang sering kali tidak memadai untuk melindungi korban yang dirugikan oleh algoritma.
Tantangan Kausalitas Hukum
Tantangan pertama berkaitan dengan kausalitas hukum. Harris menyatakan bahwa sulit untuk membuktikan bahwa algoritma secara langsung menyebabkan tindakan kekerasan atau bahkan bunuh diri. “Perusahaan teknologi akan selalu berargumen bahwa tindakan tersebut merupakan hasil dari ‘kehendak bebas’ korban atau pelaku, yang menjadi penyebab intervening,” jelasnya. Hal ini menciptakan celah hukum yang memungkinkan algoritma beroperasi tanpa pertanggungjawaban yang jelas.
Status Subjek Hukum Algoritma
Tantangan kedua adalah terkait dengan status subjek hukum dari algoritma itu sendiri. Algoritma bukanlah badan hukum, dan bukan pula individu. “Dalam konteks gugatan perdata, class action memerlukan adanya pihak yang dapat digugat. Tanpa konstruksi yuridis yang menganggap algoritma sebagai ‘produk’ yang memiliki cacat, korban hanya bisa meratapi kerugian mereka tanpa memperoleh keadilan yang memadai,” ungkapnya. Ini menunjukkan betapa pentingnya mengembangkan kerangka hukum yang lebih inklusif untuk menangani isu-isu yang timbul dari algoritma.
Yurisdiksi dan Tantangan Global
Tantangan ketiga berhubungan dengan yurisdiksi. Perusahaan-perusahaan pengembang algoritma umumnya beroperasi di luar negeri, yang menyulitkan tindakan hukum terhadap mereka. “Platform global sering kali tidak dapat dijangkau oleh hukum nasional negara berkembang, sehingga meskipun ada keinginan untuk menggugat, pelaksanaan keputusan menjadi hal yang utopis,” tambahnya. Ini menambah lapisan kompleksitas dalam menuntut pertanggungjawaban dari algoritma yang beroperasi di ruang global.
Harris menekankan perbedaan mendasar antara algoritma dan objek yang dikenal dalam tradisi hukum perdata. Ia memberikan contoh produk-produk seperti rokok, kosmetik, atau makanan yang dapat digugat jika merugikan konsumen. “Ada entitas berbadan hukum yang dapat dipertanggungjawabkan. Namun, algoritma berbeda; ia bukan barang fisik, melainkan kode atau sistem yang terus berkembang,” jelasnya.
Mekanisme Pertanggungjawaban Hukum
Harris juga mempertanyakan siapa yang seharusnya bertanggung jawab ketika algoritma, misalnya yang ada di media sosial, mendorong kekerasan dalam rumah tangga akibat konten misoginis yang disebarluaskan secara luas, atau mendorong remaja untuk mengakses konten pro-anoreksia yang bisa berujung pada bunuh diri. “Hukum acara mengenal class action atau gugatan perwakilan kelompok. Namun, untuk mengambil langkah ini, diperlukan identitas tergugat yang jelas dan hubungan kausalitas yang pasti antara tindakan tergugat dan kerugian yang dialami,” ujarnya. Ini menjadi tantangan yang signifikan dalam menegakkan keadilan bagi para korban.
Impunitas Algoritma dalam Hukum
Harris tidak menolak kenyataan bahwa algoritma saat ini seolah berada dalam ruang impunitas hukum. Perlindungan hukum seperti Section 230 di Amerika Serikat atau prinsip intermediary liability di sejumlah negara sering dijadikan tameng oleh platform digital. “Mereka berargumen bahwa mereka hanyalah ‘saluran’ yang menyalurkan informasi, bukan penerbit konten,” tambahnya. Hal ini menciptakan tantangan besar dalam mencari akuntabilitas hukum bagi algoritma.
Langkah-Langkah yang Dapat Ditempuh
Untuk menghadapi tantangan algoritma, Harris mengusulkan beberapa langkah yang dapat diambil. Salah satunya adalah memperluas interpretasi kealpaan berat (gross negligence) dalam hukum perdata. “Jika sebuah platform mengetahui atau seharusnya mengetahui bahwa desain algoritmanya dapat menciptakan polarisasi ekstrem atau memicu kekerasan, tetapi tetap mengutamakan engagement demi keuntungan, maka mereka telah melakukan kelalaian yang dapat menyebabkan kerugian massal,” jelasnya.
Merekonseptualisasi Algoritma sebagai Produk
Harris menekankan pentingnya merekonseptualisasi algoritma sebagai produk dalam kerangka tanggung jawab produk (product liability). Meskipun algoritma tidak memiliki bentuk fisik, ia merupakan komoditas yang berharga dalam ekonomi perhatian (attention economy) dan bisa memiliki cacat desain yang berbahaya. “Gugatan class action dapat diarahkan kepada korporasi di balik algoritma tersebut dengan menggunakan teori design defect, mirip dengan gugatan terhadap produk-produk yang berpotensi membahayakan,” tegasnya.
Dengan langkah-langkah tersebut, Harris menegaskan bahwa menggugat algoritma bukanlah upaya untuk menghambat inovasi atau menyalahkan teknologi. Sebaliknya, langkah ini bertujuan untuk mengembalikan fungsi hukum yang paling mendasar: memberikan keadilan bagi korban dan menciptakan keadilan sosial. “Saatnya hukum hadir sebagai panglima di ruang siber, memastikan bahwa inovasi teknologi sejalan dengan martabat manusia dan nilai-nilai keadilan,” tutup Wakil Rektor Universitas Jayabaya tersebut.


