PORTAL — Perkembangan kecerdasan buatan (AI) bukan lagi sekadar isapan jempol ilmuwan atau fiksi ilmiah. Di era digital saat ini, AI telah menjadi bagian dari kehidupan sehari-hari—mulai dari chatbot layanan pelanggan, algoritma perbankan, hingga kendaraan otonom. Namun, seiring dengan meningkatnya otonomi dan kapabilitas AI, muncul satu pertanyaan mendasar dalam bidang hukum: jika AI melakukan kesalahan atau bahkan menyebabkan kerugian, siapa yang bertanggung jawab?
Oleh: Nunung, Mahasiswi Prodi Hukum Pidana Islam
Dalam hukum pidana, prinsip dasar yang berlaku adalah asas pertanggungjawaban pidana, yang menuntut adanya unsur kesalahan dan kesadaran (mens rea). Namun, AI tidak memiliki kehendak, kesadaran, atau niat jahat seperti manusia. Ia bekerja berdasarkan algoritma, data pelatihan, dan parameter teknis yang diberikan oleh pembuat atau penggunanya. Maka, apakah adil jika AI dibebani tanggung jawab hukum?
Sebagian pakar hukum berpendapat bahwa AI hanyalah alat, sehingga tanggung jawab tetap harus dibebankan kepada pembuat (developer), pemilik, atau operatornya. Dalam pandangan ini, AI diperlakukan seperti pisau: ketika pisau digunakan untuk melukai orang, yang bertanggung jawab adalah pemegangnya, bukan pisaunya. Namun, bagaimana jika AI beroperasi secara otonom dan mengambil keputusan yang bahkan tidak dapat diprediksi oleh penciptanya?
Beberapa negara mulai memikirkan bentuk baru pertanggungjawaban hukum yang dikenal dengan “electronic personhood”, yaitu pemberian status hukum khusus bagi entitas AI yang sangat kompleks. Konsep ini mirip dengan badan hukum (legal entity) pada perusahaan. Namun, ide ini mengundang kontroversi karena dikhawatirkan justru menjadi celah untuk menghindari tanggung jawab hukum manusia yang sebenarnya berada di balik sistem AI.
Lebih lanjut, kompleksitas ini menimbulkan dilema etis dan yuridis: haruskah hukum kita beradaptasi untuk menghadapi entitas non-manusia yang mampu bertindak mandiri? Jika tidak, maka risiko “tak bertuan”-nya tanggung jawab atas kerugian yang ditimbulkan AI bisa menjadi ancaman nyata bagi keadilan.
Indonesia sendiri masih berada dalam tahap awal pengaturan hukum terhadap AI. RUU Perlindungan Data Pribadi dan perkembangan kebijakan digital belum secara spesifik mengatur tentang tanggung jawab hukum dalam kecerdasan buatan. Ketertinggalan ini dapat berdampak serius jika teknologi AI berkembang lebih cepat daripada kesiapan hukum kita.
Oleh karena itu, perlu ada reformulasi prinsip-prinsip hukum pidana dan perdata yang mampu menjawab tantangan era AI. Penegakan hukum tidak hanya harus adil, tetapi juga adaptif terhadap teknologi. Pembentukan kerangka hukum yang jelas, pembagian tanggung jawab antara pengembang, pemilik, dan AI itu sendiri, serta pengawasan etik dan yuridis menjadi kunci utama.
Dalam konteks hukum Islam, perdebatan juga berkembang. Apakah tindakan AI bisa dikategorikan sebagai perbuatan yang menimbulkan jarimah (kejahatan)? Jika AI tidak memiliki akal (’aql) dan niat (niyyah), maka ia tidak bisa dimintai pertanggungjawaban syar’i. Ini menguatkan posisi bahwa tanggung jawab tetap ada pada manusia yang merancang atau memanfaatkannya.
Kesimpulannya, robot tidak (dan belum bisa) dimintai pertanggungjawaban hukum secara mandiri karena mereka bukan subjek hukum seperti manusia. Namun, hukum tidak boleh tinggal diam. Diperlukan pendekatan progresif yang tidak hanya menyoal siapa yang bersalah, tetapi juga bagaimana mencegah bahaya teknologi yang tak terkendali. Jika tidak, kita bisa saja dikalahkan oleh ciptaan kita sendiri dengan hukum yang tak mampu menjangkau mereka.