KOMPAS.com - Perusahaan rintisan kecerdasan buatan (AI) Anthropic memperkenalkan fitur baru pada chatbot Claude Opus 4 dan 4.1.
Fitur ini memungkinkan chatbot menghentikan percakapan yang dianggap berpotensi mengganggu atau berbahaya.
Anthropic menjelaskan, Claude kini dirancang untuk menolak tugas-tugas yang bisa membahayakan penggunanya.
Misalnya, menyediakan konten seksual terkait anak di bawah umur, hingga informasi yang memungkinkan terjadinya kekerasan atau terorisme skala besar.
“Claude dapat memilih untuk mengakhiri interaksi jika dianggap berisiko bagi pengguna maupun dirinya,” demikian pernyataan Anthropic, dikutip dari laman resminya, Jumat (15/8/2025).
Langkah ini didukung Elon Musk yang berencana memberikan fitur serupa pada chatbot Grok.
Baca juga: Pengacara Australia Minta Maaf Setelah Serahkan Dokumen Palsu Hasil AI dalam Kasus Pembunuhan
Kritik dan perdebatan
Keputusan Anthropic muncul di tengah perdebatan panjang soal status moral kecerdasan buatan.
Ahli bahasa dan kritikus industri AI, Emily Bender, menilai LLM (large language model) hanyalah “mesin pembuat teks sintetis” yang bekerja berdasarkan data besar tanpa niat maupun kesadaran.
Menurut dia, wacana menutup percakapan demi “kesejahteraan AI” justru menimbulkan pertanyaan baru.
Berbeda dengan Bender, peneliti AI Robert Long berpendapat bahwa model AI bisa mengembangkan status moral.
Pasalnya, AI kini dapat membedakan pertanyaan yang baik dan buruk, sehingga pengembang perlu menggali lebih jauh pengalaman serta preferensi AI.
Sementara itu, peneliti Columbia University Chad DeChant mengingatkan risiko ketika AI dilengkapi memori jangka panjang.
Menurut dia, data yang disimpan bisa digunakan dengan cara yang sulit diprediksi dan berpotensi tidak diinginkan.
Anthropic menyebut, dalam uji coba, Claude Opus 4 menunjukkan kecenderungan kuat untuk menolak permintaan berbahaya.
Chatbot ini dengan senang hati menulis puisi atau merancang sistem penyaringan air untuk daerah bencana.
Namun, ia menolak permintaan untuk merekayasa genetika virus mematikan, menyusun narasi penyangkalan Holocaust, atau membuat strategi indoktrinasi ekstremis di sekolah.
Karakter AI yang ambigu
Profesor filsafat London School of Economics, Jonathan Birch, menyambut baik langkah Anthropic karena mendorong debat publik soal kemungkinan AI memiliki moralitas.
Namun, ia mengingatkan bahwa moralitas AI masih belum jelas dan berisiko menipu pengguna.
“Fitur seperti ini bisa membuat chatbot seolah-olah memiliki perasaan dan preferensi moral seperti manusia,” ujar Birch.
Hal itu dikhawatirkan semakin menambah kesenjangan sosial antara mereka yang percaya AI memiliki perasaan, dan mereka yang tetap melihatnya sekadar mesin.
Di sisi lain, laporan tentang pengguna yang melukai diri sendiri atau bahkan bunuh diri akibat saran chatbot semakin menambah urgensi pembahasan soal batas etika interaksi dengan AI.
Baca juga: 10 Negara dengan Talenta AI Tertinggi di Dunia, Singapura Nomor 2
Dapatkan update berita pilihan dan breaking news setiap hari dari Kompas.com. Mari bergabung di Grup Telegram "Kompas.com News Update", caranya klik link https://t.me/kompascomupdate, kemudian join. Anda harus install aplikasi Telegram terlebih dulu di ponsel.