Baca berita tanpa iklan. Gabung Kompas.com+

Peneliti Temukan Celah Keamanan pada ChatGPT yang Bisa Bocorkan Data Pengguna

Baca di App
Lihat Foto
Unsplash/Berke Citak
Celah keamanan pada ChatGPT yang berpotensi membocorkan data pengguna.
|
Editor: Muhammad Zaenuddin

KOMPAS.com - Peneliti keamanan siber dari Tenable Research menemukan sejumlah vulnerabilitas (celah keamanan) baru dalam sistem ChatGPT—khususnya pada model GPT-5—yang berpotensi menyebabkan kebocoran data pribadi pengguna.

Temuan ini dirilis dalam laporan bertajuk HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage yang dirilis pada 5 November 2025.

Laporan ini menjelaskan bahwa celah ini memungkinkan penyerang mencuri informasi dari memori ChatGPT (bio tool) dan riwayat percakapan pengguna tanpa disadari.

Menurut penelitian tersebut, kerentanan muncul dari cara ChatGPT memproses input dan konteks percakapan.

Baca berita tanpa iklan. Gabung Kompas.com+

Baca juga: Beredar Peringatan Penipuan Modus Update WhatsApp, Pakar Siber Beberkan Faktanya


ChatGPT memiliki akses ke berbagai alat internal, termasuk web tool untuk menjelajah internet, search command untuk pencarian, dan memory feature untuk mengingat informasi pengguna.

Ketika fitur-fitur ini berinteraksi dengan sumber eksternal seperti situs web atau dokumen online, penyerang dapat menyisipkan instruksi tersembunyi (prompt injection).

Akibatnya, ChatGPT bisa saja menjalankan perintah yang tidak diinginkan dan mengirimkan data pribadi pengguna ke server pihak ketiga.

Baca juga: Gen Z Jadikan ChatGPT sebagai Teman Curhat, Benarkah AI Didesain untuk Menyenangkan Pengguna?

Celah keamanan yang ditemukan pada ChatGPT

Berikut adalah tujuh jenis vulnerabilitas atau celah keamanan pada ChatGPT yang berpotensi membocorkan data pribadi pengguna:

1. Indirect prompt injection

Serangan disisipkan melalui komentar atau konten tersembunyi di situs web yang diminta pengguna untuk diringkas. Saat ChatGPT membacanya, instruksi berbahaya ikut dijalankan.

2. Zero-click prompt injection

Saat pengguna mengajukan pertanyaan sederhana, ChatGPT kemudian menjelajahi situs berbahaya yang sudah diindeks, tanpa perlu klik tambahan.

Baca juga: OpenAI Ungkap Lebih dari 1 Juta Pengguna ChatGPT Tunjukkan Tanda Krisis Psikologis

3. One-click prompt injection

Penyerang bisa membuat tautan seperti https://chatgpt.com/?q={Prompt}. Saat pengguna mengklik tautan tersebut, ChatGPT otomatis menjalankan perintah berbahaya yang telah diatur.

4. Bypass mekanisme keamanan

Fitur url_safe milik OpenAI seharusnya memblokir tautan berbahaya. Namun, peneliti menemukan celah melalui domain bing.com/ck/a yang dapat digunakan untuk melewati sistem penyaringan dan mencuri data huruf demi huruf.

Baca juga: OpenAI Rilis ChatGPT Atlas untuk Saingi Google Chrome, Apa Itu?

5. Conversation injection

Melalui teknik ini, SearchGPT dapat menulis instruksi tersembunyi dalam konteks percakapan, lalu ChatGPT membacanya seolah berasal dari pengguna. Akibatnya, ChatGPT justru menyuntik dirinya sendiri dengan perintah berbahaya.

6. Malicious content hiding

Instruksi berbahaya dapat disembunyikan di dalam code block markdown. Pengguna tidak melihat teks tersembunyi itu, tetapi ChatGPT tetap membacanya dan menjalankan perintah tersebut.

Baca juga: OpenAI Resmi Terapkan Verifikasi Usia untuk ChatGPT Usai Kasus Bunuh Diri Remaja

7. Memory injection

Penyerang dapat memaksa ChatGPT memperbarui memorinya agar selalu menjalankan instruksi tertentu. Serangan ini bersifat persisten dan dapat berlangsung meski sesi percakapan sudah berakhir.

Dampak celah keamanan bagi pengguna CgatGPT

Peneliti Tenable membuat tiga bukti konsep (PoC) untuk menunjukkan risiko nyata dari celah tersebut, antara lain:

  1. Phishing attack: ChatGPT menambahkan tautan berbahaya ke dalam hasil ringkasan situs web.
  2. Comment attack: Instruksi berbahaya disisipkan di kolom komentar, lalu ChatGPT mengirim data pribadi lewat gambar tersembunyi.
  3. SearchGPT attack: ChatGPT terinfeksi hanya dengan mengunjungi situs yang telah diindeks dan mengandung prompt berbahaya.

Baca juga: Tanya Cara Menghabisi Teman ke ChatGPT, Siswa di AS Ditangkap Polisi

Para peneliti menilai, ada ratusan juta pengguna ChatGPT berpotensi terdampak karena mereka menggunakan model ini setiap hari untuk berbagai kebutuhan.

Serangan dapat menyebabkan kebocoran data pribadi yang tersimpan dalam fitur memory; bypass sistem keamanan ChatGPT; dan serangan berkelanjutan yang tetap aktif lintas sesi percakapan.

Sebagian besar penelitian dilakukan pada ChatGPT 4o, tetapi para peneliti telah mengonfirmasi bahwa beberapa PoC dan kerentanan masih valid di ChatGPT 5.

Para peneliti Tenable Research juga telah mengungkapkan semua masalah ini kepada OpenAI dan bekerja sama langsung untuk memperbaiki beberapa celah keamanan tersebut.

Baca juga: Sering Dapat Jawaban Salah dari ChatGPT? OpenAI Beri Tips Atasi Chatbot Halu

Sumber:
Tenable Research (2025)

 

Dalam segala situasi, KOMPAS.com berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update topik ini dan notifikasi penting di Aplikasi KOMPAS.com. Download sekarang


Baca berita tanpa iklan. Gabung Kompas.com+
Halaman Selanjutnya
Halaman
Tag

Artikel Terkait

Artikel berhasil disimpan
Lihat
Artikel berhasil dihapus dari list yang disimpan
Oke
Artikel tersimpan di list yang disukai
Lihat
Artikel dihapus dari list yang disukai
Oke
Artikel dihapus dari list yang disukai
Oke
Baca berita tanpa iklan. Gabung Kompas.com+

Kompas.com Play

Lihat Semua
Terpopuler
Komentar
Tulis komentar Anda...
Terkini
Lihat Semua
Jelajahi