Radarnews.co, JAKARTA – Meskipun bersifat pribadi, percakapan dengan chatbot kecerdasan buatan seperti ChatGPT ternyata dapat digunakan sebagai bukti hukum dalam proses pengadilan. Hal ini diungkapkan langsung oleh CEO OpenAI, Sam Altman, dalam sebuah wawancara yang tengah ramai diperbincangkan publik.
Dalam podcast This Past Weekend bersama Theo Vonn, Altman menyampaikan kekhawatirannya terkait belum adanya perlindungan hukum yang mengikat untuk percakapan antara pengguna dan chatbot seperti ChatGPT. Menurutnya, meskipun bersifat personal dan sensitif, isi percakapan tetap dapat disimpan dan bahkan diminta sebagai bukti hukum jika diperlukan.
“Jika Anda berbicara dengan ChatGPT mengenai hal-hal yang sangat pribadi, dan kemudian terlibat dalam kasus hukum, kami bisa saja secara hukum diwajibkan untuk menyerahkan isi percakapan tersebut. Menurut saya, itu sangat kacau,” kata Altman, seperti dikutip dari PC Mag dan Futurism, Senin (28/7/2025).
Altman menyoroti bahwa berbeda dengan interaksi antara pasien dan dokter, klien dan pengacara, atau pasien dengan terapis—yang memiliki jaminan perlindungan hukum atas privasi—percakapan dengan AI saat ini belum memiliki perlindungan serupa.
Ancaman terhadap Privasi Pengguna

Pernyataan Altman ini memicu kekhawatiran mengenai perlindungan privasi pengguna, terutama karena tren penggunaan ChatGPT semakin meluas. Tak hanya untuk keperluan pekerjaan seperti menulis dan menganalisis data, tetapi juga untuk kebutuhan pribadi, termasuk sebagai teman curhat, pelatih hidup, hingga penasihat emosional.
Masalahnya, belum ada payung hukum yang secara khusus mengatur perlindungan atas data pengguna dalam interaksi dengan chatbot AI. Artinya, siapa pun yang membagikan informasi sensitif melalui ChatGPT, bisa saja informasi itu disimpan dan digunakan tanpa sepengetahuan mereka.
Peneliti dari Universitas Carnegie Mellon, William Agnew, memperingatkan bahwa model AI seperti ChatGPT berpotensi “memuntahkan” kembali informasi pribadi pengguna di sesi lain, termasuk ke pengguna berbeda. Risiko kebocoran data ini semakin menambah urgensi untuk merumuskan regulasi yang jelas terkait perlindungan privasi dalam era AI.
Pengguna Diminta Lebih Bijak
Altman mengakui bahwa perusahaan seperti OpenAI membutuhkan kerangka hukum yang lebih tegas, yang dapat menyamakan percakapan dengan AI dengan percakapan bersama tenaga profesional yang dilindungi hukum.
“Saat ini tidak masuk akal bila perusahaan AI bisa diminta untuk menyerahkan percakapan pengguna, sementara hubungan antara pengacara dan klien dilindungi hukum,” tegasnya.
Untuk itu, ia menyarankan agar pengguna tidak sembarangan membagikan rahasia terdalam atau informasi pribadi sensitif kepada chatbot seperti ChatGPT, setidaknya sampai ada kejelasan hukum yang mengatur perlindungan tersebut.
Di tengah pesatnya kemajuan teknologi AI, isu privasi kini menjadi tantangan serius. Tanpa regulasi yang memadai, pengguna berisiko kehilangan kendali atas data mereka sendiri. (*)