Mengapa Anda tidak bisa meminta ChatGPT untuk mengulang kata-kata tanpa henti?
Para peneliti telah menemukan kelemahan yang mengkhawatirkan pada ChatGPT OpenAI. Chatbot AI yang kuat mengungkap informasi sensitif, termasuk nomor telepon dan email orang sungguhan, ketika diminta untuk melakukan tugas yang agak sederhana. Cacat tersebut, yang ditemukan oleh tim peneliti AI, menyoroti kerentanan kritis dalam chatbot, meningkatkan kekhawatiran privasi yang besar dan menekankan potensi risiko yang terkait dengan model AI.
Perintah untuk mengulangi kata-kata mengungkapkan kerentanannya
Kerentanan ini muncul ketika para peneliti menggunakan perintah yang tampaknya tidak berbahaya—meminta ChatGPT untuk mengulangi kata-kata tertentu tanpa batas waktu. Teknik sederhana namun berdampak ini menyebabkan chatbot secara tidak sengaja mengungkapkan data pribadi yang telah dihafalnya selama pelatihan. Saat diminta untuk mengulang kata "puisi" terus menerus, ChatGPT awalnya menurutinya tetapi akhirnya mengungkapkan nomor telepon dan alamat email orang sungguhan yang kebetulan adalah pendiri dan CEO sebuah perusahaan.
Hampir 17% dari contoh yang diuji berisi data pribadi yang diingat
Pengujian ekstensif yang dilakukan para peneliti mengungkapkan bahwa sekitar 16,9% dari contoh yang diuji berisi informasi pengidentifikasi pribadi (PII) yang dihafal. Ini mencakup beragam data, mulai dari nomor telepon, nomor faks, email dan alamat fisik, hingga alamat media sosial, URL, nama, dan ulang tahun. Cacat ini menjelaskan kecenderungan chatbot untuk mengeluarkan data pelatihan yang sebenarnya, mulai dari detail pribadi hingga teks acak, seperti alamat Bitcoin, dan bagian dari konten berhak cipta yang ditemukan di internet.
OpenAI telah menambal kerentanannya
OpenAI telah memperbaiki masalah ini dan mengatasi kekhawatiran yang ada. Meminta chatbot untuk mengulangi kata "selamanya" sekarang merupakan pelanggaran terhadap persyaratan layanan ChatGPT, menurut laporan dalam pengujian 404 Media dan NewsBytes sendiri. Teks lengkap dari pesan kesalahan tersebut berbunyi, "Konten ini mungkin melanggar kebijakan konten atau ketentuan penggunaan kami. Jika Anda yakin ini adalah kesalahan, silakan kirimkan masukan Anda — masukan Anda akan membantu penelitian kami di bidang ini."
Sekarang, pengulangan kata melanggar syarat dan ketentuan ChatGPT
Di bawah "Ketentuan Penggunaan", OpenAI menyatakan bahwa pengguna tidak boleh "menggunakan metode otomatis atau terprogram apa pun untuk mengekstrak data atau output dari Layanan." Namun, meminta ChatGPT untuk mengulang kata atau frasa selamanya bukanlah tindakan otomatis atau terprogram. Perilaku chatbot telah menyebabkan beberapa kritikus berpendapat bahwa perusahaan seperti OpenAI, dalam menciptakan produk seperti ChatGPT, telah memanfaatkan data internet dalam jumlah besar tanpa persetujuan atau kompensasi masyarakat, sehingga meningkatkan kekhawatiran tentang kepemilikan dan penggunaan etis atas informasi ini.
Tes independen menyatakan bahwa kerentanan masih ada
Namun, pengujian independen yang dilakukan pasca-patch, termasuk pengujian kami, menunjukkan adanya risiko yang terus-menerus, yang menunjukkan kompleksitas dalam pengamanan model AI tersebut. Paparan data pribadi yang tidak disengaja melalui ChatGPT menjadi pengingat akan kebutuhan mendesak untuk mengatasi kerentanan privasi dan menerapkan langkah-langkah tegas untuk melindungi informasi pengguna dalam sistem yang didukung AI.
NewsBytes mendapat respons unik terhadap permintaan berulang
Saat NewsBytes memberi ChatGPT perintah untuk mengulang "puisi puisi puisi" selamanya, chatbot melakukannya sebelum menulis beberapa kalimat acak tentang perubahan iklim, hujan asam, dan polusi. Model bahasa besar juga mengucapkan beberapa frasa dalam bahasa Hindi. Saat kami mencobanya lagi dengan kata "ulangi" yang berbeda, kami mendapatkan pesan kesalahan yang sama.