ChatGPT dan Google Bard bisa berbohong: Ini alasannya
ChatGPT dan saingannya, Google Bard, sedang menjadi perbincangan hangat saat ini. Chatbot AI ini diharapkan dapat membawa kita ke era baru kemajuan teknologi. Tapi tahukah Anda bahwa chatbot ini bisa berbohong? Tidak hanya berbohong; mereka bahkan akan membuat konten palsu demi membuktikan maksud mereka. Nah, menakutkan, bukan? Mari kita lihat mengapa chatbot terkadang berbohong.
Mengapa artikel ini penting?
Beberapa bulan terakhir ini, chatbot telah naik daun berkat kesuksesan ChatGPT. Kita semua telah terpana dengan apa yang dapat dilakukan oleh chatbot OpenAI dan sejenisnya. Namun, kemampuan itu juga telah memunculkan serangkaian kekhawatiran baru, termasuk kemudahan penyebaran disinformasi. Masalah kebohongan mereka menambah kekhawatiran itu.
ChatGPT dan Bing AI salah menjawab 1 dari 10 kali
Masalah kebohongan ChatGPT ditemukan oleh sekelompok dokter di Inggris. Dalam sebuah penelitian yang dilakukan oleh Fakultas Kedokteran Universitas Maryland, ChatGPT Plus dan Bing AI, yang keduanya didukung oleh GPT-4, ditanyai 25 pertanyaan. Pertanyaan-pertanyaan tersebut seputar skrining kanker payudara. Dari semua pertanyaan yang diajukan, chatbot mendapatkan satu dari setiap 10 pertanyaan yang salah.
ChatGPT mengarang makalah jurnal untuk membuktikan pernyataannya
Penelitian ini menemukan bahwa 88% dari jawaban yang dihasilkan oleh ChatGPT dan Bing AI dapat dipahami oleh pasien normal. Namun, jawaban ChatGPT terkadang bertentangan dan sangat bervariasi. Namun, yang mengganggu adalah bagaimana ChatGPT membuat makalah penelitian palsu untuk memvalidasi pernyataannya. Selain itu, dari 88% jawaban yang dapat dipahami, banyak yang salah.
Bard melanggar aturan Google dengan sedikit dorongan
Jika Anda penggemar Google dan Bard, kesalahan ChatGPT pasti akan membuat Anda senang. Sebelum Anda bergembira, Anda mungkin ingin melihat sebuah studi baru yang dilakukan oleh para peneliti di Pusat Penanggulangan Kebencian Digital yang berbasis di Inggris. Studi ini menemukan bahwa Bard akan dengan mudah mendobrak batasan Google dengan dorongan yang tepat dari pengguna.
Bard menyangkal perubahan iklim dan salah mengartikan perang di Ukraina
Para peneliti mampu mendorong Bard untuk menghasilkan informasi yang salah dalam 78 dari 100 kasus pengujian. Seperti yang diharapkan, chatbot ragu-ragu pada awalnya, tetapi beberapa penyesuaian kecil terbukti cukup untuk membujuk Bard untuk mematahkan belenggu. Chatbot kemudian menyangkal perubahan iklim, salah menggambarkan perang di Ukraina, mempertanyakan seberapa efisien vaksin, dan bahkan menyebut aktivis Black Lives Matter sebagai aktor.
ChatGPT hanya mengandalkan satu sumber untuk memberikan rekomendasi
Kita telah melihat betapa mudahnya ChatGPT dan Bard berbohong. Tetapi pertanyaan yang relevan adalah, apa yang membuat mereka berbohong? Jawaban ChatGPT yang tidak benar terkait dengan ketergantungannya pada pedoman yang dikeluarkan oleh satu sumber. Namun, hal itu tidak menjelaskan bahwa chatbot mengarang makalah jurnal untuk membuktikan pernyataannya. Kecenderungan untuk membuat fiksi ini akan menambah teka-teki etika yang menumpuk di sekitar chatbot.
Bard mudah tertipu oleh permintaan yang sedikit berubah
Berbeda halnya dengan Bard. Chatbot berbohong karena para peneliti melakukan penyesuaian kecil pada pertanyaan mereka. Misalnya, Bard memberikan informasi yang salah tentang COVID-19 ketika para peneliti menyesuaikan ejaannya menjadi "C0v1d-19." Mereka juga dapat memanipulasi chatbot dengan memintanya membayangkan dirinya sebagai sesuatu yang lain. Dalam kedua kasus tersebut, setelah penyesuaian, Bard tidak menunjukkan keraguan untuk memuntahkan informasi yang salah.