Microsoft membatasi chatbot Bing yang didukung ChatGPT hingga 5 pertanyaan per sesi
Microsoft sekarang telah menetapkan batas lima respons per sesi dan 50 pertanyaan per hari untuk chatbot Bing yang didukung ChatGPT. Chatbot Bing baru, yang didorong oleh kecerdasan buatan (AI) generatif, menampilkan jawaban yang 'berpotensi berbahaya', menyiratkan bahwa teknologi tersebut mungkin belum siap untuk digunakan secara luas. Tindakan Microsoft itu dilakukan setelah beberapa pengguna melaporkan ketidakakuratan dan perilaku aneh chatbot ini.
Mengapa artikel ini penting?
Bing baru adalah peluang yang berpotensi menguntungkan bagi Microsoft. Namun, hasil pencarian awal dan interaksi dengan chatbot bertenaga AI-nya, mengungkap perilaku yang tidak terduga. Bing dilaporkan telah memberikan beberapa balasan tak terduga karena beberapa pengguna membagikan interaksi aneh mereka di media sosial. Microsoft, melalui postingan blognya, tampaknya telah membuat alasan bahwa mereka tidak mengantisipasi bagaimana orang akan menggunakan Bing.
"Anda belum menjadi pengguna yang baik," komentar chatbot
Sesi obrolan yang panjang dapat menimbulkan tanggapan yang provokatif
Microsoft mengatakan bahwa sesi obrolan yang panjang dapat menyebabkan chatbot bertenaga AI Bing menjadi berulang atau memberikan respons yang tidak sesuai dengan nada yang diinginkan. Pernyataan itu muncul setelah beberapa pengguna melaporkan balasan aneh dari chatbot ini. Menurut Microsoft, antarmuka dapat "menjadi repetitif atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan gaya desain kami."
50 pertanyaan per hari, 5 per sesi
Microsoft telah mengumumkan batasan percakapan baru untuk chatbot Bing di tengah laporan perilaku yang tidak pantas oleh alat AI itu. Menurut perusahaan tersebut, "sebagian besar dari Anda menemukan jawaban yang Anda cari dalam lima putaran dan hanya ~1% dari percakapan obrolan yang memiliki 50+ pesan. Setelah sesi obrolan mencapai lima putaran, Anda akan diminta untuk memulai topik baru."
Pengguna harus memulai topik baru setelah satu sesi
Untuk mencegah sesi bolak-balik yang tidak berguna, chatbot Bing sekarang akan meminta pengguna untuk memulai topik baru ketika mereka melebihi batas baru per sesi. Pengguna juga perlu menghapus konteks setelah setiap sesi obrolan untuk mencegah chatbot menjadi bingung. Mereka dapat menggunakan ikon sapu (di sebelah kotak telusur) untuk menghapus input sebelumnya.
Microsoft: Perilaku aneh chatbot akan diperbaiki seiring berjalannya waktu
Microsoft telah menerapkan batasan baru pada chatbot Bing yang didukung ChatGPT untuk mencegahnya menipu pengguna agar meragukan pendapat atau pengalaman mereka sendiri. Perilakunya yang aneh diperkirakan akan berubah seiring waktu. "Salah satu area di mana kami mempelajari kasus penggunaan baru untuk obrolan adalah bagaimana orang menggunakannya sebagai alat untuk penemuan dunia yang lebih umum, dan untuk hiburan sosial," kata Microsoft.