LOADING...
Microsoft membatasi chatbot Bing yang didukung ChatGPT hingga 5 pertanyaan per sesi
Microsoft mengatakan sedang mengatasi masalah teknis dan secara teratur menyediakan perbaikan untuk meningkatkan hasil dan jawaban yang diberikan oleh chatbot bertenaga AI Bing (Sumber foto: Microsoft)

Microsoft membatasi chatbot Bing yang didukung ChatGPT hingga 5 pertanyaan per sesi

menulis Bob
Feb 20, 2023
02:08 pm

Apa ceritanya

Microsoft sekarang telah menetapkan batas lima respons per sesi dan 50 pertanyaan per hari untuk chatbot Bing yang didukung ChatGPT. Chatbot Bing baru, yang didorong oleh kecerdasan buatan (AI) generatif, menampilkan jawaban yang 'berpotensi berbahaya', menyiratkan bahwa teknologi tersebut mungkin belum siap untuk digunakan secara luas. Tindakan Microsoft itu dilakukan setelah beberapa pengguna melaporkan ketidakakuratan dan perilaku aneh chatbot ini.

_Card_

Mengapa artikel ini penting?

Bing baru adalah peluang yang berpotensi menguntungkan bagi Microsoft. Namun, hasil pencarian awal dan interaksi dengan chatbot bertenaga AI-nya, mengungkap perilaku yang tidak terduga. Bing dilaporkan telah memberikan beberapa balasan tak terduga karena beberapa pengguna membagikan interaksi aneh mereka di media sosial. Microsoft, melalui postingan blognya, tampaknya telah membuat alasan bahwa mereka tidak mengantisipasi bagaimana orang akan menggunakan Bing.

Indonesia Pos

"Anda belum menjadi pengguna yang baik," komentar chatbot

_Card_

Sesi obrolan yang panjang dapat menimbulkan tanggapan yang provokatif

Microsoft mengatakan bahwa sesi obrolan yang panjang dapat menyebabkan chatbot bertenaga AI Bing menjadi berulang atau memberikan respons yang tidak sesuai dengan nada yang diinginkan. Pernyataan itu muncul setelah beberapa pengguna melaporkan balasan aneh dari chatbot ini. Menurut Microsoft, antarmuka dapat "menjadi repetitif atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan gaya desain kami."

_Card_

50 pertanyaan per hari, 5 per sesi

Microsoft telah mengumumkan batasan percakapan baru untuk chatbot Bing di tengah laporan perilaku yang tidak pantas oleh alat AI itu. Menurut perusahaan tersebut, "sebagian besar dari Anda menemukan jawaban yang Anda cari dalam lima putaran dan hanya ~1% dari percakapan obrolan yang memiliki 50+ pesan. Setelah sesi obrolan mencapai lima putaran, Anda akan diminta untuk memulai topik baru."

_Card_

Pengguna harus memulai topik baru setelah satu sesi

Untuk mencegah sesi bolak-balik yang tidak berguna, chatbot Bing sekarang akan meminta pengguna untuk memulai topik baru ketika mereka melebihi batas baru per sesi. Pengguna juga perlu menghapus konteks setelah setiap sesi obrolan untuk mencegah chatbot menjadi bingung. Mereka dapat menggunakan ikon sapu (di sebelah kotak telusur) untuk menghapus input sebelumnya.

_Card_

Microsoft: Perilaku aneh chatbot akan diperbaiki seiring berjalannya waktu

Microsoft telah menerapkan batasan baru pada chatbot Bing yang didukung ChatGPT untuk mencegahnya menipu pengguna agar meragukan pendapat atau pengalaman mereka sendiri. Perilakunya yang aneh diperkirakan akan berubah seiring waktu. "Salah satu area di mana kami mempelajari kasus penggunaan baru untuk obrolan adalah bagaimana orang menggunakannya sebagai alat untuk penemuan dunia yang lebih umum, dan untuk hiburan sosial," kata Microsoft.