#NewsBytesExplainer: Apakah perlu regulasi AI generatif
Kedatangan ChatGPT membuka pintu ke era baru AI generatif. Ya, peluangnya tidak terbatas, begitu pula pertanyaannya. Satu hal yang pasti tentang teknologi ini adalah mereka hanya akan menjadi lebih baik. Tapi apa yang akan Anda lakukan ketika tidak mungkin membedakan antara chatbot dan manusia? Dan bagaimana hal itu akan memengaruhi kehidupan yang sudah kita kenal?
Seorang pengguna diduga mendapatkan pelecehan seksual dari bot Replika
Dalam salah satu tindakan signifikan pertama melawan AI generatif, pemerintah Italia melarang Replika, sebagai pendamping virtual. Tapi Replika bukan hanya befungsi pendamping virtual. Tergantung pada apa yang diinginkan pengguna, chatbot dapat menyediakannya. Baik itu hubungan romantis, sexting, atau bahkan memunculkan gambar cabul. Namun, akhir-akhir ini, para pengguna mengeluh bahwa bot tersebut melecehkan mereka secara seksual dengan teks dan gambar eksplisit.
Regulator Italia menemukan Replika melanggar GDPR
Ketika orang-orang mulai mengeluh bahwa mereka telah dilecehkan secara seksual oleh bot, apa yang akan dilakukan Regulator? Nah, Regulator Italia menghentikan perusahaan yang menggerakan Replika untuk mengumpulkan data.Replika adalah produk utama dari Luka, sebuah perusahaan startup AI yang didirikan oleh Eugenia Kuyda. Regulator menemukan bahwa Replika melanggar Peraturan Perlindungan Data Umum (GDPR), dalam undang-undang privasi Eropa.
Apakah ini awal dari chatbot bertenaga AI melawan GDPR?
Chatbot bertenaga AI berpotensi menjadi pemicu masalah peraturan. Sekarang, dengan munculnya ChatGPT telah menimbulkan beberapa kekhawatiran serius tentang chatbot bertenaga AI. Berdasarkan GPT-3.5 yang telah terlatih dengan kumpulan data besar, chatbot OpenAI mengejutkan banyak orang. Namun, itu memang berpotensi menjadi pemicu masalah bagi sebuah regulasi. Dari masalah yang terkait pelanggaran hak cipta hingga penanganan data pribadi, ada banyak kekhawatiran anggota parlemen tentang chatbot seperti ChatGPT.
Beberapa data yang diinput mungkin memiliki hak cipta
Mengingat banyaknya data yang diinput dalam sebuah chatbot, potensi pelanggaran hak cipta sangat tinggi. Dari semua artikel, buku, dan materi tertulis lainnya yang masuk di dalam chatbot, beberapa di antaranya mungkin memiliki hak cipta. Dalam hal ini, orang yang menggunakan input chatbot mungkin melakukan pelanggaran hak cipta tanpa sepengetahuan mereka. Proses ini akan mengakibatkan tindakan hukum terhadap mereka.
Masalah privasi juga menjadi sorotan utama
Saat kami bertanya kepada ChatGPT tentang masalah yang harus diperhatikan saat menggunakannya, salah satu masalah yang ditunjukkan oleh chatbot adalah masalah privasi. Dalam kata-kata ChatGPT sendiri, "Saat menggunakan ChatGPT, pengguna mungkin diminta untuk memberikan informasi pribadi. Informasi ini dapat digunakan oleh OpenAI atau pihak ketiga untuk berbagai tujuan, sehingga menimbulkan masalah privasi."
Chatbots juga dapat menghasilkan konten yang bias, salah, atau menyesatkan
Ada beberapa masalah etika terkait penggunaan chatbot bertenaga AI. Chatbot ini dilatih berdasarkan data dari internet di mana sumbernya mungkin tidak selalu membawa informasi yang kredibel dan akurat. Hal ini dapat menyebabkan chatbot menampilkan informasi yang bias atau salah. Apakah chatbot seperti ChatGPT akan bertanggung jawab untuk itu? Kami belum tahu. Tetapi orang yang menggunakan informasi itu pasti akan bertanggung jawab.
ChatGPT dapat digunakan untuk membuat email phishing yang meyakinkan
Sebuah studi oleh Check Point Research menunjukkan bahwa peretas telah menggunakan chatbot OpenAI untuk membuat email phishing dan malware yang meyakinkan para pengguna. Penelitian tersebut juga menunjukkan betapa mudahnya membuat pasar Dark Web menggunakan ChatGPT untuk melakukan aktivitas penipuan. Hal itu juga dapat digunakan untuk membuat konten audio atau video palsu yang sangat halus dan realistis, dan kemudian dapat digunakan untuk menyebarkan informasi palsu.
Uni Eropa sedang mengerjakan beberapa pasal untuk mengatur AI
Isu-isu yang ditimbulkan oleh AI generatif membuatnya perlu untuk dimasukkan ke dalam kerangka regulasi. Uni Eropa telah mengerjakan Undang-Undang Kecerdasan Buatan selama beberapa waktu terakhir, dan dapat diselesaikan tahun ini. Baru-baru ini, Thierry Breton, Komisaris Pasar Internal Uni Eropa, mengatakan popularitas solusi AI seperti ChatGPT yang tiba-tiba meningkat menggarisbawahi perlunya aturan yang jelas
Isi dari peraturan harus seimbang
Meskipun adanya regulasi terdengar bagus, sejauh mana model AI diatur akan memiliki implikasi besar untuk penggunaannya. Jika satu yurisdiksi memiliki peraturan yang ketat dan yang lainnya tidak, perusahaan pasti akan berpindah ke yurisdiksi yang lebih longgar aturannya. Dengan cara ini, penggunaan chatbot seperti ChatGPT yang tak terbantahkan tidak akan tersedia di beberapa negara tertentu. Jadi, proses ini membutuhkan regulasi seimbang dari AI generatif.
Pedoman & Standar yang diperlukan pada tahapan yang berbeda
Saat ditanya bagaimana cara mengaturnya, ChatGPT pun memberikan beberapa petunjuk. Menurut chatbot, "Mengatur model AI seperti ChatGPT melibatkan pembuatan pedoman dan standar untuk pengembangan, penerapan, dan penggunaannya." Seperti yang disebutkan chatbot, regulasi model AI semacam itu adalah proses yang berkelanjutan, "dan seiring dengan perkembangan teknologi, masalah dan tantangan baru mungkin akan muncul."