Elon Musk dan para ahli menyerukan untuk menghentikan sementara pengembangan AI: Inilah alasannya
Lebih dari 1.100 penandatangan, termasuk Elon Musk dan Steve Wozniak, telah menandatangani surat terbuka yang meminta semua laboratorium AI untuk segera menghentikan sementara pelatihan sistem AI yang lebih kuat dari GPT-4 selama enam bulan. Surat tersebut meminta perhatian pada kebutuhan untuk mengembangkan protokol yang kuat sebelum kita memasuki fase pengembangan AI berikutnya. Itu membawa kita pada pertanyaan, mengapa kita membutuhkan protokol seperti itu?
Mengapa artikel ini penting?
Beberapa bulan terakhir telah terlihat perkembangan AI mengambil lompatan besar, berkat kompetisi yang dipicu oleh kebangkitan ChatGPT menjadi bintang. Kemampuan sistem AI seperti GPT-4 mengejutkan semua orang. Tapi itu juga menimbulkan serangkaian kekhawatiran baru. Dengan perusahaan yang mengerjakan AI yang mengincar sistem yang jauh lebih canggih, hanya langit yang menjadi batasnya sekarang.
Penanda tangan: Protokol keselamatan harus diaudit oleh ahli independen
Dalam surat tersebut, para penandatangan telah meminta pemangku kepentingan untuk "mengembangkan dan menerapkan" protokol keselamatan bersama untuk desain AI tingkat lanjut. Menurut mereka, protokol keselamatan ini harus "diaudit secara ketat dan diawasi oleh pakar luar yang independen." Surat itu meminta pemerintah untuk turun tangan dan melembagakan moratorium jika semua pelaku utama yang terlibat tidak menghentikan pengembangan AI.
AI memiliki dua sisi: Yang baik dan yang buruk
Kita semua telah melihat apa yang dapat dilakukan oleh chatbot AI secanggih ChatGPT. Chatbot itu dapat melakukan apa saja mulai dari menulis esai hingga membuat kode hingga memesan makanan atas nama Anda (dengan plugin). Namun, kita juga telah melihat sisi lain dari hal ini. Sisi yang penuh dengan disinformasi, pemalsuan mendalam, dan serangan dunia maya. Sisi kedualah yang mendorong keluarnya surat tersebut.
Model AI dapat menjadi tambang berita palsu yang potensial
Salah satu masalah terbesar sistem AI adalah potensinya untuk menjadi tambang berita palsu. Kemampuan mereka untuk meniru manusia dapat menyebabkan banyak berita palsu, karena AI tidak berkomitmen pada kebenaran. Karena sistem AI dilatih dengan kumpulan data besar, kemungkinan besar mereka mewarisi bias manusia. Disinformasi dan prasangka dapat membahayakan orang.
AI menjadi hidup adalah perhatian utama
Kita semua ingat ketika Google memecat Blake Lemoine, seorang insinyur yang mengerjakan LaMDA, karena mengklaim bahwa AI menjadi hidup. Pakar Google dan AI dengan cepat menutup klaim Lemoine. Banyak yang percaya bahwa AI yang berakal tidak mungkin karena kita belum memiliki infrastrukturnya. Namun, dengan kecepatan pengembangan AI, hal itu mungkin terjadi lebih cepat dari yang kita bayangkan.
Penipu dapat menggunakan sistem AI untuk mengelabui orang
Perkembangan AI telah menjadi keuntungan bagi banyak orang. Kelompok yang banyak diuntungkan adalah penipu. Penipu menggunakan ChatGPT untuk membuat email phishing yang rumit dan canggih untuk mengarahkan orang ke jebakan. ChatGPT dan sistem AI canggih lainnya dapat membuat skrip telepon hiper-realistis, yang dapat digunakan penipu untuk menyamar sebagai perwakilan layanan pelanggan guna mendapatkan akses ke informasi sensitif.
AI telah mengaburkan batas antara yang asli dan yang palsu
Masalah AI generatif tidak terbatas pada AI penghasil teks. Sistem AI yang dapat menghasilkan gambar dan video telah membawa dimensi baru pada gambar dan video palsu. Perkembangan konstan dalam teknologi telah menghasilkan pemalsuan yang lebih realistis dari sebelumnya. Potensi kenakalan tidak terbatas di sini. Dari berita palsu hingga produk palsu, ini dapat menyebabkan beberapa masalah kemanusiaan.
Apakah kita perlu menghentikan sejenak pengembangan sistem AI tingkat lanjut?
Sejauh ini, kita telah melihat semua masalah yang dapat ditimbulkan oleh sistem AI tingkat lanjut. Apakah itu berarti kita perlu menghentikan sejenak pengembangan sistem AI yang lebih bertenaga daripada GPT-4? Sangat penting agar semua pemangku kepentingan mengadakan diskusi untuk mencapai konsensus tentang apa yang perlu dilakukan untuk membuat sistem AI aman. Namun, jeda yang lama dapat menggagalkan inovasi dan pengembangan.