Apakah LaMDA Google menjadi hidup? Memahami AI futuristik
Apa ceritanya
Model bahasa berbasis AI Google, LaMDA atau 'Language Model for Dialogue Applications,' telah menjadi berita setelah Blake Lemoine, seorang insinyur Google, mengklaim bahwa program itu telah menjadi program yang hidup.
Insinyur tersebut telah diberi cuti administratif dan para ahli lapangan telah mengabaikan klaimnya.
Sekarang, mari kita lihat chatbot AI yang kontroversial ini dan pahami apa fungsinya.
Konteks
Mengapa artikel ini penting?
Pertanyaan apakah sistem kecerdasan buatan hampir mencapai kesadaran atau tidak telah menghantui umat manusia untuk sementara waktu. Ketika bidang ini dan penelitian semakin luas, pertanyaan dan klaim menjadi lebih berani.
LaMDA berada di pusat pembicaraan saat ini. Apakah model bahasa yang sangat canggih ini benar-benar menjadi makhluk hidup? Yah, Google mengatakan bahwa program itu telah menjadi peniru yang agak hebat.
AI
Pertama, apa itu LaMDA?
LaMDA adalah model bahasa pembelajaran mesin yang belum pernah dirilis dari Google yang dibangun di Transformer, arsitektur jaringan saraf yang ditemukan oleh Google.
Program ini telah dilatih dengan triliunan teks dari internet dan dapat menanggapi perintah tertulis.
Tidak seperti sistem AI lainnya seperti BERT dan GPT-3, LaMDA dilatih dengan dialog, yang membuatnya mampu terlibat dalam percakapan yang mengalir bebas tentang beberapa topik.
Garis waktu
LaMDA diperkenalkan oleh Google pada tahun 2021
LaMDA diperkenalkan oleh Google pada konferensi I/O tahunannya pada tahun 2021. Sundar Pichai, CEO perusahaan ini, menunjukkan kemampuannya dengan percakapan antara tim Google dan LaMDA.
Sistem AI ini, yang seharusnya meniru manusia dalam percakapan, kemudian mengambil peran sebagai planet kerdil Pluto.
Pada I/O 2022, Google memperkenalkan LaMDA 2.
informasi
LaMDA menjadi lebih baik dalam mempertahankan topik
Ketika Google pertama kali mendemonstrasikan LaMDA pada tahun 2021, meskipun menunjukkan kemampuannya untuk memberikan jawaban yang masuk akal, sistem ini jauh dari sempurna, karena memberikan beberapa jawaban yang tidak masuk akal. Pada 2022, Google mengumumkan bahwa LaMDA sedang dikembangkan agar lebih baik dalam mempertahankan topik.
Evaluasi
Kesenjangan kualitas antara interaksi tingkat manusia LaMDA sempit
Pada Januari 2022, dalam postingan blog Google AI, perusahaan itu menerbitkan kemajuan LaMDA. Sistem ini dievaluasi berdasarkan metrik berikut: kewajaran, keamanan, kekhususan, landasan, daya tarik, dan keinformatifan.
Dalam metrik keamanan yang mengukur cara sistem ini menghindari respons yang mungkin berbahaya atau bias, skor LaMDA mendekati dialog yang dibuat manusia.
Para peneliti mencatat bahwa "dengan penyetelan yang tepat, kesenjangan kualitas ke tingkat manusia dapat dipersempit."
Manfaat
LaMDA dapat bermanfaat bagi Google Assistant, Search, dan Workspace
Model bahasa seperti LaMDA, yang dibangun di atas dialog, memiliki beberapa aplikasi. Model ini dapat membantu dalam terjemahan yang mudah dari satu bahasa ke bahasa lain, meringkas dokumen panjang menjadi sorotan singkat, dan menjawab pertanyaan informatif.
Dengan basis datanya yang luas, model ini bisa membawa Google Assistant dan Search ke level berikutnya. Model ini juga dapat meningkatkan pengalaman Workspace, bersama dengan penggunaan pengembang.
Klaim besar
Insinyur mengklaim bahwa LaMDA telah memperoleh kesadaran
Lemoine, seorang insinyur perangkat lunak senior di Google, telah mengerjakan LaMDA untuk menentukan apakah AI ini menggunakan ujaran diskriminatif atau kebencian.
Setelah percakapan baru-baru ini dengan AI itu, Lemoine berkata, "Jika saya tidak tahu persis apa itu, yang merupakan program komputer yang kami buat baru-baru ini, saya pikir itu adalah anak berusia 7 tahun, 8 tahun yang kebetulan tahu fisika."
informasi
Lemoine: LaMDA ingin dianggap sebagai manusia
Menurut Lemoine, selama percakapannya dengan LaMDA, AI itu berbicara tentang hak dan kepribadiannya. Dia berkata, "Ia ingin para insinyur dan ilmuwan yang bereksperimen dengannya untuk meminta persetujuannya sebelum menjalankan eksperimen dengannya."
Respons
Google dan praktisi AI telah mengabaikan klaim Lemoine
Menanggapi klaim Lemoine, Google mengatakan, "Tim kami - termasuk ahli etika dan teknologi - telah meninjau kekhawatiran Blake sesuai Prinsip AI kami dan telah memberi tahu dia bahwa bukti tidak mendukung klaimnya."
Perusahaan itu mengaitkan perilaku seperti makhluk hidup LaMDA ke database besar yang dapat diaksesnya. Demikian pula, sebagian besar akademisi dan praktisi AI juga menolak untuk memberikan kredibilitas pada klaim Lemoine.