Bing Chat yang didukung AI memperoleh tiga kepribadian berbeda

Benj Edwards / Ars Technica

Pada hari Rabu, karyawan Microsoft Mike Davidson diumumkan bahwa perusahaan telah meluncurkan tiga gaya kepribadian yang berbeda untuk bot Bing Chat bertenaga AI eksperimental: Kreatif, Seimbang, atau Exact. Microsoft telah pengujian fitur tersebut sejak 24 Februari dengan pengguna terbatas. Beralih antar mode menghasilkan hasil berbeda yang menggesernya keseimbangan antara akurasi dan kreativitas.

Bing Chat adalah asisten bertenaga AI berdasarkan mannequin bahasa besar (LLM) canggih yang dikembangkan oleh OpenAI. Fitur utama Bing Chat adalah dapat mencari di net dan memasukkan hasilnya ke dalam jawabannya.

Microsoft mengumumkan Bing Chat pada 7 Februari, dan tak lama setelah ditayangkan, serangan permusuhan secara teratur mendorong versi awal Bing Chat ke simulasi kegilaan, dan pengguna menemukan bot dapat diyakinkan untuk mengancam mereka. Tidak lama kemudian, Microsoft secara dramatis memutar kembali ledakan Bing Chat dengan memberlakukan batasan ketat pada berapa lama percakapan bisa berlangsung.

Sejak itu, perusahaan telah bereksperimen dengan cara untuk mengembalikan beberapa kepribadian lancang Bing Chat bagi mereka yang menginginkannya, tetapi juga memungkinkan pengguna lain untuk mencari tanggapan yang lebih akurat. Ini menghasilkan antarmuka “gaya percakapan” tiga pilihan baru.

Dalam eksperimen kami dengan ketiga gaya tersebut, kami melihat bahwa mode “Kreatif” menghasilkan saran yang lebih singkat dan tidak biasa yang tidak selalu aman atau praktis. Mode “Exact” keliru di sisi kehati-hatian, terkadang tidak menyarankan apa pun jika tidak melihat cara yang aman untuk mencapai hasil. Di tengah, mode “Seimbang” sering menghasilkan respons terpanjang dengan hasil pencarian paling element dan kutipan dari situs net dalam jawabannya.

Dengan mannequin bahasa yang besar, ketidakakuratan yang tidak terduga (halusinasi) sering kali meningkat frekuensinya dengan peningkatan “kreativitas”, yang biasanya berarti bahwa mannequin AI akan lebih menyimpang dari informasi yang dipelajari dalam kumpulan datanya. Peneliti AI sering menyebut properti ini “suhu”, tetapi anggota tim Bing mengatakan ada lebih banyak pekerjaan dengan gaya percakapan baru.

Menurut karyawan Microsoft Mikhail Parakhin, mengganti mode di Bing Chat mengubah aspek mendasar dari perilaku bot, termasuk bertukar di antara mannequin AI berbeda yang telah menerima pelatihan tambahan dari respons manusia hingga keluarannya. Mode yang berbeda juga menggunakan petunjuk awal yang berbeda, artinya Microsoft menukar immediate yang menentukan kepribadian seperti yang terungkap dalam serangan injeksi cepat yang kami tulis di bulan Februari.

Sementara Bing Chat masih hanya tersedia bagi mereka yang mendaftar untuk daftar tunggu, Microsoft terus menyempurnakan Bing Chat dan fitur pencarian Bing yang didukung AI lainnya secara terus menerus saat bersiap untuk meluncurkannya secara lebih luas kepada pengguna. Baru-baru ini, Microsoft mengumumkan rencana untuk mengintegrasikan teknologi ke dalam Home windows 11.