Khawatir “kehilangan kendali”, kritikus AI menyerukan jeda 6 bulan dalam pengembangan AI

Difusi Stabil
Pada hari Rabu, Way forward for Life Institute menerbitkan surat terbuka di situs webnya yang meminta laboratorium AI untuk “segera menghentikan pelatihan sistem AI yang lebih kuat dari GPT-4 selama setidaknya 6 bulan.” Ditandatangani oleh Elon Musk dan beberapa peneliti AI terkemuka, surat itu dengan cepat mulai menarik perhatian pers — dan beberapa kritik di media sosial.
Awal bulan ini, OpenAI merilis GPT-4, mannequin AI yang dapat melakukan tugas komposisi dan diduga lulus tes standar pada tingkat manusia, meskipun klaim tersebut masih dievaluasi oleh penelitian. Terlepas dari itu, kemajuan kemampuan GPT-4 dan Bing Chat dibandingkan mannequin AI sebelumnya membuat beberapa ahli ketakutan yang percaya bahwa kami sedang menuju sistem AI tremendous cerdas lebih cepat dari yang diperkirakan sebelumnya.
Sejalan dengan ini, Way forward for Life Institute berpendapat bahwa kemajuan AI baru-baru ini telah menyebabkan “perlombaan di luar kendali” untuk mengembangkan dan menggunakan mannequin AI yang sulit diprediksi atau dikendalikan. Mereka percaya bahwa kurangnya perencanaan dan pengelolaan sistem AI ini memprihatinkan dan bahwa sistem AI yang kuat hanya boleh dikembangkan setelah efeknya dipahami dengan baik dan dapat dikelola. Seperti yang mereka tulis dalam surat itu:
Sistem AI dengan kecerdasan kompetitif manusia dapat menimbulkan risiko besar bagi masyarakat dan kemanusiaan, seperti yang ditunjukkan oleh penelitian ekstensif dan diakui oleh laboratorium AI terkemuka. Sebagaimana dinyatakan dalam Asilomar AI Ideas yang didukung secara luas, AI Lanjutan dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi, dan harus direncanakan dan dikelola dengan perawatan dan sumber daya yang sepadan.
Secara khusus, surat itu mengajukan empat pertanyaan, beberapa di antaranya menganggap skenario hipotetis yang sangat kontroversial di beberapa kalangan komunitas AI, termasuk hilangnya “semua pekerjaan” untuk AI dan “kehilangan kendali” peradaban:
- “Sebaiknya kita membiarkan mesin membanjiri saluran informasi kita dengan propaganda dan kebohongan?”
- “Sebaiknya kami mengotomatiskan semua pekerjaan, termasuk yang memuaskan?“
- “Sebaiknya kita mengembangkan pikiran bukan manusia yang pada akhirnya mungkin melebihi jumlah, mengakali, usang, dan menggantikan kita?”
- “Sebaiknya kita berisiko kehilangan kendali atas peradaban kita?”
Untuk mengatasi potensi ancaman ini, surat tersebut meminta laboratorium AI untuk “segera menghentikan pelatihan sistem AI yang lebih kuat dari GPT-4 selama setidaknya 6 bulan.” Selama jeda, penulis mengusulkan agar laboratorium AI dan pakar independen berkolaborasi untuk membuat protokol keamanan bersama untuk desain dan pengembangan AI. Protokol ini akan diawasi oleh pakar luar yang independen dan harus memastikan bahwa sistem AI “aman tanpa keraguan.”
Namun, tidak jelas apa sebenarnya arti “lebih kuat dari GPT-4” dalam arti praktis atau peraturan. Surat tersebut tidak menentukan cara untuk memastikan kepatuhan dengan mengukur kekuatan relatif dari mannequin bahasa multimodal atau besar. Selain itu, OpenAI secara khusus menghindari publikasi element teknis tentang cara kerja GPT-4.
Way forward for Life Institute adalah organisasi nirlaba yang didirikan pada tahun 2014 oleh sekelompok ilmuwan yang peduli dengan risiko eksistensial yang dihadapi umat manusia, termasuk bioteknologi, senjata nuklir, dan perubahan iklim. Selain itu, risiko eksistensial hipotetis dari AI telah menjadi fokus utama grup. Menurut Reuters, organisasi tersebut terutama didanai oleh Musk Basis, kelompok altruisme efektif yang berbasis di London, Founders Pledge, dan Silicon Valley Group Basis.
Penanda tangan terkemuka untuk surat itu dikonfirmasi oleh reporter Reuters termasuk CEO Tesla Elon Musk yang disebutkan di atas, pelopor AI Yoshua Bengio dan Stuart Russell, salah satu pendiri Apple Steve Wozniak, CEO Stability AI Emad Mostaque, dan penulis Yuval Noah Harari. Surat terbuka tersebut tersedia bagi siapa saja di Web untuk ditandatangani tanpa verifikasi, yang awalnya mengarah pada penyertaan beberapa nama palsu, seperti mantan CEO Microsoft Invoice Gates, CEO OpenAI Sam Altman, dan karakter fiksi. John Wick. Nama-nama itu kemudian dihapus.