先行者 Yoshua Bengio、penulis buku teks AI Stuart Russell, dan Duta Besar Tanpa Penugasan Taiwan Audrey Tang, bersama 25 akademisi terkemuka lainnya, telah menerbitkan makalah yang secara sistematis menjelaskan 7 model ancaman besar AI terhadap sistem demokrasi dan sosial. Argumen inti adalah meskipun setiap model telah “selaras” dengan nilai-nilai manusia, efek skala AI tetap akan meruntuhkan operasi pemerintahan demokratis dari dalam.
(Latar belakang: Ketika saya sendiri tidak dapat membuktikan bahwa saya bukan AI, pakar forensik menyarankan: buatlah kode rahasia dengan teman dan keluarga)
(Latar belakang tambahan: Anthropic meluncurkan dasbor dampak AI: masukkan pekerjaan, cek dalam hitungan detik seberapa banyak pekerjaan Anda tergantikan oleh AI?)
Daftar Isi
Toggle
Makalah yang diterbitkan pada 25 Maret ini berjudul “AI Poses Risks to Democratic and Social Systems” (AI Menyebabkan Risiko terhadap Sistem Demokrasi dan Sosial), dengan susunan penulis yang sangat menarik. Selain pemenang Penghargaan Turing 2018 Yoshua Bengio, Stuart Russell dari Universitas Berkeley, Bernhard Schölkopf dari Max Planck Institute, ada juga Audrey Tang dari Oxford Institute for AI Ethics, serta peneliti terkemuka dari Universitas Toronto, ETH Zurich, Universitas Michigan, dan lembaga lainnya.
Pendekatan makalah ini berbeda dari kebanyakan penelitian keamanan AI, karena penelitian keamanan AI yang saat ini dominan berfokus pada masalah “tingkat model”, seperti ilusi, keluaran beracun, perilaku penolakan, atau bahkan “kiamat AI” yang lebih ekstrem.
Namun, makalah ini menunjukkan bahwa ada satu kategori risiko besar yang terabaikan, yaitu kerusakan “tingkat sistem” yang dihasilkan dari penerapan AI secara besar-besaran terhadap sistem sosial dan pemerintahan demokratis.
Sebuah model yang mengeluarkan satu konten beracun dapat ditangani dengan teknologi penyelarasan; namun, satu juta konten yang sesuai, sopan, dan tidak bermasalah secara kebijakan dapat melumpuhkan kemampuan lembaga pemerintah dalam menangani opini publik, ini sudah melampaui masalah yang dapat dipecahkan oleh penyelarasan.
Mari kita sedikit menjelaskan makalah ini, yang membagi ancaman AI terhadap tata kelola menjadi 7 mode kegagalan (T1 hingga T7), yang terdistribusi di sepanjang “loop umpan balik tata kelola”. Kita dapat memahami bahwa masyarakat manusia biasanya menginput sinyal ke dalam sistem (ekspresi politik) → sistem memproses sinyal tersebut (diskusi publik) → sistem mengembalikan keputusan kepada masyarakat (legislasi), tetapi AI dapat menjadi faktor pemutus di setiap tahap.
Di sisi “keyakinan publik”, ada dua ancaman.
Homogenisasi Keyakinan (T1): ketika sebagian besar orang menggunakan model yang dilatih serupa untuk berpikir dan menulis, keberagaman diskursus publik akan terkompresi, karena metode pelatihan pasca RLHF dan LLM secara sistematis menekan keberagaman sudut pandang dalam keluaran model.
Penguatan Keyakinan (T2): asisten AI yang dipersonalisasi akan memenuhi sudut pandang yang sudah ada pada pengguna, dengan fungsi memori jangka panjang yang membuat pemenuhan ini terus terakumulasi, membentuk siklus konfirmasi diri. Data yang dikutip dalam penelitian menunjukkan bahwa ketika GPT-4 memperoleh data demografis sosial pengguna, probabilitas untuk meyakinkan pengguna agar setuju dengan argumennya meningkat lebih dari 80%.
Di sisi “proses sistem”, ada dua risiko:
Kepadatan Birokrasi (T3), AI memungkinkan siapa saja untuk menghasilkan banyak opini publik yang unik dan tampaknya rasional dengan biaya mendekati nol, melumpuhkan kemampuan lembaga untuk memproses.
Banjir Kognisi (T4), biaya untuk menghasilkan konten yang dapat dipercaya sudah jauh lebih rendah daripada biaya untuk memverifikasi dan memperbaiki, ekosistem informasi terendam.
Di sisi “akuntabilitas sistem”, Otoritas yang Tidak Dapat Diperiksa (T5), ketidaktransparan keputusan AI, skala, dan hambatan akses bersatu untuk meruntuhkan mekanisme pengawasan yang ada.
Sentralisasi Norma (T6), ketika pemerintah mengakuisisi model AI canggih, nilai-nilai pengembang akan dibawa ke dalam infrastruktur publik bersama model, yang setara dengan memindahkan kekuasaan norma dari pejabat terpilih kepada segelintir pengembang.
Akhirnya, Konsentrasi Kekuasaan (T7) melintasi semua tahap.
AI secara bersamaan menggantikan tenaga kerja dan partisipasi manusia di bidang ekonomi, ideologi, politik, dan militer, melemahkan alat yang digunakan warga untuk menyeimbangkan sistem.
Sepanjang sejarah, konsentrasi kekuasaan di satu bidang biasanya diimbangi oleh kekuatan penyeimbang di bidang lain, tetapi keunikan AI adalah kemampuannya untuk melemahkan semua leverage warga di semua bidang secara bersamaan.
Audrey Tang menyumbangkan beberapa bagian kunci dalam makalah tersebut, berargumen bahwa alih-alih mempertahankan pertahanan pasif terhadap dampak sistem yang ditimbulkan oleh AI, lebih baik mendesain ulang struktur tata kelola partisipatif dari akarnya.
Terkait dengan kepadatan birokrasi (T3), Audrey Tang mengusulkan “platform deliberasi terstruktur” sebagai alternatif. Platform semacam ini menggunakan teknik pengurangan dimensi untuk mengagregasi opini publik, memungkinkan konsensus muncul, bukan membiarkan suara terbesar mendominasi. Karena peserta memberikan suara terhadap pernyataan yang sudah ada, bukan mengirimkan teks secara bebas, sistem secara struktural memberi penghargaan pada penggabungan posisi daripada pernyataan yang memecah belah, lebih mampu bertahan terhadap serangan banjir konten yang disebabkan oleh konten sintetis dibandingkan dengan sistem komentar terbuka.
Dengan sistem undian (kelompok warga yang dipilih secara acak), untuk memverifikasi identitas dengan cara “terpilih” alih-alih “nominasi diri”, membuat pemalsuan identitas besar-besaran menjadi sulit secara struktural.
Mengenai banjir kognisi (T4), Audrey Tang mengutip sebuah kasus praktis, strategi “humor mengalahkan rumor” yang muncul selama pandemi COVID-19 di Taiwan, di mana lembaga pemerintah menghasilkan konten yang telah diverifikasi dalam hitungan menit setelah menemukan informasi palsu, bersaing dengan kecepatan dan kemampuan penyebaran, alih-alih mengandalkan penghapusan untuk menghadapinya.
Untuk masalah sentralisasi norma (T6), Audrey Tang menunjukkan bahwa penelitian baru tentang “AI konstitusi kolektif” telah membuktikan bahwa melalui proses deliberasi, sampel publik yang representatif dapat merancang konstitusi AI, dan model yang dihasilkan menunjukkan kinerja yang cukup baik pada indikator keamanan, serta menunjukkan bias yang lebih sedikit dibandingkan dengan baseline yang dirancang oleh pengembang.
Kuncinya adalah proses ini harus bersifat federal, di mana berbagai sistem pemerintahan dapat secara wajar mencapai urutan prioritas norma yang berbeda, satu konstitusi tunggal tidak boleh mengesampingkan variabilitas semacam ini.
Contoh paling konkret di makalah ini muncul dalam rekomendasi R7 (investasi dalam infrastruktur deliberasi untuk tata kelola AI).
Pada tahun 2024, iklan DeepFake yang mengaku sebagai tokoh publik menyebar secara luas di media sosial, dan Biro Statistik Taiwan mengumpulkan 447 warga yang dipilih secara acak, untuk berdiskusi secara online di 44 ruang deliberasi virtual. Mesin percakapan AI menggabungkan proposal mereka pada hari yang sama. Rapat warga ini berfokus pada “pengaturan pelaku dan tindakan”, termasuk tanggung jawab platform atas iklan DeepFake yang tidak sah, keharusan untuk memberi label iklan tanpa nama, dan pembatasan aliran untuk layanan yang tidak sesuai, alih-alih mengambil jalan peninjauan konten.
Rancangan larangan pada waktu itu mendapatkan dukungan lintas partai, dan iklan palsu turun 94% dalam setahun.
Makalah ini mengajukan 7 rekomendasi untuk mengatasi risiko inti:
Makalah ini juga secara langsung menjawab dua argumen bantahan umum. Argumen pertama adalah bahwa “masyarakat akan beradaptasi dengan AI”, tetapi makalah ini menunjukkan bahwa AI yang mengkonsentrasikan sewa ekonomi juga merusak kemampuan politik dan organisasi yang bergantung pada perbaikan diri sistem, laju kerugian yang terakumulasi mungkin lebih cepat daripada adaptasi.
Argumen kedua adalah bahwa “penyelarasan AI dengan masyarakat sudah cukup”, makalah ini setuju bahwa penyelarasan itu perlu, tetapi menunjukkan bahwa beberapa mode kegagalan (seperti serangan kepadatan dengan biaya asimetris, dan penggantian tenaga kerja yang mengakibatkan melemahnya leverage warga) akan tetap terjadi bahkan dalam keadaan penyelarasan model yang sempurna.
Kesimpulan makalah menyebutkan bahwa ketahanan sistem tidak perlu dibangun dari nol, inisiatif teknologi warga saat ini sudah membuktikan bahwa deliberasi terstruktur dan tata kelola partisipatif dapat beroperasi pada skala nasional, tetapi mengonfigurasi alat-alat ini untuk tata kelola AI masih merupakan tantangan penelitian yang sangat terbuka.