Pembahasan mekanisme peninjauan AI Gedung Putih bocor, pernyataan Hassett dibantah resmi sehari setelahnya

MarketWhisper

白宮AI預審機制討論

Direktur Dewan Ekonomi Nasional Gedung Putih (NEC) Kevin Hassett mengatakan dalam sebuah wawancara dengan Fox Business pada 7 Mei bahwa pemerintahan Trump sedang menyiapkan rancangan perintah eksekutif yang mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi seperti persetujuan pra-peluncuran FDA untuk obat-obatan. Namun, menurut Politico dalam laporan 8 Mei, pejabat senior Gedung Putih kemudian menyebut pernyataan itu sebagai “cuplikan yang dipotong konteks”.

Alur kejadian: Pertentangan kebijakan Gedung Putih mulai dipublikasikan setelah laporan The New York Times

Pada 4 Mei 2026, The New York Times melaporkan bahwa Gedung Putih sedang membahas pembentukan mekanisme peninjauan pra-rilis untuk model AI, saat itu dikategorikan sebagai “sedang dipertimbangkan”. Pada 7 Mei 2026, Kevin Hassett saat diwawancarai Fox Business secara terbuka mengatakan: “Kami sedang meneliti apakah kami bisa, melalui perintah eksekutif, mengharuskan AI yang berpotensi menimbulkan celah di masa depan untuk baru digunakan setelah bisa membuktikan keamanannya—seperti obat dari FDA.”

Pada larut malam 7 Mei 2026, Kepala Staf Gedung Putih Susie Wiles menulis di platform X bahwa pemerintah “tidak bertanggung jawab memilih pemenang dan pecundang”, dan menyatakan penerapan keamanan untuk teknologi yang kuat seharusnya didorong oleh “inovator-inovator hebat di AS, bukan birokrasi”. Berdasarkan jejak catatan akun resminya, unggahan tersebut merupakan konten keempat yang dipublikasikan sejak akun Wiles dibuat.

Mengutip tiga narasumber yang mengetahui tetapi anonim, Politico melaporkan bahwa Gedung Putih sedang membahas pemberian wewenang kepada lembaga intelijen untuk melakukan penilaian awal sebelum model AI dirilis ke publik. Salah satu pejabat pemerintah AS dalam laporannya mengatakan, salah satu tujuannya adalah “memastikan komunitas intelijen meneliti dan memanfaatkan alat-alat tersebut sebelum lawan seperti Rusia dan Tiongkok memahami kemampuan baru.”

Lembaga terkait dan kerangka kebijakan

CAISI memperluas perjanjian penilaian keamanan sukarela

Pusat Standar dan Inovasi AI (CAISI) di bawah Kementerian Perdagangan mengumumkan pekan ini bahwa mereka telah menandatangani perjanjian penilaian keamanan AI dengan Google DeepMind, Microsoft, dan xAI, dengan cakupan diperluas dari yang sebelumnya telah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela CAISI telah diterapkan sejak 2024.

Wakil menteri pertahanan secara terbuka mendukung mekanisme penilaian awal

Wakil menteri pertahanan Emil Michael pada 8 Mei 2026 saat menghadiri konferensi AI di Washington secara terbuka mendukung penilaian awal pemerintah sebelum model AI dirilis, dan dalam pidatonya mengutip sistem Mythos dari Anthropic sebagai contoh, dengan mengatakan model-model terkait “pasti akan muncul pada akhirnya”, sehingga pemerintah harus membangun mekanisme penanganan.

Latar belakang kebijakan pemerintahan Trump dan Anthropic

Menurut Politico, Menteri Pertahanan Pete Hegseth pada Maret 2026 memasukkan Anthropic ke dalam daftar risiko dengan alasan risiko rantai pasok, dan melarang model-modelnya digunakan untuk kontrak Kementerian Pertahanan. Setelah itu, Trump secara terpisah meminta lembaga federal untuk menghentikan penggunaan produk Anthropic dalam waktu enam bulan. Pada saat yang sama, bulan lalu Anthropic mengungkapkan bahwa sistem AI Mythos memiliki kemampuan kuat untuk menggali celah perangkat lunak, melewati ambang keamanan sebelum rilis ke publik; beberapa lembaga federal kemudian mengajukan permohonan untuk terhubung. Pada 8 Mei 2026, OpenAI mengumumkan pratinjau terbatas untuk alat baru GPT-5.5-Cyber yang dapat mendeteksi dan memperbaiki celah jaringan.

Sikap industri yang menolak mekanisme tinjauan paksa

Ketua Information Technology and Innovation Foundation (ITIF) Daniel Castro mengatakan dalam laporan Politico: “Jika sebelum diluncurkan bisa ditolak persetujuannya, itu masalah besar bagi perusahaan mana pun. Jika satu pesaing mendapat persetujuan sementara yang lain tidak, selisih beberapa minggu atau bulan untuk akses pasar akan berdampak besar.” Pendanaan ITIF mencakup Anthropic, Microsoft, dan Meta.

Seorang pejabat senior Gedung Putih dalam laporan yang sama mengatakan: “Memang ada satu atau dua orang yang sangat antusias dengan pengawasan pemerintah, tapi mereka hanya minoritas.” Pejabat tersebut diberi anonimitas karena kebutuhan untuk mendeskripsikan pembahasan kebijakan yang sensitif.

Pertanyaan yang sering diajukan

Kapan dan di mana Kevin Hassett menyampaikan pernyataan penilaian awal AI?

Menurut laporan Politico, Kevin Hassett pada 7 Mei 2026 saat diwawancarai Fox Business secara terbuka menyatakan bahwa pemerintah sedang menyiapkan perintah eksekutif untuk mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi pada proses persetujuan obat dari FDA.

Apa dasar Gedung Putih menyangkal pernyataan Hassett?

Menurut laporan Politico 8 Mei 2026, pejabat senior Gedung Putih mengatakan bahwa pernyataan Hassett “agak diambil sebagian dan dipotong konteks”, sementara arah kebijakan Gedung Putih adalah membangun kemitraan dengan perusahaan, bukan mendorong pengawasan pemerintah. Kepala Staf Gedung Putih Susie Wiles kemudian memposting ulang untuk menegaskan kembali bahwa pemerintah tidak ikut campur dalam pilihan pasar.

Perjanjian penilaian keamanan AI apa yang ditambahkan CAISI pada pekan ini?

Berdasarkan pernyataan CAISI pekan ini, perjanjian yang ditambahkan kali ini mencakup Google DeepMind, Microsoft, dan xAI, ditambah yang sebelumnya sudah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela telah diterapkan sejak 2024.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Hermes Agent Memimpin Peringkat Penggunaan OpenRouter Hari Ini dengan 271 Miliar Token, Melampaui OpenClaw

Menurut Nous Research, Hermes Agent memimpin peringkat penggunaan token aplikasi global OpenRouter hari ini dengan 271 miliar token, melampaui OpenClaw yang berada di peringkat kedua dengan 245 miliar token. Kilo Code (149 miliar) dan Claude Code (79 miliar) menyusul di posisi ketiga dan keempat. Empat posisi teratas didominasi oleh alat pemrograman agent dan CLI, yang mencerminkan tingginya permintaan pengembang untuk otomatisasi kode dan alat AI agent. Descript, alat penyuntingan audio-video,

GateNews20menit yang lalu

Laporan Epoch AI: Pendapatan per kapita Anthropic 9 juta dolar AS, lebih tinggi dari OpenAI lebih dari 60%

Berdasarkan wawasan data yang dirilis oleh lembaga riset kecerdasan buatan Epoch AI pada 8 Mei, peneliti Luke Emberson memperkirakan bahwa pendapatan per karyawan Anthropic sekitar 9 juta dolar AS, sedangkan OpenAI sekitar 5,5 juta dolar AS. Keduanya melampaui seluruh tingkat pendapatan per karyawan dari perusahaan teknologi publik besar mana pun dalam daftar Forbes Global 2000. Metode estimasi data dan indikator perbandingan utama (Sumber: Epoch AI) Berdasarkan wawasan data peneliti Luke Embers

MarketWhisper26menit yang lalu

Diari Sepuluh Tahun Presiden OpenAI Brockman Dibuka di Pengadilan Pekan Ini, Mengungkap Ketegangan Strategis Terkait Status Nirlaba

Berdasarkan pemantauan Beating dan proses persidangan, Presiden OpenAI Greg Brockman, yang memiliki buku harian pribadi berdurasi satu dekade berisi ratusan halaman, terungkap dalam penemuan bukti pekan ini selama perselisihan hukum dengan tim hukum Elon Musk. Catatan harian tahun 2017 terbukti sangat kontroversial, ketika Brockman menulis "jawaban sebenarnya adalah kami ingin dia keluar" dan "kami tidak bisa mengatakan kami berjanji untuk tetap non-profit. Kami tidak ingin mengatakan itu. Jika

GateNews32menit yang lalu

Cerebras IPO kelebihan permintaan 20 kali, kisaran harga atau disesuaikan menjadi 135 dolar AS per saham

Menurut Bloomberg pada 9 Mei, pesanan pemesanan untuk penawaran umum perdana (IPO) pertama Cerebras Systems, produsen chip AI, telah melampaui jumlah saham yang diterbitkan hingga 20 kali; Bloomberg mengutip orang dalam yang menyatakan perusahaan berencana paling cepat pada 11 Mei menetapkan kisaran harga yang semula 115 hingga 125 dolar AS per saham dinaikkan menjadi 125 hingga 135 dolar AS. Detail Penetapan Harga IPO dan Rincian Penerbitan Berdasarkan prospektus yang diterbitkan Cerebras pada

MarketWhisper1jam yang lalu

Pendapatan per Karyawan Anthropic Mencapai 9 Juta Dolar AS, 60% Lebih Tinggi dari OpenAI, Mengungguli Semua Raksasa Teknologi Publik

Menurut laporan terbaru Epoch AI, pendapatan per karyawan Anthropic mencapai sekitar 9 juta dolar AS, melampaui OpenAI sebesar 5,6 juta dolar AS atau 60%. Keduanya telah mengungguli semua perusahaan teknologi di daftar Forbes Global 2000, dengan pendapatan per karyawan Nvidia sebesar 5,1 juta dolar AS untuk

GateNews1jam yang lalu

Ant Bailing Meluncurkan Model AI Parameter Ring-2,6-1 Triliun dengan Skor PinchBench 87,6

Menurut Jinshi, Ant Bailing merilis model reasoning andalan mereka Ring-2.6-1T hari ini, dengan parameter berjumlah 1 triliun, yang dirancang untuk mengeksekusi tugas dunia nyata yang kompleks. Model ini menampilkan mekanisme Reasoning Effort yang dapat disesuaikan, mendukung level intensitas inferensi high dan xhigh. Dalam eksekusi tugas nyata

GateNews1jam yang lalu
Komentar
0/400
Tidak ada komentar