「Beli berapa banyak kekuatan komputasi? Semua」: Co-founder OpenAI mengatakan bahwa USD 110 miliar masih belum cukup untuk memenuhi permintaan, pelatihan pra-pelatihan telah beralih ke optimisasi biaya bersama

BlockBeatNews

Berdasarkan pemantauan 1M AI News, OpenAI co-founder Greg Brockman dalam sebuah wawancara meninjau kembali peningkatan kemampuan pemrograman AI yang melonjak pada Desember 2025. Ia menggunakan satu prompt pengujian yang sudah ia simpan selama bertahun-tahun untuk mengukur progres: meminta AI membangun sebuah situs web yang saat itu ia pelajari pemrograman butuh waktu beberapa bulan untuk menyelesaikannya. Sepanjang tahun 2025, tugas ini membutuhkan beberapa putaran prompt dan sekitar empat jam agar bisa selesai dengan baik; pada bulan Desember, tugas itu selesai hanya dengan satu prompt, dan kualitasnya pun sangat baik. Ia mengatakan model baru membuat AI “mampu menyelesaikan sekitar 20% tugas” menjadi “sekitar 80%”, dan lompatan ini memaksa semua orang untuk “harus menyusun ulang alur kerja di sekitar AI”.

Mengenai ke mana perginya pendanaan sebesar 11 miliar dolar, Brockman mengibaratkan komputasi seperti “merekrut tenaga penjualan”: selama produk memiliki saluran penjualan yang bisa diskalakan, merekrut lebih banyak tenaga penjualan akan menghasilkan lebih banyak pendapatan. Komputasi bukanlah pusat biaya, melainkan pusat pendapatan. Ia mengingat percakapan dengan tim menjelang peluncuran ChatGPT: “Mereka bertanya, ‘berapa banyak komputasi yang harus kami beli?’ Saya bilang, ‘semua.’ Mereka bilang, ‘bukan, serius, berapa yang harus kami beli?’ Saya bilang, ‘apa pun cara kami membangunnya, kami tidak akan bisa mengejar permintaan.’” Penilaian itu masih berlaku hingga hari ini, dan pengadaan komputasi perlu dikunci 18 sampai 24 bulan sebelumnya.

Dalam hal bagaimana menggunakan komputasi tersebut, Brockman mengungkapkan bahwa OpenAI tidak lagi semata-mata mengejar skala terbesar untuk pelatihan pra (pretraining), melainkan menjadikan kemampuan pretraining dan biaya inferensi sebagai tujuan optimasi bersama: “Anda tidak harus melakukan sedemikian besarnya, karena Anda juga perlu mempertimbangkan berbagai skenario penggunaan inferensi dalam hilir; yang sebenarnya Anda inginkan adalah solusi optimal antara kecerdasan dan biaya.” Namun ia secara tegas menolak anggapan bahwa “pretraining tidak lagi penting”. Ia berpendapat semakin cerdas model dasar, semakin tinggi efisiensi pada tahap pembelajaran penguatan dan inferensi berikutnya, sehingga “tetap sepenuhnya” membutuhkan GPU Nvidia untuk mendukung pelatihan terpusat skala besar.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar