Banyak orang saat ini menggunakan AI, sebenarnya mereka menganggap satu hal: hasilnya keluar, maka dianggap benar.
Tapi jika benar-benar dimasukkan ke dalam sistem resmi, hal ini cukup berbahaya. Anda tidak bisa memastikan apakah AI tersebut berjalan sesuai dengan proses yang Anda rancang, apalagi untuk penelusuran setelahnya.
#Inference Labs menarik karena di sinilah letaknya. Mereka tidak membuat AI yang lebih pintar, melainkan menyelesaikan masalah yang lebih mendasar: apakah Anda bisa membuktikan bahwa proses penalaran ini benar-benar dijalankan? Mereka mengubah proses penalaran itu sendiri menjadi sesuatu yang dapat diverifikasi. Setelah dijalankan, dapat diperiksa, dapat direplikasi, dan dapat dibuktikan, tetapi model dan input tetap dirahasiakan.
Hal ini sebenarnya sangat penting. Bukan saya percaya padamu, tetapi sistem secara tingkat mengetahui: langkah ini tidak pernah dimanipulasi. Jadi, yang diubah bukanlah aplikasi tertentu, melainkan cara AI diproduksi. Dulu, digunakan terlebih dahulu, lalu di luar sana ditumpuk dengan berbagai kontrol risiko. Sekarang, proses penalaran itu sendiri sudah kokoh. Dan karena itu, sistem ini lebih cocok untuk skenario yang serius. Keuangan, medis, sistem institusi, bahkan protokol di blockchain, semuanya tidak bisa menerima ketidakpastian bahwa sesuatu yang seharusnya benar benar-benar benar.
@inference_labs melakukan hal yang, jujur saja, mengembalikan AI dari kotak hitam ke perhitungan yang dapat diverifikasi. Langkah ini sangat mendasar.
Dan AI yang benar-benar akan diterapkan secara jangka panjang, pasti akan melewati tahap ini.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Banyak orang saat ini menggunakan AI, sebenarnya mereka menganggap satu hal: hasilnya keluar, maka dianggap benar.
Tapi jika benar-benar dimasukkan ke dalam sistem resmi, hal ini cukup berbahaya. Anda tidak bisa memastikan apakah AI tersebut berjalan sesuai dengan proses yang Anda rancang, apalagi untuk penelusuran setelahnya.
#Inference Labs menarik karena di sinilah letaknya. Mereka tidak membuat AI yang lebih pintar, melainkan menyelesaikan masalah yang lebih mendasar: apakah Anda bisa membuktikan bahwa proses penalaran ini benar-benar dijalankan? Mereka mengubah proses penalaran itu sendiri menjadi sesuatu yang dapat diverifikasi. Setelah dijalankan, dapat diperiksa, dapat direplikasi, dan dapat dibuktikan, tetapi model dan input tetap dirahasiakan.
Hal ini sebenarnya sangat penting. Bukan saya percaya padamu, tetapi sistem secara tingkat mengetahui: langkah ini tidak pernah dimanipulasi. Jadi, yang diubah bukanlah aplikasi tertentu, melainkan cara AI diproduksi. Dulu, digunakan terlebih dahulu, lalu di luar sana ditumpuk dengan berbagai kontrol risiko. Sekarang, proses penalaran itu sendiri sudah kokoh. Dan karena itu, sistem ini lebih cocok untuk skenario yang serius. Keuangan, medis, sistem institusi, bahkan protokol di blockchain, semuanya tidak bisa menerima ketidakpastian bahwa sesuatu yang seharusnya benar benar-benar benar.
@inference_labs melakukan hal yang, jujur saja, mengembalikan AI dari kotak hitam ke perhitungan yang dapat diverifikasi. Langkah ini sangat mendasar.
Dan AI yang benar-benar akan diterapkan secara jangka panjang, pasti akan melewati tahap ini.
@inference_labs #Yap @KaitoAI #KaitoYap #Inference