Sevgili dostlar, iyi öğledenler! Bugün sizlerle girişimden beri yaşadığım gerçek hisleri paylaşmak istiyorum
Giriş yaptığımda, her gün çok endişeliydim, gerçekten hızla uyum sağlamak istiyordum ama süreç oldukça zorluydu, yine de şanslı sayılırım çünkü tam da sözlü girişimin yükselişine denk geldim ve küçük bir rüzgarın içine adım attım
Ancak bu kadar çok proje varken, kendim beyaz kağıtları incelemek, ortaklık ve finansman bilgilerini araştırmak zorundaydım, bazen sürekli dönüp dolaşıp önemli detayları bulamıyordum, bu da oldukça can sıkıcıydı, bu yüzden AI araçlarından yardım almaya karar verdim
Fakat sektörle ilgili bazı uzmanlık soruları veya verileri araştırırken büyük bir tuzağa düştüm — verdiği cevaplar oldukça mantıklı ve kanıtlı görünüyordu, sonra doğrulamak istediğimde ise birçok bilginin yanlış olduğunu fark ettim!
▪️ İşte bu, herkesin sıkça bahsettiği AI “halüsinasyon” problemi
Aslında şu anki AI, iyi bir sınavı düzgün yapmayan bir öğrenci gibi; rapor yazmak ve analiz yapmak hızlı ve gösterişli olsa da, iki ölümcül hatayı yapmaya meyillidir: Ya ciddi ciddi saçmalık uydurur (yani halüsinasyon, örneğin hayali makale alıntıları veya uydurulmuş veriler), ya da gizli önyargılarla hareket eder
Bu gerçekten çözmesi zor bir kısır döngüdür: Kaliteli ve tutarlı verilerle eğitmek iyi olur, AI gerçekten “saçmalamayı” azaltabilir, ama bu sefer önyargılı hale gelir ve sorunlara bütünsel bakmaz
Ama onu nesnel ve tarafsız yapmak istiyorsanız, çeşitli veriler eklemek gerekebilir, bu da yanlış bilgilerin öğrenilmesine neden olabilir
Sonuç olarak, bu AI eğitim modelinin temel bir sorunu var; sadece veri miktarını artırmak veya model parametrelerini çoğaltmak sorunu çözmüyor
Bu yüzden, AI ne kadar güçlü olursa olsun, şu anda sadece metin yazmak veya temel bilgileri araştırmak için kullanılabilir; finans, eğitim veya yargı gibi kritik alanlarda kullanıldığında, kimse onun çıktısına tamamen güvenemez
Birkaç ay önce @miranetwork ile karşılaştım ve fark ettim ki gerçekten bu sorunu çözmek için özel projeler varmış
Mira yeni bir AI modeli değil, “AI çıktı doğrulama sistemi” diyebileceğimiz bir sistem Her AI cümlesine “çoklu çapraz kontrol ekibi” atıyor, bu ekipler birbirini tanımayan ve hile yapamayan kişilerden oluşuyor, bu sayede sorunlar büyük ölçüde çözülebiliyor
Ve Mira’nın nihai hedefi şu: AI’nin her cümlesinin “sıkı denetimden” geçmesini sağlamak #Mira
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Sevgili dostlar, iyi öğledenler! Bugün sizlerle girişimden beri yaşadığım gerçek hisleri paylaşmak istiyorum
Giriş yaptığımda, her gün çok endişeliydim, gerçekten hızla uyum sağlamak istiyordum ama süreç oldukça zorluydu, yine de şanslı sayılırım çünkü tam da sözlü girişimin yükselişine denk geldim ve küçük bir rüzgarın içine adım attım
Ancak bu kadar çok proje varken, kendim beyaz kağıtları incelemek, ortaklık ve finansman bilgilerini araştırmak zorundaydım, bazen sürekli dönüp dolaşıp önemli detayları bulamıyordum, bu da oldukça can sıkıcıydı, bu yüzden AI araçlarından yardım almaya karar verdim
Fakat sektörle ilgili bazı uzmanlık soruları veya verileri araştırırken büyük bir tuzağa düştüm — verdiği cevaplar oldukça mantıklı ve kanıtlı görünüyordu, sonra doğrulamak istediğimde ise birçok bilginin yanlış olduğunu fark ettim!
▪️ İşte bu, herkesin sıkça bahsettiği AI “halüsinasyon” problemi
Aslında şu anki AI, iyi bir sınavı düzgün yapmayan bir öğrenci gibi; rapor yazmak ve analiz yapmak hızlı ve gösterişli olsa da, iki ölümcül hatayı yapmaya meyillidir:
Ya ciddi ciddi saçmalık uydurur (yani halüsinasyon, örneğin hayali makale alıntıları veya uydurulmuş veriler), ya da gizli önyargılarla hareket eder
Bu gerçekten çözmesi zor bir kısır döngüdür:
Kaliteli ve tutarlı verilerle eğitmek iyi olur, AI gerçekten “saçmalamayı” azaltabilir, ama bu sefer önyargılı hale gelir ve sorunlara bütünsel bakmaz
Ama onu nesnel ve tarafsız yapmak istiyorsanız, çeşitli veriler eklemek gerekebilir, bu da yanlış bilgilerin öğrenilmesine neden olabilir
Sonuç olarak, bu AI eğitim modelinin temel bir sorunu var; sadece veri miktarını artırmak veya model parametrelerini çoğaltmak sorunu çözmüyor
Bu yüzden, AI ne kadar güçlü olursa olsun, şu anda sadece metin yazmak veya temel bilgileri araştırmak için kullanılabilir; finans, eğitim veya yargı gibi kritik alanlarda kullanıldığında, kimse onun çıktısına tamamen güvenemez
Birkaç ay önce @miranetwork ile karşılaştım ve fark ettim ki gerçekten bu sorunu çözmek için özel projeler varmış
Mira yeni bir AI modeli değil, “AI çıktı doğrulama sistemi” diyebileceğimiz bir sistem
Her AI cümlesine “çoklu çapraz kontrol ekibi” atıyor, bu ekipler birbirini tanımayan ve hile yapamayan kişilerden oluşuyor, bu sayede sorunlar büyük ölçüde çözülebiliyor
Ve Mira’nın nihai hedefi şu: AI’nin her cümlesinin “sıkı denetimden” geçmesini sağlamak
#Mira