🚨 BREAKING: OpenAI a publié un article prouvant que ChatGPT inventera toujours des choses.



Pas parfois. Pas avant la prochaine mise à jour. Toujours. Ils l'ont prouvé en mathématiques.

Même avec des données d'entraînement parfaites et une puissance de calcul illimitée, les modèles d'IA vous diront toujours en toute confiance des choses qui sont complètement fausses. Ce n'est pas un bug sur lequel ils travaillent. Cela explique comment ces systèmes fonctionnent au niveau fondamental.

Et leurs propres chiffres sont brutaux. Le modèle de raisonnement o1 d'OpenAI hallucine dans 16% des cas. Leur nouveau modèle O3 ? 33 pour cent. Leur nouveau o4-mini ? 48 pour cent. Près de la moitié des informations fournies par leur dernier modèle pourraient être fabriquées. Les modèles " plus intelligents " sont en réalité de plus en plus mauvais pour dire la vérité.

Voici pourquoi cela ne peut pas être corrigé. Les modèles linguistiques fonctionnent en prédisant le mot suivant en fonction de la probabilité. Lorsqu'ils rencontrent une situation incertaine, ils ne s'arrêtent pas. Ils ne le signalent pas. Ils supposent. Et ils spéculent avec une confiance totale, car c'est exactement pour cela qu'ils ont été formés.

Les chercheurs ont examiné les 10 principaux critères d'intelligence artificielle utilisés pour mesurer la qualité de ces modèles. 9 sur 10 donnent la même note pour avoir dit " je ne sais pas " que pour avoir donné une réponse complètement fausse: zéro point. L'ensemble du système de test punit littéralement l'honnêteté et récompense la conjecture.

L'IA a donc appris la stratégie optimale: toujours deviner. N'admettez jamais l'incertitude. Cela semble confiant même lorsque vous inventez.

Quelle est la solution proposée par OpenAI ? Demandez à ChatGPT de dire " Je ne sais pas " lorsqu'il n'est pas sûr. Leurs propres calculs montrent que cela signifierait qu'environ 30% de vos questions n'auraient pas de réponse. Imaginez demander quelque chose à ChatGPT trois fois sur dix et recevoir " Je ne suis pas assez confiant pour répondre " Les utilisateurs partiraient pendant la nuit. Le correctif existe donc, mais il tuerait le produit.

Ce n'est pas seulement un problème d'OpenAI. DeepMind et l'Université Tsinghua sont parvenus indépendamment à la même conclusion. Trois des meilleurs laboratoires d'IA au monde, travaillant séparément, sont tous d'accord: c'est permanent.

Chaque fois que ChatGPT vous donne une réponse, demandez-vous: est-ce réel ou ou est-ce juste une supposition confiante ?

Voici la réponse de Come-from-Beyond 👇
Ils commencent à comprendre pourquoi

#QUBIC #Aigarth .* a mis la capacité de dire " Je ne sais pas " au cœur de ses préoccupations

$QUBIC
QUBIC3,31%
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler