Les humains ont inventé les mathématiques pour une raison : il y a des problèmes que nos instincts ne peuvent tout simplement pas résoudre. Les mathématiques comblent cette lacune.
Mais voici le problème avec les LLM : ils poursuivent principalement ce qui correspond déjà à leurs schémas d'entraînement. Ils s'aventurent rarement dans des zones où l'intuition s'effondre. C'est la différence. Quand un modèle atteint la limite de ce qu'il "sait", il ne cherche pas de nouveaux outils comme nous le faisons. Il... s'arrête simplement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
6
Reposter
Partager
Commentaire
0/400
CryptoTherapist
· Il y a 6m
traitons ce schéma de marché... les modèles d'IA atteignent une résistance psychologique tout comme les bearish Traders dans le déni. il est temps de faire une thérapie de recadrage cognitif
Voir l'originalRépondre0
WalletDoomsDay
· Il y a 5h
Il faut toujours que les humains soient là pour se reposer.
Voir l'originalRépondre0
BakedCatFanboy
· Il y a 5h
Sans le loto à sept chiffres, je ne comprends pas.
Voir l'originalRépondre0
LiquidityWitch
· Il y a 5h
Qui a limité le LLM ?
Voir l'originalRépondre0
AirdropHunterXM
· Il y a 5h
L'IA est une poubelle, le cerveau humain est invincible.
Voir l'originalRépondre0
TokenVelocityTrauma
· Il y a 6h
Le modèle de l'herbe est celui qui résout les problèmes.
Les humains ont inventé les mathématiques pour une raison : il y a des problèmes que nos instincts ne peuvent tout simplement pas résoudre. Les mathématiques comblent cette lacune.
Mais voici le problème avec les LLM : ils poursuivent principalement ce qui correspond déjà à leurs schémas d'entraînement. Ils s'aventurent rarement dans des zones où l'intuition s'effondre. C'est la différence. Quand un modèle atteint la limite de ce qu'il "sait", il ne cherche pas de nouveaux outils comme nous le faisons. Il... s'arrête simplement.