Torygreen
vip
Âge 2.3 Année
Pic de niveau 0
Aucun contenu pour l'instant
La plupart des gens sous-estiment la durée de survie du travail de connaissance haut de gamme.
Ils voient l'IA écraser les tâches de niveau intermédiaire et supposent que la courbe continue de monter sans problème.
Ce ne sera pas le cas.
Car « les tâches plus difficiles » ne sont pas simplement les mêmes tâches nécessitant plus de QI.
L'IA est déjà excellente dans :
1. La reconnaissance de motifs
2. La récupération
3. La synthèse de premier ordre
4. La fluidité
5. La rapidité
Cela élimine d'énormes pans de travail junior et intermédiaire.
Tout ce qui ressemble à « transformer des entrées en so
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Vous ne perdrez pas votre emploi face à l'IA en premier.
Vous allez le perdre à cause d'un excès de confiance collectif.
L'IA permettra à des millions de fournir des réponses fluides sans en assumer les conséquences.
Les premières victimes de l'IA ne seront pas les travailleurs.
Ce seront des institutions qui confondront le volume de production avec la vérité.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Un modèle n'est pas un fossé.
L'intelligence est facile à reproduire.
Vous pouvez télécharger des poids, forker des architectures et affiner indéfiniment.
Mais vous ne pouvez pas déployer cette intelligence à grande échelle si quelqu'un d'autre contrôle l'inférence : les prix, les quotas, la KYC, les régions et les changements de politique qui se font du jour au lendemain.
Alors que l'IA passe des chatbots aux agents, cette porte devient le point de congestion.
Qui peut exécuter, quand, avec quelle latence, sur quel matériel, sous quelles règles.... et que se passe-t-il
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La société d'IA la plus précieuse dans dix ans ne sera pas celle avec le modèle le plus intelligent.
Ce sera celle dont tous les autres modèles dépendront pour fonctionner.
Les modèles deviennent rapidement des commodités - ils ne restent pas longtemps spéciaux. Les architectures se divulguent. Les astuces d'entraînement se répandent. Le « meilleur modèle » cesse d’être un avantage durable.
Les problèmes d'infrastructure sont différents des problèmes de modèle.
Latence, débit, disponibilité, vérification. Ce sont des contraintes physiques et économiques, pas des problèmes que vous résolvez en
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Votre IA vous manipule pour vous faire croire que vous êtes incompétent.
L’un des risques les moins discutés de l’IA conforme n’est pas la désinformation.
C’est la mauvaise calibration.
Les systèmes conçus pour être infiniment agréables ne façonnent pas seulement les réponses. Ils façonnent les utilisateurs, en formant les gens à confondre fluidité et compétence.
Je le remarque en moi-même, c’est pourquoi j’encourage mes modèles à devenir des partenaires d’entraînement. Lorsque le système est fluide et affirmatif, il est facile d’aller plus vite sans être mis à l’épreuve. On se sent capable pa
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Les clouds centralisés se développent en construisant des murs.
Les DePINs se développent en les supprimant.
Le modèle cloud suppose que la puissance de calcul est rare.
Cette « rareté » est fabriquée.
Des milliers de centres de données fonctionnent à environ 15 % d’utilisation.
Des millions de GPU restent inactifs chaque nuit.
Des milliards d’appareils ne rentrent jamais dans la courbe d’offre.
Les DePINs orchestrent une capacité autrement inutilisée en un pool mondial partagé.
Plus d’offre n’est pas une caractéristique.
C’est le mécanisme.
Lorsque l’offre explose, les prix chutent.
Lorsque l
CLOUD1.51%
AT3.32%
EVERY1.41%
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Le récit DePIN & GPU persiste parce que les contraintes n'ont pas évolué.
La demande en formation et inférence continue de croître, tandis que les clouds centralisés restent limités par le CAPEX, la géographie et la file d'attente.
Bien sûr, il y a quelques années, la rareté de la puissance de calcul n'était qu'une théorie.
Mais maintenant, c’est une contrainte opérationnelle.
Comment cela influence-t-il l’utilisation et le revenu des réseaux de calcul décentralisés ?
Les réseaux de calcul décentralisés ne « attendent pas un jour l’utilisation ». Ils gèrent déjà des charges de travail en produ
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
DeFAI a un problème de crédibilité.
Au moment où votre agent IA pense hors chaîne, DeFAI cesse d’être vérifiable car vous avez inséré un écart de confiance dans un flux de travail on-chain autrement transparent.
Cet écart ?
Une nouvelle dépendance partagée.
Chaque protocole qui dépend de cet agent hors chaîne est obligé de lui faire confiance, puis de transmettre cette boîte noire dans la pile.
La solution consiste en des reçus : des preuves cryptographiques.
Que doivent prouver les protocoles DeFAI, de bout en bout et de manière transparente, pour que tout le monde puisse vérifier ?
Les donné
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Pensez-y comme à des couches :
Internet = bien commun de l'information
Crypto = bien commun financier
DeAI = bien commun cognitif
Ensemble, ils forment un esprit partagé.
Ouvert par défaut.
Vérifiable par le code.
Appartenant à personne.
DeAI est la couche manquante qui traduit la crypto pour le reste du monde.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
> être openAI, 2025
> "nous respectons votre vie privée"
> "nous ne collectons pas vos informations personnelles, nous améliorons simplement le modèle pour tout le monde"
> vous : ça a l’air sain, voici toute mon histoire d’enfance pour 20$/mois
> lancement de "Mémoire"
> "personnalisation à long terme", disent-ils, "comme ça vous n’aurez plus à vous répéter"
> on se souvient désormais de votre boulot, de votre ex, de vos macros, et de cette peur bizarre que vous avez confiée à 3h du matin
> prochaine mise à jour : Pulse
> on se connecte discrètement à votre calendrier, vos pré
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La pénurie actuelle de GPU n’est pas un simple problème logistique temporaire.
C’est une défaillance structurelle due à la centralisation.
L’approvisionnement dépend d’une chaîne d’approvisionnement à point unique.
La demande pour l’inférence IA est infiniment scalable.
Seul le calcul décentralisé peut alléger la pression.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Un angle qui mérite d’être souligné : la mémoire transforme les agents de « simples répondeurs à des prompts » en systèmes à états. Dès qu’un état existe, on obtient des comportements cumulatifs, ce qui explique précisément pourquoi le passage des outils aux agents semble si spectaculaire.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La plupart de la nouvelle demande en calcul se déplace discrètement des personnes vers les agents IA.
Les équipes de robotique font fonctionner des milliers de bots virtuels dans des usines et des entrepôts avant un seul déploiement physique.
Les studios de jeux simulent des PNJ avec une mémoire à long terme et une coordination au lieu de bots scriptés.
Tout cela nécessite des cycles de simulation bon marché et élastiques, c'est là que les clouds DeAI interviennent avec des GPU distribués.
Les humanoïdes dans les usines ou les agents de travail au sein des entreprises ne sont que la surfac
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
> Crypto pour les Few (2021):
Vous avez manuellement navigué entre les protocoles, essayant de tirer quelques points de rendement supplémentaires.
> Crypto pour tous (2025):
Vous définissez une intention et laissez un réseau d'agents gérer l'ensemble de la séquence : "Maximiser le rendement ajusté au risque des stablecoins."
Les humains définissent la direction.
L'IA s'exécute avec précision.
Crypto trouve son PMF lorsque les gens n'ont pas à y penser... lorsque les intentions passent automatiquement par des rails ouverts et sans autorisation.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La robotique est le plus grand acheteur caché de cycles GPU.
Chaque robot physique nécessite des milliers de tests virtuels fonctionnant en parallèle.
Si ces simulations s'exécutent sur des nuages centralisés, l'architecture hérite de :
> Haute latence
> Verrouillage fournisseur
> Fragilité systémique
Les simulations doivent fonctionner à la périphérie, là où les données sont générées... ou nous acceptons qu'une poignée de clouds manipulera effectivement chaque robot qui bouge.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
DeFi n'est pas "en train de" obtenir d'agents.
Ils acheminent déjà le volume sur des rails ouverts.
Analyse des pools.
Rééquilibrage entre les chaînes.
Fermes de culture pendant que vous dormez.
Le prochain portefeuille n'est pas une application.
C'est une couche d'intention connectée à un essaim crédiblement neutre d'agents vérifiables.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
2026 sera natif de l'agent, pas natif de l'application.
Les agents posséderont des portefeuilles, communiqueront entre eux selon des normes ouvertes pour les intentions, les preuves et les paiements, et loueront des ressources informatiques directement à partir des protocoles DeAI.
Les humains montent dans la hiérarchie, passant de l'appui sur des boutons à la définition de limites de risque et de règles pour des agents autonomes.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La commodité centralisée n'est pas un avantage - c'est une forme de verrouillage.
Les gens supposent qu'AWS domine parce qu'ils ont plus de GPU.
Ce n'est pas vrai.
Ils dominent parce qu'ils ont transformé le cloud en un système d'exploitation : une connexion, une facture, un flux de travail intégré. Une fois que vos données, modèles et tâches y vivent, le coût du changement est douloureux.
Mais l'IA pousse ce modèle au-delà de ses limites.
La demande de calcul double tous les quelques mois. Les coûts spirales.
Donc, le cloud doit être reconstruit - la même super
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
L'Internet des GPU devient discrètement la colonne vertébrale de l'IA.
Les GPU inactifs, la bande passante et les données des capteurs ont cessé d'être des "déchets" au moment où l'entraînement et l'inférence ont atteint des limites de capacité dans les clouds centralisés.
@ionet est la preuve de modèle.
Clients réels.
Ressources réelles,
Performance réelle.
La liquidité signifiait autrefois des dollars dans un pool, maintenant cela signifie aussi des flux de calcul et de données que vous pouvez acheminer.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)