Tether a récemment annoncé un nouveau cadre d’entraînement en IA, permettant d’affiner des modèles de langage de grande taille directement sur des appareils grand public tels que les smartphones et les GPU non Nvidia. Ce système, basé sur la plateforme QVAC, exploite l’architecture BitNet de Microsoft combinée à la technique LoRA afin de réduire considérablement les besoins en mémoire et en coûts de calcul.
Selon Tether, ce framework supporte plusieurs plateformes, étant compatible avec les puces d’AMD, Intel, Apple Silicon et les GPU mobiles de Qualcomm. Les ingénieurs peuvent affiner un modèle jusqu’à un milliard de paramètres sur un smartphone en moins de deux heures, voire étendre jusqu’à 13 milliards de paramètres sur un appareil mobile.
La technologie BitNet permet de réduire jusqu’à 77,8 % de la VRAM par rapport à un modèle 16 bits, tout en accélérant l’inférence sur GPU mobile. Tether souligne également le potentiel d’applications telles que l’apprentissage fédéré, réduisant la dépendance au cloud.
Cette démarche reflète la tendance des entreprises de cryptomonnaie à s’étendre dans l’IA et l’infrastructure de calcul, parallèlement au développement des agents IA dans le secteur.