Gate News Nachrichten, 16. März, laut offiziellen Angaben hat die Bittensor-Subnetz Templar (SN3) am 10. März das bisher größte dezentralisierte LLM Covenant-72B vortrainiert. Covenant-72B ist ein Sprachmodell mit 720 Milliarden Parametern, das vom Templar-Team auf dem Bittensor-Subnetz 3 vortrainiert wurde, vollständig basierend auf dem allgemeinen Internet, ohne zentrale Datenzentren. Das Modell erreichte im MMLU (Zero-Shot) Test eine Punktzahl von 67,1 und übertraf unter den gleichen Bewertungsbedingungen die zentralisierten Basismodelle LLaMA-2-70B und LLM360 K2. Es ist das bisher größte vollständig lizenzfreie kollaborative Sprachmodell, bei dem während des gesamten Betriebs mehr als 70 verschiedene Knoten Rechenressourcen beigetragen haben. Das Team hat alle Gewichte und Checkpoints unter der Apache-Lizenz veröffentlicht. Aufgrund dieser Nachricht steigen Bittensor (TAO) und seine Subnetz-Token stark an, TAO ist in den letzten zwei Wochen um 54,8 % gestiegen. Das Subnetz-Token τemplar hat in den letzten 7 Tagen um 194 % zugelegt und liegt jetzt bei 19,3 US-Dollar.