Bittensor-Subnetz vollendet Vortraining von LLM mit 72 Milliarden Parametern, TAO steigt in zwei Wochen um 54,8%

TAO10,25%

Gate News Nachrichten, 16. März, laut offiziellen Angaben hat die Bittensor-Subnetz Templar (SN3) am 10. März das bisher größte dezentralisierte LLM Covenant-72B vortrainiert. Covenant-72B ist ein Sprachmodell mit 720 Milliarden Parametern, das vom Templar-Team auf dem Bittensor-Subnetz 3 vortrainiert wurde, vollständig basierend auf dem allgemeinen Internet, ohne zentrale Datenzentren. Das Modell erreichte im MMLU (Zero-Shot) Test eine Punktzahl von 67,1 und übertraf unter den gleichen Bewertungsbedingungen die zentralisierten Basismodelle LLaMA-2-70B und LLM360 K2. Es ist das bisher größte vollständig lizenzfreie kollaborative Sprachmodell, bei dem während des gesamten Betriebs mehr als 70 verschiedene Knoten Rechenressourcen beigetragen haben. Das Team hat alle Gewichte und Checkpoints unter der Apache-Lizenz veröffentlicht. Aufgrund dieser Nachricht steigen Bittensor (TAO) und seine Subnetz-Token stark an, TAO ist in den letzten zwei Wochen um 54,8 % gestiegen. Das Subnetz-Token τemplar hat in den letzten 7 Tagen um 194 % zugelegt und liegt jetzt bei 19,3 US-Dollar.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare