Bom dia a todos ☀️


Quando Jensen Huang mencionou o treino de IA descentralizado, a atenção imediatamente se voltou para o Bittensor.
Mas isso já tinha sido explorado bem antes desse momento.
Em junho de 2025, @0G_labs publicou o artigo DiLoCoX no arXiv, mostrando que o treino de modelos em larga escala em nós descentralizados era muito mais eficiente.
Eles demonstraram treino de mais de 100B de parâmetros usando hardware padrão e internet típica, enquanto melhoravam a eficiência de comunicação em 357x em comparação com métodos tradicionais.
Há também uma diferença importante que muitas vezes passa despercebida. O Bittensor foca numa rede treinada específica, enquanto o DiLoCoX é projetado como uma estrutura que pode ser usada para treinar qualquer modelo.
Também faz parte de uma pilha mais ampla que combina computação, armazenamento, disponibilidade de dados e cadeia.
Próxima paragem: EthCC Cannes 2025 em 1 de abril 📍
0G1,47%
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar