Google Gemma 4 официально выпущена: впервые 4 размера под лицензией Apache 2.0, 31B — третья по глобальному открытому исходному коду

BlockBeatNews

Согласно мониторингу 1M AI News, Google официально выпустила семейство открытых моделей Gemma 4, включающее 4 модели разного размера; все они распространяются по лицензии Apache 2.0. Google заявляет, что это ответ на отзывы сообщества. Лицензия Apache 2.0 означает, что разработчики могут свободно использовать в коммерческих целях, изменять и распространять продукт без дополнительных ограничений. Сооснователь и CEO Hugging Face Клеман Деланж назвал этот шаг «огромной вехой».

4 модели предназначены для различных сценариев аппаратного обеспечения:

  1. 31B Dense: наивысшее исходное качество, подходит для дообучения; некастированные (неквантизированные) веса можно запускать на одной 80GB H100, квантизированная версия поддерживает потребительские GPU
  2. 26B MoE (смесь экспертов): всего 26B параметров, но при инференсе активируются только 3.8B; основной акцент — низкая задержка, подходит для сценариев Agent, где важна скорость
  3. E4B и E2B: пограничные модели, ориентированные на смартфоны и устройства IoT; при инференсе активируется примерно 4B и 2B параметров соответственно, что достаточно для поддержания автономности устройства; нативно поддерживают аудиоввод (распознавание и понимание речи) и могут работать полностью офлайн

На текстовом рейтинге Arena AI — платформы анонимных соревнований для больших моделей — 31B занимает третье место среди моделей с открытым исходным кодом в мире, а 26B — шестое; Google утверждает, что это «превосходит модели по масштабу в 20 раз». Модели построены на тех же исследованиях и технологиях, что и Gemini 3.

Ключевые возможности включают многошаговое рассуждение и планирование, нативный вызов функций и структурированный вывод в JSON (для рабочих процессов Agent), генерацию кода, понимание изображений и видео (во всей линейке), а также нативное обучение более чем 140 языкам. Для пограничных моделей поддерживается контекстное окно 128K, а для больших моделей — до 256K. E2B и E4B совместно оптимизированы с командами Google Pixel, Qualcomm и MediaTek и могут работать на устройствах, включая смартфоны, Raspberry Pi, NVIDIA Jetson Orin Nano; разработчики Android могут создавать Agent-приложения через прототип AICore Developer Preview для подготовки к совместимости с будущим Gemini Nano 4.

В части экосистемы в день запуска уже поддерживаются такие популярные фреймворки, как Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth и другие; можно напрямую попробовать в Google AI Studio (31B и 26B) и AI Edge Gallery (E4B и E2B). С момента выпуска первого релиза серия Gemma была загружена более 400 миллионов раз, а количество производных вариантов в сообществе — более 100 тысяч.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев