Технологии

Ollama 0.22.1 запускает tool calling Gemma 4 на ноутбуке без API-ключа

Susan Hill

Ollama 0.22.1 приносит обновлённый рендерер Gemma 4, который наконец поддерживает две способности, важные для серьёзной работы с локальным ИИ: явный режим мышления и вызов функций, то есть tool calling. Tool calling позволяет модели самой решать, когда вызвать внешнюю функцию — открыть веб-страницу, обратиться к базе данных, провести вычисление — и потом вплетает результат обратно в собственное рассуждение. Режим мышления раскрывает промежуточные шаги модели, чтобы приложение могло их подхватить и на них реагировать. И то и другое были функциями, за которые крупные облачные API брали деньги. И то и другое теперь работает локально с Gemma 4, без участия внешнего сервиса.

Причина, по которой эта новость весит больше очередного выпуска модели, — арифметика железа. Семейство Gemma 4, выпущенное Google под лицензией Apache-2.0, охватывает четыре размера: E2B, E4B, 26B A4B и 31B. Меньшие варианты работают на свежем ноутбуке с интегрированной графикой и двенадцатью-шестнадцатью гигабайтами оперативной памяти. Версии 26B A4B и 31B требуют настольной видеокарты, но всё равно остаются внутри потребительской зоны. Та же архитектура, для которой раньше нужен был платный контракт на API или домашний сервер за четырёхзначную сумму, превращается в установку на субботний вечер для любого, у кого относительно современная машина.

Практическое следствие для тех, кто не программирует: целый класс приложений-агентов — те, что читают почту, набрасывают ответы, скачивают документы, заполняют формы, конспектируют встречи — перестаёт быть обязанным отправлять эти данные на сторонний сервер. У пользователя, который заботился о приватности и хотел настоящей агентной автоматизации, было до сих пор два варианта: довериться политике данных облачного провайдера или запускать локально куда более слабую модель без tool calling. Середина была дырой, и Ollama 0.22.1 закрывает эту дыру для весовой категории Gemma 4.

Скептическое прочтение состоит в том, что Ollama и Gemma 4 — не аналоги облачного фронта. Размещённая локально 31B-модель не дотягивает до Claude от Anthropic или GPT-5 от OpenAI в сложных рассуждениях. Точность вызовов инструментов на длинных цепочках заметно хуже на малых вариантах. Мультимодальные входы работают, только медленнее. И груз интеграции ложится на пользователя: никто пока не собрал агентного приложения Gemma 4 плюс Ollama, отшлифованного достаточно, чтобы соревноваться с готовым SaaS-сценарием. Потолок железа и шлифовка софта по-прежнему реальные дыры.

Версия доступна прямо сейчас через стандартный установщик Ollama для macOS, Linux и Windows. Веса Gemma 4 размещены в библиотеке моделей Ollama под пространством имён gemma4, и изменение runtime в 0.22.1 автоматически срабатывает на любом размере, как только тот загружен.

Обсуждение

Имеется 0 комментариев.