Ollama представила новые кодовые модели и интеграции

Ollama расширила линейку инструментов для разработчиков: в облачном сервисе стали доступны модели GLM‑4.6 и Qwen3‑Coder‑480B с готовыми интеграциями в популярные редакторы и агенты, а Qwen3‑Coder‑30B обновлён для более быстрого и надёжного tool calling в новом движке.

Облачный запуск снижает требования к локальному «железу», а для энтузиастов по-прежнему доступен локальный режим, включая гигантскую Qwen3‑Coder‑480B (при наличии более 300 ГБ VRAM).

  • GLM‑4.6 и Qwen3‑Coder‑480B доступны в облаке с простыми командами запуска.
  • Qwen3‑Coder‑30B оптимизирован в новом движке Ollama для ускоренного tool calling.
  • Готовые интеграции: VS Code (Copilot Chat), Zed (теперь и на Windows), Droid (Factory), а также Codex и Cline.
  • Документация дополнена разделами по работе с популярными инструментами разработки.

Что нового в моделях

GLM‑4.6 — свежая редакция линейки GLM, ориентированная на задачі программирования и генерацию кодовых решений по коротким промптам. В связке с облаком Ollama модель готова к работе без настройки инфраструктуры: достаточно одной команды.

Qwen3‑Coder‑480B — крупная кодовая модель семейства Qwen3. В облаке она доступна из коробки; локальный запуск предназначен для рабочих станций с очень большим запасом видеопамяти (>300 ГБ VRAM). Это вариант для команд и лабораторий, которым важна максимальная мощность при полном контроле над окружением.

Qwen3‑Coder‑30B получила обновление в новом движке Ollama: улучшен разбор инструкций для tool calling и снижены задержки при обращении к инструментам. Это помогает надёжнее запускать команды, тесты и вспомогательные скрипты прямо из подсказок.

Быстрый старт

Запуск в облаке:

ollama run glm-4.6:cloud
ollama run qwen3-coder:480b-cloud

Локально (при достаточных ресурсах):

ollama run qwen3-coder:480b

Обновлённая модель среднего размера:

ollama run qwen3-coder:30b

Пример промпта для генерации приложения

Ниже — типовой запрос, который демонстрирует силу коротких промптов в новых кодовых моделях.

Одним сообщением можно сгенерировать полноценную страницу с игрой:

Create a single-page app in a single HTML file with the following requirements:
Name: Ollama’s Adventure
Goal: Jump over obstacles to survive as long as possible.
Features: Increasing speed, high score tracking, retry button, and funny sounds for actions and events.
The UI should be colorful, with parallax scrolling backgrounds.
The characters should look cartoonish, related to alpacas and be fun to watch.
The game should be enjoyable for everyone.

GLM‑4.6 в таком сценарии генерирует самодостаточную HTML‑страницу: разметка, стили, скрипты, отрисовка персонажей, обработка столкновений, рост сложности, хранение рекорда в локальном хранилище и звуковые эффекты. Это удобная демонстрация того, как новая связка моделей и движка собирает рабочий прототип без «допрошивания» по деталям.

Интеграции

Ollama дополнила документацию разделами по работе с популярными инструментами разработки и агентами, включая Codex, Cline, VS Code, Zed и Droid.

Ниже — практические шаги для ключевых сценариев.

VS Code (Copilot Chat)

  1. Сначала подтяните модели для доступа из редактора:
    ollama pull glm-4.6:cloud
    ollama pull qwen3-coder:480b-cloud

  2. Откройте боковую панель Copilot Chat.
  3. В выпадающем списке моделей выберите «Manage models».
  4. В списке провайдеров укажите Ollama и отметьте нужные модели.
  5. Снова откройте список моделей и выберите, например, glm‑4.6.

Далее можно просить модель писать функции, покрывать их тестами, исправлять ошибки, запускать инструменты через tool calling и генерировать миграции.

Zed (включая Windows)

  1. Подтяните модели:
    ollama pull glm-4.6:cloud
    ollama pull qwen3-coder:480b-cloud

  2. Откройте Zed и откройте панель агента (иконка с сияющими звёздами).
  3. В выпадающем списке моделей нажмите «Configure».
  4. В разделе LLM providers выберите Ollama.
  5. Проверьте Host — localhost:11434, затем нажмите Connect и выберите модель под провайдером Ollama.

После подключения Zed сможет обращаться к локальному или облачному движку Ollama, предлагая автодополнение кода, рефакторинг и объяснения по месту.

Droid (Factory)

  1. Установите Droid через официальный CLI‑установщик.
  2. Добавьте конфигурацию в ~/.factory/config.json для подключения к Ollama.
  3. Запустите Droid и введите команду /model, чтобы выбрать модель (например, glm‑4.6 или qwen3-coder:480b-cloud).

Такой режим удобен для интерактивных задач: прогон скриптов, пошаговая отладка, корректировки по результатам тестов.

Чем это полезно командам

  • Единый стек для кода и агентных сценариев. Новый движок Ollama улучшает tool calling: модели аккуратнее вызывают инструменты, корректируют команды и возвращают результаты в контекст.
  • Гибрид облака и локали. Можно держать лёгкую среду на ноутбуках и масштабировать вычисления через облако. Для задач, требующих контроля и приватности, остаётся «толстый» локальный запуск.
  • Минимум настройки. Реальные шаги сводятся к ollama run/ollama pull и выбору провайдера в редакторе.

Как начать сегодня

  1. Выберите модель под задачу: GLM‑4.6 для быстрого прототипирования, Qwen3‑Coder‑480B для максимальной глубины, Qwen3‑Coder‑30B для баланса скорости и качества.
  2. Запустите модель в облаке или локально командами выше.
  3. Подключите редактор: VS Code (через Copilot Chat), Zed или агент Droid.
  4. Проверьте tool calling на типовых задачах: установка зависимостей, запуск тестов, рефакторинг, генерация миграций.

Ollama продолжает наращивать каталог кодовых моделей и развивать интеграции с рабочими инструментами. Обновления нацелены на то, чтобы разработчики могли быстрее переходить от идеи к рабочему коду — как в одиночных проектах, так и в командных пайплайнах.

Фото аватара

Денис Семенов

Работаю с голосовыми помощниками и AI. Тестирую интеграцию Alexa, Google Assistant и ChatGPT в бизнес-процессы.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *