Mistral приближается к крупным ИИ-конкурентам с новыми граничными моделями с открытым весом и компактными моделями

искусственный интеллект,Mistral,модели ИИ,корпоративные решения,открытый AI

Компания Mistral представила линейку Mistral 3, включающую передовую модель Large 3 и эффективные небольшие модели Ministral 3, ориентированные на офлайн и кастомизацию в корпоративных задачах, демонстрируя, что небольшие дообученные ИИ‑решения могут превзойти закрытые гиганты.

Запуск происходит в то время, когда Mistral, разрабатывающая открытые (open-weight) языковые модели и ориентированный на Европу ИИ‑чатбот Le Chat, кажется играет догонку с некоторыми закрытыми передовыми моделями из Силиконовой долины. Двухлетний стартап, основанный бывшими исследователями DeepMind и Meta, собрал примерно 2,7 млрд долларов и оценён в13,7 млрд долларов – ничтожная сумма по сравнению с тем, что собирают конкуренты, такие как OpenAI (57 млрд долларов при оценке 500 млрд) и Anthropic (45 млрд долларов при оценке 350 млрд).

Но Mistral пытается доказать, что больше не всегда значит лучше – особенно в корпоративных сценариях.

«Наши клиенты иногда рады начать с очень большой [закрытой] модели, которую им не нужно дообучать… но когда они её разворачивают, понимают, что она дорогая, медленная», — сказал Гийом Лампл, сооснователь и главный учёный Mistral, в интервью TechCrunch. «Потом они приходят к нам, чтобы дообучить небольшие модели для более эффективного решения задачи».

«На практике подавляющее большинство корпоративных сценариев можно решить с помощью небольших моделей, особенно если их дообучить», — продолжил Лампл.

«Начальные сравнения по бенчмаркам, в которых небольшие модели Mistral отстают от закрытых конкурентов, могут вводить в заблуждение», — отметил Лампл. «Большие закрытые модели могут показывать лучшую производительность «из коробки», но реальный прирост достигается при их кастомизации».

«Во многих случаях вы действительно можете сравняться или даже превзойти закрытые модели», — добавил он.

Большая передовая модель Mistral, названная Mistral Large 3, догоняет некоторые важные возможности более крупных закрытых ИИ‑моделей, таких как GPT‑4o от OpenAI и Gemini 2 от Google, одновременно соревнуясь с несколькими открытыми конкурентами. Large 3 является одной из первых открытых передовых моделей, объединяющих мультимодальные и многоязычные возможности, сравнимой с Llama 3 от Meta и Qwen3‑Omni от Alibaba. Многие компании сейчас сочетают впечатляющие крупные языковые модели с отдельными небольшими мультимодальными моделями, чего Mistral уже добивалась с моделями Pixtral и Mistral Small 3.1.

Large 3 также обладает архитектурой «детализированного Mixture of Experts» с 41 млрд активных параметров и 675 млрд параметров в общей сложности, что обеспечивает эффективные рассуждения в контекстном окне размером 256 тыс. токенов. Такой дизайн сочетает скорость и возможности, позволяя обрабатывать длинные документы и выступать в роли агентного помощника для сложных корпоративных задач. Mistral позиционирует Large 3 как подходящую для анализа документов, программирования, создания контента, ИИ‑ассистентов и автоматизации рабочих процессов.

С новой семьёй небольших моделей, названной Ministral 3, Mistral делает смелое заявление, что небольшие модели не только достаточны — они превосходят.

В линейку входят девять разных высокопроизводительных плотных моделей трёх размеров (14 млрд, 8 млрд и 3 млрд параметров) и трёх вариантов: Base (предварительно обученная базовая модель), Instruct (оптимизирована для чата и процессов в стиле ассистента) и Reasoning (оптимизирована для сложной логики и аналитических задач).

Mistral утверждает, что такой набор даёт разработчикам и компаниям гибкость подбирать модели под их точные требования, будь то максимальная производительность, экономия затрат или специализированные возможности. Компания заявляет, что Ministral 3 показывает сопоставимые или лучшие результаты, чем другие лидеры открытых моделей, при этом более эффективен и генерирует меньше токенов для одинаковых задач. Все варианты поддерживают зрение, работают с контекстными окнами 128 К–256 К и многими языками.

Большая часть презентации посвящена практичности. Лампл подчёркивает, что Ministral 3 может работать на одной GPU, что делает её развертываемой на недорогом оборудовании — от локальных серверов до ноутбуков, роботов и прочих периферийных устройств с ограничённым соединением. Это важно не только для компаний, сохраняющих данные внутри, но и для студентов, желающих получать обратную связь офлайн, или команд робототехники в отдалённых условиях. По словам Лампла, повышенная эффективность напрямую приводит к более широкой доступности.

«Это часть нашей миссии — сделать ИИ доступным всем, особенно людям без доступа к интернету», — сказал он. «Мы не хотим, чтобы ИИ контролировался лишь несколькими крупными лабораториями».

Некоторые другие компании тоже идут по пути эффективности: последняя корпоративная модель Cohere, Command A, работает всего на двух GPU, а её платформа AI‑агентов North может работать на одной GPU.

Такая доступность формирует растущий фокус Mistral на физическом ИИ. В начале этого года компания начала интегрировать свои небольшие модели в роботы, дроны и транспортные средства. Mistral сотрудничает с агентством Home Team Science and Technology Agency (HTX) из Сингапура над специализированными моделями для роботов, кибербезопасности и пожарной защиты; с немецким стартапом оборонных технологий Helsing над моделями «зрение‑язык‑действие» для дронов; а также с автопроизводителем Stellantis над автомобильным ИИ‑ассистентом.

Для Mistral надёжность и независимость столь же важны, как и производительность.

«Использовать API конкурентов, которое отключается на полчаса каждые две недели — если вы крупная компания, вы не можете себе этого позволить», — заявил Лампл.

Visited 1 times, 1 visit(s) today

Самое просматриваемое: