Аналитика

Как бизнес выжимает ИИ из дефицитных видеокарт: новая тактика

Нехватка GPU вынуждает компании искать новые подходы к внедрению ИИ

Повсеместное увлечение технологиями искусственного интеллекта спровоцировало острый дефицит специализированных вычислительных мощностей. Организации активно скупают необходимые ресурсы, что приводит к их недостатку на рынке и значительному удорожанию аренды серверов в дата-центрах. Нагрузка на инфраструктуру ЦОД возрастает, а стоимость её использования непрерывно повышается. Наиболее критична ситуация с графическими процессорами (GPU), которые играют ключевую роль в обучении нейросетей. Приобрести такие видеокарты сейчас крайне сложно. Строительство же собственных мощностей для обработки данных требует серьёзных инвестиций и по силам только ограниченному кругу игроков. О возможных путях выхода из сложившейся ситуации рассказал Дмитрий Мельников, генеральный директор компании Inventive DLM (в составе Inventive Retail Group).

Применение генеративного ИИ в российских компаниях

Создание распределённых вычислительных кластеров рассматривается сегодня как одно из наиболее многообещающих решений. Этот подход даёт возможность объединить мощности множества отдельных компьютеров и серверов в единый пул ресурсов. В результате достигается высокая производительность при сниженных расходах на электричество и техническое обслуживание.

Такая технология служит экономичной альтернативой традиционным серверам, оснащённым дорогими GPU, что помогает оптимизировать затраты на инфраструктуру и повысить её энергетическую эффективность.

В России объём рынка решений на основе генеративных моделей увеличился впятеро и к завершению 2025 года составил 58 миллиардов рублей. Согласно информации от Inventive DLM (входит в Inventive Retail Group), большие языковые модели (LLM) активно внедряются в финансовом секторе (33%), розничной торговле (25%) и сфере разработки ПО (41%) для автоматизации рутинных задач и оптимизации расходов. Крупные корпорации экспериментируют с использованием ИИ для обслуживания клиентов — прогнозируется, что к концу 2026 года уровень автоматизации типовых сценариев достигнет 80-100%.

В условиях повышенных требований к защите информации и приватности данных на российском рынке преобладают корпоративные решения на основе больших языковых моделей и генеративного ИИ, тогда как облачные сервисы набирают популярность в сегментах B2C и среди малого и среднего бизнеса.

Какие задачи решают большие языковые модели

Частные лица обращаются к большим языковым моделям за помощью в планировании и создании текстов. Для некоторых пользователей такая модель становится альтернативой поисковым системам, предоставляя оперативные ответы, помогая генерировать идеи и осваивать новые знания.

В бизнес-среде LLM чаще всего применяются для создания контента и кода, его проверки, интеллектуального поиска в базах данных, а также для развертывания чат-ботов и голосовых помощников в службах поддержки и речевой аналитики. Это позволяет ускорить работу с документацией в среднем на 70%, повысить эффективность бизнес-процессов на 40% и сократить количество операционных ошибок на 30%.

Специалисты и менеджеры начинают отвечать на запросы клиентов за секунды вместо минут и тратят значительно меньше времени на выполнение рутинных операций.

Многие организации сталкиваются с проблемой разрозненных данных: часть информации хранится в документах, часть — в базах знаний, а некоторые вопросы решаются в мессенджерах. Кроме того, разработчики тратят много времени на написание, оптимизацию кода, поиск и исправление ошибок. Дополнительные сложности возникают с адаптацией новых сотрудников и онлайн-взаимодействием с клиентами. Всё это ведет к постоянному росту спроса на LLM.

LLM в комплекте с техникой Apple под управлением российского ПО

Это надежное и простое в использовании решение на базе Apple Mac mini с предустановленным набором языковых моделей, которые можно загружать и переустанавливать через удобный интерфейс Ринго MDM (системы управления мобильными устройствами) — отечественной платформы для администрирования устройств на macOS и iOS в корпоративной среде. Система автоматизирует и оптимизирует управление оборудованием, его настройку, а также установку и обновление программного обеспечения.

В корпоративной инфраструктуре с использованием агентов и MCP (Model Context Protocol) возможна работа на рабочих станциях или ноутбуках под управлением Windows или Linux. MCP — это открытый стандарт, который обеспечивает унифицированный обмен данными между ИИ-моделями и внешними инструментами и источниками информации. Единый интерфейс делает использование системы удобным и сокращает время на обучение новых сотрудников.

Защиту конфиденциальных данных от несанкционированного распространения и утечек обеспечивает ограничение возможности пересылки файлов и документов в сторонние облачные хранилища. Автоматизированная система оперативно выявляет попытки неправомерного использования информации и предпринимает ответные меры до наступления негативных последствий.

Результат внедрения LLM в комплексе с Apple Mac Mini или Apple Mac Studio под управлением ПО Ринго MDM:

  • централизованное и контролируемое внедрение локальных моделей, исключающее необходимость индивидуальной настройки каждым специалистом;
  • единая панель управления через платформу Ринго MDM;
  • минимизация требований к рабочим устройствам разработчиков;
  • работа с локальными моделями без отправки внутренней документации и конфиденциальных данных в сторонние облачные сервисы;
  • стандартизация рабочей среды, управление настройками и воспроизводимость процессов развертывания;
  • оперативный запуск демо-версий и пилотных проектов для разработки, технической поддержки и внутренних служб.

Модели и конфигурации

Для организаций малого и среднего масштаба обычно выбирают Mac Mini M4 и M4 Pro (объем памяти 16–32 ГБ). Оперативная память 24 ГБ или 32 ГБ позволяет работать с моделями, поддерживающими больший объем входных данных — от 7 до 34 миллиардов параметров, прямо на устройстве. Такие конфигурации подходят как для облачных решений (Claude, OpenAI), так и для компактных локальных моделей (7 миллиардов параметров), работающих параллельно с интерфейсом OpenClaw.

Для запуска моделей от 70+ миллиардов параметров или одновременной работы нескольких локальных моделей компании выбирают Mac Mini M4 Pro (48-64 ГБ). На корпоративном уровне предпочтение отдается Mac Studio (36 ГБ – 512 ГБ), который способен решать комплексные задачи крупного бизнеса.

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории