Нехватка GPU вынуждает компании искать новые подходы к внедрению ИИ
Повсеместное увлечение технологиями искусственного интеллекта спровоцировало острый дефицит специализированных вычислительных мощностей. Организации активно скупают необходимые ресурсы, что приводит к их недостатку на рынке и значительному удорожанию аренды серверов в дата-центрах. Нагрузка на инфраструктуру ЦОД возрастает, а стоимость её использования непрерывно повышается. Наиболее критична ситуация с графическими процессорами (GPU), которые играют ключевую роль в обучении нейросетей. Приобрести такие видеокарты сейчас крайне сложно. Строительство же собственных мощностей для обработки данных требует серьёзных инвестиций и по силам только ограниченному кругу игроков. О возможных путях выхода из сложившейся ситуации рассказал Дмитрий Мельников, генеральный директор компании Inventive DLM (в составе Inventive Retail Group).
Применение генеративного ИИ в российских компаниях
Создание распределённых вычислительных кластеров рассматривается сегодня как одно из наиболее многообещающих решений. Этот подход даёт возможность объединить мощности множества отдельных компьютеров и серверов в единый пул ресурсов. В результате достигается высокая производительность при сниженных расходах на электричество и техническое обслуживание.
Такая технология служит экономичной альтернативой традиционным серверам, оснащённым дорогими GPU, что помогает оптимизировать затраты на инфраструктуру и повысить её энергетическую эффективность.
В России объём рынка решений на основе генеративных моделей увеличился впятеро и к завершению 2025 года составил 58 миллиардов рублей. Согласно информации от Inventive DLM (входит в Inventive Retail Group), большие языковые модели (LLM) активно внедряются в финансовом секторе (33%), розничной торговле (25%) и сфере разработки ПО (41%) для автоматизации рутинных задач и оптимизации расходов. Крупные корпорации экспериментируют с использованием ИИ для обслуживания клиентов — прогнозируется, что к концу 2026 года уровень автоматизации типовых сценариев достигнет 80-100%.
В условиях повышенных требований к защите информации и приватности данных на российском рынке преобладают корпоративные решения на основе больших языковых моделей и генеративного ИИ, тогда как облачные сервисы набирают популярность в сегментах B2C и среди малого и среднего бизнеса.
Какие задачи решают большие языковые модели
Частные лица обращаются к большим языковым моделям за помощью в планировании и создании текстов. Для некоторых пользователей такая модель становится альтернативой поисковым системам, предоставляя оперативные ответы, помогая генерировать идеи и осваивать новые знания.
В бизнес-среде LLM чаще всего применяются для создания контента и кода, его проверки, интеллектуального поиска в базах данных, а также для развертывания чат-ботов и голосовых помощников в службах поддержки и речевой аналитики. Это позволяет ускорить работу с документацией в среднем на 70%, повысить эффективность бизнес-процессов на 40% и сократить количество операционных ошибок на 30%.
Специалисты и менеджеры начинают отвечать на запросы клиентов за секунды вместо минут и тратят значительно меньше времени на выполнение рутинных операций.
Многие организации сталкиваются с проблемой разрозненных данных: часть информации хранится в документах, часть — в базах знаний, а некоторые вопросы решаются в мессенджерах. Кроме того, разработчики тратят много времени на написание, оптимизацию кода, поиск и исправление ошибок. Дополнительные сложности возникают с адаптацией новых сотрудников и онлайн-взаимодействием с клиентами. Всё это ведет к постоянному росту спроса на LLM.
LLM в комплекте с техникой Apple под управлением российского ПО
Это надежное и простое в использовании решение на базе Apple Mac mini с предустановленным набором языковых моделей, которые можно загружать и переустанавливать через удобный интерфейс Ринго MDM (системы управления мобильными устройствами) — отечественной платформы для администрирования устройств на macOS и iOS в корпоративной среде. Система автоматизирует и оптимизирует управление оборудованием, его настройку, а также установку и обновление программного обеспечения.
В корпоративной инфраструктуре с использованием агентов и MCP (Model Context Protocol) возможна работа на рабочих станциях или ноутбуках под управлением Windows или Linux. MCP — это открытый стандарт, который обеспечивает унифицированный обмен данными между ИИ-моделями и внешними инструментами и источниками информации. Единый интерфейс делает использование системы удобным и сокращает время на обучение новых сотрудников.
Защиту конфиденциальных данных от несанкционированного распространения и утечек обеспечивает ограничение возможности пересылки файлов и документов в сторонние облачные хранилища. Автоматизированная система оперативно выявляет попытки неправомерного использования информации и предпринимает ответные меры до наступления негативных последствий.
Результат внедрения LLM в комплексе с Apple Mac Mini или Apple Mac Studio под управлением ПО Ринго MDM:
- централизованное и контролируемое внедрение локальных моделей, исключающее необходимость индивидуальной настройки каждым специалистом;
- единая панель управления через платформу Ринго MDM;
- минимизация требований к рабочим устройствам разработчиков;
- работа с локальными моделями без отправки внутренней документации и конфиденциальных данных в сторонние облачные сервисы;
- стандартизация рабочей среды, управление настройками и воспроизводимость процессов развертывания;
- оперативный запуск демо-версий и пилотных проектов для разработки, технической поддержки и внутренних служб.
Модели и конфигурации
Для организаций малого и среднего масштаба обычно выбирают Mac Mini M4 и M4 Pro (объем памяти 16–32 ГБ). Оперативная память 24 ГБ или 32 ГБ позволяет работать с моделями, поддерживающими больший объем входных данных — от 7 до 34 миллиардов параметров, прямо на устройстве. Такие конфигурации подходят как для облачных решений (Claude, OpenAI), так и для компактных локальных моделей (7 миллиардов параметров), работающих параллельно с интерфейсом OpenClaw.
Для запуска моделей от 70+ миллиардов параметров или одновременной работы нескольких локальных моделей компании выбирают Mac Mini M4 Pro (48-64 ГБ). На корпоративном уровне предпочтение отдается Mac Studio (36 ГБ – 512 ГБ), который способен решать комплексные задачи крупного бизнеса.