Компания Apple планирует усовершенствовать своего голосового ассистента Siri с помощью нейросетевой платформы Gemini от Google. Годовые затраты на это сотрудничество оцениваются в $1 млрд. Siri традиционно воспринимается как один из наименее эффективных голосовых помощников, значительно уступающий основным соперникам как по функциональности, так и по качеству распознавания запросов.
Как сообщает Bloomberg, технологический гигант Google может оказать поддержку Apple в развитии искусственного интеллекта для Siri. Согласно данным издания, компании уже приблизились к заключению соглашения с указанным годовым бюджетом.
Основой партнерства станет внедрение в Siri чат-бота Gemini, который с момента запуска в марте 2023 года к версии 2.5 в августе 2025-го превратился в одну из передовых мировых разработок. При этом собственные инициативы Apple в сфере ИИ-услуг не увенчались успехом – проект Apple Intelligence, разрабатываемый более года, до сих пор функционирует в ограниченном режиме и лишь в отдельных государствах. Что касается Siri, то с момента появления в 2011 году этот ассистент значительно отстал от мировых аналогов, включая голосового помощника «Алиса» от «Яндекса», по точности реагирования и спектру доступных операций.
По сведениям TechCrunch, для Apple это соглашение имеет особую важность, поскольку стратегия опоры на собственные разработки, успешно реализованная в производстве процессоров и модемов связи, оказалась малоэффективной для создания ИИ-ассистентов. Предполагается, что контракт с Google будет действовать ограниченный период, пока Apple не достигнет необходимого уровня развития собственных технологий искусственного интеллекта.
Тем не менее, сроки достижения технологической самостоятельности остаются неопределенными. Компания уже упустила шанс занять лидирующие позиции на рынке с помощью Apple Intelligence, и теперь ей предстоит сложная борьба с устоявшимися конкурентами.
Существующие возможности Gemini демонстрируют существенное превосходство, при этом Google продолжает активное развитие системы. Согласно Bloomberg, Google предоставит Apple адаптированную версию нейросети, содержащую порядка 1,2 трлн параметров. Для сравнения, архитектура Apple Intelligence насчитывает примерно в восемь раз меньше – около 150 млрд параметров.
Перед началом переговоров с Google Apple провела анализ рынка для определения наиболее подходящей нейросетевой платформы для модернизации Siri. Как отмечает TechSpot, среди рассматриваемых вариантов были решения от OpenAI и перспективного стартапа Anthropic.
После тестирования актуальных разработок всех трех компаний Apple отдала предпочтение продукту Google. Конкретные причины этого выбора и преимущества Gemini перед альтернативными предложениями в Apple не комментируют.
В то же время у Apple уже имеется договорённость с OpenAI. В ходе июньской презентации WWDC 2024 корпорация объявила о партнёрстве с этой организацией, планируя интегрировать функционал ChatGPT как в голосового помощника Siri, так и непосредственно в свои операционные системы iOS, macOS и другие.
Apple по-прежнему стремится к тому, чтобы со временем полностью исключить использование сторонних ИИ-решений на своих платформах и устройствах, перейдя на собственные наработки — подобно тому, как это произошло в 2020 году с процессорами Intel. Однако если чипы М-серии во многом превосходят современные аналоги от Intel, то в области искусственного интеллекта ситуация складывается противоположным образом.
Ярким подтверждением этому служит сообщение Bloomberg от сентября 2025 года об уходе старшего директора Apple по направлению ИИ Роберта Уокера (Robert Walker). В сферу его ответственности входили как раз голосовой ассистент Siri и новая нейросетевая поисковая система, которую компания так и не представила публике.