Телеком

Путин предупредил о поколении, которое «будет просто нажимать кнопочку» вместо мышления

Нельзя позволить, чтобы целое поколение юных граждан разучилось мыслить самостоятельно, полагаясь лишь на ответы искусственного интеллекта, — такое предостережение прозвучало от Президента России на заседании Совета по развитию гражданского общества и правам человека. Как отметил глава государства, и игнорирование технологий искусственного интеллекта и IT-инструментов для работы с большими данными, и их необдуманное применение несут в себе огромные угрозы.

И отказ от искусственного интеллекта и IT-инструментов, работающих с большими данными (Big Data), и их безответственное использование чреваты серьезнейшими рисками, заявил Президент России Владимир Путин в ходе заседания Совета по развитию гражданского общества и правам человека.

«Если не применять эти IT-инструменты — значит утратить всё, что для нас ценно. Просто всё потерять, если не задействовать возможности больших данных и всё, что с ними связано. Однако если подходить к их использованию без должного осмысления, это также может привести к потере как раз всего того, что нам дорого — нашей самобытности, а также к распылению массивов данных и попаданию этой информации в руки тех, кто может использовать её недобросовестно», — пояснил Президент.

Эти слова Владимира Путина прозвучали в связи с выступлением члена Совета по правам человека (СПЧ), руководителя компании «Крибрум» Игоря Ашманова, который поднял вопросы регулирования технологий ИИ. Комментируя его позицию, Президент отметил, что даже тем, кто глубоко не погружен в эту проблематику, уже становится ясна необходимость её решения, хотя конкретные пути пока неочевидны.

«Мы ни в коем случае не должны допустить, чтобы появилось поколение совсем молодых наших сограждан, которые вместо того, чтобы размышлять, будут просто нажимать на кнопку, и всё. И сами не смогут решать простейшие задачи по математике, физике, химии. Да и историю как следует знать не будут. Это сложный вызов. Чтобы у нас не сформировалась элита из двух десятых процента людей, которые действительно мыслят, которые что-то создают, и основной массы, которая будет уметь только нажимать на кнопку», — сказал глава государства. Он подчеркнул, что применение ИИ не должно снижать личную ответственность человека — она всегда остается за ним.

В сентябре 2025 года Владимир Путин высказывал позитивное отношение к внедрению искусственного интеллекта в процесс бюджетного планирования. При этом он отметил, что на данном этапе подобные инструменты могут служить для правительства и ЦБ лишь «помощниками в принятии решений».

«Убежден, что потенциал ИИ можно и нужно задействовать при подготовке любых решений во всех областях, включая сферу ответственности Центрального банка России, однако окончательные решения такого рода должен принимать конкретный человек, он же и должен нести за них ответственность», — заявил Путин, отвечая на вопрос, можно ли поручить ИИ определение ключевой ставки.

«Искусственный интеллект — это не собеседник, а лишь цифровой инструмент, и именно людям надлежит трудиться», — акцентировал он. Президент также упомянул выступление члена Политбюро ЦК КПК, заместителя председателя Постоянного комитета ВСНП Ли Хунчжуна (Li Hongzhong) по вопросам ИИ, о котором ранее сообщал CNews. Как отметил Путин, жителям России и Китая следует активно осваивать искусственный интеллект и совершенствовать эти цифровые технологии.

По результатам 2024 года размер российского рынка решений на основе ИИ достиг приблизительно 300 млрд рублей. Это превышает показатель 2023 года, когда расходы составляли около 200 млрд руб., в полтора раза. Указанная информация содержится в исследовании Kept, опубликованном 2 октября 2025 года.

Отечественные предприятия активно внедряют ИИ в свою деятельность, но при этом испытывают ряд сложностей. В отчете Kept подчеркивается, что искусственный интеллект не подменяет собой автоматизацию и цифровую трансформацию, а служит их дополнением и усилителем. Более того, использование ИИ может оказаться малорезультативным или даже неосуществимым, если уровень цифровизации в компании недостаточно высок. Для функционирования нейросетей необходимы значительные массивы информации, которые создаются в процессе цифровизации бизнес-операций и автоматизации производства. Лишь при соблюдении этого условия ИИ может обучаться, обнаруживать скрытые взаимосвязи, обеспечивать гибкость и выполнять прогнозные функции. Среди основных преимуществ ИИ перед иными методами автоматизации и цифровизации эксперты ведущих фирм, опрошенные Kept, выделяют: анализ информации в режиме реального времени и адаптацию алгоритмов без дополнительной настройки — 71%; обработку неструктурированных данных — 59%; широкий набор когнитивных возможностей — 43%; прогнозную аналитику на базе машинного обучения (ML) — 42%; персонализированное взаимодействие — 40%.

Около 60% участников опроса уверены, что технологии искусственного интеллекта станут полноценным цифровым инструментом для решения профессиональных задач до 2030 года. Еще 23% респондентов считают, что это случится в период до 2030–2032 годов.

Создатели исследования отмечают нефтегазовую отрасль как одно из приоритетных направлений применения технологий ИИ в России. Нейронные сети могут выполнять такие функции, как интерпретация сейсмической и геофизической информации, оперативная оптимизация параметров бурения, прогнозирование осложнений, диагностика состояния оборудования, регулирование технологических режимов, контроль качества, интеллектуальное планирование выпуска продукции и предиктивный ремонт. Помимо этого, отмечаются преимущества для репутации: применение технологий ИИ укрепляет образ компании, демонстрируя ее технологическую продвинутость и результативность.

В ходе исследования были выявлены ключевые препятствия, замедляющие широкое распространение искусственного интеллекта. Среди проблем участники указали на недостаточную надежность и качество выводов, генерируемых нейросетями, нехватку опытных IT-кадров, угрозы в сфере информационной безопасности и другие факторы. В сводном виде основные сложности распределились следующим образом: защита данных и AI-моделей от кибератак — 50%; ошибочные решения ИИ — 48%; недостаток специалистов, сочетающих отраслевые знания и навыки работы с ИИ — 45%; отсутствие достаточной исторической информации — 45%; несовершенство нормативной базы — 36%; организационные и культурные препятствия внутри компаний — 31%; слабость технологической инфраструктуры — 29%.

Согласно опросу, проведенному аналитиками Kept, 91% респондентов открыты к использованию технологий ИИ, однако не готовы всецело на них полагаться. Как ранее отмечал CNews, системы искусственного интеллекта могут допускать фактические ошибки и искажения, проявлять склонность к «галлюцинациям», а их работа напрямую зависит от качества исходных данных и точности поставленных задач. Неточности в работе ИИ обусловлены техническими рамками, уровнем входной информации и влиянием человеческого фактора. Наиболее успешно ИИ справляется с заданиями, имеющими четкие алгоритмы и требующими обработки массивов данных (аналитика, автоматизация процессов), но демонстрирует уязвимость в ситуациях, требующих контекстного понимания или творческого подхода. Подавляющее большинство участников также отметили, что гарантии кибербезопасности и цифровой защиты являются обязательным требованием для интеграции IT-решений.

Антон Денисенко

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории