Навигатор Образования
Новость 7 мая 2026 г. 5 мин 25

Когда ИИ станет нормой: почему образовательная система движется медленнее технологий

Технологии впереди, институты позади. Что мешает системе образования принять ИИ — объясняет кандидат физико-математических наук, эксперт в области академической этики, машинного обучения и ИИ, заведующий лабораторией в ИПУ РАН и основатель сервиса «Думейт» Юрий Чехович.

Когда ИИ станет нормой: почему образовательная система движется медленнее технологий
© https://www.domate.ru/
Д
Даниил
Опубликовано 7 мая 2026 г.
Вопрос темпов внедрения искусственного интеллекта в образовательной системе нельзя оценивать линейно: фактически речь идет о двух разнонаправленных процессах. С одной стороны, скорость освоения ИИ на уровне пользователей — студентов, преподавателей, исследователей — беспрецедентно высока. По сравнению с предыдущими технологическими волнами, будь то компьютеризация или распространение интернета, искусственный интеллект интегрируется в повседневные практики гораздо быстрее. В этом смысле мы наблюдаем, возможно, самый стремительный технологический сдвиг за последние десятилетия. С другой стороны, институциональные изменения заметно отстают. Несмотря на то, что образовательные организации реагируют быстрее по сравнению с периодами прошлых ярких трансформаций, текущий темп все равно не соответствует масштабу изменений. И здесь возникает разрыв: технологии уже массово используются, тогда как сама система образования остается к ним структурно не готова. Система образования отстает от технологий И причины отставания носят комплексный характер. Во-первых, образование — по своей природе консервативная среда. Институции, формировавшиеся столетиями, обладают высокой инерцией: чем дольше существует система, тем сложнее и медленнее она обновляется. Речь идет не столько о бюрократии, сколько о культурной установке — склонности воспринимать новые технологические волны как временные явления. Во-вторых, отсутствует четкое представление о целевом состоянии системы. Внедрение ИИ в образовании пока не имеет ясной «картины будущего». Актуальный пример — последняя лунная программа США. Перед командой стояла предельно конкретная задача: совершить облет Луны и безопасное возвращение экипажа на Землю. Четкие измеримые критерии позволили мобилизовать ресурсы и реализовать крайне сложный проект. А в случае с искусственным интеллектом не определены ни конечные модели образовательного процесса, ни маркеры их эффективности. В результате вузы вынуждены экспериментировать без стратегической определенности, что существенно замедляет масштабные преобразования. Наконец, значимым фактором остается технологическая зависимость. В отличие от предыдущих этапов цифровизации, где инфраструктура могла быть полностью контролируема (собственное оборудование, программное обеспечение), современные ИИ-решения часто завязаны на внешних поставщиков. И тут есть серьезный риск, когда доступ к ключевым технологиям может быть ограничен по политическим, экономическим или корпоративным причинам. Альтернативой может стать развертывание собственных решений на базе открытых моделей, однако это требует значительных инвестиций как в инфраструктуру, так и в квалифицированные кадры. Для большинства образовательных организаций такие затраты остаются трудно достижимыми, что дополнительно усиливает неравенство между институтами. Что думают об ИИ преподаватели На мой взгляд, в преподавательской среде нет выраженной нервозности вокруг ИИ. Скорее сохраняется установка «посмотрим, понаблюдаем, переждем» — то есть проявляется определенный консерватизм, который для образования вполне естественен. Пока я не вижу ни массовых опасений за рабочие места, ни какого-то страха, что внедрение ИИ ударит по репутации вуза. Возможно, в IT-сфере есть некоторая тревожность, но тем не менее среди преподавателей не видно ни массового саботажа, ни заметного давления на тех, кто использует искусственный интеллект. Я бы сказал, что в образовательной среде сопротивление технологиям пока минимальное. Играет роль еще и тот факт, что у преподавателей просто не сформировался круг задач, которые можно было бы решать только с помощью ИИ. Большинство рабочих ситуаций им хорошо и давно знакомы, и выбор инструментов остается за самим педагогом: кто‑то начинает интегрировать нейросети, кто‑то продолжает работать в привычном «ручном» формате.  Барьеры со стороны регуляторов Институциональные и регуляторные барьеры, безусловно, имеют место быть, но они не выглядят как классические жесткие ограничения из-за отсутствия определенности. Со стороны регулятора формальная позиция по ИИ пока сводится к общим лозунгам вроде «нужно внедрять технологии, готовить кадры» — четких правил, как именно вузы должны встраивать искусственный интеллект в образовательные программы, практику и оценку, нет. В российской системе отсутствует единый регламент, где было бы однозначно указано, что педагогический, экономический или любой иной вуз обязан делать с ИИ в учебных планах и контрольных заданиях. И какое применение технологий можно считать этичным. На практике вузы действуют в основном по собственной инициативе, а не по указке сверху. При этом их внутренняя регуляторика сильно разнится: часть вузов фактически игнорирует ИИ; отдельные институты устанавливают «запретительную модель»; третьи вводят ограничения вроде «допускается не более X% сгенерированного текста в работе», но критерии границы остаются довольно условными; небольшое число университетов предпринимает попытки настоящей трансформации — меняют структуру очного и внеаудиторного обучения, пересматривают роль выпускных квалификационных работ, реформируют оценку и методики преподавания под использование ИИ. При этом даже в ведущих вузах, таких как ВШЭ, внедрение пока концентрируется скорее на регламентации и декларациях, чем на системной перестройке образовательных процессов. В результате мы видим фрагментарность: где‑то регулирование есть, но оно несогласованно; где‑то его вовсе нет, а вузы просто «подстраиваются на ходу» — это как раз и усиливает институциональные барьеры, превращая их в непредсказуемые ограничения. Когда ИИ перестанет быть экспериментом Чтобы ИИ перестал быть экспериментом и стал повседневным инструментом в вузах, в первую очередь нужно время. День за днем собственный опыт постепенно накапливается не только у отдельных преподавателей, но и у всей системы в целом, что снижает сопротивление и повышает доверие к технологиям. Важно появление позитивных кейсов, когда сначала относительно небольшой круг инноваторов начинает вносить небольшие изменения — например, адаптирует отдельные задания, форматы проверки или часть методики. Если эти изменения воспринимаются как удачные, их постепенно формируется критическая масса, которую затем берут на вооружение и более крупные институты и вузы. Помогает и международный опыт: внимательный анализ практик США и Китая позволяет избегать типичных ошибок и ускорять собственные эксперименты. В последние годы временные лаги между изменениями и публикацией результатов сокращаются, поэтому вузы все быстрее могут учиться на чужом опыте и адаптировать его под свои условия. Ожидать резкого и массового перехода в ближайшие годы, возможно, преждевременно, но ориентировочный горизонт заметен. К тому моменту, как вырастет поколение студентов, поступивших в вузы в эпоху ИИ, критические изменения в образовательной системе станут намного более очевидными и структурированными, чем сегодня.
Подпишитесь на полезные материалы

Новые статьи и обзоры — на вашу почту

Поделиться:
НО

Редакция «Навигатор Образования»

Мы помогаем родителям и абитуриентам найти лучшие образовательные учреждения России. Все материалы проверены экспертами.

Комментарии (0)

Пока нет комментариев. Будьте первым.