Сегодня ИИ активно используется не только как вспомогательный инструмент, но и как полноценный участник образовательного процесса, в том числе при создании учебных материалов. Крупные платформы внедряют ИИ уже несколько лет. Так, к примеру, в «Яндекс Практикуме» алгоритмы на базе YandexGPT помогают студентам писать код и делать краткие выжимки из учебных материалов. Образовательная платформа Skillbox применяет похожие решения — от помощи в подготовке к занятиям до автоматизированной проверки домашних заданий. Здесь же ИИ-помощники используются при изучении иностранных языков: они помогают студентам практиковать английский, немецкий и испанский. Сервис «СберУниверситет» использует ИИ для разметки контента и новых форматов обучения. Все эти примеры показывают, как активно внедряются новые технологии в образовательные процессы. И вот что важно — подобные инициативы появляются и в университетской среде: отдельные вузы уже экспериментируют с внедрением ИИ-сервисов в свои программы. На этом фоне закономерно возникает вопрос: насколько корректно и безопасно использовать искусственный интеллект для создания учебных материалов? Где проходит граница между полезной автоматизацией и подменой педагогической экспертизы, какие есть риски, какие плюсы и минусы несёт такой подход для образования в целом? Какие образовательные задачи ИИ решает лучше всего Судя по опросам, ИИ довольно активно используется при создании учебных материалов. Даже если на уровне вуза это не оформлено официально, на практике преподаватели применяют инструмент в «неформальном» режиме для подготовки заданий и даже для оценки работ, если понимают, как с ним работать, и видят в этом пользу. Этот процесс неизбежен и естественен: если появляется инструмент, который позволяет выполнять ту же работу с сопоставимым качеством, но с меньшими затратами времени и усилий, большинство людей будет выбирать именно его. Универсальный экономический принцип срабатывает всегда: мало кто готов сознательно тратить больше ресурсов там, где можно обойтись меньшими. Говоря о том, какие задачи в образовании ИИ решает наиболее эффективно, в первую очередь стоит отметить генерацию учебных заданий. Здесь речь идёт не столько о том, что алгоритмы делают это лучше человека, сколько о том, что применять их проще и быстрее. При этом важно понимать, что оценка качества самих заданий во многом субъективна — универсальных и полностью объективных критериев почти не существует. «В образовательной практике есть понятные ориентиры. Например, если с заданием справились абсолютно все студенты или, наоборот, не справился никто — это плохой показатель. В обоих случаях задание не выполняет свою функцию: оно не помогает ни обучать, ни адекватно оценивать уровень знаний. Хорошее задание обычно „разделяет“ студентов по уровню подготовки и обеспечивает разумное распределение результатов, а не крайние значения», — объясняет Чехович. С этой точки зрения можно представить ситуацию, в которой искусственный интеллект справляется с подготовкой заданий не хуже, а иногда и лучше человека — если задания, созданные ИИ, дают более корректное распределение результатов. И тем не менее это утверждение требует проверки. Нужны эксперименты и исследования, которые сравнивают задания, подготовленные преподавателями и алгоритмами, в реальных условиях с реальными студентами. Как бы ни были созданы задания — преподавателями или алгоритмами — они должны быть верно сформулированными. Успешной можно считать такую задачу, после решения которой студенты лучше справляются с последующими контрольными работами и тестами. К сожалению, оценить эффективность обучающих материалов можно только по отложенным результатам. Необходимы системные исследования и практические эксперименты, чтобы понять, в каких задачах алгоритмы действительно усиливают образовательный процесс, а где невозможно обойтись без участия преподавателя. ИИ и задания для олимпиад Традиционно для соревновательных форматов проверки знаний преподаватели и методисты каждый год разрабатывают новые, уникальные задачи. Это делается не только для соблюдения формальных требований, но и для того, чтобы задания действительно проверяли мышление, а не только лишь умение воспроизводить заученные решения. В олимпиадных задачах важен не только уровень сложности. Существенную роль, например, для заданий по математике играет так называемая «красота» задачи — наличие идеи, нестандартного хода мысли или неожиданного решения. Хорошая олимпиадная задача требует не механического применения алгоритма, а умения догадаться, как именно к ней подойти. На сегодняшний день ИИ способен создавать скорее «типовые олимпиады», так что можно просто натренироваться на решение этих типов задач. И скорее всего, в ближайшем будущем ситуация не изменится, так как для создания нетиповых творческих задач необходима работа общего искусственного интеллекта (AGI), до которого все-таки еще далековато. «В учебном смысле это не обязательно плохо. Количество олимпиадных задач по базовым темам очень велико, и большинство учащихся не сталкивалось с ними в полном объёме. Если ученик последовательно решает большое число подобных задач и понимает логику их решений, это само по себе хорошо развивает математическое мышление. Более того, такой опыт обычно помогает успешно справляться и с новыми заданиями», — считает эксперт. Риски не в технологии, а в подходе Использование ИИ для разработки учебных материалов в целом можно считать безопасным, если понимать возможные риски и сразу выстраивать грамотную систему контроля. Опасности давно известны и во многом совпадают с теми проблемами, которые возникают при традиционной подготовке заданий. Первый риск — задания могут оказаться бесполезными с точки зрения обучения. Формально они могут выглядеть как надо, но при этом совершенно не развивать навыки у студентов, не давать им новых знаний. В таком случае молодые люди просто потратят своё время, не получив результата. Этот риск довольно сложно выявить: то, что задания «не учат», может проявиться только впоследствии, когда на «плохое обучение» будет потрачено много времени. Вторая распространённая проблема — ошибки в фактах. Искусственный интеллект может допускать неточности: указывать неправильные даты, события или «галлюцинировать» в заданиях на проверку знаний. Такие ошибки критичны, но их относительно легко выявить при обычной проверке материалов. Если преподаватель просматривает сгенерированные задания до того, как дать их студентам, большая часть подобных ошибок будет вовремя отсечена. «Проблемы возникают тогда, когда материалы используются без проверки — например, если задания просто копируются и распространяются без предварительного просмотра. В этом случае речь идёт не столько о рисках технологий, сколько о недобросовестном использовании инструментов и снижении качества преподавания», — объясняет Юрий Чехович. Идеальная картина работы над заданиями подразумевает дополнительную их проверку: материалы тестируют на коллегах или фокус-группе обучаемых, которые по уровню подготовки уже должны уметь их решать. Такая практика позволяет выявить ошибки заранее и получить адекватную обратную связь. Для добросовестного преподавателя это нормальная часть работы с любыми учебными материалами — независимо от того, создавались ли они вручную или с помощью алгоритмов. Ещё один риск касается типа ошибок, связанных с нарушением логики заданий. В этом случае формально задача может выглядеть корректно, но на практике не иметь решения. «Например, школьникам предлагают задачу, решение которой требует знаний, выходящих за пределы усвоенной ими программы. В результате для большинства учащихся ответ оказывается недостижимым, а само задание — некорректным с педагогической точки зрения», — говорит эксперт. Таким образом, основные риски использования искусственного интеллекта в создании учебных материалов связаны не с самой технологией, а с отсутствием проверки и методической экспертизы. Поэтому они требуют внимательного контроля со стороны преподавателя. А что насчёт этики и права? Недавно в США обсуждался показательный случай: студентка одного из университетов потребовала вернуть ей плату за обучение после того, как узнала, что преподаватель использовал несколько нейросетей при подготовке учебных материалов. Сумма иска составляла около 8 тысяч долларов, однако суд отказал в его удовлетворении. Тем не менее сам прецедент поднял на поверхность важные вопросы о допустимости и прозрачности использования ИИ в образовании. Подобные претензии во многом объясняют сложившиеся стереотипы. В общественном восприятии до сих пор распространено убеждение, что «машинное» по определению хуже «человеческого». Использование алгоритмов нередко воспринимается как нечто массовое, обезличенное и менее ценное — примерно так же, как фабричный продукт противопоставляется «домашнему» или сделанному вручную. С точки зрения качества обучения принципиален не сам факт использования ИИ, а результат. Если учебные материалы корректны, логичны, не содержат ошибок и соответствуют образовательным целям, то источник их подготовки — человек или алгоритм — сам по себе не должен быть решающим фактором. Ошибочные или некорректные задания действительно могут серьёзно навредить учебному процессу, но такие риски существуют и при полностью ручной подготовке материалов. «Ситуация могла бы выглядеть иначе, если бы было доказано, что преподаватель полностью полагался на нейросеть и не проверял сгенерированные задания, не тестировал их и не оценивал их качество. В таком случае речь шла бы уже не об использовании нового инструмента, а о недобросовестном выполнении профессиональных обязанностей», — поясняет Чехович. Важно учитывать и экономический аспект. Студенты часто воспринимают обучение как услугу с высокой стоимостью и ожидают, что преподаватель будет лично вовлечён в создание учебных материалов. При этом многие по-прежнему не рассматривают искусственный интеллект как высокотехнологичный инструмент, а воспринимают его как «быстрое и дешёвое» решение, что усиливает ощущение несоответствия между ценой обучения и процессом его организации. Наконец, существенную роль играет юридическая сторона вопроса: содержание договора об обучении и формулировки, касающиеся методов преподавания. Однако главный критерий остаётся прежним — оказался ли студент в худших условиях по сравнению с теми, кто обучался без использования таких инструментов. Ведь в теории возможна и обратная ситуация, когда использование для обучения заданий, созданных при помощи искусственного интеллекта, даёт обучающимся дополнительные преимущества. Варианты развития ИИ как инструмента обучения Кейсы «Яндекс.Практикум», Skillbox и «СберУниверситета» показывают, что российский рынок образования находится в стадии активных экспериментов с искусственным интеллектом. Речь пока идёт не о сформировавшемся стандарте, а скорее о поиске новых форматов и подходов. Тенденция скорее позитивная: участники рынка пробуют разные сценарии и проверяют, какие из них действительно дают образовательный эффект. Важно, чтобы внедрение ИИ было направлено не только на сокращение затрат (например, на преподавательские услуги), но и на повышение качества образовательных продуктов или создание новых конкурентных преимуществ. Если искусственный интеллект используется исключительно как инструмент экономии, это вряд ли приведёт к долгосрочному развитию отрасли. При этом существует риск унификации образовательных продуктов. Если учебные материалы будут создаваться по одной и той же модели, возможна потеря разнообразия и «обеднение» содержания. Однако на данный момент это скорее гипотетическая угроза: нет оснований утверждать, что такой сценарий обязательно реализуется. «Идеальная модель взаимодействия человека и искусственного интеллекта в образовании пока не очевидна. В базовом сценарии хотелось бы, чтобы ИИ взял на себя рутинные задачи — генерацию черновиков, формулировок, вспомогательных примеров, — освобождая время преподавателя для осмысленной работы и творчества. Насколько устойчивой окажется такая модель, покажет практика», — говорит эксперт. Возможны и более радикальные варианты развития. Например, искусственный интеллект может стать стандартным инструментом для подготовки заданий, а ручная работа — редким и нишевым форматом, как пешие путешествия в эпоху массового транспорта. Альтернативный сценарий — это, наоборот, стигматизация машинных заданий. Возможно, в будущем они будут восприниматься как бездушные, шаблонные и неинтересные, а их использование станет нежелательным с профессиональной точки зрения. Не исключён и компромиссный вариант: сосуществование разных подходов с обязательной прозрачностью. Т.е. преподаватель или методист должны будут обязательно указывать, что в учебных материалах использованы задания, созданные с помощью ИИ. Со временем такие дисклеймеры станут привычными, если качество обучения от этого не пострадает. «Сегодня невозможно выбрать или предсказать, какой сценарий будет применён — необходимы долгосрочные научные исследования. Только они смогут показать, влияет ли использование заданий, созданных с помощью ИИ, на качество обучения, уровень подготовки выпускников и их дальнейшую профессиональную траекторию. Подобные эффекты невозможно оценить за год или два — для этого нужны масштабные и длительные наблюдения», — утверждает Юрий Чехович. На сегодняшний день нет убедительных доказательств ни одной из крайних позиций. Ни серьёзного вреда, ни однозначной пользы от использования искусственного интеллекта в создании учебных заданий пока не наблюдается. Поэтому наиболее разумная стратегия — внимательно следить за развитием практик, собирать данные и корректировать подходы по мере появления новых исследований.