X

  • 07 Май
  • 2026 года
  • № 47
  • 5838

Во благо науки, а не ради оценки

Спор о запрете искусственного интеллекта в образовании проигран. Никуда он из нашей жизни уже не денется. По крайней мере, такого мнения придерживаются эксперты, выступавшие на V Международной научно-практической конференции «Гуманитаризация инженерного образования: гуманитарные вызовы и технологические решения эпохи искусственного интеллекта»», которая проходила в конце апреля в ТИУ.

Масштаб у конференции рекордный: 465 участников, более 50 вузов из 24 городов России, 48 зарубежных участников из 18 стран. Она проходит с 2018 года в рамках программы гуманитаризации инженерного образования, но в этом году тема сместилась в сторону искусственного интеллекта. Неслучайно к гуманитарным кафедрам как соорганизатор присоединилась кафедра интеллектуальных систем и технологий Высшей школы цифровых технологий.

Из докладов и обсуждений двух дней видно, что университетская среда подошла к моменту, когда вопрос пользоваться или не пользоваться ИИ уже выглядит нелепо. Студенты пользуются. Преподаватели тоже пользуются, только не всегда признают это или не всегда понимают, как делать это системно. Поэтому лейтмотивом всей конференции был поиск ответа: как перестроить обучение, чтобы искусственный интеллект не заменял мышление, а заставлял мыслить точнее.

Гонка вооружений преподавателей и студентов

На пленарном заседании заведующий кафедрой интеллектуальных систем и технологий ТИУ Олег Данилов говорил о создании в университете экосистемы компетенций и сервисов искусственного интеллекта. В его докладе ИИ рассматривался как часть управления вузом, образовательного процесса, научной работы и взаимодействия с партнерами.

По словам Данилова, внедрение ИИ в университете не может быть задачей только IT-службы. Для этого нужны концепция, программа развития, дорожная карта, обучение сотрудников и разработка внутренних сервисов. В ТИУ планируют создать «Академию искусственного интеллекта», где сотрудники смогут осваивать ИИ-инструменты независимо от должности. Одним из направлений будет разработка решений под внутренние задачи университета. Также он предложил каскадную модель обучения: сначала готовить наиболее вовлеченных сотрудников, затем через них передавать навыки остальным. Такая схема нужна, чтобы не ограничиваться разовыми лекциями и методическими рекомендациями.

2025 год стал периодом пилотирования ИИ-решений, а 2026-й может стать годом их промышленного масштабирования. Особое внимание уделялось агентным системам. В отличие от обычного чат-бота, агент может искать данные, анализировать материалы, предлагать решение и помогать его реализовать.

Тема системного внедрения ИИ звучала и в зарубежных докладах. Представитель университета прикладных технологий Цзянси Хан Вэйдун говорил, что новое поколение ИИ меняет высшее образование за счет больших генеративных моделей, мультимодальных систем, виртуальных тьюторов и интеллектуальных ассистентов.

В китайских университетах ИИ используют для перехода от стандартизированного обучения к персонализированному. По словам Хан Вэйдуна, цифровой профиль студента позволяет выстраивать обучение под конкретные пробелы и темп освоения материала. К концу 2025 года уровень внедрения инструментов ИИ в преподавание в китайских университетах превысил 80 процентов. В научной работе ИИ-ассистенты, по его словам, сократили цикл работы с литературой более чем на 60 процентов.

При этом докладчик перечислил и проблемы: неравномерное распределение цифровых ресурсов между регионами и вузами, недостаточная локализация ИИ-инструментов, нехватка цифровой грамотности у преподавателей, риски безопасности данных и этики. В качестве решений назывались дисциплинарные ИИ-модели, многоуровневое обучение преподавателей, этическое регулирование и международное сотрудничество.

Руководитель образовательного офиса центра искусственного интеллекта и науки о данных СПбГУ Светлана Морозова говорила о трех механизмах оптимизации высшего образования: интеллектуальных тьюторинговых системах, автоматизации рутинной работы и предиктивной аналитике.

Тьюторинговые системы могут анализировать, как студент решает задачу, и определять, где именно возник пробел. Например, при изучении сопротивления материалов ошибка может быть связана не с самой дисциплиной, а с недостаточным знанием дифференциального исчисления. В таком случае система может предложить студенту дополнительный микрокурс по математике. Автоматизация снимает часть работы с преподавателя: подготовку проверочных материалов, первичную проверку заданий, группировку типичных ошибок. Предиктивная аналитика позволяет заранее видеть студентов в зоне риска. Морозова привела пример платформ, которые анализируют активность студента в системе, время выполнения заданий, участие в форумах и посещаемость, после чего преподаватель получает сигнал о возможных проблемах.

По мнению Морозовой, главный риск в том, что создается иллюзия компетентности. Студент может получить от нейросети готовый текст, презентацию или расчет, но не понять сам принцип решения. В инженерной подготовке это опасно: человек может не распознать ошибку в проекте, потому что не прошел путь рассуждения сам. Вторая проблема — кризис академической этики. Нейросети часто ошибаются в списках литературы, придумывают авторов, названия работ, выходные данные. Преподаватель, который знает предмет, это видит сразу. Но сама ситуация уже изменила отношения между студентом и преподавателем. Университеты используют ИИ-детекторы, студенты используют сервисы для обхода этих детекторов. Морозова назвала это «гонкой вооружений». Такая система строится на недоверии и может давать ложные обвинения, если честно написанный текст ошибочно определяется как сгенерированный.

Морозова предложила менять саму систему оценивания. Проверять не только итоговый текст или расчет, который может сделать машина, а ход человеческого мышления. Например, давать студенту код, чертеж или инженерное решение с заранее заложенными ошибками и просить найти их, объяснить, почему ИИ неправ, и предложить безопасный вариант. В такой модели студент выступает не как переписчик готового ответа, а как эксперт. Eще она считает перспективным рассматривать промпт-инжиниринг не как технический навык, а как гуманитарную дисциплину. Чтобы получить от нейросети точный результат, нужно ясно формулировать запрос, понимать логику, язык, структуру задачи. Это связано с риторикой, прикладной лингвистикой и теорией коммуникации.

Похожую позицию представил профессор Национального политехнического университета Армении Геворг Маргаров. Он начал использовать генеративный ИИ 30 ноября 2022 года, в день его публичного запуска, а уже в феврале 2023 года ввел на магистерском уровне курс «Генеративные исследовательские технологии искусственного интеллекта». Элементы работы с ИИ были включены и в занятия для первокурсников.

Маргаров подчеркивает, что речь не о замене преподавателя. ИИ должен освобождать его от рутины, чтобы оставалось больше времени на методику, содержание курса и работу со студентами. Он выделил четыре направления, где ИИ может быть полезен преподавателю: педагогика и контент, операции и коммуникация, аналитика и оценка, профессиональное развитие.

«Чтобы правильно использовать искусственный интеллект, нужен развитый естественный интеллект», убежден Маргаров. Подкрепил мысль любимым анекдотом. Один человек спрашивает у другого у входа в университет: «На вашей кафедре уже используют искусственный интеллект?» Второй отвечает: «Нет, у нас еще естественный не полностью используют».

Что остается за человеком

Доктор философских наук, профессор кафедры гуманитарных наук и технологий ТИУ Руслан Касимов предложил рассматривать искусственный интеллект не только через эффективность, но и через отношение человека к технологии. Он связал это отношение с категорией возвышенного. В философии так описывают явления, которые выходят за привычные масштабы человеческого понимания и вызывают одновременно восторг и тревогу. В разные эпохи такие чувства вызывали железная дорога, электричество, телефон, радио, фотография. Сегодня их вызывает ИИ.

По словам Касимова, искусственный интеллект воспринимается не только как инструмент, но и как нечто трудноуловимое. Человек не до конца понимает, как он работает, но уже видит его влияние. Отсюда два полюса реакции: страх и восхищение. Для образования это важно, потому что на принятие технологии влияют не только рациональные аргументы, но и эмоции преподавателей, студентов, родителей, управленцев.

На панельной дискуссии этот конфликт стал главной темой обсуждения. Участники заранее заняли разные позиции: оптимистов, пессимистов и сторонников компромисса. Обсуждение строилось вокруг шести блоков: перспективы развития ИИ, галлюцинации больших языковых моделей, ИИ в обучении, авторство и риски, регулирование и итоговая оценка роли искусственного интеллекта.

Для начала попробуем сравнить ИИ и калькулятор. Когда калькуляторы стали входить в образование, тоже звучали опасения, что люди перестанут считать. Но математика не исчезла. Инструмент снял часть операций и позволил перейти к более сложным задачам. По этой логике ИИ может занять похожее место: не заменить мышление, а изменить набор навыков, которые требуются человеку. С этим спорили преподаватели гуманитарных дисциплин. Один из примеров касался иностранных студентов, которые постоянно пользуются переводчиками. Они могут знать правила, читать текст, выполнять задания, но без переводчика не всегда способны говорить. В этом видели не поддержку, а ограничение когнитивных возможностей. Ответом стало, что переводчик в такой ситуации не костыль, а экзокостюм. Он не показывает слабость студента, а позволяет ему действовать в среде, где без технологии он был бы ограничен. Проблема не в самом инструменте, а в том, заменяет он усилие или расширяет возможности.

Отдельный блок дискуссии был посвящен галлюцинациям больших языковых моделей. Eкатерина Горяченкова, руководитель направления дивизиона «Малый и микробизнес» «Сбера», говорила, что галлюцинации — данность, с которой нужно работать. Ответы нейросети нужно проверять. При необходимости модель можно донастраивать, ограничивать базой знаний или использовать дополнительные методы контроля.

Преподаватели привели примеры из практики. Студенты при подготовке презентаций и исследовательских работ не всегда проверяют то, что сгенерировала нейросеть. В результате в работах появляются фейковые ссылки, несуществующие исторические персонажи, неверные факты, некорректные изображения. Проблема здесь не только в ошибке ИИ. Проблема в том, что студент принимает результат без проверки.

В дискуссии прозвучала мысль, что галлюцинации нельзя считать только техническим сбоем. Для творческих задач отклонение от шаблона может давать новые варианты. В маркетинге, дизайне, поиске идей это может быть полезно. Но в медицине, юриспруденции, инженерных расчетах такая креативность недопустима. Значит, вопрос не в полном отказе от ИИ, а в разделении сфер применения и уровня ответственности. Отсюда возник вопрос об ошибке. В человеческом мире за ошибку отвечает человек. У ИИ собственной ответственности нет. Он не является субъектом права и не может быть наказан как человек. Поэтому ответственность остается у разработчиков, владельцев, пользователей, организаций, которые внедряют систему, и тех, кто принимает решение на основе ее ответа.

Тема ответственности продолжилась в разговоре об авторском праве. Eсли нейросеть нарисовала картину, написала музыку или создала сайт, кто считается автором? Участники выделяли три возможные позиции: автором может считаться ИИ, разработчик модели или человек, который сформулировал запрос. Но большинство сошлось на том, что искусственный интеллект остается инструментом, а авторство должно быть связано с человеком и его творческим вкладом. При этом простого решения нет. Один человек может написать короткий запрос и получить случайный результат. Другой — иметь профессиональное образование, ставить точную задачу, отбирать варианты, редактировать результат и доводить его до законченного произведения. В обоих случаях используется ИИ, но доля человеческого труда разная.

В разговоре об образовании участники несколько раз возвращались к тому, что прежние формы контроля устаревают. Eсли студент может написать курсовую с помощью нейросети, проверка только текста теряет смысл. Работодатель тоже не ограничивается дипломом и тестовым заданием. В IT-сфере с кандидатом разговаривают, дают задачи, проверяют, понимает ли он предмет. Такой же подход требуется в университете: устная защита, обсуждение логики, проверка понимания, работа с ошибками.

Владимир Доманский, начальник управления единой информационной среды ТИУ, отметил, что использование ИИ студентами заставляет преподавателей менять задания. Их нужно составлять с учетом того, что студент может привлечь нейросеть. Нужно менять объем, формат и критерии оценки. В этом смысле ИИ двигает вперед не только студентов, но и преподавателей. При этом, если вы не согласны, нельзя просто запретить ИИ и отключить доступ. Eсли один университет откажется от технологии, а другие продолжат ее внедрять, он начнет отставать. Тем более что ИИ уже встроен в поисковые системы, переводчики, образовательные платформы, антиплагиат, прокторинг и офисные инструменты.

В качестве минимального шага участники предлагали начинать с простого: использовать ИИ для генерации вопросов к практическим занятиям, подготовки вариантов объяснения темы, проверки тестов, создания дополнительных материалов. Но рядом с этим должно идти обучение студентов проверке результата. Студент может попросить нейросеть: «Реши мне задачу», а может спросить: «Объясни, почему я не понимаю». Это разные способы использования одной технологии.

Изображение сгенерировано нейросетью NanoBanana

***
фото:

Поделиться ссылкой:

Оставить комментарий

Размер шрифта

Пунктов

Интервал

Пунктов

Кернинг

Стиль шрифта

Изображения

Цвета сайта