«Запрещать прогресс бессмысленно и неэффективно»: нейросети стали учиться за студентов — как с этим борются ведущие вузы мира
«Запрещать прогресс бессмысленно и неэффективно»: нейросети стали учиться за студентов — как с этим борются ведущие вузы мира
Нейросети не остановить — они повсюду: делают за студентов презентации, пишут домашки, а иногда и курсовые. Мы попытались разобраться, считают ли это проблемой в зарубежных и российских вузах, и выяснили, чего ждать от экспансии ИИ в образование.
Как нейросети стали авторами курсовых
В России об использовании нейросетей в студенческой среде впервые заговорили в 2023 году. Тогда студент РГГУ Александр Жадан защитил диплом, якобы написанный ChatGPT, получил за него «удовлетворительно» и благополучно выпустился из вуза. В ответ на инцидент в РГГУ предложили «ограничить доступ к ChatGPT в образовательных организациях».
За два года, прошедших с того инцидента, использование нейросетей в учебных целях перестало быть инфоповодом. Они уже часть студенческой рутины. В Сети есть множество инструкций, подробно объясняющих, как писать большие учебные работы с помощью ИИ.
Теперь, как сообщают «Ведомости», нейросети в работе над курсовыми использует 43% российских студентов. Под использованием, правда, подразумевается не только полное делегирование искусственному интеллекту всех задач, но и обращение к нему для составления плана и поиска источников.
Противников нейросетей среди студентов мало. По данным того же опроса, никогда нейросетями не пользовались лишь 4,8% студентов. С теми, кто не делал этого из принципа, «Мел» уже разговаривал. Они рассказали, что не доверяют ИИ из-за того, что он отучает людей мыслить самостоятельно и часто галлюцинирует, то есть выдает за истину выдуманные факты.
Что с этим делают за рубежом
За рубежом ситуация еще серьезнее. Например, в Великобритании, пишет The Guardian, в учебных целях ИИ использует около 92% студентов. Притом что еще год назад к нейросетям обращалось лишь 66%. Такие же цифры приводятся в результатах недавних исследований в США, Франции и Германии.
В Великобритании использование ИИ часто оказывается недобросовестным. Та же The Guardian насчитала свыше 7000 доказанных случаев подмены студенческих работ результатами нейросетевых генераций. Опрошенные газетой эксперты уточняют, что выявленные случаи — наверняка лишь «вершина айсберга».
Понимают это и в вузах. Там с недобросовестным использованием ИИ борются по-разному.
1. Возвращение к письменным работам и устным тестам
Раньше от них отказывались в пользу домашних эссе и проектных работ, из заботы о ментальном здоровье студентов. Сейчас возвращают — потому что их труднее списать. К тому же за списывание в аудитории есть давно определенные наказания. В то время как санкции за недобросовестное использование ИИ (сам факт которого трудно доказуем) много где до сих пор не определены.
Сейчас так возвращаются к истокам, например, в Сингапуре. Как пишет местная The Straits Times, классические проверочные работы и устные тестирования возвращают студентам мотивацию учиться самостоятельно.
В США студенты тоже снова достают двойные листочки. Там на этом фоне подскочили продажи обычных тетрадей, пишет «Коммерсантъ» со ссылкой на The Wall Street Journal.
2. Переход на «требовательные» ИИ-детекторы
По мере того как совершенствуются нейросети, совершенствуются и алгоритмы для поиска их следов. Сейчас ИИ-детекторы есть и в российских антиплагиатах, подписку на которые имеют многие вузы, и в зарубежных ПО c такими же функциями. Одно из таких — антиплагиат Turnitin.
Отказаться от его проверок студенты недавно призвали руководство Университета в Буффало. Как пишет The New York Times, в петиции с более чем 1000 подписантов они заявили, что Turnitin слишком часто обвиняет в использовании нейросетей добросовестных студентов. Их выпускные работы не доходят до защиты из-за долгих разбирательств в том, действительно ли работа писалась с ИИ, или антиплагиат напал на ложный след.
Во избежание таких скандалов несколько американских вузов еще два года назад заявили об отказе от программного обеспечения, ищущего следы ИИ. Об этом подробно писал Bloomberg.
3. Ультиматумы
К ним прибегает, например, Йельский университет. Там студентов курса «Структура данных и методы программирования», которых поймали на использовании запрещенных в рамках модуля нейросетей, поставили перед интересным выбором. Либо признаться в содеянном и потерять только 50 баллов от оценки за каждое недобросовестно выполненное задание, либо получить за них 0 и вдобавок приглашение на заседание Исполнительного комитета (что-то вроде нашей комиссии по студенческим делам).
В случае если студенты продолжат так же активно использовать нейросети, вуз грозится снизить вес оценок за цифровые работы и сделать «весомее» оценки за письменные задания. Расчет на то, что студенты предпочтут сохранить вес заданий, которые и без нейросетей выполнить проще, чем те, что пишутся в аудитории и требуют серьезной подготовки. Посмотрим, что из этого выйдет.
Впрочем, практика показывает, что в вопросах ИИ нужно следить не только за студентами. В последнее время за рубежом возникают вопросы и к преподавателям, которые балуются СhatGPT. В Северо-Восточном университете из-за этого недавно разгорелся скандал. Студенты заметили, что презентации одного из преподавателей выглядят как сделанные нейросетью — повторяют знакомые шаблоны, содержат много опечаток и фото людей с лишними пальцами. От вуза требуют вернуть часть денег, которые студенты платили за качественное, а не нейросетевое образование.
Что с этим делают в России
В России пока всё тихо, и сухая (пусть и мрачная) статистика не выливается в скандалы. Видимо, во избежание их российские вузы уже:
1. Отказываются от типовых заданий
В Университете ИТМО предлагают делать задания с подвохом. Но не для студентов, а для LLM (Large Language Model) — нейросетей, которые строят ответ на основе огромных текстовых массивов, находящихся в открытом доступе.
Наибольшие опасения вызывает мысль, что студент может с помощью ИИ сгенерировать правдоподобные результаты своей работы. Действительно, для решения многих типовых задач это работает. Но что, если задачи станут чуть менее типовыми? Наши коллеги с факультета информационных технологий и программирования, например, разработали пул заданий по программированию, на которых нейросети начинают галлюцинировать, отчего сгенерированный ими код легко распознается.
Семён Краев, декан факультета технологий искусственного интеллекта Университета ИТМО
2. Готовят нормативную базу по ИИ
В России уже есть несколько внутренних вузовских документов, в которых прописано, что студентам и преподавателям можно, а что нельзя делать с ИИ. Носят они, как правило, рекомендательный характер и редко описывают, какие за недобросовестное использование нейросетей предусмотрены санкции.
Подобные регламенты приняты, например, НИУ ВШЭ, СПбГУ, МГПУ. Ввести подобные правила уже с сентября готовы и в НИТУ МИСИС.
В нашем Институте компьютерных наук готовятся принять свой регламент использования генеративного ИИ (GenAI) в учебных и научных работах. По нему студент сможет обращаться к нейросетям, чтобы искать и анализировать информацию, генерировать идеи, структурировать и редактировать текст. Но указывать при этом в работе, где, в каких целях и каким образом от использовал GenAI. Преподаватели вправе требовать подобных пояснений.
Под однозначным запретом будет копирование сгенерированных текстов без переработки и критического анализа. Не получится использовать GenAI и в заданиях, требующих самостоятельного исследования или творческого подхода.
Константин Бакулев, заместитель заведующего кафедрой инженерной кибернетики НИТУ МИСИС
3. Пересматривают подход к текстам, которые пишут студенты
В Университете ИТМО выпускнику ничего не грозит, если антиплагиат обнаружит в его ВКР определенный процент сгенерированного текста. При условии, что нейросеть создала не результаты исследования и ценную фактуру, а только сопроводительный текст.
Зачастую студент пытается с помощью ИИ решить всего лишь проблему связности изложения — не каждому дано легко писать тексты. Мы на факультете технологий ИИ никакого криминала здесь не видим: если основной контент работы сделан студентом самостоятельно, то почему бы не сделать хороший читабельный текст с помощью ИИ.
Семён Краев, декан факультета технологий искусственного интеллекта Университета ИТМО
С тем, что студенты в большинстве своем бессвязно пишут и в этом нет ничего плохого, согласны и в Школе дизайна НИУ ВШЭ. В этой связи нужно не отказываться от заданий, связанных с созданием текста, а проверять их по признакам, на которые ИИ не может повлиять.
Проверка текста, его объема и наличия в нем фактической информации как основная форма оценивания больше не эффективна. При проверке текстов нужно смещать фокус — на новизну темы, концептуальное содержание текста, например. Кто-то скажет, что это субъективные параметры. Но они неплохо формализуются. Сделать вывод о новизне можно по числу аналогичных работ в открытом доступе. О концептуальном содержании — по интересу академической аудитории к работе, ее выводам и идеям.
Вадим Булгаков, руководитель Лаборатории искусственного интеллекта в Школе дизайна НИУ ВШЭ
Как нейросети изменят высшее образование
1. Распознавать следы ИИ в студенческих работах будет всё труднее
- «Определить результат работы нейросети может другая нейросеть, причем только большей вычислительной мощности. Учитывая огромные затраты на создание и обучение самих лингвистических моделей, строить такие дискриминаторы будет на порядок сложнее и дороже.
Другими словами, построить генератор всегда легче и дешевле, чем дискриминатор
А это значит, что в долгосрочной перспективе генераторы всегда будут на шаг впереди. А их дискриминаторы, несмотря на необходимость привлечения огромных ресурсов на их создание, будут неэффективны.
Есть другой путь: анализировать более простые статистические характеристики нейротекста — частоту слов и словосочетаний, типичные речевые обороты, обезличенность, другие, менее очевидные паттерны. Именно так и работают существующие системы проверки. Они полагаются на известные отличия текстов, написанных нейросетью, от текстов, написанных человеком.
Но здесь проблема отставания дискриминатора от генератора еще более острая. Нейросеть сможет обмануть антиплагиат, если разработать для нее модель, нарушающую паттерны, на которые реагирует дискриминатор. Не забудем и про промпт-инжиниринг, который позволяет просить ИИ писать в самых разных стилях, подражать разным авторам», — объясняет Галина Шевцова, директор Института информационных наук и технологий безопасности РГГУ.
2. Вузы будут готовить кадры, умеющие и привыкшие пользоваться ИИ
- «За рамками вузов есть еще жизнь. Студенты — это будущие участники трудового рынка, и обучать их полезнее именно с учетом его реалий. Мы понимаем, что через пару лет очень распространенным требованием работодателей к сотрудникам станет умение пользоваться генеративным ИИ. И поэтому, например, понемногу внедряем в программу экспериментальные блоки, в которых студенты учатся с ним работать», — говорит Вадим Булгаков, руководитель Лаборатории искусственного интеллекта в Школе дизайна НИУ ВШЭ.
3. Нейросети — не первое новшество, которое воспринимают в штыки
- «Генеративный искусственный интеллект — очередной инструмент для автоматизации трудоемких и длительных процессов. Таким в свое время стала, например, программа для автоматизированного проектирования, пришедшая на смену кульманам для черчения. Очевидно, что отменять и запрещать прогресс бессмысленно и неэффективно, но выработать этичное отношение — необходимо», — комментирует Константин Бакулев, заместитель заведующего кафедрой инженерной кибернетики НИТУ МИСИС.
- «Дискуссии о допустимости использования ИИ в студенческих работах напоминают забытые уже битвы рукописного текста против машинного, машинописного текста против компьютерного, ручных чертежей против AutoCAD, ручного счета против использования калькулятора. Мы считаем, что ИИ стал в наши дни не просто полезным, но и жизненно необходимым инструментом», — подводит итог Семён Краев, декан факультета технологий искусственного интеллекта Университета ИТМО.
Иллюстрации: © GoodStudio / Shutterstock / Fotodom