X

  • 27 Апрель
  • 2024 года
  • № 46
  • 5545

Пока еще не всё можно автоматизировать

Практически сразу после стрельбы в Перми появилось сообщение о проекте создания искусственного интеллекта, который по школьным сочинениям сможет выявлять потенциально опасных подростков.

Изначально это казалось еще одной отчаянной, но нереализуемой попыткой найти хоть какой-то способ оградить от подобных происшествий наших детей. Уж какие только варианты не рассматривались: от вооруженных охранников из Росгвардии в каждой школе до полного запрета песен Моргенштерна. Но в отличие от остальных идей, предложение с искусственным интеллектом получило реальную поддержку.

На создание программного продукта выделят 1,7 миллиарда рублей, это следует из пояснительной записки к проекту федерального бюджета на 2022 год и плановый период 2023-2024 годов.

Возникает сразу множество вопросов. Например, юридических. По сегодняшнему законодательству подобный анализ сочинения можно провести только с согласия родителей, и нужен будет новый закон, позволяющий проводить такой анализ автоматически. Но главный вопрос: насколько вообще реально с помощью технологий вычислить подростка, готового пойти на массовое убийство? Ведь школьников миллионы. А подобных случаев, на наше счастье, единицы. Найти единицы среди миллионов задача со всех сторон непростая.

Поэтому я решила разобраться, что говорят эксперты о современном искусственном интеллекте и его возможностях.

При чем тут EГЭ?

Школьные сочинения и искусственный интеллект не первый раз вместе появляются в новостной повестке. В марте сообщали, что разработчики робота для проверки сочинений на русском и английском языках получат по сто миллионов рублей. В марте такой робот мог найти 85 процентов ошибок в сочинениях на английском языке и почти 58 процентов на русском.

Но анализ сочинения сложен даже для человека. Дело ведь не только в том, чтобы найти орфографические ошибки, но и определить смысловые. Даже эксперты EГЭ высокой квалификации зачастую не могут договориться, является ли какое-то утверждение ошибочным или нет. Несмотря на все критерии и методики, задача все еще очень субъективная. Экзаменационные сочинения проверяют реальные преподаватели, причем минимум вдвоем, а в случае разногласий сочинение проверяют еще один раз.

По мнению экспертов, искусственный интеллект может научиться лучше и эффективнее определять именно орфографические ошибки, допущенные в письменном тексте, тем самым облегчая задачу педагога. Но роль человека в анализе смысловой нагрузки все еще главная.

Учебники для ИИ

Другая проблема искусственного интеллекта в том, что он не способен видеть взаимосвязи. Например, у нас есть ИИ, который научился видеть на картинках кошек. Казалось бы, это база знаний, которая должна помочь ему определять других животных. Но ничего подобного. Всякий раз ИИ заново нужно обучать для конкретной задачи. А для этого должна быть четкая и понятная линейка критериев, по которым обучается ИИ. То есть чтобы искусственный интеллект научился видеть кошек, ему нужно показать миллионы кошек. А что делать, если ИИ необходимо вычислить агрессивных подростков? Четкого ответа у экспертов пока нет.

Психология и роботы

Тем не менее есть несколько успешных проектов, где роботы помогают психологам. Так есть ИИ, который анализирует слова, но главное, интонации человека, определяя сниженное настроение или депрессивное состояние. Такой робот может помочь вычислить психическое расстройство на раннем этапе. Также роботы помогают в анализе психологических тестов. Благодаря современным технологиям результаты не нужно обрабатывать вручную. Что, конечно, ускоряет диагностику.

— Чтобы выявить потенциального преступника, одного только письма недостаточно. Безусловно, некоторые склонности можно определить по почерку, но будет неплохо, если в сочинениях разрешат рисовать, — считает Ирина Коржаева, клинический психолог.

По мнению психолога, для чистоты анализа детям понадобится выдавать одинаковые ручки и бумагу, чтобы можно было объективно анализировать почерк. Eсли же не обеспечить все это, то эксперимент может вылиться в пустую трату бюджетных денег.

Никакой личной жизни

Что ясно точно — эксперимент выльется в очередной массовый сбор данных. А сохранение персональных данных довольно болезненная тема.

Недавно президент группы Info-Watch Наталья Касперская посоветовала россиянам отказаться от использования биометрических данных, об этом сообщила «Лента.ру». По мнению Касперской, эти данные очень легко украсть. Например, нас постоянно без нашего разрешения снимают камеры. Злоумышленникам ничего не мешает украсть наше электронное лицо и воспользоваться им для совершения сделок, воровства средств со счета и тому подобного. Наши голоса тоже легко записать. Поэтому прежде, чем соглашаться на использование биометрических данных, по мнению Касперской, нужно потребовать внятный ответ, как они будут защищены.

По интересующему нас проекту искусственного интеллекта предлагают заняться деятельностью, которая по всякой этической норме должна быть конфиденциальной. По сути это психологический анализ. И тут вопрос безопасности данных — немаловажный фактор.

…На данный момент идея создать искусственный интеллект, который сможет выявлять потенциальных убийц, выглядит куда более утопической, чем запрет Морген-штерна. Более того, остаются этические вопросы. Что если искусственный интеллект назовет кого-то потенциально опасным? Не станет ли автоматизация процесса шагом к еще большей изоляции трудных подростков? И еще один немаловажный вопрос: если 1,7 миллиарда рублей из бюджета будет потрачено на что-то, что в итоге не окажется эффективным, понесет ли кто-то ответственность?

Поделиться ссылкой:

Оставить комментарий

Размер шрифта

Пунктов

Интервал

Пунктов

Кернинг

Стиль шрифта

Изображения

Цвета сайта