По мнению российского эксперта, евробюрократия ограничивает развитие современных технологий
Первый в мире закон, регулирующий применение искусственного интеллекта, согласован Европарламентом и представителями 27 стран Евросоюза. Как приняли его российские разработчики ИИ, выяснил корреспондент «МК».
Четкие правила использования ИИ, которые «обеспечат безопасность и соблюдение основных прав, одновременно стимулируя инновации», были согласованы на переговорах со странами-членами ЕС в декабре 2023 года. В минувшую пятницу закон об ИИ согласовали члены Европарламента.
Рассмотрим все приложения, которые попали под запрет:
1. Системы биометрической идентификации;
2. Нецелевое извлечение изображений лиц из интернета или записей с камер видеонаблюдения для создания баз данных распознавания лиц;
3. Распознавание эмоций на рабочем месте и в школах;
4. Социальный рейтинг;
5. Предикативная полицейская деятельность, то есть, создание профиля потенциального преступника;
6. Искусственный интеллект, который манипулирует поведением человека или использует его уязвимости.
Впрочем, для правоохранительных органов сделаны некоторые исключения:
Например, им разрешат проводить биометрическую идентификацию «в узко определенных ситуациях». Дистанционный сканер сможет быть развернут «в режиме реального времени» только на определенное время и в том географическом охвате, который установит суд. Такое использование может включать, например, целенаправленный поиск пропавшего человека или предотвращение террористической атаки.
Что будет считаться высоким риском при использовании ИИ:
Использование его в критически важных инфраструктурах (таких, как беспилотный транспорт), в образовании и профессиональной подготовке, занятости, в здравоохранении, банковском деле, в управлении границами, в правосудии и в избирательном процессе. Такие системы должны оценивать и снижать риски, вести журналы использования, быть прозрачными и точными, а также обеспечивать человеческий контроль. Граждане будут иметь право подавать жалобы на системы ИИ и получать разъяснения по поводу решений, основанных на системах ИИ высокого риска, которые затрагивают их права.
При создании генеративного ИИ на основе чат-ботов, таких как ChatGPT, их создатели должны будут раскрывать информацию о том, кто был его «учителями», иными словами – на чьих текстах или картинах он обучался. Кроме того, искусственные или обработанные изображения, аудио- или видеоконтент («дипфейки») должны быть четко обозначены как таковые. В данном случае речь идет о специальных метках, «водяных знаках», которые помогут отличить сгенерированную картинку или видео от реального.
«Благодаря парламенту неприемлемые методы искусственного интеллекта будут запрещены в Европе, а права работников и граждан будут защищены», – сказал член Комитета по внутреннему рынку, итальянец Брандо Бенифеи. По его словам, в ближайшее время будет создан AI Office, который поможет компаниям начать соблюдать правила до их вступления в силу с начала 2025 года.
Комментарий главного архитектора систем искусственного интеллекта НИЯУ МИФИ Романа Душкина:
– Евробюрократия в своем стиле – хочет зарегулировать все и вся. Мы видим в этом законе существенные запреты на использование технологий. Конечно, каждое общество ищет баланс между свободой и безопасностью, но если человек будет умирать на улице, системы искусственного интеллекта не смогут распознать, что ему требуется помощь здесь и сейчас. На мой взгляд, это достаточно спорные решения. Еврочиновники пошли по пути давления на разработчиков искусственного интеллекта.
У нас в России два направления такого регулирования – с одной стороны есть мягкое смарт-регулирование в виде кодекса этики в сфере искусственного интеллекта, который подписывается разработчиками систем искусственного интеллекта, и они как бы самостоятельно накладывают на себя некоторые ограничения. С другой стороны у нас есть достаточно серьезное техническое регулирование, государственные и национальные стандарты, которые регулируют применение технологий искусственного интеллекта.
Не секрет, что многие технические системы несут повышенную опасность, в том числе и те, которые управляются искусственным интеллектом. И их как раз нужно сертифицировать, чтобы общество могло им доверять. Эта сертификация должна обеспечивать качество систем. Существующие в России два направления регулирования направлены на решение двух задач: обеспечить доверие общества, государства к ИИ, но не зарегулировать его, как это делают в Европе. Я уверен, что отрасль искусственного интеллекта в Европе будет развиваться с большим скрипом. Надеюсь, нас это не постигнет.