В РАН обсудили развитие и криминализацию искусственного интеллекта

Ученые видят в ИИ плюсы и минусы

До каких глубин нашей психики сможет добраться искусственный интеллект (ИИ), и зачем нам в ближайшем будущем могут понадобится цифровые двойники, обсудили во вторник академики на заседании в Президиуме РАН

В РАН обсудили развитие и криминализацию искусственного интеллекта

Академик Дмитрий Ушаков

Искусственный интеллект может принести огромную помощь человеку, но может обернуться и большой проблемой, в зависимости от того, в чьи руки попадет.

Директор Института психологии РАН, академик Дмитрий Ушаков сообщил собравшимся то, что еще совсем недавно казалось фантастикой: оказывается уже сейчас при помощи искусственного интеллекта (ИИ) можно не только оценить человека как личность, но и спрогнозировать его поведение в той или иной ситуации. Каким образом? Распознав ход его мыслей…

Давайте разберемся, как это делается, по шагам. На самом первом уровне делается оценка свойств человека по трем источникам: по видеокартинке, по акустике его речи, по содержанию речи. При помощи программы, которую психологи разрабатывают совместно с Институтом системного программирования (ИСП РАН), ИИ может сделать полный «портрет», определив интроверт вы или экстраверт, наличие или отсутствие у вас скрытых страхов и так далее.

«Интроверты, согласно выводу, который делает нейросеть, более склонны к использованию в речи местоимений первого лица, – приводит пример Ушаков. – Люди с высоким уровнем совестливости используют ссылки… Мы можем понять, какие люди в соцсетях могут обращаться к темам наркотиков и оружия, – это более невротизированные личности».

Дальше начинают происходить более интересные вещи. Психолог рассказывает, что следующим шагом внедрения ИИ в область поддержки населения станут цифровые двойники людей.

Зная все сильные и слабые стороны индивидуума, ученые могут работать с его цифровой копией, просчитывая, к примеру, какая образовательная траектория окажется для него более эффективна. «К примеру, одному надо прорешать 20 задач, чтобы усвоить математическую тему, другому – 100, – поясняет Ушаков. – С помощью двойника можно генерировать задание, которое будет наиболее развивающим для данного ученика. Но можно, по аналогии просчитывания шахматных ходов, спрогнозировать конкретные действия индивидуума в определенной ситуации».

По его словам, появится возможность анализировать каждое следующее коммуникативное действие человека. В Институте психологии уже разработан так называемый интент-анализ (от англ. intent – “намерение»), который позволяет понять, что за цель стоит за тем, что говорит человек. Например, он может стремиться поделиться информацией, показать себя, а может он стремится рассмешить, польстить, унизить, высмеять собеседника и т.д. «Мы можем автоматически исследовать коммуникацию благодаря интенции и учить нейросеть предсказывать ход каждого партнера в конкретном диалоге», – говорит психолог.

Это, по его словам, позволяет анализировать не только ход общения, но и состояние людей, разбираться в сложных перипетиях их чувств. А это, в свою очередь, позволит оказывать им очень качественную психологическую помощь. К примеру, на уроке такая расшифровывающая настроения и намерения нейросеть подскажет учителю, кто из учеников уже устал и ему требуется отдых, а другому, возможно, наоборот можно дать дополнительное задание, чтобы он не скучал.

«Та же интеллектуальная колонка, которая сейчас общается с людьми на одном эмоциональном уровне, могла бы в будущем подстраиваться под хозяина, – говорит Дмитрий Ушаков. – Мы могли бы проводить автоматический анализ настроений участников деловых переговоров».

В дальнейшем, по его словам, технология могла бы стать незаменимым помощником психолога в разрешении межличностных конфликтов.

«То есть мы бы получили цифрового «ангела», – говорит академик. – Но мы понимаем, что там, где есть ангел, есть, как правило, и падший ангел. Завладевшие технологией злоумышленники могут благодаря все тем же алгоритмам осуществлять давление на людей, манипулировать, вплоть до ведения психологических войн».

Он привел в пример слова американского психолога Фрэнсиса Фукуямы, который говорил о том, что развитие технологий приведет к появлению двух пород людей – одна – с седлами на спинах, другая – со шпорами на ногах, которыми они будут пришпоривать первых…

Академик РАН Арутюн Аветисян, возглавляющий ИСП РАН, подлил масла в огонь, приведя реальные примеры «из жизни» зарубежного ИИ:

«Недавно в Гонконге банкира заставили через видеоконференцсвязь (которую устроили мошенники при помощи искусственного интеллекта) перевести, якобы его руководству в Лондоне, два миллиона долларов. Другой пример: в Калифорнии произошел случай — под машину, которой управлял автопилот, попал человек и автопилот не понимая, что сбил человека, пытался съехать с него (дополнительно проезжая по несчастному). Жертва осталась жива, но возникло много вопросов о целесообразности использования в городах машин без водителей».

Академик также рассказал о последних «достижениях» зарубежных разработчиков компьютерных игр: «Наши визави дошли до того, что создают в них героев, которые через игру выясняют о вас больше, чем вы сами о себе знаете… Потом эти «игровые образы» могут влиять на вас через онлайн-каналы и даже офлайн: к вам может подойти человек, сказать пару фраз (триггеров), и вы вдруг броситесь под машину или например, вместо своего дела помчитесь куда-нибудь».

Академик Михаил Кирпичников поинтересовался, какие есть предложения у разработчиков ИИ на снижение таких рисков.

«Если полностью отказаться от них невозможно (даже если мы это сделаем, нет гарантии, что так же поступят на другом конце света), надо уже сейчас, не затягивая, решать вопрос, как повернуть ИИ в нужное русло», – ответил Дмитрий Ушаков.

По словам Аветисяна, специалисты пока видят только один способ – включение в уголовный кодекс новых составов преступлений, связанных с использованием ИИ, иными словами – криминализацию искусственного интеллекта. Конечно, это может потребовать дополнительных систем контроля. Если контент без водяных знаков (особых сертификационных меток), – то он оказывается вне закона. По словам ученого, депозитарий доверенных решений следует создать и на международном уровне.

Президент РАН Геннадий Красников в связи с этим добавил, что при Президиуме РАН уже создан Совет по кибербезопасности, куда вошли правоохранительные органы.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *