Злоупотребление искусственным интеллектом представляет собой чрезвычайный риск

Эрик Шмидт, бывший генеральный директор Google, предупредил, что неправильное использование искусственного интеллекта (ИИ) представляет собой «чрезвычайный риск» и может привести к катастрофическим последствиям.

В интервью для программы BBC Radio 4 Today Шмидт отметил, что ИИ может быть использован экстремистами и «недружественными государствами», такими как Северная Корея, Иран и Россия, для причинения вреда мирным гражданам.

Он выразил обеспокоенность тем, что быстрые достижения в области ИИ могут быть применены для создания оружия, включая биологические атаки. «Мои главные опасения связаны не с тем, о чем обычно говорят в контексте ИИ, а с экстремальными рисками», — подчеркнул Шмидт.

Проводя мрачную параллель, он упомянул лидера «Аль-Каиды», ответственного за теракты 11 сентября: «Меня всегда беспокоит сценарий, подобный действиям Усамы бен Ладена, когда крайне опасные люди используют современные технологии для нанесения вреда невинным».

Шмидт акцентировал внимание на скорости развития ИИ и его потенциале для использования враждебно настроенными государствами или группами. «Представьте Северную Корею, Иран или Россию, которые могут применить ИИ для достижения своих опасных целей и причинить значительный ущерб», — предупредил он.

Контроль без ограничения инноваций

Шмидт призвал правительства внимательно следить за частными технологическими компаниями, занимающимися исследованиями в области ИИ. Он отметил, что, хотя руководители таких компаний осознают влияние своих разработок на общество, их решения могут основываться на иных ценностях, чем у государственных чиновников.

«Мой опыт общения с лидерами технологической индустрии показывает, что они понимают последствия своих действий, но их решения могут отличаться от тех, которые приняли бы власти», — сказал Шмидт.

Он также поддержал экспортные ограничения, введенные при бывшем президенте США Джо Байдене, которые направлены на сдерживание продаж передовых микрочипов. Эти меры призваны замедлить развитие ИИ в странах, которые рассматриваются как геополитические конкуренты.

Разногласия на международной арене

Шмидт выступил с этими заявлениями в Париже, где принимал участие в Саммите по действиям в области ИИ. На мероприятии, которое длилось два дня, присутствовали представители 57 стран. Участники объявили о соглашении по «инклюзивному» развитию ИИ, которое подписали такие крупные игроки, как Китай, Индия, Евросоюз и Африканский союз.

Однако Великобритания и США отказались подписать документ. Британское правительство заявило, что соглашению не хватает «практической ясности» и оно не затрагивает ключевые вопросы, связанные с национальной безопасностью.

Шмидт предостерег от чрезмерного регулирования, которое может замедлить прогресс в этой перспективной сфере. Его поддержал вице-президент США Джей Ди Вэнс, заявивший, что жесткие меры «уничтожат перспективную отрасль на самом старте».

Такая осторожность в отношении международных соглашений отражает различия в подходах к управлению ИИ. Евросоюз выступает за более строгие рамки, делая акцент на защите потребителей, тогда как США и Великобритания предпочитают гибкие стратегии, стимулирующие инновации.

Шмидт также указал на последствия жесткого регулирования в Европе, предсказав, что регион упустит возможность стать лидером в области ИИ. «Революция ИИ, которая, на мой взгляд, является важнейшей со времен изобретения электричества, не будет происходить в Европе», — заявил он.

Безопасность на национальном и глобальном уровнях

Заявления Шмидта прозвучали на фоне растущего внимания к двойному назначению ИИ — его способности использоваться как во благо, так и во вред.

От глубоких подделок до автономного оружия — ИИ несет множество рисков, если не будут приняты меры для предотвращения его неправильного использования. Лидеры и эксперты, включая Шмидта, призывают к сбалансированному подходу, который способствует инновациям, но при этом учитывает потенциальные угрозы.

Хотя международное сотрудничество остается сложным и спорным вопросом, общий консенсус очевиден: без соответствующих мер развитие ИИ может привести к непредвиденным и, возможно, катастрофическим последствиям.

Основные риски, связанные с ИИ

  1. Использование враждебными государствами — создание оружия, включая биологическое.
  2. Экстремистские группы — применение технологий для террористических атак.
  3. Глубокие подделки — манипуляции с информацией и дезинформация.
  4. Автономное оружие — отсутствие контроля над системами, принимающими решения.

Подходы к регулированию ИИ

Страна/РегионОсновной подход
ЕвросоюзСтрогое регулирование, защита потребителей
США и ВеликобританияГибкие стратегии, стимулирование инноваций
Китай, ИндияПоддержка «инклюзивного» развития ИИ

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

пять − 4 =

Прокрутить вверх