Эрик Шмидт, бывший генеральный директор Google, предупредил, что неправильное использование искусственного интеллекта (ИИ) представляет собой «чрезвычайный риск» и может привести к катастрофическим последствиям.
В интервью для программы BBC Radio 4 Today Шмидт отметил, что ИИ может быть использован экстремистами и «недружественными государствами», такими как Северная Корея, Иран и Россия, для причинения вреда мирным гражданам.
Он выразил обеспокоенность тем, что быстрые достижения в области ИИ могут быть применены для создания оружия, включая биологические атаки. «Мои главные опасения связаны не с тем, о чем обычно говорят в контексте ИИ, а с экстремальными рисками», — подчеркнул Шмидт.
Проводя мрачную параллель, он упомянул лидера «Аль-Каиды», ответственного за теракты 11 сентября: «Меня всегда беспокоит сценарий, подобный действиям Усамы бен Ладена, когда крайне опасные люди используют современные технологии для нанесения вреда невинным».
Шмидт акцентировал внимание на скорости развития ИИ и его потенциале для использования враждебно настроенными государствами или группами. «Представьте Северную Корею, Иран или Россию, которые могут применить ИИ для достижения своих опасных целей и причинить значительный ущерб», — предупредил он.
Оглавление
Контроль без ограничения инноваций
Шмидт призвал правительства внимательно следить за частными технологическими компаниями, занимающимися исследованиями в области ИИ. Он отметил, что, хотя руководители таких компаний осознают влияние своих разработок на общество, их решения могут основываться на иных ценностях, чем у государственных чиновников.
«Мой опыт общения с лидерами технологической индустрии показывает, что они понимают последствия своих действий, но их решения могут отличаться от тех, которые приняли бы власти», — сказал Шмидт.
Он также поддержал экспортные ограничения, введенные при бывшем президенте США Джо Байдене, которые направлены на сдерживание продаж передовых микрочипов. Эти меры призваны замедлить развитие ИИ в странах, которые рассматриваются как геополитические конкуренты.
Разногласия на международной арене
Шмидт выступил с этими заявлениями в Париже, где принимал участие в Саммите по действиям в области ИИ. На мероприятии, которое длилось два дня, присутствовали представители 57 стран. Участники объявили о соглашении по «инклюзивному» развитию ИИ, которое подписали такие крупные игроки, как Китай, Индия, Евросоюз и Африканский союз.
Проверь свои знания в наших бесплатных тестах по ИИ! Пройди тест и узнай, насколько хорошо ты разбираешься в технологиях искусственного интеллекта!
Однако Великобритания и США отказались подписать документ. Британское правительство заявило, что соглашению не хватает «практической ясности» и оно не затрагивает ключевые вопросы, связанные с национальной безопасностью.
Шмидт предостерег от чрезмерного регулирования, которое может замедлить прогресс в этой перспективной сфере. Его поддержал вице-президент США Джей Ди Вэнс, заявивший, что жесткие меры «уничтожат перспективную отрасль на самом старте».
Такая осторожность в отношении международных соглашений отражает различия в подходах к управлению ИИ. Евросоюз выступает за более строгие рамки, делая акцент на защите потребителей, тогда как США и Великобритания предпочитают гибкие стратегии, стимулирующие инновации.
Шмидт также указал на последствия жесткого регулирования в Европе, предсказав, что регион упустит возможность стать лидером в области ИИ. «Революция ИИ, которая, на мой взгляд, является важнейшей со времен изобретения электричества, не будет происходить в Европе», — заявил он.
Безопасность на национальном и глобальном уровнях
Заявления Шмидта прозвучали на фоне растущего внимания к двойному назначению ИИ — его способности использоваться как во благо, так и во вред.
От глубоких подделок до автономного оружия — ИИ несет множество рисков, если не будут приняты меры для предотвращения его неправильного использования. Лидеры и эксперты, включая Шмидта, призывают к сбалансированному подходу, который способствует инновациям, но при этом учитывает потенциальные угрозы.
Хотя международное сотрудничество остается сложным и спорным вопросом, общий консенсус очевиден: без соответствующих мер развитие ИИ может привести к непредвиденным и, возможно, катастрофическим последствиям.
Основные риски, связанные с ИИ
- Использование враждебными государствами — создание оружия, включая биологическое.
- Экстремистские группы — применение технологий для террористических атак.
- Глубокие подделки — манипуляции с информацией и дезинформация.
- Автономное оружие — отсутствие контроля над системами, принимающими решения.
Подходы к регулированию ИИ
Страна/Регион | Основной подход |
---|---|
Евросоюз | Строгое регулирование, защита потребителей |
США и Великобритания | Гибкие стратегии, стимулирование инноваций |
Китай, Индия | Поддержка «инклюзивного» развития ИИ |