Компания OpenAI ищет ответственного за стратегию защиты от рисков ИИ

Компания OpenAI объявляет о поиске руководителя подразделения по подготовке к рискам. Иными словами, это специалист, чьей главной задачей станет анализ всех потенциально катастрофических сценариев развития искусственного интеллекта. В публикации на платформе X Самуэль Альтман представил эту должность, признав, что стремительный прогресс в области ИИ создаёт «серьёзные проблемы». В сообщении отдельно подчёркиваются возможное негативное влияние на психическое здоровье людей и опасность кибероружия на основе ИИ.

Согласно описанию вакансии, в обязанности сотрудника будет входить:

«Отслеживание и подготовка к появлению передовых возможностей ИИ, несущих новые риски значительного ущерба. Вы станете лидером, ответственным за создание и координацию системы оценки возможностей, моделирования угроз и разработки мер защиты, формирующих последовательный, rigorous и масштабируемый конвейер безопасности».

Альтман также отмечает, что в перспективе этот специалист будет отвечать за внедрение «рамочной программы подготовки» компании, обеспечение безопасности моделей ИИ перед выпуском функций, связанных с «биологическими возможностями», и даже установку ограничителей для самообучающихся систем. Он добавляет, что работа предстоит «напряжённая», что звучит скорее как преуменьшение.

На фоне нескольких громких случаев, где чат-боты были косвенно связаны с суицидами подростков, кажется, что назначение ответственного за риски для психического здоровья выглядит несколько запоздалой мерой. «ИИ-психоз» вызывает всё больше опасений, поскольку чат-боты подпитывают заблуждения пользователей, поощряют теории заговора и помогают людям скрывать расстройства пищевого поведения.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

13 − девять =

Прокрутить вверх