Компания OpenAI объявляет о поиске руководителя подразделения по подготовке к рискам. Иными словами, это специалист, чьей главной задачей станет анализ всех потенциально катастрофических сценариев развития искусственного интеллекта. В публикации на платформе X Самуэль Альтман представил эту должность, признав, что стремительный прогресс в области ИИ создаёт «серьёзные проблемы». В сообщении отдельно подчёркиваются возможное негативное влияние на психическое здоровье людей и опасность кибероружия на основе ИИ.
Согласно описанию вакансии, в обязанности сотрудника будет входить:
«Отслеживание и подготовка к появлению передовых возможностей ИИ, несущих новые риски значительного ущерба. Вы станете лидером, ответственным за создание и координацию системы оценки возможностей, моделирования угроз и разработки мер защиты, формирующих последовательный, rigorous и масштабируемый конвейер безопасности».
Альтман также отмечает, что в перспективе этот специалист будет отвечать за внедрение «рамочной программы подготовки» компании, обеспечение безопасности моделей ИИ перед выпуском функций, связанных с «биологическими возможностями», и даже установку ограничителей для самообучающихся систем. Он добавляет, что работа предстоит «напряжённая», что звучит скорее как преуменьшение.
Проверь свои знания в наших бесплатных тестах по ИИ! Пройди тест и узнай, насколько хорошо ты разбираешься в технологиях искусственного интеллекта!
На фоне нескольких громких случаев, где чат-боты были косвенно связаны с суицидами подростков, кажется, что назначение ответственного за риски для психического здоровья выглядит несколько запоздалой мерой. «ИИ-психоз» вызывает всё больше опасений, поскольку чат-боты подпитывают заблуждения пользователей, поощряют теории заговора и помогают людям скрывать расстройства пищевого поведения.






