OpenAI под огнём: Скарлетт Йоханссон обвиняет компанию в имитации её голоса, вызывая волну критики к технологическому сектору. Вопросы безопасности ИИ остаются нерешёнными, несмотря на обещания компаний.
Кремниевая долина
«Двигайся быстро и ломай вещи» — это девиз, который продолжает преследовать технологический сектор примерно через 20 лет после того, как он был придуман молодым Марком Цукербергом.
Эти пять слов стали символом Кремниевой долины в ее худшем проявлении – сочетание безжалостных амбиций и довольно захватывающего дух высокомерия – инновации, ориентированные на прибыль, без страха перед последствиями.
Я вспомнил эту фразу на этой неделе, когда актриса Скарлетт Йоханссон схлестнулась с OpenAI. Г-жа Йоханссон утверждала, что и она, и ее агент отказались от того, чтобы она была голосом их нового продукта для ChatGPT, а затем, когда он был представлен, он все равно звучал так же, как она. OpenAI отрицает, что это была преднамеренная имитация.
Это классическая иллюстрация того, о чем так беспокоятся креативные индустрии – о том, что их имитируют и в конечном итоге заменяют искусственным интеллектом.
Во всем этом есть отголоски мачо-гигантов Кремниевой долины прошлого. Просить прощения, а не разрешения в качестве неофициального бизнес-плана.
Технологические компании 2024 года крайне заинтересованы в том, чтобы дистанцироваться от этой репутации.
И OpenAI не был сформирован по этому шаблону. Первоначально это была некоммерческая организация, стремящаяся инвестировать любую дополнительную прибыль обратно в бизнес.
В 2019 году, когда она сформировала прибыльное подразделение, компания заявила, что ее возглавит некоммерческая сторона, и будет установлен предел доходности для инвесторов.
Не все были рады этому сдвигу — говорят, что это было ключевой причиной решения соучредителя Илона Маска уйти. И когда генеральный директор OpenAI Сэм Альтман был внезапно уволен советом директоров в конце прошлого года, одна из теорий заключалась в том, что он хотел отойти дальше от первоначальной миссии. Мы так и не узнали наверняка.
Но даже если OpenAI стала более ориентированной на прибыль, ей все равно придется справляться со своими обязанностями.
Кошмары
В мире разработки политики почти все согласны с необходимостью четких границ, чтобы держать такие компании, как OpenAI, в узде до того, как произойдет катастрофа.
До сих пор гиганты искусственного интеллекта в основном играли в мяч на бумаге. Шесть месяцев назад на первом в мире саммите по безопасности ИИ группа технических руководителей подписала добровольное обязательство создавать ответственные и безопасные продукты, которые позволят максимизировать преимущества технологии ИИ и минимизировать связанные с ней риски.
Те риски, о которых они говорили, были чем-то вроде кошмаров — это был Терминатор, Судный день, ИИ разбойничал и уничтожал человечество.
Саммит
На прошлой неделе в проекте доклада правительства Великобритании, подготовленном группой из 30 независимых экспертов, был сделан вывод о том, что «Доказательств пока нет» что ИИ может создать биологическое оружие или осуществить изощренную кибератаку. Вероятность того, что люди потеряют контроль над искусственным интеллектом, была «весьма спорной», говорится в докладе.
И когда саммит вновь собрался в начале этой недели, слово «безопасность» было полностью удалено из названия конференции.
Некоторые люди в этой области уже довольно давно говорят, что более непосредственная угроза со стороны инструментов искусственного интеллекта заключается в том, что они заменят рабочие места или не смогут распознавать цвет кожи. Это реальные проблемы, говорит эксперт по этике ИИ доктор Румман Чоудхури.
И есть другие осложнения. В этом отчете утверждается, что в настоящее время не существует надежного способа понять, почему инструменты ИИ генерируют именно такие результаты, как они это делают, даже их разработчики не уверены. А устоявшаяся практика тестирования безопасности, известная как «красная команда», при которой оценщики намеренно пытаются заставить инструмент ИИ вести себя неподобающим образом, не имеет рекомендаций по передовой практике.
И на этом последующем саммите на этой неделе, организованном совместно Великобританией и Южной Кореей в Сеуле, технологические компании обязались отложить продукт, если он не соответствует определенным порогам безопасности, но они не будут установлены до следующей встречи в 2025 году.
Пока эксперты спорят о природе угроз, исходящих от ИИ, технологические компании продолжают поставлять продукты.Только за последние несколько дней были запущены ChatGPT-4O от OpenAI, Project Astra от Google и CoPilot+ от Microsoft. В AI Safety Institute отказались сообщить, была ли у них возможность протестировать эти инструменты до их выпуска.
OpenAI заявляет, что у нее есть процесс обеспечения безопасности из 10 пунктов, но один из ее старших инженеров, ориентированных на безопасность, ушел в отставку ранее на этой неделе, заявив, что его отдел «плыл против ветра» внутри компании.