«Это будет работа, полная стресса, и вы сразу же окажетесь в самой гуще событий», – написал генеральный директор OpenAI Сэм Альтман в своем объявлении в X о вакансии «руководителя по готовности» в OpenAI в субботу.
Согласно объявлению о вакансии, за 555 000 долларов в год руководитель по готовности должен «расширять, укреплять и направлять» существующую программу готовности в рамках отдела систем безопасности OpenAI. Это подразделение OpenAI разрабатывает меры защиты, которые, в теории, заставляют модели OpenAI «вести себя должным образом в реальных условиях».
Но постойте, разве они утверждают, что модели OpenAI уже сейчас ведут себя должным образом в реальных условиях? В 2025 году ChatGPT продолжал галлюцинировать в юридических документах, привлек сотни жалоб в FTC, в том числе жалобы на то, что он вызывал кризисы психического здоровья у пользователей, и, очевидно, превращал фотографии одетых женщин в дипфейки в бикини. Возможность Sora создавать видео с участием таких фигур, как Мартин Лютер Кинг-младший, пришлось отозвать, потому что пользователи злоупотребляли привилегией, заставляя почитаемых исторических деятелей говорить практически что угодно.
Когда дела, связанные с проблемами с продуктами OpenAI, доходят до суда – как в случае иска о противоправной смерти, поданного семьей Адама Рейна, который, как утверждается, получал советы и поддержку от ChatGPT, приведшие к его смерти, – можно выдвинуть юридический аргумент, что пользователи злоупотребляли продуктами OpenAI. В ноябре в заявлении юристов OpenAI нарушения правил были названы возможной причиной смерти Рейна.
Независимо от того, принимаете вы аргумент о злоупотреблении или нет, это, очевидно, важная часть того, как OpenAI осмысливает то, что ее продукты делают в обществе. Альтман признает в своем посте в X о вакансии руководителя по готовности, что модели компании могут влиять на психическое здоровье людей и находить уязвимости в системе безопасности. Мы, по его словам, «вступаем в мир, где нам нужно более тонкое понимание и измерение того, как эти возможности могут быть использованы не по назначению, и как мы можем ограничить эти недостатки как в наших продуктах, так и в мире, чтобы мы все могли наслаждаться огромными преимуществами».
В конце концов, если бы целью было просто никогда не причинять вреда, самый быстрый способ убедиться в этом – просто убрать ChatGPT и Sora с рынка вообще.
Таким образом, руководитель по готовности в OpenAI – это тот, кто будет искать золотую середину и «[о]обладать стратегией готовности OpenAI от начала до конца», выясняя, как оценивать модели на предмет нежелательных способностей, и разрабатывать способы их смягчения. В объявлении говорится, что этот человек должен будет «развивать структуру готовности по мере появления новых рисков, возможностей или внешних ожиданий». Это может означать только то, что нужно выяснять новые потенциальные способы, которыми продукты OpenAI могут нанести вред людям или обществу, и разработать рубрику для разрешения существования продуктов, демонстрируя, предположительно, что риски были достаточно смягчены, чтобы OpenAI не несла юридической ответственности за, казалось бы, неизбежные будущие «недостатки».
Было бы достаточно плохо делать все это для компании, которая топчется на месте, но OpenAI должна предпринять решительные шаги, чтобы привлечь доход и быстро выпустить передовые продукты. В интервью в прошлом месяце Альтман недвусмысленно намекнул, что он доведет доход компании с нынешнего уровня – по-видимому, где-то выше 13 миллиардов долларов в год – до 100 миллиардов долларов менее чем за два года. Альтман сказал, что «бизнес потребительских устройств его компании будет значительным и важным», и что «ИИ, который может автоматизировать науку, создаст огромную ценность».
Так что, если вы хотите курировать «разработку мер по смягчению последствий» для новых версий существующих продуктов OpenAI, а также новых физических гаджетов и платформ, которых еще не существует, но которые должны делать такие вещи, как «автоматизировать науку», в то время как генеральный директор дышит вам в спину, говоря о необходимости получить примерно такой же годовой доход, как у Walt Disney в следующем году, наслаждайтесь ролью руководителя по готовности в OpenAI. Постарайтесь не облажаться со всем миром на своей новой работе.
Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/8
Автор – Mike Pearl




