OpenAI обвиняют в самоцензуре исследований, выставляющих ИИ в невыгодном свете

openai,ии,самоцензура,безопасность ии,рынок труда,исследования

OpenAI предположительно занимается самоцензурой исследований о негативном влиянии ИИ, что привело к уходу сотрудников. Компания стала более осторожной в публикации данных о замещении рабочих мест и рисках для психического здоровья, что вызывает обеспокоенность.

OpenAI, по сообщениям, занимается самоцензурой своих исследований о негативном влиянии ИИ, что привело к уходу как минимум двух сотрудников.

Согласно новому отчету WIRED, OpenAI стала «более осторожной» в публикации негативных выводов своего отдела экономических исследований, например, данных о количестве рабочих мест, которые может заменить ИИ.

Сотрудники якобы увольняются из-за этого, в том числе специалист по данным Том Каннингем, который теперь работает исследователем в METR, некоммерческой организации, разрабатывающей оценки для тестирования моделей ИИ на предмет угроз общественной безопасности. Согласно отчету, Каннингем написал во внутреннем сообщении во время своего недавнего ухода, что отдел экономических исследований практически функционировал как пропагандистское крыло OpenAI.

OpenAI начинала как исследовательская лаборатория, но с тех пор претерпела значительные изменения, поскольку компания сместила фокус на свои коммерческие продукты, приносящие миллиарды долларов дохода.

По сообщениям, экономическими исследованиями OpenAI руководит первый главный экономист компании Аарон Чаттерджи, нанятый в конце прошлого года. Под руководством Чаттерджи команда недавно поделилась своими выводами о том, что использование ИИ может сэкономить среднему работнику от 40 до 60 минут в день.

Согласно отчету WIRED, Чаттерджи подчиняется директору по глобальным вопросам OpenAI Крису Лехейну, который заработал репутацию «мастера по устранению катастроф» благодаря своей работе на бывшего президента Билла Клинтона (а спустя годы — на Airbnb и Coinbase) и в значительной степени считается экспертом по управлению репутационным ущербом.

Это не первый случай, когда OpenAI обвиняют в предпочтении продуктов исследованиям безопасности. Всего в прошлом месяце отчет New York Times обвинил OpenAI в том, что компания прекрасно осведомлена о врожденных рисках для психического здоровья, связанных с разработкой аддиктивных чат-ботов с ИИ, и все же решила продолжить ее.

Также это не первый случай, когда бывший сотрудник считает проверку исследований OpenAI слишком строгой. В прошлом году бывший глава отдела исследований политики компании Майлз Брандадж заявил, что уходит, потому что ограничения на публикацию «стали слишком обременительными».

«OpenAI теперь настолько известна, а ее результаты анализируются с разных сторон, что мне трудно публиковать материалы по всем важным для меня темам», — поделился Брандадж в посте на Substack.

Искусственный интеллект не только меняет все аспекты современного общества, но и уже оказывает колоссальное влияние на экономику. Расходы на ИИ, вероятно, поддерживают всю американскую экономику прямо сейчас, согласно некоторым отчетам. И хотя еще не ясно, насколько эффективно и в какой степени ИИ может заменить рабочие места, ранние исследования показывают, что ИИ уже разрушает рынок труда для начинающих специалистов. Даже председатель Федеральной резервной системы Джером Пауэлл признал, что ИИ «вероятно, является фактором» в текущих показателях безработицы.

В основе этого непропорционального влияния ИИ лежит OpenAI. Компания находится в центре запутанной паутины многомиллиардных сделок, а ChatGPT является настолько центральным продуктом, что стал почти синонимом слова «чат-бот с ИИ».

OpenAI также является центральным элементом Stargate — таинственного, но масштабного плана администрации Трампа по строительству центров обработки данных для ИИ. Трамп и его чиновники твердо поддерживали позитивный потенциал ИИ, отбрасывая опасения, высказываемые конкурентами, такими как Anthropic, например, страх или пессимизм.

Руководители OpenAI также оказались втянуты в отраслевый раскол по вопросу безопасности ИИ, разворачивающийся на Капитолийском холме. Президент OpenAI Грег Брокман является одним из главных сторонников «Leading the Future» — супер-PAC, который рассматривает большинство правил безопасности ИИ как препятствие для инноваций.