Другая сторона отца ChatGPT: ложь, манипуляции, распри
Совет может меня уволить.
Я думаю, это очень важно.
Об этом заявил Сэм Альтман на мероприятии в июне 2023 года.
Альтман всегда гордился особенностью структуры управления OpenAI — некоммерческой организации, контролирующей коммерческую организацию, причем первая отвечает за исследование безопасного искусственного интеллекта, полезного для человеческого развития, а вторая зарабатывает деньги для сбора средств для « поддержать» исследование.
Поэтому в определенной степени совет директоров первого несет ответственность не перед инвесторами, а перед «всем человечеством». При необходимости гендиректора могут даже уволить.
Пока это на самом деле не произойдет.
После «Дворцовой битвы» в прошлом месяце Альтман применил действия, чтобы доказать, что возможность, о которой он упомянул вначале, была всего лишь миражом.
По мере того, как «Дворцовая битва» подходила к концу, стали раскрываться новые подробности инцидента, и постепенно проявилась другая сторона Альтмана:
Четыре человека, работавшие с Альтманом на протяжении многих лет, также говорят, что он может быть хитрым человеком, иногда намеренно вводящим в заблуждение и вводящим в заблуждение.
"Times" призналась , что образ настоящего "генерального директора года" усложняется. По мере появления новой информации становится все труднее игнорировать другую сторону Альтмана.
Создатель распрей
Когда бывший член правления OpenAI Хелен Тонер опубликовала статью о безопасности ИИ, она, возможно, не ожидала, что она раскроет тревожную сторону Альтмана.
В октябре этого года Тонер, который также является директором по стратегии и финансированию исследований Центра безопасности и новых технологий Джорджтаунского университета, стал соавтором статьи о безопасности ИИ. В индустрии искусственного интеллекта Тонер также считается человеком, который осмеливается высказываться.
В этом документе упоминается , что выпуск ChatGPT компанией OpenAI заставил технологических гигантов нервничать, что побудило эти компании ускорить запуск продуктов искусственного интеллекта, чтобы не отставать от этой тенденции. В документе также упоминается, что конкурент OpenAI, Anthroic, ждет выпуска своего чат-бота, чтобы избежать «фейерверка, который подогревает шумиху вокруг ИИ».
▲ Хелен Тонер
Альтман считает, что статья Тонера нанесет вред OpenAI — если члены компании будут говорить такие вещи, это сделает OpenAI, который и без того привлекает внимание регулирующих органов, еще более уродливым и может заставить регулирующих органов предположить, что внутри компании существуют более глубокие проблемы.
В ответ Тонер разослал групповое электронное письмо другим членам совета директоров, чтобы напомнить им о возможном влиянии статьи и ответить на соответствующие вопросы.
Тем временем Альтман начал конфиденциальное общение с другими членами совета директоров.
Альтман и некоторые члены совета директоров заявили, что директор Таша МакКоли ясно дала понять, что «было ясно, что Хелен должна уйти». Макколи пояснил, что никогда не говорил подобных вещей .
Позже члены правления начали беседовать и узнали, что такая ситуация существует.
У него есть способ не дать другим увидеть всю картину.
Один человек, знакомый с ситуацией, сказал, что такое поведение заставило людей задуматься о том, что думают другие.
Это можно считать обычной деловой тактикой, но человек, знакомый с этим вопросом, считает, что поведение Альтмана «перешло черту» и повлияло на эффективный надзор совета директоров за его поведением.
▲ Помимо Альтмана и Грега Брокмана, в бывшие члены правления OpenAI также входят Илья Суцкевер, Таша МакКоли, Адам Д'Анджело и Хелен Тонер.
"Он пытается настроить людей друг против друга, лгая о том, что они думают, – сказал другой человек, знакомый с ситуацией. – Это продолжается уже много лет".
Люди, знакомые с точкой зрения Альтмана, рассказали, что Альтман позже признал, что он «действительно неуклюже пытался отстранить членов совета директоров», но заявил, что не пытался манипулировать советом директоров.
Стоит отметить, что во многих отчетах указывалось, что этот инцидент не был прямой причиной решения совета директоров об увольнении Альтмана, но он действительно был показательным для выяснения модели поведения Альтмана и стал сигналом тревоги для совета директоров.
Голос, который действительно позволяет совету директоров принять решение о действиях, исходит от управленческой команды OpenAI.
Является ли OpenAI, рожденным идеализмом, также «токсичным местом работы»?
Этой осенью совет директоров столкнулся с небольшой группой менеджеров OpenAI, «пришедших к их двери».
Группа, в которую входили ключевые члены компании, а также руководители, ответственные за управление большими командами, сообщила совету директоров, что Альтман подвергал членов компании «психологическому насилию».
Они отметили, что Альтман намеренно «разжигал драки» среди сотрудников, что привело к нездоровой конкуренции внутри компании.
Они считали, что поведение Альтмана при общении с ним было довольно «токсичным», а также их беспокоило ответное поведение Альтмана:
Один из них сообщил совету директоров, что, когда сотрудник дает Альтману критический отзыв, Альтман дискредитирует этого сотрудника в команде этого человека.
Хотя совету директоров все это кажется довольно «знакомым» (благодаря статье Тонера), совету директоров все же необходимо учитывать чрезвычайно высокий уровень лояльности, который Альтман культивировал в контенте компании, и возможные долгосрочные последствия инцидента.
В то же время эта небольшая группа менеджеров, подавших жалобы, также является очень важными членами OpenAI.
Очевидно, совет директоров в конечном итоге посчитал, что поведение Альтмана было более вредным, по крайней мере, на уровне надзора совета директоров за разработкой безопасного AGI.
Они решили рискнуть и уволить своего звездного генерального директора, и сделать это пришлось быстро.
Один человек, знакомый с решением совета директоров, сказал:
Как только (Альтман) почувствует, что есть шанс, что это произойдет, каким бы малым он ни был, он приложит все усилия.
Совет директоров, которым пришлось уступить, и их «последнее упрямство»
7 ноября совет директоров OpenAI внезапно объявил об увольнении Альтмана. В официальном сообщении говорилось:
Уход г-на Альтмана стал результатом тщательного рассмотрения дела Советом директоров.
Совет директоров счел, что он не был откровенен в общении с советом директоров и препятствовал совету директоров выполнять свои обязанности.
Правление больше не уверено в том, что он продолжит возглавлять OpenAI.
По юридическим причинам и по соображениям конфиденциальности совет директоров не раскрыл конкретных обстоятельств «невозможности оставаться откровенным».
Эта вакансия также дает Альтману возможность рассказать свою собственную историю.
Как только было объявлено об увольнении, компьютер Альтмана был заблокирован.
Он начал искать своих инвесторов и наставников и рассказал всем, что собирается основать новую компанию в области искусственного интеллекта.
Одним из первых звонков Альтману стал Рон Конвей, основатель венчурного фонда SVAngel. По мнению Конвея, правление уволило Альтмана за «придирки, которые вовсе не оправдывают увольнение»:
Было бы безрассудно и безответственно, если бы совет директоров уволил основателя по эмоциональным причинам.
Внутри OpenAI команда также была недовольна отсутствием объяснений по юридическим причинам.
Джейсон Квон, директор по стратегии OpenAI, обвинил совет директоров в нарушении его фидуциарных обязанностей:
Вы не можете видеть, как разваливается ваша компания.
Тонер смог только ответить: «Уничтожение компании также может соответствовать миссии совета директоров».
Вскоре после этого, услышав угрозу от сотрудников о том, что «если Альтман не вернется, мы уйдем в отставку», совет директоров пригласил Альтмана в компанию, чтобы обсудить следующие шаги.
Здесь есть две версии этой истории.
По объяснению Альтмана, совет директоров пригласил его обратно, чтобы убедить его вернуться в OpenAI:
Я пережил много эмоций.
Поначалу я очень сопротивлялся, но вскоре у меня появилось чувство ответственности и желание защитить то, что мне дорого.
Но люди, близкие к совету директоров, заявили, что предложение, сделанное советом директоров в то время, на самом деле заключалось в том, чтобы Альтман вернулся и обсудил, как стабилизировать компанию.
В ходе дискуссии стороны обсудили, когда и какую информацию следует раскрывать средствам массовой информации.
Альтман также однажды предложил публичные извинения за «инцидент с Тонером», но совет директоров сомневался и беспокоился, что, как только это будет сказано, все это будет больше похоже на мотивацию совета директоров принять ответные меры против Альтмана.
За, казалось бы, любовным заявлением об увольнении, подписанным 700 людьми, хотя и есть лояльность, но есть и фактор денег.
Согласно первоначальному плану, сотрудники OpenAI смогут продать свои акции компании стоимостью 86 миллиардов долларов США и быстро получить денежные средства вскоре после отставки Альтмана.
Но если переговоры о возвращении Альтмана не будут согласованы, OpenAI, похоже, рухнет, а деньги, как кажется, испарится.
В рабочем приложении Blind, требующем аутентификации по рабочей электронной почте, сотрудник OpenAI рассказал, что, когда появилось совместное письмо, ему пришлось подписать его под огромным давлением со стороны коллег.
Некоторые сотрудники не согласились с этим заявлением, заявив: «Половина компании подписала соглашение в 2-3 часа ночи. На это не повлияет давление со стороны коллег».
В совместном письме тогда был еще один важный сигнал: в запросе фигурировало и имя главного ученого OpenAI Ильи Суцкевера.
До этого Суцкевер поддерживал решение совета директоров уволить Альтмана.
Накануне публикации совместного письма Суцкевер встретился в офисе OpenAI с Анной Брокмой, женой президента OpenAI Грега Брокмана. Когда Альтмана уволили, Грег немедленно последовал его примеру.
В 2019 году Суцкевер провел свадьбу Анны и Грега в офисе OpenAI, тогда за помощь жениху в подборе обручального кольца отвечал робот.
И в ту ноябрьскую ночь этого года Анна в слезах подошла к Суцкеверу, взяла его за руку и убедила пересмотреть решение об увольнении Альтмана. По словам людей, знакомых с ситуацией, лицо Суцкевера в тот момент было ничего не выражающим.
Мы не знаем, какую борьбу пришлось пережить Суцкеверу дальше, известно только, что на следующий день его имя появилось в совместном письме.
Когда Альтман вернулся, Суцкевер написал на X:
За последний месяц я усвоил много уроков, один из которых заключается в том, что фраза «если моральный дух не улучшится, порка продолжится» происходит чаще, чем следовало бы.
«Избиения будут продолжаться до тех пор, пока моральный дух не улучшится.» Ирония заключается в порочном круге: низкий моральный дух вызывает наказание, а наказание еще больше ухудшает низкий моральный дух.
Пост был удален на следующий день после публикации, а будущее Суцкевера в OpenAI полно неопределенности.
В конце концов, хотя решение о возвращении Альтмана было принято, совет директоров также добился некоторых уступок от другой стороны.
Недавно сформированный независимый совет будет следить за поведением Альтмана и расследовать решение предыдущего совета о его увольнении. Ни Альтман, ни Грег больше не получат места в совете директоров.
Хотя Тонер и Макколи вышли из состава совета директоров, первоначальный директор Адам Д'Анджело сохранит свою должность.
▲Адам Д'Анджело
Один инсайдер сказал, что уходящие директора упорно боролись за сохранение Д'Анджело.
Они хотят оставить в компании кого-то, кто понимает, что здесь произошло.
Справочные источники:
ВРЕМЯ: 2023 ГЕНЕРАЛЬНЫЙ ДИРЕКТОР ГОДА: Сэм Альтман
New York Times: Внутри кризиса OpenAI по поводу будущего искусственного интеллекта
Bloomberg: Отставка Альтмана из OpenAI стала результатом затянувшейся напряженности
WSJ: Член правления OpenAI, который конфликтовал с Сэмом Альтманом, разделяет ее точку зрения
Житель Нью-Йорка: внутренняя история партнерства Microsoft с OpenAI
# Добро пожаловать на официальную общедоступную учетную запись aifaner в WeChat: aifaner (идентификатор WeChat: ifanr). Более интересный контент будет предоставлен вам как можно скорее.
Ай Фанер | Исходная ссылка · Посмотреть комментарии · Sina Weibo