У Microsoft есть новый способ сохранить этичность ChatGPT, но будет ли он работать?

Microsoft вызвала много критики, когда в марте 2023 года закрыла свою команду по этике и обществу искусственного интеллекта (ИИ). чтобы его будущие усилия были ответственными и контролировались в будущем.

В сообщении в блоге Microsoft On the Issues Наташа Крэмптон — главный ответственный сотрудник по искусственному интеллекту редмондской фирмы — объяснила, что группа по этике была распущена, потому что «одна команда или одна дисциплина, занимающаяся ответственным или этическим ИИ, не собиралась достигать наших целей. ».

Чат Bing показан на ноутбуке.
Джейкоб Роуч / Digital Trends

Вместо этого Microsoft приняла подход, который она использовала со своими командами по обеспечению конфиденциальности, безопасности и доступности, а также «внедрила ответственный ИИ по всей компании». На практике это означает, что у Microsoft есть старшие сотрудники, «возглавляющие ответственный ИИ в каждой основной бизнес-группе», а также «большая сеть ответственных «чемпионов» ИИ с различными навыками и ролями для более регулярного, прямого взаимодействия».

Кроме того, Крэмптон сказал, что в Microsoft «почти 350 человек работают над ответственным ИИ, и чуть более трети из них (129, если быть точным) посвятили этому полный рабочий день; остальные несут ответственность за ИИ как основную часть своей работы».

Крэмптон отметил, что после того, как Microsoft закрыла свою команду по этике и обществу, некоторые члены команды впоследствии были включены в команды по всей компании. Однако семь членов группы были уволены в рамках масштабного сокращения рабочих мест Microsoft, в результате которого в начале 2023 года было уволено 10 000 сотрудников.

Навигация по скандалам

Bing Chat говорит, что хочет быть человеком.
Джейкоб Роуч / Digital Trends

В последние месяцы ИИ едва ли был свободен от скандалов , и именно эти опасения вызвали негативную реакцию на расформирование Microsoft команды по этике ИИ. Если бы у Microsoft не было специальной команды, которая помогала бы направлять свои продукты ИИ в ответственном направлении, считалось, что она будет изо всех сил пытаться сократить виды злоупотреблений и сомнительного поведения, которыми ее чат-бот Bing стал печально известен.

Последнее сообщение в блоге компании, несомненно, направлено на то, чтобы развеять эти опасения среди общественности. Вместо того, чтобы полностью отказаться от своих усилий в области искусственного интеллекта, кажется, что Microsoft стремится обеспечить регулярный контакт команд в компании с экспертами в области ответственного искусственного интеллекта.

Тем не менее, нет никаких сомнений в том, что закрытие команды AI Ethics & Society не прошло гладко, и есть вероятность, что у Microsoft все еще есть какой-то способ облегчить коллективное мнение общественности по этой теме. Действительно, даже сама Microsoft считает, что ChatGPT, чей разработчик OpenAI принадлежит Microsoft, должен регулироваться .

Буквально вчера Джеффри Хинтон — «крестный отец ИИ» — ушел из Google и сказал New York Times, что у него есть серьезные опасения по поводу темпов и направления распространения ИИ, в то время как группа ведущих технических экспертов недавно подписала открытое письмо, призывающее к паузе в Развитие ИИ , чтобы можно было лучше понять его риски.

Возможно, Microsoft не игнорирует опасения по поводу этического развития ИИ, но еще неизвестно, является ли ее новый подход правильным. После спорного старта Bing Chat Наташа Крэмптон и ее коллеги будут надеяться, что все изменится к лучшему.