Исследование говорит, что шумиха вокруг искусственного интеллекта мешает подлинным исследованиям искусственного интеллекта

В этом месяце было опубликовано новое исследование AAAI (Ассоциации по развитию искусственного интеллекта), в котором приняли участие сотни исследователей ИИ, и главный вывод заключается в следующем: наш нынешний подход к ИИ вряд ли приведет нас к общему искусственному интеллекту .

Искусственный интеллект стал модным словом уже добрую пару лет, но искусственный интеллект как область исследований существует уже много десятилетий. Например, знаменитая статья Алана Тьюринга «Вычислительная техника и интеллект» итест Тьюринга, о котором мы до сих пор говорим, были опубликованы в 1950 году.

ИИ, о котором сегодня все говорят, родился в результате десятилетий исследований, но в то же время и отличается от них. Вместо того, чтобы заниматься научными исследованиями, у нас теперь также есть необычная ветвь искусственного интеллекта, которую можно назвать «коммерческим ИИ».

Усилия в области коммерческого ИИ возглавляют крупные технологические монополии, такие как Microsoft, Google, Meta, Apple и Amazon, и их основная цель — создание продуктов ИИ . Это не должно быть проблемой, но на данный момент кажется, что это может быть.

Во-первых, поскольку большинство людей никогда не следили за исследованиями ИИ еще пару лет назад, все, что среднестатистический человек знает об ИИ, исходит от этих компаний, а не от научного сообщества. Исследование охватывает эту тему в главе «Восприятие ИИ против реальности», при этом 79% участвовавших ученых полагают, что нынешнее восприятие возможностей ИИ не соответствует реальности исследований и разработок ИИ.

Другими словами, то, что думает широкая общественность, может не соответствовать тому, что думают ученые. Причина этого столь же проста, сколь и прискорбна: когда крупный технологический представитель делает заявление об ИИ, это не научное мнение, а маркетинг продукта. Они хотят рекламировать технологии, лежащие в основе их новых продуктов, и убедиться, что каждый чувствует необходимость присоединиться к этой победе.

Когда Сэм Альтман или Марк Цукерберг говорят, например, что рабочие места в области разработки программного обеспечения будут заменены ИИ, это потому, что они хотят повлиять на инженеров, чтобы они освоили навыки ИИ, и повлиять на технологические компании, чтобы они инвестировали в дорогостоящие корпоративные планы . Однако до тех пор, пока они не начнут заменять собственных инженеров (и получать от этого выгоду), лично я не буду слушать ни слова из того, что они говорят по этой теме.

Однако коммерческий ИИ влияет не только на общественное мнение. Участники исследования считают, что «хайп вокруг искусственного интеллекта», раздуваемый крупными технологическими компаниями, вредит исследовательским усилиям. Например, 74% согласны с тем, что направление исследований ИИ определяется ажиотажем — вероятно, это связано с тем, что исследования, которые соответствуют коммерческим целям ИИ, легче финансировать. 12% также считают, что в результате страдают теоретические исследования в области ИИ.

Итак, насколько это проблема? Даже если крупные технологические компании влияют на виды исследований, которые мы проводим, можно подумать, что чрезвычайно большие суммы денег, которые они вкладывают в эту область, должны иметь в целом положительное влияние. Однако разнообразие является ключевым моментом, когда дело доходит до исследований: нам нужно использовать самые разные пути, чтобы иметь шанс найти лучший.

Но крупные технологические компании сейчас фокусируются только на одном — больших языковых моделях . Этот чрезвычайно специфический тип модели ИИ лежит в основе практически всех новейших продуктов ИИ, и такие деятели, как Сэм Альтман, полагают, что дальнейшее и дальнейшее масштабирование этих моделей (т. е. предоставление им большего количества данных, большего времени обучения и большей вычислительной мощности) в конечном итоге даст нам общий искусственный интеллект.

Это убеждение, получившее название гипотезы масштабирования, гласит, что чем больше энергии мы дадим ИИ, тем больше увеличатся его когнитивные способности и тем больше снизится уровень ошибок. Некоторые толкования также гласят, что неожиданно появятся новые познавательные способности. Таким образом, хотя сейчас студенты LLM не очень хороши в планировании и обдумывании проблем, в какой-то момент эти способности должны проявиться.

Однако в последние несколько месяцев гипотеза масштабирования подверглась серьезной критике. Некоторые ученые считают, что масштабирование LLM никогда не приведет к AGI, и они полагают, что вся дополнительная мощность, которую мы даем новым моделям, больше не дает результатов. Вместо этого мы достигли «стены масштабирования» или «предела масштабирования», когда большие объемы дополнительной вычислительной мощности и данных приводят лишь к небольшим улучшениям в новых моделях. Большинство ученых, принимавших участие в исследовании AAAI, придерживаются этой точки зрения:

Большинство респондентов (76%) утверждают, что «расширение существующих подходов ИИ» для создания AGI «маловероятно» или «очень маловероятно» приведет к успеху, что наводит на мысль о сомнениях в том, достаточны ли нынешние парадигмы машинного обучения для достижения общего интеллекта.

Современные модели больших языков могут давать очень релевантные и полезные ответы, когда дела идут хорошо, но для этого они полагаются на математические принципы . Многие ученые полагают, что нам понадобятся новые алгоритмы, использующие рассуждения, логику и знания из реального мира для достижения решения, если мы хотим приблизиться к цели AGI. Вот одна пикантная цитата о LLM и AGI из статьи Джейкоба Браунинга и Янна Лекуна за 2022 год .

Система, обученная только на языке, никогда не приблизится к человеческому интеллекту, даже если обучать ее с настоящего момента и до тепловой смерти Вселенной.

Однако реального способа узнать, кто здесь, пока нет. Во-первых, определение AGI не высечено в камне, и не все стремятся к одному и тому же. Некоторые люди считают, что ОИИ должен давать человеческие реакции с помощью человеческих методов — поэтому им следует наблюдать за окружающим миром и решать проблемы так же, как и мы. Другие считают, что AGI должен больше фокусироваться на правильных реакциях, чем на человеческих реакциях, и что методы, которые они используют, не должны иметь значения.

Однако во многом не имеет значения, какая версия AGI вас интересует, поддерживаете вы или против гипотезы масштабирования — нам все равно необходимо диверсифицировать наши исследовательские усилия. Если мы сосредоточимся только на масштабировании LLM, нам придется начинать с нуля, если это не сработает, и мы не сможем открыть новые методы, которые будут более эффективными и действенными. Многие ученые, участвовавшие в этом исследовании, опасаются, что коммерческий ИИ и шумиха вокруг него замедлит реальный прогресс, но все, что мы можем сделать, это надеяться, что их проблемы будут решены и обе отрасли исследований ИИ смогут научиться сосуществовать и развиваться вместе. Что ж, вы также можете надеяться, что пузырь ИИ лопнет, и все технологические продукты на базе ИИ исчезнут, если хотите.