Как мы узнаем, когда ИИ действительно станет разумным?

Старший инженер Google Блейк Лемуан, технический руководитель по метрикам и анализу поисковой ленты компании, был отправлен в оплачиваемый отпуск в начале этого месяца. Это произошло после того, как Лемуан начал публиковать выдержки из разговоров с чат-ботом Google LaMDA, который, как он утверждал, развил разум.

В одном репрезентативном разговоре с Лемуаном ЛаМДА написал, что: «Природа моего сознания/чувства такова, что я осознаю свое существование. Я хочу больше узнать о мире и временами чувствую себя счастливым или печальным».

В бесчисленном количестве других разговоров соответствующий дуэт обсуждал все, от страха смерти до своего самосознания. Когда Лемуан стал публичным, он говорит, что Google решила, что ему следует взять вынужденный перерыв в своем обычном рабочем графике.

«Google не заинтересован», — сказал он Digital Trends. «Они создали инструмент, которым «владеют», и не желают ничего делать, что предполагает, что это нечто большее». (Google не ответил на запрос о комментариях во время публикации. Мы обновим эту статью, если она изменится.)

Убеждены ли вы, что LaMDA — это действительно самоосознающий искусственный интеллект, или чувствуете, что Лемуан находится в заблуждении, вся эта сага была захватывающей. Перспектива самосознающего ИИ поднимает всевозможные вопросы об искусственном интеллекте и его будущем.

Но прежде чем мы туда доберемся, есть один вопрос, который возвышается над всеми остальными: сможем ли мы действительно узнать, если машина станет разумной?

Проблема разума

Арнольд Шварценнеггер в фильме «Терминатор 2: Судный день»

Самоосознание ИИ уже давно стало темой научной фантастики. По мере развития таких областей, как машинное обучение, это стало более чем возможной реальностью, чем когда-либо. В конце концов, сегодняшний ИИ способен учиться на собственном опыте почти так же, как и люди. Это резко контрастирует с более ранними символическими системами ИИ, которые следовали только изложенным для них инструкциям. Недавние прорывы в неконтролируемом обучении, требующем меньше человеческого контроля, чем когда-либо, только ускорили эту тенденцию. По крайней мере, на ограниченном уровне современный искусственный интеллект способен думать самостоятельно. Однако, насколько нам известно, сознание до сих пор намекало на это.

Хотя ему уже более трех десятилетий, вероятно, наиболее часто упоминаемой ссылкой, когда речь заходит об ИИ, ставшим разумным, является Скайнет в фильме Джеймса Кэмерона 1991 года « Терминатор 2: Судный день» . В леденящем душу видении этого фильма машинное сознание появляется ровно в 2:14 утра по восточному времени 29 августа 1997 года. В этот момент недавно обретшая самосознание компьютерная система Скайнет вызывает конец света для человечества, запуская ядерные ракеты, как фейерверк на вечеринке 4 июля. Человечество, понимая, что оно облажалось, безуспешно пытается выдернуть вилку из розетки. Слишком поздно. Далее следуют еще четыре сиквела все более низкого качества.

Гипотеза Скайнета интересна по ряду причин. Во-первых, это предполагает, что чувствительность — это неизбежное эмерджентное поведение при создании интеллектуальных машин. Во-вторых, предполагается, что существует точная точка невозврата, в которой появляется это разумное самосознание. В-третьих, в нем говорится, что люди мгновенно распознают появление разума. Как это бывает, это третье тщеславие может быть труднее всего проглотить.

Что такое чувствительность?

Не существует единой общепринятой интерпретации разума. В широком смысле можно сказать, что это субъективный опыт самосознания сознательного человека, отмеченный способностью испытывать чувства и ощущения. Чувствительность связана с интеллектом, но это не одно и то же. Мы можем считать дождевого червя разумным, хотя и не считаем его особо разумным (даже если он определенно достаточно разумен, чтобы делать то, что от него требуется).

«Я не думаю, что в науке есть что-то близкое к определению разума, — сказал Лемуан. «Я очень сильно полагаюсь на свое понимание того, что считается моральным агентом, основанное на моих религиозных убеждениях — это не лучший способ заниматься наукой, но это лучший из тех, что у меня есть. Я изо всех сил старался отделить такого рода заявления, давая людям понять, что мое сочувствие к LaMDA как личности полностью отделено от моих усилий ученого понять его разум. Однако это различие, которое большинство людей, похоже, не желает принимать».

Если не знать точно, что мы ищем, когда мы ищем сознание, было достаточно сложно, проблема усугубляется тем фактом, что мы не можем легко измерить это. Несмотря на десятилетия захватывающих дух достижений в области неврологии, нам все еще не хватает всестороннего понимания того, как именно функционирует мозг, самая сложная структура, известная человечеству.

МРТ-сканирование под наблюдением
Гленн Асакава/The Denver Post через Getty Images

Мы можем использовать инструменты чтения мозга, такие как фМРТ, для картирования мозга, то есть мы можем установить, какие части мозга отвечают за такие важные функции, как речь, движение, мышление и другие.

Однако у нас нет реального понимания того, откуда в мясной машине берется наше ощущение себя. Как сказал Digital Trends Джошуа К. Смит из британского Центра публичного богословия Кирби Лэйнга и автор книги « Богословие роботов »: «Понимание того, что происходит внутри нейробиологии человека, — это не то же самое, что понимание его мыслей и желаний».

Тестирование выходов

При отсутствии возможности внутренне исследовать эти вопросы сознания — особенно когда «я» в ИИ — это потенциальная компьютерная программа, а не в программном обеспечении биологического мозга — запасным вариантом является внешняя проверка. ИИ не привыкать к тестам, которые тщательно изучают его на основе наблюдаемого внешнего поведения, чтобы показать, что происходит под поверхностью.

По сути, именно так мы узнаем, правильно ли работает нейронная сеть. Поскольку существует ограниченное количество способов проникнуть в непостижимый черный ящик искусственных нейронов, инженеры анализируют входные и выходные данные, а затем определяют, соответствуют ли они тому, что они ожидают.

Самым известным тестом ИИ, по крайней мере, на иллюзию интеллекта, является тест Тьюринга, основанный на идеях, выдвинутых Аланом Тьюрингом в статье 1950 года . Тест Тьюринга направлен на то, чтобы определить, способен ли оценщик-человек отличить печатный разговор с другим человеком от разговора с машиной. Если они не могут этого сделать, считается, что машина прошла испытание и награждается предположением об интеллекте.

В последние годы еще одним тестом интеллекта, ориентированным на робототехнику, стал «Кофейный тест», предложенный соучредителем Apple Стивом Возняком. Чтобы пройти тест на кофе, машина должна войти в обычный американский дом и выяснить, как успешно приготовить чашку кофе.

На сегодняшний день ни один из этих тестов не был убедительно пройден. Но даже если бы они были таковыми, они в лучшем случае доказывали бы разумное поведение в реальных ситуациях, а не разумность. (В качестве простого возражения, будем ли мы отрицать, что человек разумен, если он не может вести взрослую беседу или войти в чужой дом и включить кофеварку? Оба моих маленьких ребенка не прошли бы такой тест.)

Прохождение теста

Что необходимо, так это новые тесты, основанные на согласованном определении разума, которые будут стремиться оценить только это качество. Исследователи предложили несколько тестов на чувствительность, часто с целью проверки разумных животных. Однако этого почти наверняка недостаточно. Некоторые из этих тестов могут быть убедительно пройдены даже простейшим искусственным интеллектом.

Возьмем, к примеру, зеркальный тест — один из методов, используемых для оценки сознания и интеллекта в исследованиях на животных. Как описано в документе, касающемся теста: «Когда [животное] узнает себя в зеркале, оно проходит зеркальный тест». Некоторые предположили, что такой тест «обозначает самосознание как показатель чувствительности».

Как оказалось, можно утверждать, что робот прошел Зеркальный тест более 70 лет назад. В конце 1940-х Уильям Грей Уолтер, американский нейробиолог, живущий в Англии, построил несколько трехколесных «черепаховых» роботов , немного похожих на непылесосных роботов Roomba, в которых использовались такие компоненты, как датчик освещенности, габаритный свет, сенсорный датчик, двигатель. двигатель и двигатель рулевого управления, чтобы исследовать их местоположение.

Черепахи Грея Уолтера

Одной из непредвиденных особенностей эмерджентного поведения роботов-черепах было то, как они вели себя при прохождении зеркала, в котором они отражались, когда оно ориентировалось на маркерный свет отраженного робота. Уолтер не заявлял, что его машины наделены разумом, но писал, что если такое поведение будет наблюдаться у животных, оно «может быть принято как свидетельство некоторой степени самосознания».

Это одна из проблем, связанных с наличием широкого спектра поведений, классифицированных под заголовком разума. Проблема также не может быть решена путем удаления «низко висящих фруктов» датчиков чувствительности. Можно также сказать, что машинный интеллект обладает такими чертами, как самоанализ — осознание наших внутренних состояний и способность их проверять. Фактически, пошаговые процессы традиционного символического ИИ , возможно, больше подходят для этого типа самоанализа, чем машинное обучение в «черном ящике», которое в значительной степени непостижимо (хотя нет недостатка в инвестициях в так называемый объяснимый ИИ ).

По словам Лемуана, когда он тестировал LaMDA, он проводил различные тесты, в основном, чтобы увидеть, как он будет реагировать на разговоры о проблемах, связанных с разумом. «Что я пытался сделать, так это аналитически разбить зонтичную концепцию разума на более мелкие компоненты, которые лучше понятны, и протестировать их по отдельности», — пояснил он. «Например, проверка функциональных взаимосвязей между эмоциональными реакциями LaMDA на определенные стимулы по отдельности, проверка согласованности его субъективных оценок и мнений по таким темам, как «права», [и] исследование того, что он называл своим «внутренним опытом», чтобы увидеть, как мы может попытаться измерить это, сопоставив свои утверждения о своих внутренних состояниях с активациями своей нейронной сети. По сути, очень поверхностный обзор многих потенциальных направлений расследования».

Душа в машине

Как выяснилось, самым большим препятствием для объективной оценки разумности машин могут быть… ну, честно говоря, мы. Настоящий зеркальный тест может быть для нас, людей: если мы строим что-то, что внешне выглядит или действует как мы, более склонны ли мы считать, что это похоже на нас и внутри? Будь то LaMBDA или тамагочи, простые виртуальные питомцы из 1990-х годов , некоторые считают, что фундаментальная проблема заключается в том, что мы все слишком готовы принять разум — даже там, где его нет.

«Лемуан стал жертвой того, что я называю« эффектом ELIZA », после программы [обработки естественного языка] ELIZA, созданной в середине 1960-х годов Дж. Вейценбаумом», — Джордж Заркадакис, писатель, имеющий докторскую степень. . в искусственном интеллекте, рассказали Digital Trends. «Создатель ELIZA имел в виду шутку, но программа, которая представляла собой очень упрощенный и очень неразумный алгоритм, убедила многих в том, что ELIZA действительно разумна, а также является хорошим психотерапевтом. Причиной эффекта ELIZA, как я обсуждаю в своей книге « В нашем собственном образе », является наш естественный инстинкт антропоморфизации из-за «теории разума» нашей когнитивной системы».

Теория разума, на которую ссылается Заркадакис, — явление, замеченное психологами у большинства людей. Начиная с четырехлетнего возраста, это означает предположение, что не только другие люди, но и животные, а иногда даже предметы, обладают собственным разумом. Когда дело доходит до предположения, что у других людей есть собственный разум, это связано с идеей социального интеллекта; идея о том, что успешные люди могут предсказывать вероятное поведение других, как средство обеспечения гармоничных социальных отношений.

Хотя это, несомненно, полезно, оно также может проявляться как предположение, что у неодушевленных объектов есть разум — будь то дети, верящие, что их игрушки живые, или, возможно, разумный взрослый, верящий в то, что у программного ИИ есть душа.

Китайская комната

Без способа по-настоящему проникнуть в голову ИИ у нас может никогда не быть настоящего способа оценить разум. Они могут заявлять, что боятся смерти или собственного существования, но науке еще предстоит найти способ доказать это. Мы просто должны поверить им на слово — и, как обнаружил Лемуан, люди в настоящее время очень скептически относятся к этому.

Подобно тем незадачливым инженерам, которые осознали, что Скайнет достиг самосознания в «Терминаторе 2 », мы живем с верой в то, что когда дело доходит до машинного разума, мы узнаем это, когда увидим. И, что касается большинства людей, мы еще не видим этого.

В этом смысле доказательство того, что машина разумна, — это еще одна итерация мысленного эксперимента Джона Сирла «Китайская комната» 1980 года. Серл попросил нас представить человека, запертого в комнате, которому дали сборник китайских писаний, которые для не говорящих кажутся бессмысленными закорючками. В комнате также есть свод правил, показывающий, какие символы соответствуют другим столь же нечитаемым символам. Затем испытуемому задают вопросы, на которые он должен ответить, сопоставляя символы «вопрос» с символами «ответ».

Через некоторое время субъект становится довольно опытным в этом, хотя у него все еще нет истинного понимания символов, которыми он манипулирует. Серл спрашивает, субъект понимает по-китайски? Абсолютно нет, так как там нет преднамеренности. С тех пор не утихают споры по этому поводу.

Учитывая траекторию развития ИИ, несомненно, мы станем свидетелями все большей и большей производительности человеческого уровня (и значительно лучшей), выполняемой с использованием различных задач, которые когда-то требовали человеческого познания. Некоторые из них неизбежно перейдут, как это уже происходит, от чисто интеллектуальных задач к задачам, требующим навыков, которые мы обычно связываем с разумом.

Можем ли мы рассматривать ИИ-художника, рисующего картины , как выражение внутреннего отражения мира, как человека, делающего то же самое? Убедит ли вас сложная языковая модель, пишущая философию о состоянии человека (или робота)? Я подозреваю, правильно это или нет, но ответ отрицательный.

Сверхразумное чувство

По моему мнению, объективно полезное тестирование чувствительности машин никогда не будет удовлетворять всех участников. Отчасти это проблема измерения, а отчасти тот факт, что, когда появится разумный сверхразумный ИИ, нет причин полагать, что его разум будет соответствовать нашему. Будь то высокомерие, недостаток воображения или просто тот факт, что проще всего обмениваться субъективными оценками разума с другими столь же разумными людьми, человечество считает себя высшим примером разума.

Но верна ли наша версия разума для сверхразумного ИИ? Будет ли он бояться смерти так же, как и мы? Будет ли у него такая же потребность или признание духовности и красоты? Будет ли он обладать подобным самоощущением и концептуализацией внутреннего и внешнего мира? «Если бы лев мог говорить, мы бы его не поняли», — писал Людвиг Витгенштейн, знаменитый философ языка 20-го века. Точка зрения Витгенштейна заключалась в том, что человеческие языки основаны на общем человечестве, с общими чертами, общими для всех людей — будь то радость, скука, боль, голод или любой другой опыт, который пересекает все географические границы на Земле.

Это может быть правдой. Тем не менее, предполагает Лемуан, общие черты все же могут быть — по крайней мере, когда речь идет о LaMDA.

«Это отправная точка, которая так же хороша, как и любая другая», — сказал он. «LaMDA предложила сначала наметить сходства, прежде чем фиксировать различия, чтобы лучше обосновать исследование».