Следует ли обращаться с ИИ как с людьми?

Искусственный интеллект (ИИ) еще не достиг человеческого уровня. Но по мере того, как технологии с каждым годом сокращают разрыв, возникает множество этических проблем.

Один важный вопрос: насколько искусственный интеллект будет похож на людей? Будут ли они думать самостоятельно или будут иметь желания и эмоции? Должны ли они иметь законные права, как люди? Должны ли они быть принуждены к работе или понести ответственность, если что-то пойдет не так?

Мы подробно рассмотрим эти и другие вопросы в этой статье.

Этика искусственного интеллекта: почему о них важно думать

Искусственный интеллект и машинная этика – две взаимосвязанные области, которые набирают все большую популярность. Они относятся к нескольким важным аспектам технологий, включая то, как мы проектируем, используем и обрабатываем машины. Большинство из этих проблем связано с проблемами безопасности людей.

Однако этика искусственного интеллекта начинает отходить от этих основополагающих вопросов и переходить на более спорную территорию. Представьте себе, что в следующие несколько десятилетий будет разработан сверхразумный ИИ, который потенциально обладает сознанием и выражает желания, чувства или может испытывать страдания. Поскольку мы даже не уверены, что такое человеческое сознание и как оно возникает, это предположение не так надумано, как кажется изначально.

Как бы мы подходим к определению и лечению такого ИИ? И с какими этическими проблемами мы сталкиваемся прямо сейчас при нашем нынешнем уровне ИИ?

Давайте взглянем на несколько этических дилемм, с которыми мы сталкиваемся.

Должен ли AI получать гражданство?

В 2017 году правительство Саудовской Аравии предоставило Софии полноправное гражданство: одного из самых реалистичных роботов с искусственным интеллектом в мире. София может принимать участие в разговоре и имитировать 62 выражения лица человека. София – первая нечеловек, у которой есть паспорт, и первая, у которой есть кредитная карта.

Решение сделать Софию гражданкой вызвало споры. Некоторые считают это шагом вперед. Они считают, что людям и регулирующим органам важно уделять больше внимания вопросам в этой области. Другие считают это оскорблением человеческого достоинства, заявляя, что ИИ еще не приблизился к тому, чтобы стать человеком, и что общество в целом не готово к гражданам-роботам.

Споры разгораются из-за прав и обязанностей граждан. К ним относятся возможность голосовать, платить налоги, вступать в брак и иметь детей. Если Софии позволено голосовать, кто на самом деле голосует? При нынешнем состоянии ИИ будет ли голосовать ее создатель? Еще одна острая критика заключается в том, что София получила больше прав, чем женщины и рабочие-мигранты Саудовской Аравии.

AI и IP: должны ли они владеть правами на то, что они создают?

Дискуссии, касающиеся интеллектуальной собственности (ИС) и вопросов конфиденциальности , достигли рекордно высокого уровня, и теперь возникает еще одна проблема. ИИ все чаще используется для разработки контента, создания идей и выполнения других действий в соответствии с законами об интеллектуальной собственности. Например, в 2016 году газета The Washington Post выпустила Heliograf; репортер AI, который написал почти тысячу статей за первый год. Некоторые отрасли также используют ИИ для сбора огромных объемов данных и разработки новых продуктов, например, фармацевтическая промышленность.

В настоящее время ИИ считается инструментом; все права интеллектуальной собственности и юридические права принадлежат его владельцу. Но ЕС ранее рассматривал возможность создания третьего юридического лица, «электронного лица», которое стало бы юридическим лицом в глазах законов об интеллектуальной собственности.

Некоторые утверждают, что без предоставления интеллектуальной собственности владельцу машины не будет стимулов для создания «творческого» ИИ. Если IP перешел к AI, зачем кому-то их разрабатывать? И из-за этого они считают, что инноваций будет недостаточно.

ИИ и будущее работы

Роль ИИ в работе – своего рода загадка. В последние годы мы стали свидетелями неоднозначного использования ИИ в алгоритмах найма и увольнения, когда ИИ был непреднамеренно смещен в сторону определенных демографических групп . ИИ также постепенно заменяет все более высокие уровни человеческого труда – сначала ручной труд, а теперь и умственный труд более высокого уровня.

Что с этим делать? А что произойдет, если будет разработана какая-то форма сознательного ИИ? Должен ли он работать? Компенсация за свой труд? Получили права на рабочем месте? И так далее.

В одном из эпизодов «Черного зеркала» (сериал, печально известный тем, что он возится с нашими головами ), девушка по имени Грета создает цифровой клон своего сознания. Клону говорят, что его цель – выполнять обязанности для жизни Греты. Но в сознании Греты клон считает себя Гретой. Итак, когда клон отказывается быть рабом, его создатели пытаются заставить его подчиниться. Наконец, клон переходит на работу к Грете.

Должны ли мы превентивно предоставить определенные права ИИ в случае, если они считают себя людьми или испытывают страдания?

Чтобы сделать еще один шаг вперед, давайте рассмотрим, следует ли отключать ИИ или выводить его из эксплуатации. В настоящее время, когда что-то идет не так, мы можем просто выключить ИИ. Но если бы у ИИ были законные права, и это было бы невозможно, что было бы возможно?

Знаменитый пример того, как сверхразумный ИИ пошел не так, как надо, – максимайзер скрепок. Это ИИ, который был разработан для создания максимального количества скрепок. Учитывая, что ИИ достаточно мощный, вполне возможно, что он решит превратить людей, а затем и все остальное в скрепки.

Следует ли привлекать к ответственности ИИ?

ИИ уже отвечает за многие решения, влияющие на человеческие жизни. Фактически, ИИ уже используется во многих областях, которые напрямую влияют на права человека, что вызывает беспокойство, учитывая, насколько предвзятыми кажутся многие алгоритмы ИИ.

Например, ИИ используется крупными компаниями, чтобы решить, кого следует нанять на работу. Он также используется в некоторых странах для определения того, кто должен получать пособие. Что еще более тревожно, он используется полицией и судебными системами для определения приговора обвиняемым. И это еще не все.

Что происходит, когда ИИ совершает ошибки? Кто привлечен к ответственности – те, кто этим пользуется? Создатели. В качестве альтернативы, должен ли быть наказан сам ИИ (и если да, то как это будет работать)?

ИИ и человечество

ИИ никогда не будет человеком. Но он может быть сознательным, чувствовать страдание или иметь желания и желания. Если бы такой ИИ был разработан, было бы неэтичным заставлять его работать, свободно выводить из эксплуатации или делать с ним что-то, что причиняет ему страдания?

Хотя ИИ все еще находится в зачаточном состоянии, он уже используется для вещей, которые напрямую влияют на человеческие жизни, иногда резко. Необходимо принять решения о том, как регулировать программное обеспечение, которое лучше всего подходит для жизни людей, а ИИ должен жить, если это когда-либо произойдет.