Большинство людей не доверяют искусственному интеллекту и хотят регулирования, говорится в новом опросе
Новое исследование показало, что большинство взрослых американцев не доверяют инструментам искусственного интеллекта (ИИ), таким как ChatGPT , и беспокоятся об их потенциальном неправильном использовании. Это говорит о том, что частые скандалы, связанные с вредоносным ПО и дезинформацией, созданными ИИ, приносят свои плоды и что общественность может стать все более восприимчивой к идеям регулирования ИИ.
Опрос, проведенный корпорацией MITRE и Harris Poll, утверждает, что только 39% из 2063 опрошенных взрослых американцев считают, что сегодняшние технологии искусственного интеллекта «безопасны и надежны», что на 9% меньше, чем когда две фирмы проводили свой последний опрос в ноябре 2022 года.
Что касается конкретных проблем, 82% людей беспокоились по поводу дипфейков и «другого искусственно созданного контента», а 80% опасались, как эта технология может быть использована в атаках вредоносного ПО. Большинство респондентов обеспокоены использованием ИИ для кражи личных данных, сбора личных данных, замены людей на рабочих местах и многого другого.
Фактически, опрос показывает, что люди становятся более осторожными в отношении влияния ИИ на различные демографические группы. В то время как 90% бумеров обеспокоены влиянием дипфейков, 72% представителей поколения Z также обеспокоены той же темой.
Хотя молодые люди с меньшим подозрением относятся к ИИ и с большей вероятностью будут использовать его в повседневной жизни, в ряде областей остаются серьезные опасения, в том числе о том, должна ли отрасль делать больше для защиты населения и следует ли регулировать ИИ.
Сильная поддержка регулирования
Снижение поддержки инструментов искусственного интеллекта, вероятно, было вызвано месяцами негативных историй в новостях, касающихся инструментов генеративного искусственного интеллекта, а также противоречий, связанных с ChatGPT , Bing Chat и другими продуктами. По мере того, как растет количество историй о дезинформации, утечках данных и вредоносном ПО, создается впечатление, что общественность становится менее восприимчивой к надвигающемуся будущему ИИ.
Когда в опросе MITRE-Harris спросили, должно ли правительство вмешаться в регулирование ИИ, 85% респондентов поддержали эту идею — на 3% больше, чем в прошлый раз. Те же 85% согласились с утверждением, что «обеспечение безопасности ИИ для публичного использования должно стать общенациональным усилием всей промышленности, правительства и научных кругов», в то время как 72% считают, что «федеральному правительству следует уделять больше времени и средств ИИ». исследования и разработки в области безопасности».
Интересна широко распространенная тревога по поводу использования ИИ для улучшения атак вредоносных программ. Недавно мы говорили с группой экспертов по кибербезопасности на эту тему, и, похоже, все пришли к выводу, что, хотя ИИ и может использоваться во вредоносных программах, на данный момент он не является особенно сильным инструментом. Некоторые эксперты считали, что его способность писать эффективный вредоносный код была плохой, в то время как другие объясняли, что хакеры, скорее всего, найдут лучшие эксплойты в публичных репозиториях, чем обращаясь за помощью к ИИ.
Тем не менее, растущий скептицизм в отношении всего, что связано с искусственным интеллектом, может в конечном итоге повлиять на усилия отрасли и побудить такие компании, как OpenAI, вкладывать больше денег в защиту общественности от продуктов, которые они выпускают. И при такой огромной поддержке не удивляйтесь, если правительства раньше или позже начнут вводить регулирование ИИ .