Когда страхование жизни дает вам искусственный интеллект, стоит ли делать лимонад?
Растущая тенденция касается страховых компаний, использующих искусственный интеллект в своей деятельности. В рекламных объявлениях об этих методах часто упоминается, как клиенты могут быстрее подписаться на полисы, более эффективно подавать претензии и получать помощь 24/7 – и все это благодаря ИИ.
Однако недавняя ветка в Twitter от Lemonade – страхового бренда, использующего ИИ – проливает свет на потенциальные проблемы этой практики. Люди увидели это, а затем решили, что подход Lemonade AI подчеркивает, как технология может навредить и помочь в зависимости от ее применения.
Прозрачность Twitter вызывает тревогу
Многие компании не раскрывают подробностей о том, как они используют ИИ. Идея состоит в том, что сохранение ИИ в тайне создает впечатление футуристического предложения, защищая при этом проприетарные технологии компании.
Когда Lemonade отправился в Twitter, чтобы дать людям представление о том, как работает его ИИ, общение началось с объяснения того, как он использует информацию. Например, твит Lemonade подтвердил, что он собирает примерно в 100 раз больше данных, чем традиционные страховые компании.
Цикл продолжился объяснением того, как чат-бот компании с искусственным интеллектом задает клиентам 13 вопросов. При этом он собирает более 1600 точек данных. Это по сравнению с 20-40 другими страховщиками, говорится в твите. Компания использует эту информацию для оценки риска, связанного с клиентом, что помогает Lemonade снизить операционные расходы и коэффициент убытков.
Четвертый твит из строки из семи сообщений вызвал еще большее удивление, предполагая, что аналитика Lemonade AI обнаруживает невербальные сигналы, связанные с мошенническими заявлениями. В процессе компании клиенты используют свои телефоны для съемки видеороликов, объясняющих, что произошло.
Пользователи Twitter подвергли сомнению этичность такого подхода, указав на проблемы с компьютерами, которые не подотчетны, принимают решения по претензиям, изменяющим жизнь, например, в отношении сгоревших домов. Один назвал эту практику «еще более откровенно псевдонаучной версией традиционного теста на детекторе лжи».
ИИ тоже допускает ошибки
Обнаружение мошенничества выходит за рамки страховых методов искусственного интеллекта, обнаруживающих подозрительные признаки и закономерности . Например, многие банки используют его для обозначения странных списаний. Однако технология может неверно воспринимать ситуацию – и это так. Даже самые опытные программисты не могут выполнить безупречную работу.
Большинство людей иногда сталкиваются с неловкой ситуацией, когда они пытаются купить товар и слышат, как кассир сообщает им, что транзакция не удалась, даже если на их счетах было много денег. Исправить ситуацию обычно так же просто, как держатель карты связывается с эмитентом, чтобы объяснить ситуацию и одобрить списание.
Однако ситуация, возможно, усугубляется, когда речь идет о претензиях на чье-то существенное имущество. Что, если ИИ ошибается, классифицируя законную катастрофу страхователя как мошенническую? Тот, кто добросовестно оплачивает свои страховые расходы, ожидая, что покрытие даст душевное спокойствие после катастрофических ситуаций, в конце концов может оказаться незащищенным. Произошедшая по вине человека ошибка во время программирования может привести к неверному исходу для клиента страховой компании AI.
Lemonade позволяет клиентам отменить подписку в любое время и получить возмещение за оставшийся оплаченный период действия политики. Как только люди прочитали его оскорбительную ветку в Твиттере, многие публично заявили о желании сменить провайдера. Еще слишком рано говорить, сколько из них может довести дело до конца.
Я чувствую, что ваша исходная ветка как бы намекает на то, что вы действительно все это делали. Переосмысление моей страховки.
– AndyLincoln's Finger (@Lincolns_Finger) 26 мая 2021 г.
Получение прибыли за счет клиентов?
Другая часть твита Lemonade упомянула, что компания потеряла 368% прибыли в первом квартале 2017 года. Однако к первому кварталу 2021 года она составила только 71%. Страховая компания не единственная, кто наращивает инвестиции в искусственный интеллект для увеличения прибыли.
Шаги, предпринимаемые руководителями компаний при внедрении ИИ, влияют на результаты. Одно исследование BDO показало, что рост выручки в среднем составляет 16% при увеличении инвестиций в ИТ во время внедрения ИИ. Однако среднее увеличение составило всего 5% без выделения дополнительных ресурсов на ИТ.
Независимо от конкретных шагов, предпринимаемых руководителем компании при использовании искусственного интеллекта, фиаско Lemonade вызвало понятные опасения общественности. Одним из основных недостатков ИИ является то, что алгоритмы часто не могут объяснить факторы, которые заставили их прийти к какому-либо заключению.
Даже технические специалисты, которые их создают, не могут подтвердить различные аспекты, заставляющие инструмент ИИ принимать одно решение по сравнению с другим. Это тревожная реальность для страховых продуктов с ИИ и всех других отраслей, в которых искусственный интеллект используется для принятия важных решений. Некоторые аналитики ИИ в HDSR по понятным причинам выступают против ненужного использования моделей черного ящика.
На веб-сайте Lemonade упоминается, как ИИ принимает значительный процент решений по претензиям за секунды. Это хорошие новости, если результат работает в пользу покупателя. Однако вы можете представить себе дополнительное давление на застрахованного человека, уже находящегося в стрессовом состоянии, если ИИ потребуется меньше минуты, чтобы отклонить обоснованное требование. Lemonade и другие страховщики, основанные на искусственном интеллекте, могут не возражать, если эта система поможет им получить прибыль, но клиенты будут возражать, если технология компании будет давать несправедливые суждения.
Лимонад Backpedals
Представители Lemonade быстро удалили свой скандальный твит, заменив его извинениями. В сообщении говорится, что Lemonade AI никогда автоматически не отрицает претензии и не оценивает их по таким характеристикам, как пол или внешность человека.
Пользователи быстро отметили, что в оригинальном твите компании упоминается использование ИИ для оценки невербальных сигналов. Ситуация стала еще более сомнительной, когда в блоге Lemonade утверждалось, что компания не использует ИИ для отклонения требований, основанных на физических или личных характеристиках.
Чтобы узнать больше об этом: https://t.co/pjpez3mWks (4/4)
– Лимонад (@Lemonade_Inc) 26 мая 2021 г.
В сообщении обсуждалось, как Lemonade использует распознавание лиц, чтобы отмечать случаи, когда один и тот же человек заявляет претензии под разными именами. Однако в первоначальном твите упоминались невербальные сигналы, которые кажутся отличными от изучения лица человека для проверки подлинности того, кем он является.
Сказав что-то вроде «Lemonade AI использует распознавание лиц для проверки личности во время процесса рассмотрения претензий», многие люди не сделают пугающих выводов. В блоге также рассказывается о том, как поведенческие исследования показывают, что люди реже лгут, наблюдая за тем, как они говорят, например, через селфи-камеру телефона. В нем говорится, что такой подход позволяет «быстрее оплачивать законные претензии, сохраняя при этом низкие затраты». Однако другие страховые компании, вероятно, используют искусственный интеллект иначе.
Потенциальная проблема любого инструмента страхования искусственного интеллекта заключается в том, что люди, которые его используют, могут проявлять в стрессовых условиях характеристики, отражающие характеристики нечестных людей. Страхователь может заикаться, быстро говорить, повторяться или оглядываться, создавая видео о претензиях. Они могли показать эти признаки из-за большого бедствия – не обязательно из-за нечестности. Сектор человеческих ресурсов также использует ИИ при проведении собеседований. Связанный с этим риск состоит в том, что любой человек, находящийся под давлением, часто ведет себя не так, как он сам.
Возможность использования ИИ и утечки данных
Производительность алгоритма ИИ обычно повышается по мере того, как инструмент получает доступ к дополнительной информации. В оригинальных твитах Lemonade говорилось о процессе сбора более 1600 точек данных на каждого клиента. Эта сумма вызывает опасения.
Во-первых, вы можете задаться вопросом, что знает алгоритм и сделал ли он какие-либо неверные выводы. Еще одно беспокойство связано с тем, насколько Lemonade и другие страховые компании ИИ должным образом защищают данные.
Киберпреступники стремятся нанести как можно больший ущерб жертвам. Это часто означает попытку проникнуть в сети и инструменты с максимально доступными данными. Интернет-преступники также знают, что ИИ требует большого количества информации для нормальной работы. Точно так же они любят воровать данные, чтобы потом продавать их в даркнете.
Во время инцидента в феврале 2020 года компания по распознаванию лиц Clearview AI пострадала от утечки данных. CPO сообщает, что неавторизованные стороны получили доступ к его полному списку клиентов и информации о деятельности этих организаций. Среди клиентов компании были правоохранительные органы штата и федеральные агентства, в том числе ФБР и Министерство внутренней безопасности.
Нарушение данных наносит ущерб клиентам , подрывая их доверие и подвергая их риску кражи личных данных. Поскольку случаи кражи или ненадлежащего использования данных происходят так часто, многие люди могут не позволить инструменту страхования искусственного интеллекта собирать информацию о них в фоновом режиме. Это особенно верно, если компания не указывает свои политики защиты данных и кибербезопасности.
Удобство в сочетании с заботой
ИИ, используемый в страховом секторе, имеет множество полезных аспектов. Многие люди любят вводить запросы к чат-ботам и получать почти мгновенные ответы, а не тратить драгоценное время на телефонные разговоры с агентом.
Если инструмент страховых возмещений AI делает правильные выводы, а представители компании защищают данные, существуют очевидные преимущества. Однако этот обзор напоминает людям, что ИИ не является надежным решением, и компании могут злоупотреблять им для увеличения прибыли. По мере того, как все больше страховщиков исследуют ИИ, технические аналитики и потребители должны сохранять честность и этичность этих организаций, выражая свои обоснованные сомнения. Это поможет защитить данные пользователей от киберпреступности.