23
Пн, дек

Обеспечение надежности роботов: этика искусственного интеллекта

robot manПо мере того, как использование ИИ распространяется в сфере страхования, он должен снижать предвзятость, но при этом обеспечивать точные результаты.

Страхование - это бизнес, основанный на решениях. Это особенно верно на протяжении всего жизненного цикла полиса, от андеррайтинга до продления и на протяжении всего процесса рассмотрения претензий. Каждый день профессионалы в области страхования делают важный выбор, который влияет как на страховщика, так и на застрахованного и может иметь долгосрочные последствия для бизнеса. Страховщики отвечают на такие вопросы, как: какой риск связан с новым полисом? Стоит ли андеррайтинг риска и как следует составить полис, чтобы наилучшим образом снизить этот риск?

Когда страхователь предъявляет претензию, специалист по претензиям должен решить, является ли она законной или демонстрирует признаки мошенничества. Предпочитает ли страхователь управлять претензией онлайн без вмешательства страховщика? Если дело касается специалиста по урегулированию претензий, подходит ли претензия для прямой обработки и быстрой оплаты для экономии времени и усилий?

Страховщики принимают сотни макро- и микрорешений в процессе андеррайтинга и урегулирования претензий, и за последние несколько лет руководители страховых компаний изучали, как искусственный интеллект (ИИ) может помочь автоматизировать или оптимизировать принятие решений на протяжении всего жизненного цикла полиса и процесса урегулирования претензий. Лучшее понимание возможностей ИИ позволяет игрокам страхового рынка вкладывать больше средств в эти технологии.

ИИ - это вопрос доверия

Несмотря на то, что уровень комфорта отрасли с ИИ быстро растет, остается один важный вопрос; «Могу ли я доверять решению робота?» Ответ на этот вопрос имеет решающее значение, особенно в ситуациях, когда ИИ требуется для быстрого и эффективного принятия точных решений. Поскольку многие рассматривают ИИ как технологию «черного ящика», есть опасения, что решения, принимаемые с помощью ИИ, не обязательно будут лучшими. Для многих причина их беспокойства заключается в предвзятости.

Как мы можем знать, что алгоритмы, которым мы доверяем для принятия важных решений, не подвергаются чрезмерному влиянию? Можем ли мы верить, что такие факторы, как пол, этническая принадлежность, район, в котором живет клиент, или другие потенциально проблемные данные, не влияют на такие решения, как «подозрительно это утверждение или нет?»

Минимизация предвзятости

Хорошая новость заключается в том, что отрасль заметила и принимает меры, чтобы минимизировать риск предвзятости. Например, в 2019 году группа из 52 экспертов, собранная Европейской комиссией, опубликовала свои «этические правила для надежного ИИ». Целью Комиссии является поддержка разработки и внедрения этичного и заслуживающего доверия ИИ во всех секторах экономики при условии, что он будет «этичным, устойчивым, ориентированным на человека и уважающим фундаментальные ценности и права». Это очень похоже на руководящие принципы, недавно принятые Национальной ассоциацией комиссаров по страхованию (NAIC), в которых говорится: «Системы искусственного интеллекта не должны быть предназначены для нанесения вреда или обмана людей и должны быть реализованы таким образом, чтобы минимизировать негативные последствия».

Построение беспристрастного алгоритма

Мы уже в состоянии уменьшить влияние предвзятости, особенно при использовании ИИ для поддержки принятия более эффективных решений в процессе рассмотрения претензий и андеррайтинга. Отрасль должна переосмыслить проблему, которую пытается решить. Проблема должна быть разложена на множество «подзадач» и рассматриваться индивидуально для получения оптимального результата.

Примером этой концепции является использование ИИ для выявления потенциально мошеннических заявлений. Крайне важно понимать, что ИИ не должен пытаться определить, является ли претензия мошеннической. ИИ должен принимать решения по различным аспектам претензии, чтобы определить, являются ли они подозрительными или нет. Таким образом, должны быть разработаны алгоритмы для выявления сомнительного поведения и определения степени подозрительности. По сути, претензия не вызывает подозрений только из-за этнической принадлежности или пола страхователя или района, в котором он живет. Алгоритмы должны отражать этот факт.

Человеческий фактор в ИИ

Также важно отметить, что ИИ хорош настолько, насколько хороши люди, стоящие за ним. В примере использования ИИ для обнаружения мошенничества с претензиями, если целью является создание алгоритма, который приводит к процессу, когда «робот говорит о мошенничестве», это неверно. Вместо этого работайте над достижением цели «робот думает о мошенничестве и почему», чтобы убедиться, что мы достигаем правильного результата. Более того, человек должен также посмотреть на результат «робот думает о мошенничестве», чтобы определить, правильное ли решение, к которому пришел робот, и как он пришел к этому решению. Очень важно сообщить ИИ, когда он делает это правильно, а когда ошибается. По сути, создание лучшего, беспристрастного ИИ - это процесс, в котором люди и роботы работают бок о бок, учатся друг у друга и соответствующим образом приспосабливаются.

Сохранение надежности роботов

Искусственный интеллект может принести огромную пользу страховщикам для бизнеса, позволяя принимать точные и эффективные решения в любом масштабе. Чтобы делать это эффективно, отрасль должна внимательно подходить к созданию и развертыванию ИИ, предназначенного для принятия наилучших решений. Это принципиально означает без предвзятости. Сохраняя фокус роботов на правильных вещах, подкрепляя их, когда они принимают правильные решения, и настраивая свои алгоритмы, когда они этого не делают, мы можем сохранить надежность роботов.

Подготовлено порталом Allinsurance.kz