29
Вт, апр

Искусственный интеллект в страховании: вызовы регулирования и новые требования к корпоративному управлению

AI 3Внедрение искусственного интеллекта (ИИ) становится одной из самых актуальных тем в мировой страховой индустрии. Страховые компании все активнее интегрируют ИИ в процессы андеррайтинга, ценообразования, урегулирования убытков и обслуживания клиентов. Это позволяет значительно повысить скорость обработки данных, увеличить точность оценки рисков и улучшить качество взаимодействия со страхователями. Однако параллельно с технологическими преимуществами усиливается и обеспокоенность регулирующих органов.


Использование ИИ ставит перед страховщиками новые задачи: обеспечение прозрачности алгоритмов, предотвращение несправедливой дискриминации, соблюдение требований справедливого ценообразования и создание устойчивых систем внутреннего контроля. Юридические и этические аспекты применения ИИ становятся неотъемлемой частью корпоративного управления в страховом бизнесе.

Регуляторное давление формирует новые правила игры

Широкое распространение технологий искусственного интеллекта не могло остаться без внимания регулирующих органов. К примеру, самый развитый в части технологий ИИ рынок США уже сделал конкретные шаги в направлении регулирования ИИ. На сегодняшний день несколько штатов США — в частности, Калифорния, Колорадо и Нью-Йорк — уже приняли законодательные акты или рекомендации, регулирующие использование ИИ в страховании. Более того, 24 штата утвердили собственные версии Типового бюллетеня Национальной ассоциации страховых комиссаров (NAIC) 2023 года, посвященного применению ИИ страховщиками.

Основной целью новых регуляций является минимизация рисков несправедливой дискриминации, обеспечение справедливости, прозрачности и ответственности при использовании интеллектуальных систем.

Типовые требования ytrjnjhs[ штатов включают:

• создание систем внутреннего тестирования ИИ;
• внедрение структур корпоративного управления и контроля;
• обязательное письменное оформление политик и процедур;
• необходимость прозрачности в отношении потребителей;
• требования к сертификации и контролю качества алгоритмов.

Эти меры направлены на то, чтобы технологии ИИ служили интересам общества и соответствовали установленным нормам регулирования страхового бизнеса.

Справедливая и несправедливая дискриминация: вечная проблема в новом контексте

Хотя использование искусственного интеллекта открывает для страховщиков новые горизонты в области оценки рисков, фундаментальные принципы регулирования страховой деятельности остаются неизменными. Национальная ассоциация страховых комиссаров (NAIC) подчёркивает, что страхование изначально строится на принципе объективной дискриминации рисков. Это означает, что различия между страхователями допустимы и даже необходимы, но лишь в той мере, в какой они основаны на объективных, актуарно обоснованных данных о вероятности наступления страхового события.

Тем не менее, внедрение ИИ в процессы страхования несет в себе новые риски, в первую очередь связанные с возможностью возникновения несправедливой дискриминации. Такие ситуации могут возникнуть, когда алгоритмы принимают решения, опираясь на данные, прямо или косвенно связанные с защищёнными характеристиками страхователей — такими как раса, пол, возраст или этническая принадлежность. Даже при отсутствии явного намерения дискриминировать, использование коррелирующих переменных способно приводить к результатам, которые будут признаны несправедливыми и нарушающими принципы равного доступа к страховым продуктам.

В этом контексте «Принципы ИИ», принятые NAIC в 2020 году, устанавливают важные ориентиры для всех субъектов, применяющих ИИ в страховании. От страховщиков ожидается соблюдение справедливости и этичности при принятии решений с использованием ИИ, что предполагает активную работу по минимизации предвзятости алгоритмов. Кроме того, критически важным является обеспечение прозрачности моделей, то есть возможность объяснить клиентам, как именно формируются решения, затрагивающие их интересы. Подотчетность страховщиков за результаты функционирования систем ИИ означает, что они не могут уклоняться от ответственности, ссылаясь на автономность или сложность алгоритмов. Наконец, устойчивость и надёжность применяемых технологий должны быть гарантированы на протяжении всего срока эксплуатации систем ИИ.

При этом основным нормативным ориентиром для оценки правомерности использования искусственного интеллекта в страховой деятельности остаётся Закон о недобросовестной торговой практике (Unfair Trade Practices Act). Этот закон устанавливает запрет на дискриминационные или вводящие в заблуждение методы ведения страхового бизнеса, и его положения в полной мере применимы к новым технологическим реалиям, связанным с применением интеллектуальных систем.

Таким образом, даже в эпоху цифровой трансформации страхового рынка базовая правовая логика остается неизменной: технологии должны служить усилению справедливости и защите общественных интересов, а не подрывать их.

Корпоративное управление: новая грамотность в области ИИ

Внедрение искусственного интеллекта в страховые процессы требует от страховых компаний серьезного пересмотра системы корпоративного управления. Сегодня от советов директоров ожидается наличие так называемой "грамотности в области ИИ", под которой понимаются навыки, знания и осведомлённость о возможностях, ограничениях и рисках, связанными с применением интеллектуальных систем в страховании. Без понимания сути работы ИИ и связанных с ним угроз, руководители компаний не смогут полноценно исполнять свои обязанности по надзору за технологическими решениями и управлению связанными с ними рисками.

Одним из ключевых требований становится необходимость обеспечения того, чтобы использование технологий ИИ было согласовано с целями и ценностями организации. Это предполагает, что при внедрении новых решений страховщики должны учитывать не только экономическую целесообразность, но и соответствие своим базовым принципам, включая защиту интересов клиентов и соблюдение регуляторных норм. Вторым важным элементом является повышение технологической компетентности членов совета директоров. Это означает, что участники корпоративного управления должны иметь достаточный уровень понимания технологических процессов, чтобы эффективно оценивать предложенные стратегии, контролировать риски и принимать обоснованные решения.

Кроме того, компании должны разработать четкие критерии для оценки эффективности систем ИИ. Такие критерии необходимы для объективной оценки того, насколько интеллектуальные решения способствуют достижению целей организации, какие результаты приносят, и соответствуют ли они заявленным ожиданиям по прозрачности, справедливости и точности. Важным направлением работы становится и стратегическая интеграция ИИ в долгосрочные планы компании. Использование интеллектуальных технологий должно рассматриваться не как временная инициатива, а как элемент устойчивой корпоративной стратегии, направленной на повышение конкурентоспособности в условиях цифровой трансформации.

Дополнительно создание письменной программы ответственного использования ИИ, так называемой программы AIS (Artificial Intelligence System Program), становится обязательным условием для страховщиков, особенно в тех случаях, когда ИИ принимает или существенно влияет на решения, касающиеся предоставления или стоимости страховых услуг. Такая программа должна регламентировать процессы разработки, внедрения, контроля и аудита систем ИИ, устанавливать требования к прозрачности, справедливости и подотчетности, а также закреплять ответственность за управление системами ИИ на уровне высшего руководства компании.

Риски и возможности применения ИИ в страховании

Внедрение искусственного интеллекта в страхование открывает перед компаниями широкие перспективы, одновременно сопровождаясь определёнными рисками, которые необходимо учитывать при интеграции новых технологий.

Среди ключевых преимуществ применения ИИ в страховании на первое место выходит ускорение процессов андеррайтинга и урегулирования убытков. Использование интеллектуальных алгоритмов позволяет значительно сократить время принятия решений и обработки заявлений, что напрямую повышает эффективность работы страховых компаний. Дополнительным плюсом становится повышение точности оценки рисков: ИИ способен анализировать большие массивы данных, выявлять сложные корреляции и учитывать множество факторов, что делает расчёты более актуарно обоснованными и позволяет более справедливо устанавливать страховые тарифы.

Внедрение автоматизированных решений также способствует снижению операционных издержек. Благодаря оптимизации внутренних процессов страховщики могут перераспределять ресурсы, минимизировать необходимость в рутинной работе и сосредоточиться на более сложных задачах, требующих участия специалистов. Одновременно улучшается качество обслуживания клиентов: сокращаются сроки рассмотрения обращений, растёт прозрачность процедур, повышается персонализация страховых предложений. Всё это в совокупности укрепляет конкурентоспособность страховых компаний на рынке, позволяя им быстрее адаптироваться к изменяющимся ожиданиям клиентов и технологическим тенденциям.

Однако наряду с очевидными возможностями внедрение ИИ сопровождается серьёзными рисками, которые требуют системного управления. Одной из главных угроз являются возможные судебные иски, связанные с недобросовестным рассмотрением претензий. Использование алгоритмов без должной прозрачности или контроля может привести к ситуациям, когда потребители оспаривают решения страховщика как дискриминационные или несправедливые. В этой связи также существует риск обвинений в нарушении принципов справедливой недискриминации, особенно если модели машинного обучения допускают косвенное влияние защищённых характеристик клиентов (таких как раса, пол или возраст) на итоговые решения.

Не менее серьёзной проблемой становится отсутствие страхового покрытия для убытков, вызванных ошибками работы ИИ-систем. Если ущерб, причинённый за счёт неправильного функционирования алгоритма, не подпадает под действующие условия страховых программ, это может привести к существенным финансовым потерям для самой страховой компании. Отдельного внимания требует и вопрос безопасности данных: использование ИИ предполагает обработку больших объёмов персональной информации, что увеличивает риски утечек, кибератак и нарушения конфиденциальности.

Таким образом, успешное использование ИИ в страховании возможно только при одновременном управлении его возможностями и рисками. Страховые компании должны не только стремиться к максимальной эффективности своих процессов, но и строить надёжные механизмы внутреннего контроля, обеспечивающие соблюдение этических норм, защиту интересов потребителей и соответствие требованиям регулирующих органов.

Выбор между созданием собственной системы и использованием решений поставщиков

Многие страховые компании, рассматривающие внедрение искусственного интеллекта в свои бизнес-процессы, сталкиваются с важным стратегическим выбором: создавать ИИ-системы самостоятельно или использовать решения сторонних поставщиков. Этот вопрос требует глубокого анализа, поскольку от выбранной стратегии напрямую зависит не только скорость цифровой трансформации компании, но и уровень контроля над рисками, связанными с использованием технологий.

В случае выбора стороннего решения процесс due diligence приобретает особое значение. Страховщик обязан тщательно оценить потенциального поставщика по ряду ключевых критериев. Прежде всего, критически важно учитывать опыт поставщика в работе с аналогичными типами страхования. Компании, имеющие успешную практику внедрения ИИ в страховую отрасль, лучше понимают специфику требований к моделям, риски отрасли и ожидания регуляторов. Немаловажно также изучить, какие методы обучения и тестирования применяет поставщик для своих алгоритмов, насколько они устойчивы к ошибкам, и как осуществляется контроль качества решений.

Вопрос защиты персональных данных стоит особенно остро. Страховые компании работают с большим объемом чувствительной информации, поэтому необходимо удостовериться, что поставщик придерживается строгих стандартов безопасности данных, имеет соответствующие политики хранения и обработки информации и применяет надежные технические меры защиты. Отдельного внимания требует и анализ подхода поставщика к этическому использованию ИИ. Компании должны убедиться, что методы разработки и применения алгоритмов направлены на минимизацию рисков несправедливой дискриминации и соблюдение принципов справедливости, прозрачности и подотчетности.

Важно понимать, что даже при привлечении внешнего поставщика страховая компания сохраняет полную юридическую и регуляторную ответственность за использование технологий. Страховщики не могут переложить обязательства на сторонние организации в случае нарушения законодательства или возникновения неблагоприятных последствий от работы систем ИИ. Ответственность за надлежащую работу алгоритмов, их соответствие регуляторным требованиям и защите интересов страхователей остается на самой страховой компании.

Таким образом, решение о самостоятельной разработке или выборе поставщика должно приниматься взвешенно, с полным осознанием последствий для управления рисками, корпоративной ответственности и долгосрочной стратегии развития компании.

Прогнозы: что ждет страхование в эпоху ИИ

В марте 2025 года рабочая группа NAIC по вопросам искусственного интеллекта обсудила ключевые направления дальнейшего развития регулирования в страховой отрасли в эпоху активного внедрения ИИ. Одним из основных шагов, которые планируется предпринять, является установление единых стандартов для систем искусственного интеллекта. Такие стандарты должны обеспечить согласованность требований на уровне всей отрасли, независимо от юрисдикции, что упростит страховщикам процессы соответствия и снизит вероятность неоднозначной трактовки требований в разных штатах.

Также рассматривается возможность создания национального реестра сертифицированных поставщиков ИИ-решений для страхового рынка. Такой реестр позволит страховщикам выбирать технологии, которые прошли предварительную проверку на соответствие нормативным требованиям и принципам добросовестности, минимизируя риск привлечения к ответственности за использование небезопасных или дискриминационных систем.

Особое внимание уделяется необходимости усиления прозрачности: страховые компании, использующие ИИ, в перспективе могут быть обязаны предоставлять потребителям чёткие и понятные объяснения принимаемых автоматизированных решений. Прозрачность в работе алгоритмов станет критически важным элементом доверия клиентов к страховому рынку.

Одновременно с этим предполагается введение требования обязательного участия человека в процессе принятия критически важных решений. Это позволит снизить вероятность ошибок, обусловленных ограничениями технологий, и сохранить возможность оперативного вмешательства там, где от решения зависят значительные права и интересы страхователей.

Наконец, одним из направлений регулирования станет разработка унифицированных критериев для оценки систем ИИ, основанных на типах рисков и направлениях деятельности. Эти критерии помогут стандартизировать практики проверки алгоритмов, обеспечивая объективность и сопоставимость результатов в рамках отраслевых проверок, аудитов и контролирующих процедур.

Все эти меры, как отмечают представители NAIC, имеют одну стратегическую цель: минимизировать потенциальный вред для потребителей и поддерживать устойчивость и надёжность страхового рынка на фоне стремительного технологического прогресса.

Возвращение к фундаментальным принципам

Искусственный интеллект меняет процессы страхования, но не отменяет базовых принципов регулирования. Страхование, как и прежде, должно обеспечивать справедливость, прозрачность и защиту интересов общества. ИИ — это лишь инструмент, который при грамотном применении может стать драйвером развития отрасли, но при неправильном использовании способен усилить существующие риски.

Основной вывод, который можно сделать, анализируя сложившуюся картину: интеграция ИИ в страхование требует не только технологической готовности, но и зрелого корпоративного управления, ответственности и соблюдения этических стандартов.

 Подготовлено порталом Allinsurance.kz