23
Вт, апр

ИИ привносит в портфели потенциал систематического накопления риска

AI 3Поскольку искусственный интеллект (ИИ) практически влияет на все аспекты повседневной жизни, количество пробелов в страховании при использовании ИИ в последние годы резко возросло.

Глобальный перестраховщик Munich Re подчеркнул это в недавнем техническом документе,как риски ИИ в рамках традиционных страховых полисов могут стать значительным неожиданным риском для портфелей страховщиков.

Михаэль Бергер, руководитель отдела искусственного интеллекта в сфере страхования в Munich Re, рассказал Reinsurance News о том, как перестраховочная компания решает проблемы, связанные с этой технологией.

Бергер объяснил, что есть два ключевых пробела, о которых страхователям следует знать при использовании ИИ.

«Одним из примеров являются чистые экономические потери. Например, если компания использует внутренние операции ИИ. Допустим, банк использует ИИ для извлечения информации из документов, но если ИИ по сути выдает слишком много ошибок, то получается много неверной информации. Это будет означать, что людям придется выполнять работу заново, а это повлечет за собой множество дополнительных расходов».

Он продолжил: «Второй областью пробелов в охвате может быть дискриминация ИИ. Примером могут служить заявки на кредитные карты и лимиты кредитных карт. ИИ может использоваться для определения подходящего кредитного лимита для заявителя, и в результате может возникнуть дискриминация, которая не покрывается другими страховыми полисами».

Двигаясь дальше, Бергер объяснил, как риски, связанные с искусственным интеллектом в рамках традиционных страховых полисов, могут стать значительным и неожиданным риском для портфеля страховщика.

«С ИИ приходит своего рода систематическое накопление потенциала риска, особенно если одна модель используется в аналогичных сценариях использования в разных компаниях. Еще одна область, которую следует учитывать, — это риски нарушения авторских прав при использовании генеративных моделей ИИ. Пользователи могут использовать генеративную модель искусственного интеллекта (GenAI) для создания текстов или изображений, но эта модель потенциально может создавать тексты или изображения, которые очень похожи на тексты или изображения, защищенные авторским правом. Если пользователь решит использовать этот контент, он может столкнуться с исками о нарушении авторских прав и судебными исками против него».

Также Бергер отметил, что многие компании могут решить создавать свои собственные модели ИИ не с нуля, а опираясь на большие модели GenAI и развивая их.

«Компании могут использовать эти модели в качестве основополагающих. Но если базовая модель имеет определенный риск создания активов, нарушающих авторские права, если она используется в качестве базовой модели, тогда риск сохранится, даже если она просто используется в качестве основы для обучения их собственного приложения. Такое использование основополагающей модели повышает вероятность системного накопления в области нарушения авторских прав».

Поскольку технологии искусственного интеллекта оказывают серьезное влияние на многие аспекты жизни, существующие страховые полисы частично покрывают значительную часть страховых полисов, что в конечном итоге затрудняет как страховщику, так и застрахованным возможность иметь полную уверенность в размере покрытия.

Бергер предлагает решение этих проблем: «Как я уже говорил, существуют пробелы в охвате, связанные с чистыми экономическими потерями и дискриминацией ИИ. Но я верю, что с точки зрения защиты необходимо разработать подходящее страховое покрытие для устранения этих пробелов. Но есть также опасения по поводу скрытого воздействия ИИ. Потенциально покрытие может быть частичным, но покрытие также может быть потенциально исключающим эти риски.

«Нам, как отрасли, возможно, имеет смысл структурировать один комплексный страховой продукт, который обеспечит ясность в отношении покрытия определенных обязательств, возникающих в результате использования ИИ. Это позволило бы решить проблему действительно активно».

Затем Бергер ответил на вопрос о том, существуют ли какие-либо ограничения в гарантиях, которые Munich Re предлагает при страховании и устранении рисков, присущих ИИ.

«Существуют технические ограничения, поскольку существуют разные формы рисков ИИ. По этой причине для определенных рисков ИИ мы можем предложить покрытие только при выполнении определенных технических предварительных условий.

«Например, Munich Re может покрыть риск нарушения авторских прав, если будут использоваться определенные статистические методы, которые модифицируют генеративную модель ИИ таким образом, чтобы мы могли оценить вероятность того, что она выдаст аналогичный результат с высокой степенью уверенности. Невозможно избежать того факта, что генеративная модель ИИ будет производить результаты, которые могут нарушать авторские права. Однако существуют определенные инструменты, которые, по крайней мере, снижают вероятность того, что что-то подобное может произойти.

«То же самое и со стороны ошибок. Даже если у компании самая хорошо построенная модель ИИ, она никогда не будет безошибочной. Любая модель ИИ с определенной вероятностью будет выдавать ошибки, и все это сводится к перспективе процесса тестирования. Достаточно ли статистически надежны процедуры тестирования, чтобы позволить нам оценить эту вероятность? Если это не так, то они не подлежат страхованию.

«Нам необходимы определенные технические предпосылки, чтобы действительно уверенно оценить риск и застраховать его. Если их не предоставить, то мы не сможем обеспечить страхование от такого рода рисков».

Подготовлено порталом Allinsurance.kz