22
Пт, нояб

Структуры управления рисками являются ключом к снижению рисков ИИ

AIОтветственная политика в области искусственного интеллекта и системы управления рисками будут иметь решающее значение для решения сложных технических проблем и проблем соответствия требованиям, связанных с искусственным интеллектом, считают участники вебинара, организованного Федерации европейских ассоциаций по управлению рисками (Ferma).

По словам Дэна Адамсона, соучредителя и технического директора базирующегося в Торонто стартапа в области страховых технологий Armilla AI, ситуация с рисками в сфере ИИ сложна. Регулирование быстро развивается на международном, национальном и местном уровне, в то время как над новыми стандартами и передовой практикой все еще ведется работа. «Все это может оказаться довольно сложным, поэтому очень важно иметь пробную политику, которую разрабатывает ваша корпорация», — сказал он.

«ИИ — это обширная область с различными подходами и определениями, которая включает в себя машинное обучение и искусственный интеллект на основе нейронов, такие как большие языковые модели», — объяснил Адамсон. «Для целей управления рисками важно принять более широкую точку зрения и иметь более широкое определение, чтобы, глядя на риски ИИ, вы могли охватить или включить эти типы систем под эгидой управления рисками», — сказал он.

В частности, организациям следует разработать ответственную политику в области ИИ в качестве основы для управления рисками ИИ. Это должно включать инвентаризацию моделей ИИ, оценку риска и существенности моделей, а также политику приемлемого использования. Адамсон также посоветовал определить структуру рисков, средства контроля и подотчетности в отношении ИИ.

«Сегодня ваши сотрудники впервые могут использовать системы искусственного интеллекта вне цикла закупок — например, они могут перейти к ChatGBT или использовать искусственный интеллект при поиске в Интернете. Поэтому очень важно включить политику приемлемого использования ИИ либо в саму политику, либо в политику сотрудников», — сказал он.

По словам Барбары Майер, эксперта по управлению рисками SAP в Германии, управление рисками с помощью ИИ одновременно важно и отличается от обычной практики. Выступая на вебинаре Ferma, она посоветовала компаниям создать «прочный фундамент» для ИИ сегодня и «планировать будущее».

«Установите стандарты безопасности и политику искусственного интеллекта, чтобы создать надежную платформу. Вам необходимо, как минимум, иметь политику защиты данных и конфиденциальности с упором на темы искусственного интеллекта, а также специальную политику, ориентированную на доверие», — сказала Майер. «Все стремятся стать частью мира ИИ… Если клиенты не доверяют вашей системе ИИ, никто не будет ее использовать. Ключевым отличием является создание системы искусственного интеллекта и ее использование таким образом, чтобы клиент мог доверять данным», — сказала она.

ИИ не похож на традиционную разработку программного обеспечения, поскольку результаты определяются не дискретным путем, а действиями нейронной сети, объяснил Адамсон. «Многие вещи могут пойти не так, когда вы начнете внедрять их в производство или в конкретном сценарии использования… вам нужно по-другому думать о рисках этих систем», — добавил он.

По мнению Андерсона, развивающаяся природа ИИ явно создает риск. Например, генеративный ИИ может привести к нарушению конфиденциальности, предвзятости и рискам для производительности. Системы могут обучаться на наборах данных, из которых происходят утечки данных или которые содержат предвзятость, в то время как системы искусственного интеллекта также могут вызывать галлюцинации, в результате чего они генерируют убедительные, но вымышленные результаты. «Нужно быть очень осторожным и понимать, что производительность — это большая категория риска», — сказал он.

По словам Джоса Герардина, соучредителя и исполнительного директора нидерландской платформы управления рисками моделей искусственного интеллекта Yields.io, репутационный ущерб является наиболее важным риском, который возникает при использовании приложений искусственного интеллекта.

«Многие системы искусственного интеллекта построены на сложных алгоритмах, и поскольку они настолько сложны, очень трудно понять, как они пришли к тому или иному выводу… Очень трудно обнаружить, когда система предвзята, поскольку довольно непрозрачно, как делаются выводы. Существует множество показателей и средств контроля, которые вы можете использовать, чтобы ограничить эти риски, но тот факт, что алгоритм — это скорее черный ящик, остается важной проблемой», — сказал он.

По словам Майер, огромный объем данных, используемых для обучения моделей, является серьезным фактором риска ИИ. Для обучения больших языковых моделей, таких как ChatGPT, может потребоваться более десяти триллионов слов, включая данные из реальной жизни. Часто это означает, что персональные данные подлежат управлению данными и требуют согласия в соответствии с GDPR.

«Всегда нужно помнить, что ИИ не думает, он только прогнозирует. Все дело в вероятностях. А когда что-то основано на вероятностях, всегда будут ошибки. И это всегда основано на прошлых данных, на данных тренировок. Итак, у вас всегда будут ошибки, и что бы вы ни делали, у вас будет предвзятость», — сказал Майер.

Кроме того, по ее словам, не все понимают разницу между корреляцией и причинно-следственной связью. «Мы должны ясно показывать и снова и снова объяснять, что корреляция — это не причинно-следственная связь, и именно поэтому мы никогда не должны заменять, а всегда использовать ИИ для помощи и всегда держать человека в курсе», — сказала она.

По словам Герардина, процесс разработки вариантов использования и систем искусственного интеллекта с участием множества заинтересованных сторон требует четкого взаимодействия и процессов. Хотя системы можно приобрести у третьих лиц, им почти всегда потребуются качественные данные для обучения и точной настройки. По его словам, для некоторых типов ИИ тестирование может проводиться только в реальном мире.

«Когда вы создаете варианты использования ИИ, чрезвычайно важно определить, в каком контексте ИИ будет использоваться, чтобы определить, когда приложение ИИ подходит для этой цели. В контексте генеративных приложений искусственного интеллекта, таких как ChatGPT, это может быть сложнее, поскольку сложнее контролировать вводимые данные и вопросы, которые пользователи будут задавать системе», — сказал Герардин.

Подготовлено порталом Allinsurance.kz