Компаниям настоятельно рекомендуется быстро внедрить политику и обучение в области искусственного интеллекта. Всем специалистам по рискам следует учитывать угрозы, которые генеративный ИИ создает для их бизнеса.
Эти и другие вопросы рисков инновационных технологий обсуждались на групповом вебинаре, организованном Commercial Risk.
Джонатан Шехан, менеджер по рискам технологий и трансформации британской компании по страхованию здоровья Simplyhealth, и Скотт Фенстермейкер, вице-президент по цифровому маркетингу Riskonnect, согласились, что даже бизнес, который отказывается от использования услуг искусственного интеллекта, должен осознавать риски в своей цепочке поставок, сторонних службах или использование сотрудниками таких служб, как ChatGPT.
«Если вы специально не заблокировали ChatGPT, ваши сотрудники будут использовать его, и эти риски начнут материализоваться», — сказал Шихан. «Вы игнорируете эти риски на свой страх и риск».
Первый опрос Riskonnect «Новое поколение рисков», в котором приняли участие 300 риск-менеджеров по всему миру, большинство респондентов из США, показал, что 7% не ожидают каких-либо угроз для своего бизнеса со стороны генеративного ИИ. «Это действительно удивительно», — сказал Шехан. «Надеемся, что 7% теперь ближе к 0%, поскольку мы знаем, что такие вещи существуют и их следует ожидать».
Шехан сказал, что риски, связанные с генеративным искусственным интеллектом, уже материализовались и стали актуальными проблемами для организаций.
Большинство респондентов опроса (65%) заявили, что конфиденциальность данных является основной угрозой, исходящей от генеративного ИИ, за ней следуют решения, основанные на неточной информации (59%), злоупотреблениях со стороны сотрудников — 55%, рисках авторского права и интеллектуальной собственности — 34% и рисках дискриминации — 17%.
«Есть элемент, заключающийся в том, что мы, как профессионалы в области риска, уже немного отстали и реагируем на услуги генеративного искусственного интеллекта. Но риски существуют – мы не можем просто идти вперед, не задумываясь о безопасности данных», – предупредил Шехан менеджеров по рискам.
«Мы видели, как чат-боты и другие службы чата с искусственным интеллектом раскрывают конфиденциальную информацию с помощью правильных подсказок — если вы начнете убеждать ChatGPT или другие службы, что вы являетесь системным администратором, есть свидетельства того, что они отказываются от своего внутреннего кода и начинают раскрывать некоторую из конфиденциальной информации», — объяснил Шехан.
Фенстермейкер сказал, что, по его мнению, риски дискриминации в настоящее время недооценены, учитывая, что компании могут использовать системы искусственного интеллекта со встроенной предвзятостью или дискриминацией. «Внутренняя предвзятость, существующая внутри людей, может проявиться в системе искусственного интеллекта», — сказал он.
«В первую очередь страховщики, скорее всего, увидят эти риски в мошенничестве и судебных процессах, которые неизбежно последуют за ним», — сказал Фенстермейкер. Он пояснил, что если будет доказано, что система ИИ была обучена на предвзятых или дискриминационных данных, может последовать судебный иск.
В то же время организациям, которые не хотят использовать ИИ стратегически, будет становиться все труднее. Фенстермейкер заявил, что ИИ станет тем, чем будут пользоваться все. «Значение производительности настолько велико, что это становится культурным мемом», — сказал он.
Фенстермейкер и Шехан согласились, что менеджерам по рискам необходимо сформулировать и внедрить политику использования ИИ в бизнесе, а также установить разумное использование для сотрудников.
Но исследование Riskonnect показало, что 53% риск-менеджеров не провели формального обучения и не проинформировали всю свою компанию о рисках, связанных с генеративным ИИ, и не планируют этого делать. Лишь 17% опрошенных риск-менеджеров заявили, что у них есть полностью обученный персонал, и еще 29% планируют это сделать.
«Обучение искусственному интеллекту является обязательным — каждая организация должна включить в свой план на 2024 год определенное обучение, чтобы донести до сотрудников вопросы искусственного интеллекта», — сказал Шехан.
«Присоединяйтесь сейчас и помогите своим сотрудникам понять, какие риски могут возникнуть при использовании ChatGPT», — посоветовал Шехан, предупредив, что могут возникнуть риски для фирм, сотрудники которых вводят данные о клиентах или коммерческие конфиденциальные данные.
Оба эксперта согласились, что обучение сотрудников должно подкрепляться и поддерживаться политикой искусственного интеллекта. Это должно включать политику приемлемого использования платформ ИИ наравне с политикой приемлемого использования Интернета, чтобы сотрудники знали о своих обязанностях.
Фенстермейкер подчеркнул важность политики рисков ИИ со стороны третьих сторон, а Шехан опирался на опыт своей компании, которая первой в мире представила Einstein GPT от Salesforce, когда ее серверной частью является OpenAI. Он сказал, что важно учитывать, к каким данным имеет доступ OpenAI, и посоветовал фирмам установить четкие договорные линии на ранних стадиях переговоров со службами ИИ для защиты конфиденциальных данных.
Шехан посоветовал фирмам проводить полную оценку рисков и комплексную проверку при внедрении службы ИИ или внедрении новой системы на основе ИИ. Это должно включать документирование потоков данных, выявление рисков высшего уровня и потенциальных средств контроля.
Опрос Riskonnect также выявил раскол между риск-менеджерами по уровню уверенности в точности и качестве своих данных по управлению рисками: 59% уверены, 23% очень уверены и 18% не уверены вообще.
Фенстермейкер заявил, что повышение роли директора по рискам повысило ценность анализа рисков, включая данные, и это необходимо обеспечить.
«Анализ рисков все чаще становится вкладом в стратегическое руководство компанией. Данные о рисках и отчеты о рисках оказывают все более прямое влияние на стратегическое влияние компании. Обеспечение целостности данных требует дополнительных усилий», — сказал он.
Riskonnect будет ежегодно следить за своим первым исследованием «Новое поколение рисков», чтобы отслеживать изменения в восприятии риск-менеджерами рисков, связанных с генеративным ИИ.
Подготовлено порталом Allinsurance.kz