20
Чт, март

Растущее внедрение ИИ подвергает бизнес новым рискам

AI 3Внедрение искусственного интеллекта (ИИ) находится на рекордно высоком уровне: почти две трети предприятий тестировали ИИ в течение последнего года, а половина уже внедрила его.
Однако брокер Gallagher предупреждает, что растущее использование также несет с собой новые риски, включая большую вероятность исков, связанных с ИИ, если не обеспечить должного регулирования.

Исследование Gallagher показывает, что к концу 2024 года 45% предприятий использовали ИИ в повседневной деятельности — на 32% больше, чем в предыдущем году. Более крупные компании с большими ресурсами сообщают о еще более высоком уровне внедрения: 82% используют ИИ, что выше 69% в 2023 году.

Этот рост обусловлен способностью ИИ повышать эффективность за счет автоматизации задач, улучшения процесса принятия решений и стимулирования инноваций. Среди руководителей предприятий 44% называют лучшим решением проблем ключевое преимущество, а 42% говорят, что ИИ повышает эффективность и производительность сотрудников, позволяя им сосредоточиться на других задачах.

ИИ чаще всего используется для написания электронных писем/планов мероприятий (32%), обработки запросов клиентов (31%) и анализа динамики рынка (28%).

Поскольку компании все чаще используют ИИ для решения критически важных для бизнеса задач, Gallagher подчеркивает важность осознания связанных с этим рисков и тщательного управления использованием ИИ.

Руководители предприятий сообщают о большей осведомленности о рисках, связанных с ИИ, по сравнению с прошлым годом. Поскольку ИИ быстро развивается, ландшафт рисков меняется так же быстро.

Ошибки ИИ, или «галлюцинации», когда системы выдают неточные результаты, являются главной проблемой для чуть более трети (34%) владельцев бизнеса, за которыми следуют нарушения защиты данных и конфиденциальности (33%) и правовая ответственность (31%), возникающие в результате неправомерного использования ИИ.

Gallagher прогнозирует рост юридической ответственности для предприятий, которые не могут должным образом регулировать использование ИИ. Ключевую озабоченность вызывают фирмы или подрядчики, которые полагаются на исследования, созданные с помощью ИИ, для профессиональных услуг или консультаций. Если они используют неверную информацию, они могут столкнуться со значительными судебными издержками, убытками и урегулированием.

Бен Уотертон, исполнительный директор по профессиональной ответственности в Gallagher, сказал: «ИИ теперь является неотъемлемой частью нашей повседневной жизни — распознавание лиц, навигационные системы, рекомендации по поиску и реклама — это примеры, с которыми мы сталкиваемся ежедневно. Однако результат ИИ настолько хорош, насколько хороши входные данные, и на него нельзя слепо полагаться. Было несколько случаев, когда люди, которым платили за их профессиональную экспертизу, использовали информацию, сгенерированную ИИ, которая была неверной, и это приводило к тому, что они подвергались дорогостоящим негативным последствиям.

«Системы ИИ превосходно справляются с обработкой огромных объемов данных и выявлением закономерностей, которые могут быть неочевидны для людей. Однако они не могут заменить человеческий опыт и суждение, которые квалифицированные специалисты привносят в свою работу. Использование исключительно ИИ без критического анализа и человеческого контроля может привести к серьезным последствиям и компрометирующим рекомендациям. Процедуры обеспечения качества и надзора за сотрудниками должны развиваться, чтобы гарантировать, что этот возникающий риск будет распознан и устранен для предотвращения убытков по профессиональной ответственности».

Gallagher также предупреждает, что ИИ вносит новые киберриски. Внутренние специалисты брокера по кибербезопасности предупреждают, что ИИ может подвергать компании рискам конфиденциальности и защиты данных, включая нарушения прав на использование данных, отравление данных и нарушение нормативных требований.

ИИ также делает киберпреступников более изощренными, позволяя им использовать уязвимости с большей эффективностью и масштабом, что затрудняет обнаружение атак и защиту от них.

Джеймс Пирс, специалист по киберстрахованию в Gallagher, отметил: «Исторически рынок киберстрахования был профессионален в адаптации к новым угрозам с течением времени, и ожидается, что он будет делать то же самое с рисками, связанными с ИИ. Однако, поскольку риски ИИ становятся более определенными, страховщики начинают пересматривать свое покрытие по полисам, и предприятиям, использующим ИИ, необходимо проверить, есть ли у них покрытие на случай кибератаки или нарушения конфиденциальности из-за воздействия ИИ».

Использование ИИ также повышает риски ответственности для руководителей бизнеса, особенно в двух ключевых областях: «отмывание ИИ», когда компании преувеличивают свои возможности ИИ, и галлюцинации ИИ, когда неточная информация, сгенерированная ИИ, используется для принятия бизнес-решений или предоставляется клиентам. Оба сценария могут привести к проверке со стороны регулирующих органов, юридическим проблемам и проблемам с соблюдением требований, что потенциально подвергает советы директоров судебным искам и искам о нарушении фидуциарных обязанностей из-за ненадлежащего надзора за управлением ИИ.

Лора Пэррис, исполнительный директор по страхованию директоров и должностных лиц в Gallagher, полагает: «Корпоративное злоупотребление ИИ представляет растущие риски для руководителей бизнеса, поскольку «отмывание ИИ», завышая или искажая возможности ИИ, приводит к усилению контроля. Мы видели судебные иски против компаний за вводящие в заблуждение заявления об ИИ, споры инвесторов по поводу эффективности продуктов на основе ИИ и регулирующее принуждение против фирм, делающих ложные заявления об использовании ими ИИ. По мере усиления надзора прозрачность и подотчетность в раскрытии информации, связанной с ИИ, становятся важнее, чем когда-либо».

Подготовлено порталом Allinsurance.kz