Британский институт стандартов (BSI) представил первый международный стандарт, направленный на формализацию и контроль аудита систем управления искусственным интеллектом. Этот шаг стал логичным продолжением усилий по регуляции стремительно развивающегося рынка ИИ и устранению пробелов в его надзоре.
В условиях, когда компании по всему миру внедряют ИИ в операционные процессы и корпоративное управление, растёт и потребность в системной проверке надёжности таких решений. Однако рынок аудита ИИ оказался фрагментированным и подверженным значительным рискам: экспертиза часто проводится поставщиками, связанными с разработчиками самих систем, а общепринятые критерии оценки отсутствуют.
BSI называет эту ситуацию «цифровым Диким Западом» и предупреждает: без надёжных механизмов сертификации, рынок ИИ может столкнуться с системным дефицитом доверия. Новый стандарт BS ISO/IEC 42006:2025 призван выстроить чёткие правила именно для аудиторов, а не для самих систем. Это означает смещение фокуса на организационные и процедурные аспекты аудита, включая независимость, последовательность и квалификацию проверяющих сторон.
Документ стал продолжением более раннего стандарта BS ISO/IEC 42001:2023, который касался систем управления ИИ. Теперь же BSI предлагает метастандарт — ориентир для сертифицирующих органов, на который можно опереться при формировании и проверке практик аудита.
Как отмечает BSI, этот шаг особенно актуален в контексте нового Закона ЕС об ИИ, который вводит целый ряд требований к надзору и ответственности компаний за использование ИИ-систем. В условиях растущего регулирования и возможной юридической ответственности, бизнесу критически важно получить подтверждение соответствия не только функциональности технологий, но и качества управления ими.
Проблема квалифицированных кадров остаётся одной из главных: несмотря на бурное развитие рынка, спрос на профессиональных аудиторов ИИ значительно опережает предложение. В одной только Великобритании действуют сотни фирм, предлагающих «услуги проверки», однако в большинстве случаев отсутствует единый подход, а многие такие компании прямо или косвенно связаны с производителями ИИ-продуктов.
По мнению Марка Тирлвелла, глобального директора по цифровым технологиям BSI, только стандартизированный и независимый подход сможет восстановить доверие к аудиту в сфере ИИ. Он подчёркивает, что организациям необходимо быть уверенными: оценка их систем управления ИИ будет проведена с достаточной строгостью и по прозрачным критериям, а не на усмотрение отдельных экспертов или фирм.
Подготовлено порталом Allinsurance.kz