30
Вт, апр

Почти 60% компаний не рассматривают этические риски ИИ отдельно от других этических проблем

AIСогласно недавнему опросу, проведенному Airmic, британской ассоциацией специалистов по рискам и страхованию, почти 60% организаций не рассматривают этические риски, связанные с искусственным интеллектом (ИИ), отдельно от других этических проблем.

В другом опросе, посвященном вопросу, считают ли эти организации, что этические риски ИИ следует рассматривать отдельно, респонденты разделились почти поровну.

Поскольку организации быстро интегрируют приложения ИИ в свои структуры, опасения по поводу связанных с этим этических рисков остаются в значительной степени неизведанной территорией. Следовательно, респонденты сочли разумным уделить этим рискам дополнительное внимание и придать наглядность в рамках своих структур и процессов управления рисками.

Эта тенденция совпадает с растущими призывами к организациям создавать комитеты по этике ИИ и разрабатывать отдельные системы оценки рисков ИИ для разрешения спорных этических ситуаций.

Джулия Грэм, генеральный директор Airmic, подчеркивает: «Этические риски ИИ еще не до конца понятны, и на их понимание необходимо уделить дополнительное внимание, хотя со временем наши участники ожидают, что эти риски будут рассматриваться наряду с другими этическими рисками».

Хо-Йонг Локе, руководитель отдела исследований Airmic, объясняет: «Среди наших членов существует мнение, что «либо вы этичны, либо нет» — что не всегда практично или желательно отделять этические риски ИИ от всех других рисков, с которыми сталкивается организация».

Он добавляет: «Это требует большего количества дискуссий о том, как управлять этическими рисками ИИ. В любом случае, организациям следует тщательно учитывать последствия потенциального дублирования структур управления рисками и управления бизнесом».

Подготовлено порталом Allinsurance.kz