Согласно недавнему опросу, проведенному Airmic, британской ассоциацией специалистов по рискам и страхованию, почти 60% организаций не рассматривают этические риски, связанные с искусственным интеллектом (ИИ), отдельно от других этических проблем.
В другом опросе, посвященном вопросу, считают ли эти организации, что этические риски ИИ следует рассматривать отдельно, респонденты разделились почти поровну.
Поскольку организации быстро интегрируют приложения ИИ в свои структуры, опасения по поводу связанных с этим этических рисков остаются в значительной степени неизведанной территорией. Следовательно, респонденты сочли разумным уделить этим рискам дополнительное внимание и придать наглядность в рамках своих структур и процессов управления рисками.
Эта тенденция совпадает с растущими призывами к организациям создавать комитеты по этике ИИ и разрабатывать отдельные системы оценки рисков ИИ для разрешения спорных этических ситуаций.
Джулия Грэм, генеральный директор Airmic, подчеркивает: «Этические риски ИИ еще не до конца понятны, и на их понимание необходимо уделить дополнительное внимание, хотя со временем наши участники ожидают, что эти риски будут рассматриваться наряду с другими этическими рисками».
Хо-Йонг Локе, руководитель отдела исследований Airmic, объясняет: «Среди наших членов существует мнение, что «либо вы этичны, либо нет» — что не всегда практично или желательно отделять этические риски ИИ от всех других рисков, с которыми сталкивается организация».
Он добавляет: «Это требует большего количества дискуссий о том, как управлять этическими рисками ИИ. В любом случае, организациям следует тщательно учитывать последствия потенциального дублирования структур управления рисками и управления бизнесом».
Подготовлено порталом Allinsurance.kz