Покойный Стивен Хокинг утверждал, что развитие искусственного интеллекта может означать конец человечества, напоминает Нил Харпер, председатель совета директоров ISACA и исполнительный директор по технологиям и рискам.
Хотя моя позиция не столь экстремальна (я не говорю, что профессор Хокинг не прав), я считаю, что существует множество социальных, политических и экономических издержек, которые могут проявиться, если развитие ИИ будет развиваться по его нынешней траектории без жесткого регулирования. Эти вредные возможности уже много лет широко обсуждаются в академических и технических сообществах, но важно расширить этот дискурс, чтобы способствовать лучшему осознанию и пониманию, прежде чем станет невозможным обратить вспять ущерб, особенно из-за многообещающего и широкого потенциала ИИ. Что еще более важно, пришло время действовать политикам и законодателям.
Общество, как мы знаем, действительно хорошо прыгает на подножку, особенно когда речь идет о высоких возможностях дохода, новизне и развлечениях. ИИ отвечает всем этим требованиям, поэтому мы видели, как OpenAI и ChatGPT доминируют в новостных циклах в последние месяцы. В то же время инвестиции в технологии на основе ИИ резко возросли, и Microsoft, Google, IBM, Intel Capital, Softbank Group и многочисленные венчурные капиталисты щедро открывают свои чековые книжки. До этого блокчейн и метавселенная были в моде, привлекая такое же внимание и инвестиции, но демонстрируя ограниченные социальные преимущества.
Риски и опасности ИИ
Совсем недавно итальянский орган по защите данных запретил использование продвинутого чат-бота ChatGPT. Регулятор заявил, что платформа была скомпрометирована, а разговоры пользователей и платежная информация подверглись несанкционированному доступу. Они также решительно утверждали, что не было правовых оснований для поддержки «массового сбора и хранения персональных данных с целью «обучения» алгоритмов, лежащих в основе работы платформы».
За пару дней до этого несколько лидеров отрасли, в том числе Илон Маск, призвали приостановить работу над этими типами систем искусственного интеллекта, выразив опасения, что текущая разработка вышла из-под контроля.
Вопросы и дискуссии о том, кто разрабатывает ИИ, для каких целей и какие риски и опасности связаны с этим, имеют решающее значение для защиты общества от вреда «плохого ИИ» и для формирования доверия к цифровым технологиям. Вот некоторые из ключевых вопросов:
- Правовых оснований для крупномасштабной обработки персональных данных на платформах ИИ нет.
- Системы искусственного интеллекта все чаще используются в пропаганде и фейковых новостях.
- Злоумышленники используют системы ИИ в качестве оружия для более изощренных кибератак (например, передовые вредоносные программы, скрытные программы-вымогатели, более эффективные методы фишинга, дипфейки и т. д.).
- До сих пор независимые проверки конфиденциальности и безопасности систем искусственного интеллекта недоступны для корпоративных или индивидуальных пользователей.
- Использование автономных систем вооружения на базе ИИ стало реальностью.
- Системы ИИ склонны к предвзятости и дискриминации (мусор на входе и мусор на выходе), что подвергает меньшинства еще большему риску.
- Проблемы в отношении злоупотребления/неправомерного использования интеллектуальной собственности чрезвычайно высоки.
- Законодательство и регулирование всегда отстают от развития технологий (отставание закона). В настоящее время не существует правил или общих средств защиты от негативных последствий ИИ, особенно в отношении ответственности.
- Существуют угрозы демократии с точки зрения усиления «эхо-камер» и социальных манипуляций, уже распространенных на многих социальных платформах.
- Системы ИИ могут использоваться в иностранном или корпоративном шпионаже.
- Алгоритмическая (на основе ИИ) торговля может привести к финансовым кризисам в будущем.
- Существует вероятность массовой потери рабочих мест из-за автоматизации ИИ.
Движение к ответственному и этичному использованию ИИ
Нет сомнений в том, что ИИ может и будет приносить многочисленные преимущества. При этом перспектива этой технологии не будет реализована в достаточной мере без надежной нормативно-правовой базы. Несколько стран сосредоточили внимание на регулировании ИИ, а Соединенные Штаты и Европейский Союз, по-видимому, договорились о том, какие меры являются наиболее важными для контроля безудержного распространения искусственного интеллекта. Хотя это говорит о том, что некоторые технологии ИИ могут быть запрещены, это не мешает исследователям и корпорациям продолжать свою работу в этой области. При этом регулирование ИИ не может быть рефлекторным и паникёрским; он должен способствовать инновациям и быть гибким в плане принятия решений, где ИИ выгоден, а где проблематичен.
Ключевым фактором является ответственное и этичное использование ИИ. С корпоративной точки зрения бизнес-лидеры должны четко сформулировать, почему они планируют использовать ИИ и какую пользу он принесет отдельным людям. Компании должны разработать политики и стандарты для мониторинга алгоритмов и улучшения управления данными, а также быть прозрачными в отношении результатов алгоритмов ИИ. Корпоративное руководство должно установить и определить ценности компании и руководящие принципы ИИ, создав рамки для определения приемлемого использования технологий ИИ.
Достижение тонкого баланса между инновациями и дизайном, ориентированным на человека, является оптимальным подходом к разработке ответственных технологий и гарантирует, что ИИ выполнит свои обещания для этого и будущих поколений. Обсуждения рисков и вреда искусственного интеллекта всегда должны быть в центре внимания, чтобы лидеры могли найти решения для предоставления технологии с человеческими, социальными и экономическими преимуществами в качестве основных основополагающих принципов.
Автор: Нил Харпер, CDPSE, CRISC, CISA, CISSP, директор совета директоров ISACA и исполнительный директор по технологиям и рискам.
Перевод с англ. подготовлен порталом Allinsurance.kz