23
Пн, дек

Страны G-7 готовятся принять «риск-ориентированное» регулирование искусственного интеллекта

Страны G-7 должны принять «основанное на риске» регулирование искусственного интеллекта, согласились их министры по цифровым технологиям на недавней встрече, поскольку европейские законодатели спешат принять закон об искусственном интеллекте, чтобы обеспечить соблюдение правил для новых инструментов, таких как ChatGPT, пишет агентство Reuters.

Но такое регулирование также должно «сохранять открытую и благоприятную среду» для развития технологий искусственного интеллекта и основываться на демократических ценностях, говорится в совместном заявлении министров «Большой семерки», опубликованном по итогам двухдневной встречи в Японии.

Хотя министры признали, что «инструменты политики для достижения общего видения и цели надежного ИИ могут различаться среди членов G-7», соглашение устанавливает ориентир в том, как основные страны управляют ИИ с учетом проблем конфиденциальности и рисков безопасности.

«Выводы этой встречи G-7 показывают, что мы определенно не одиноки в этом», — заявила агентству Reuters исполнительный вице-президент Европейской комиссии Маргрете Вестагер перед подписанием соглашения.

Правительства особенно обратили внимание на популярность генеративных инструментов искусственного интеллекта, таких как ChatGPT, чат-бот, разработанный OpenAI при поддержке Microsoft Corp, который стал самым быстрорастущим приложением в истории с момента его запуска в ноябре.

«Мы планируем созвать будущие обсуждения G-7 по генеративному ИИ, которые могут включать такие темы, как управление, способы защиты прав интеллектуальной собственности, включая авторские права, содействие прозрачности, борьба с дезинформацией», включая манипулирование информацией иностранными силами, говорится в заявлении министра.

Италия, член G-7, отключила ChatGPT в прошлом месяце, чтобы расследовать потенциальное нарушение правил обработки персональных данных. В то время как Италия отменила запрет в прошлую пятницу, этот шаг вдохновил других европейских регуляторов конфиденциальности на запуск расследований.

Законодатели ЕС достигли предварительного соглашения по новому проекту своего будущего Закона об ИИ, включая меры по защите авторских прав для генеративного ИИ, после призыва мировых лидеров созвать саммит для контроля над такими технологиями.

Вестагер, руководитель отдела технического регулирования ЕС, заявила, что в этом году у блока «будет достигнуто политическое соглашение» по законодательству об искусственном интеллекте, например, обязательства по маркировке изображений или музыки, созданных искусственным интеллектом, для устранения рисков, связанных с авторскими правами и образованием.

Тем временем Япония, председательствующая в G-7 в этом году, проявила адаптивный подход к разработчикам ИИ, пообещав поддержать внедрение ИИ в общественном и промышленном секторах.

Министр промышленности Ясутоси Нисимура заявил в преддверии министерских переговоров, что Япония надеялась добиться от G-7 «согласия на мягкое или гибкое управление, а не на упреждающее всеобъемлющее регулирование» в отношении технологии искусственного интеллекта.

«Приостановка (развития ИИ) не является правильным ответом — инновации должны продолжать развиваться, но в рамках определенных ограничений, которые должна установить демократия», — сказал Reuters Жан-Ноэль Барро, французский министр по переходу к цифровым технологиям, добавив, что Франция предоставит некоторые исключения для разработчиков ИИ из числа малого бизнеса в соответствии с предстоящим постановлением ЕС.

Помимо проблем с интеллектуальной собственностью, страны «Большой семерки» признали риски безопасности. «Генеративный ИИ… производит фальшивые новости и революционные решения для общества, если данные, на которых он основан, являются фальшивыми», — заявил министр цифровых технологий Японии Таро Коно на пресс-конференции после заключения соглашения.

В конце мая Япония примет саммит G-7 в Хиросиме, где премьер-министр Фумио Кисида обсудит правила ИИ с мировыми лидерами.

Подготовлено порталом Allinsurance.kz