13
Ср, нояб

ЕС намерен запретить использование ИИ для массового наблюдения и ранжирования социального поведения

Европейский Союз готов запретить системы искусственного интеллекта (ИИ), используемые для массового наблюдения или ранжирования социального поведения, в то время как компании, разрабатывающие ИИ, могут столкнуться с штрафами в размере до 4% от глобального дохода, если они не соблюдают новые правила, регулирующие программные приложения, сообщает Bloomberg.

Правила являются частью законодательства, которое должно быть предложено Европейской комиссией, исполнительным органом блока. Проектом предложения имеется в распоряжении агентства Bloomberg. Детали могут измениться до того, как комиссия опубликует эту меру, что, как ожидается, произойдет уже на следующей неделе.

Ожидается, что предложение ЕС будет включать следующие правила:

  • Системы искусственного интеллекта, используемые для манипулирования поведением людей, использования информации об отдельных лицах или группах лиц, для проведения социальной оценки или для неизбирательного наблюдения, будут запрещены в ЕС. Могут применяться некоторые исключения из общественной безопасности.
  • Системы удаленной биометрической идентификации, используемые в общественных местах, например системы распознавания лиц, потребуют специального разрешения властей.
  • Приложения искусственного интеллекта, которые считаются «высокорисковыми», должны будут пройти проверку перед развертыванием, чтобы убедиться, что системы обучены на беспристрастных наборах данных, отслеживаемым способом и под контролем человека.
  • Искусственный интеллект с высоким уровнем риска будет относиться к системам, которые могут поставить под угрозу безопасность, жизнь или основные права людей, а также демократические процессы ЕС, числе которых могут быть беспилотные автомобили и удаленная хирургия, среди прочего.
  • Некоторым компаниям будет разрешено проводить оценку самостоятельно, тогда как другие будут подвергаться проверкам со стороны третьих лиц. Сертификаты соответствия, выданные органами по оценке, действительны до пяти лет.

Правила будут одинаково применяться к компаниям, базирующимся в ЕС или за рубежом.

Согласно документу, европейские государства-члены должны будут назначить органы по оценке для тестирования, сертификации и инспекции систем ИИ. Компании, которые разрабатывают запрещенные сервисы ИИ, предоставляют неверную информацию или отказываются сотрудничать с национальными властями, могут быть оштрафованы на сумму до 4% от общемирового дохода.

Согласно документу, правила не будут применяться к системам ИИ, используемым исключительно в военных целях.

О проекте документа Politico сообщал ранее: «Для нас на европейском уровне важно передать очень настойчивое послание и установить стандарты с точки зрения того, как далеко должны развиваться эти технологии», - сказал Драгос Тудораш, либеральный член Европейского парламента и глава комитета по искусственному интеллекту и разведке в своем интервью изданию. «Создание нормативно-правовой базы вокруг них - необходимость, и хорошо, что Европейская комиссия идет в этом направлении».

Поскольку искусственный интеллект начал проникать во все слои общества, от предложений покупок и голосовых помощников до решений, касающихся найма, страхования и правоприменения, ЕС хочет обеспечить прозрачность технологий, развернутых в Европе, под контролем человека и соответствие высоким стандартам для конфиденциальности пользователей.

Предлагаемые правила появляются в то время, когда ЕС пытается догнать США и Китай по внедрению искусственного интеллекта и других передовых технологий. Новые требования могут помешать технологическим компаниям в регионе конкурировать с иностранными провайдерами, если они откладывают выпуск продуктов из-за того, что их сначала нужно протестировать.

После того, как эти правила были предложены комиссией, они могут измениться после внесения предложений со стороны Европейского парламента и стран-членов блока, прежде чем они станут законом.

Тудораш сказал, что крайне важно, чтобы окончательная версия закона не подавляла инновации и максимально ограничивала бюрократические препоны.

«Мы должны быть очень, очень ясными в том, как мы регулируем - когда, где и в каких условиях инженеры и предприятия должны фактически обращаться к регулирующим органам для получения разрешения и очень четко понимать, где его нет», - сказал он.

Подготовлено порталом Allinsurance.kz