Медийные организации, публикующие в США контент, созданный искусственным интеллектом, должны быть прозрачными в отношении того, как и когда они используют ИИ, и обеспечивать наличие человеческих сдержек и противовесов, говорят брокеры.
Страховщики не исключают и не ограничивают покрытие рисков, связанных с ИИ, но медиаорганизации могут ожидать большего количества вопросов об использовании ими контента, созданного ИИ, когда брокеры будут работать над продлением их полисов ответственности для СМИ.
В ноябре Sports Illustrated был обвинен в публикации контента, предположительно созданного авторами с помощью искусственного интеллекта, с поддельными авторскими именами и профилями авторов, как сообщает сайт Futurism.
Представитель Arena Group, материнской компании Sports Illustrated , заявил, что статьи, о которых идет речь, были лицензированным контентом сторонней компании Ad-Von Commerce, и компания была уверена, что они написаны и отредактированы людьми.
Sports Illustrated — не единственная медиаорганизация, которая попала под пристальное внимание в связи с контентом, создаваемым искусственным интеллектом.
Ранее в этом году издатель газеты Gannett Co. Inc. прекратил использовать инструмент искусственного интеллекта для написания спортивных статей после того, как некоторые из его статей подверглись критике в социальных сетях. Сообщается также, что сайт новостей о технологиях CNET публикует статьи, созданные с помощью ИИ, без раскрытия информации об этой практике.
«Большинство крупных компаний экспериментируют с генеративным искусственным интеллектом, и существует множество потенциальных применений этой технологии», — сказал Эрик Бойюм, управляющий директор и национальный руководитель практики Aon в области технологий и коммуникаций в США.
«Риски необходимо оценивать для каждого отдельного приложения. Дело не только в том, что это такое и как действуют связанные с ним риски, но и в том, что вы с ним делаете, как вы его обучили и каким образом вы им управляете», — сказал Бойюм.
По словам брокеров, остается неясным, могут ли произведения, созданные ИИ, быть защищены авторским правом в соответствии с законодательством США, и споры рассматриваются в суде в каждом конкретном случае.
Бойюм рассказал, что клиент крупного музыкального лейбла недавно спросил, будет ли он покрыт страхованием, если он будет использовать генератор изображений DALL-E Open AI для создания обложки альбома, и получил иск об авторских правах, связанный с изображением.
«Ответ был таков: если вы получите какой-либо иск о нарушении авторских прав, мы определенно думаем, что вы соглашаетесь на эту политику. Но есть еще одно положение, в котором говорится, что если вы намеренно делаете что-то, что, как вы знаете, является неправильным, это создает конкретное нарушение, и мы, вероятно, не должны предоставлять вам страховое покрытие», — сказал он.
Законодательное и прецедентное право еще не установило окончательно, является ли использование такой модели ИИ законным, добавил Бойюм.
Становится все труднее отличить контент, созданный искусственным интеллектом, от контента, созданного человеком, а прозрачность и раскрытие информации являются ключевыми моментами, сказал Джеймин Ким, старший вице-президент по практике киберрисков в Marsh.
«В отсутствие надежной и широко распространенной технологии нанесения водяных знаков использование упреждающих заявлений об отказе от ответственности, чтобы гарантировать, что пользователи будут проинформированы, когда они взаимодействуют с чат-ботом с искусственным интеллектом или контентом, созданным с помощью искусственного интеллекта, безусловно, является лучшей практикой», — сказала Ким.
По ее словам, также должен быть человеческий надзор, если предприятия используют ИИ для создания контента.
Брокеры согласились, что с точки зрения освещения ответственность СМИ, киберответственность, а также технологические ошибки и упущения входят в число мер, на которые можно ответить.
Компании, создающие контент с использованием ИИ, должны осознавать, что он не обязательно защищен авторским правом, учитывая текущую неопределенную правовую среду, сказал Джо Куинн, руководитель отдела киберпреступлений на Среднем Западе США в WTW.
По словам Куинна, освещение ответственности СМИ может помочь защитить компании от потенциальных проблем с авторскими правами. Такая страховка обычно покрывает претензии третьих сторон, возникающие в результате нарушения авторских прав и товарных знаков, вторжения в частную жизнь и клеветы.
По словам Куинна, компании, которые сотрудничают с поставщиками ИИ, чтобы помочь им создавать контент, также должны четко понимать, какие наборы данных они предоставляют.
«На этом этапе они могут попытаться проверить наличие материалов, защищенных авторским правом, но если они не могут этого сделать, им следует включить положения о возмещении ущерба в свои контракты с этими поставщиками ИИ» и убедиться, что поставщики в той или иной форме освещают ситуацию в СМИ, чтобы обеспечить дополнительный уровень компенсации и защиты, сказал он.
«Концептуально существующие страховые полисы, если они будут активированы, будут реагировать на риски и претензии, связанные с ИИ», — сказала Ким. «Мы не видим массовых исключений или ограничений, когда речь идет о рисках, связанных с ИИ», — сказала она. Но умышленные действия часто исключаются, добавила она.
Подготовлено порталом Allinsurance.kz