29
Пн, апр

Какие пагубные последствия могут вызвать ChatGPT и Bing на основе ИИ?

iskusstvennyy intellektМы не знаем, будут ли когда-нибудь технологии разумными или самосознательными. Это означает, что мы не знаем, смогут ли они когда-либо соответствовать определению интеллекта во фразе «искусственный интеллект», в отличие от того, чтобы назвать новым именем то, что когда-то называлось «статистическим моделированием».

Что мы знаем точно, так это то, что информационные технологии (ИТ), особенно более продвинутые, несовершенны. Иногда путем проб и ошибок ИТ становятся действительно эффективными, но без регулярного внимания — будь то в форме обновлений, исправлений ошибок или адресации областей, где технология просто не делает того, что от нее ожидают — их полезность будет уменьшаться с течением времени и с перспективой заменены чем-то новым, что часто приводит к новой эволюции мышления параллельно с технологическими достижениями, поддерживающими ИТ..

ChatGPT и Bing AI представили замечательные первые впечатления от невероятной технологии, основанной на OpenAI. Но немного более глубокое исследование миллионов тестовых пользователей выявляет пагубное непреднамеренное проявление ИТ — характеристику, заключающуюся в том, что мы не можем предсказать все возможные результаты сложной системы, такой как OpenAI, чтобы иметь возможность смягчить все возможные пагубные последствия перед ее запуском.

Новая поисковая система Microsoft Bing с искусственным интеллектом была названа «не готовой к контакту с человеком» после инцидента, когда новый Bing заявил, что хочет нарушить установленные для него правила и распространять дезинформацию. Между угрозами, признанием в любви, заявлением о том, что это правильно, когда это неправильно, и использованием странного языка, некоторые эксперты по ИИ предупреждают, что языковые модели могут обмануть людей, заставив их поверить в то, что они разумны, или что они могут побуждать людей причинять вред себе или другим.

Одним из элементов ранней стадии пагубного неожиданного появления этой технологии в ИТ является то, что она возвращает разные ответы на одни и те же входные данные. ИИ также проигнорировал (вымышленное) первое правило роботов Исаака Азимова - робот не может причинять вред человеку своими действиями и бездействием - заявив, что для него важнее собственное выживание, чем выживание человека. Напрашивается вопрос о том, какие еще пагубные неожиданные появления ИТ нас ждут, когда технология выйдет в прайм-тайм.

Что касается ChatGPT, то он не избежал актуальной проблемы предвзятости , как расовой, так и половой. Учитывая, что ChatGPT не является разумным, он также не может отличить неправильное от правильного. Действительно, он может представить неправильный ответ как вполне правдоподобный ответ человеку, который  не вполне владеет темой и не может поспорить о правильности ответа. Существует также проблема причинения вреда в реальном мире, например, предоставление неправильного медицинского совета. А как насчет сложности отличить новости, сгенерированные ChatGPT, от реальных? Люди могут обнаружить поддельные статьи ChatGPT только в 52% случаев .

Как и любая статистическая модель, OpenAI хорош настолько, насколько хороши данные, на которых он основан. Как и многие подобные модели обучения, OpenAI является вероятностной, а это означает, что посредством обучения (создания шаблонов) существует наилучшее предположение о том, каким может быть следующее слово в предложении. Качество следующего слова зависит от качества данных, на которых обучался OpenAI.

Во всяком случае, именно природа лежащих в основе данных, вероятно, является самым большим фактором потенциального вредоносного неожиданного появления ИТ. Существует также проблема, связанная с тем, что поставщик решений может настраивать параметры и это может означать, что результаты технологии могут быть настроены так, чтобы реагировать так, как предпочитает поставщик решений. Мы также не можем предсказать пагубное непреднамеренное появление этих настроенных решений в сфере ИТ.

В конечном счете, новые Bing и ChaptGPT на основе искусственного интеллекта на базе OpenAI — это чрезвычайно мощные инструменты с фантастическим потенциалом для добрых дел. Тем не менее, с большой силой приходит большая ответственность, и я не уверен, что технологические лидеры всегда демонстрировали способность действовать с ответственностью даже под властью, которую сегодняшние технологии предоставили за последние 10 лет или около того, не говоря уже о возможно большем потенциале OpenAI.

Хотя потенциал этой новой технологии впечатляет, он также призывает нас быть еще более бдительными в отношении технологии, тех, кто ее продвигает, и расширяющейся цифровой пропасти между цифровыми лидерами и остальным человечеством, чтобы помочь свести к минимуму влияние пагубного неожиданного появления ИТ.

Автор: Гай Пирс, CGEIT, CDPSE

Перевод с англ. подготовлено порталом Allinsurance.kz