События 0
Ru
События 0
Результат поиска:
Как противодействовать дезинформации, которая сгенерирована искусственным интеллектом- изображение 1

Как противодействовать дезинформации, которая сгенерирована искусственным интеллектом

По данным исследований, проведенных Google и несколькими другими организациями, занимающимися проверкой фактов, с середины 2023 года резко возросло количество ложного контента, созданного ИИ. Несмотря на то, что большинство пользователей ИИ стремится использовать его для повышения эффективности, стимулирования инноваций и усиления кибербезопасности, необходимо понимать, что искусственный интеллект также обладает способностью генерировать дезинформацию, которая может иметь серьезные последствия для людей, бизнеса и общества.

В этой статье мы рассмотрим какую дезинформацию может генерировать ИИ, почему он генерирует неточную информацию, а также разберем что нужно делать, чтобы защитить корпоративные интересы.

Как противодействовать дезинформации, которая сгенерирована искусственным интеллектом - изображение 1

Несовершенство ИИ

Проблема дезинформации, вызванной искусственным интеллектом, частично связана с ограничениями искусственного интеллекта. Так, ИИ способен делать выводы на основе новых, актуальных данных, но он все еще далек от способности мыслить так, как это делают люди и его способность генерировать значимые выводы из актуальных данных далека от совершенства.

Тем не менее, при условии отсутствия пробелов в построении или обучении, ИИ может предоставлять качественные ответы, основанные на фактах. И именно здесь на первый план выходит фактор того, что ИИ может выдать субъективное мнение за факт.

Факторы, которые вызывают ИИ-дезинформацию

Неправильные ответы, мнения, представленные как факты, и несколько мнений, представленных как равноценные, могут считаться формами дезинформации. Такая дезинформация может быть преднамеренной или непреднамеренной.

Преднамеренная дезинформация генерируется путем манипуляции ИИ, так сказать, «отравив» ИИ для получения определенных ответов. Таким образом, киберзлоумышленники заставляют ИИ предоставлять неправильные ответы.

Непреднамеренная информация формируется когда организация неосознанно подает ИИ предвзятые данные, что и приводит к искаженным выводам. Во многих случаях ИИ предоставляет такую дезинформацию просто потому, что не имеет достаточного количества данных.

К сожалению, найти источник дезинформации и определить, была ли она результатом целенаправленных действий, может быть очень сложно. Особенно учитывая то, что модели ИИ часто существуют в закрытой и непрозрачной системе. С помощью традиционного машинного обучения можно увидеть и понять решения, стоящие за моделью ИИ, но в большой языковой модели, построенной на нейронных сетях, логика принятия решений заключается в скрытых процессах. Такие модели обобщают данные и, со стороны пользователя, выполняют определенную магию для предоставления ответов.

Пользователи не имеют доступа к процессу принятия решений и, как следствие, они не могут легко найти источник потенциальной дезинформации.

Потенциальные последствия дезинформации ИИ

К потенциальным последствиям дезинформации можно отнести принятие недостаточно обоснованных решений, опираясь на результаты, полученные с помощью ИИ. Например, неправильные ответы чат-бота на основе искусственного интеллекта могут привести к неправильным решениям по инвестициям, здравоохранению, юриспруденции или трудоустройству.

Менеджеры могут принимать неправильные решения на основе дезинформации, сгенерированной ИИ. ИИ может акцентировать внимание на неправильных типах угроз кибербезопасности, заставляя руководителей служб безопасности корректировать свои стратегии неправильным образом или внедрять неоптимальные решения. Другими словами, они могут доверять идеям, сгенерированным ИИ без достаточного контроля со стороны человека.

Дезинформация не ограничивается одним лицом или компанией – она может иметь и широкомасштабные последствия. К примеру, распространение ложной информации о крупных публичных корпорациях может дестабилизировать финансовые рынки. Так же и дезинформация о стране может повлиять на геополитические отношения или внешнюю политику, а ИИ потенциально может обострить эти проблемы.

Корректировка ожиданий

Проблема кроется не только в том, что ИИ выдает дезинформацию, но и в том, что мы считаем, что ответы, которые дает ИИ, всегда правильные. Но они не являются идеальными. Наоборот, они не обязательно дают единственный, окончательный ответ.

Также, довольно часто пользователи ожидают от ИИ предсказания того, что произойдет в будущем. ИИ действительно может предсказывать результаты, но эти прогнозы основываются на прошлых событиях и данных. А вот когда появляются новые, более релевантные данные, их обязательно нужно включать в существующие модели ИИ. Но даже тогда ИИ не будет знать наверняка, что произойдет – он не сможет интуитивно предсказать то, что произойдет со 100% точностью. Именно поэтому, необходимо корректировать свои ожидания от использования ИИ.

Как противодействовать дезинформации, которая сгенерирована искусственным интеллектом - изображение 2

Як боротись з дезінформацією

Существует несколько методов, которые смогут помочь уменьшить количество недостоверной информации, генерируемой ИИ. При использовании вместе, эти методы позволят минимизировать ошибки в выводах – даже если сдерживать свои ожидания от использования ИИ.

  1. Сбор большего количества данных

Как правило, разработчики моделей ИИ, которые обладают наибольшим количеством данных, имеют лучшие возможности для получения точных ответов. Однако сбор данных – это лишь первый шаг. Разработчики моделей и приложений ИИ должны превратить эти данные в функции, которые могут решать конкретные проблемы.

  1. Внедрение мер по качеству и целостности данных

Дезинформация может быть следствием плохого управления данными. Когда модели ИИ построены на неполных, неточных, противоречивых, поврежденных или ошибочных данных, они дают неправильные ответы. Нужно регулярно проводить проверки и аудиты, чтобы убедиться, что источники данных являются легитимными и не были подделаны.

  1. Проверка результатов

В дополнение к проверке входных данных, мы должны фильтровать то, что предоставляют большие языковые модели ИИ, отслеживая стандартизированные шаблоны и подсказки. Проверка результатов позволяет выявить дезинформацию – преднамеренную или непреднамеренную – до того, как нужно использовать эту дезинформацию для принятия решений. Можно использовать модели ИИ для проверки выходных и входных данных других моделей ИИ. Это помогает убедиться, что ответы находятся в диапазоне фактической точности.

  1. Контроль доступа к моделям ИИ с открытым кодом

Теневой ИИ и, в частности, несанкционированное использование общедоступных моделей ИИ с открытым кодом, может усилить влияние дезинформации в компании. Мониторинг использования этих моделей ИИ в компании может помочь защитить конфиденциальную информацию от утечки и минимизировать риск принятия работниками необоснованных решений на основе дезинформации.

  1. Усиление безопасности внутренних моделей

Блокировка внутренних моделей ИИ с помощью строгого контроля доступа, отслеживания версий, шифрования и цифровых сертификатов может помочь предотвратить преднамеренное и непреднамеренное заражение. Необходимо внимательно следить за тем, как используются и развертываются модели ИИ, чтобы выявить любые попытки вмешательства или кражи.

  1. Подготовка к дезинформационным атакам

Все организации должны быть готовыми к дезинформационным атакам. Подобно подготовке к DDoS-атаке или шантажу, необходимо иметь план обнаружения атаки, отчеты о событиях, возможности ограничения ущерба и информирования клиентов, партнеров и общественности о проблеме. Большая часть этого планирования должна согласовываться с типичными стратегиями коммуникации в кризисных ситуациях.

  1. Использование человеческой оценки

Необходимо различать, что является реальным, а что нет. Это становится сложнее с ИИ. Например, «дипфейки» становятся все более реалистичными, и со временем они будут продолжать совершенствоваться. Тем временем частные лица и организации создают многочисленные фейковые статьи, посты в социальных сетях и комментарии к ним, сгенерированные ИИ. К сожалению, чем больше мы сталкиваемся с идеей или якобы фактом, тем больше мы верим в их достоверность, даже если это не так.

Как ни крути, но человеческое мнение имеет решающее значение для определения того, получаем ли мы неточную информацию или дезинформацию. Людям не нужно знать правильный ответ на вопрос (если есть только один правильный ответ), им просто нужно определить, находится ли ответ в диапазоне возможных вариантов, учитывая их собственный прошлый опыт. Это так же, как когда кто-то преувеличивает или рассказывает странную историю мы должны определить, что является правдой, а что выдумкой. Создавая среду критического мышления, прозрачности и непрерывного обучения, возможно уменьшить риски, связанные с дезинформацией, которую генерирует ИИ.

Будущее дезинформации, сгенерированной искусственным интеллектом

Без сомнений ИИ будет играть все более важную роль, интегрируясь в повседневную жизнь и работу. Поэтому, общество уже должно осознавать потенциал дезинформации, генерируемой ИИ, и искать пути минимизации ее последствий.

В общем, развитие искусственного общего интеллекта сможет помочь нам лучше определить потенциальные проблемы с моделями ИИ. Эта отрасль, пытаясь создать интеллект, более похожий на человеческий, может открыть закрытую систему моделей ИИ. Так, мы сможем определить, как модель ИИ пришла к определенному ответу и выяснить, может ли она быть неправильной.

Однако, сейчас одними из важнейших инструментов являются наши собственные мощные возможности человеческого мышления. Мы должны скептически относиться к информации – просто потому, что мы что-то читаем или смотрим видео, не означает, что это правда. Лучший способ бороться с дезинформацией – использовать старый добрый здравый смысл.

Демонстрация

Нужна помощь в принятии важных бизнес-решений?

Заполните форму, чтобы узнать больше о решениях от Cloudflare

Cloudflare – это глобальный лидер в сфере сетевой безопасности и оптимизации цифровой инфраструктуры. Его решения помогают строить киберустойчивость, принимать важные технологические решения, защищать бизнес от современных киберугроз и обеспечивать высокую производительность веб-ресурсов. Использование таких технологий, как Cloudflare Zero Trust, позволяет снизить риски доступа к сети, сохраняя конфиденциальность и контроль над данными. iIT Distribution является официальным дистрибьютором решений Cloudflare, предлагая такие продукты как Cloudflare Application Services, Cloudflare Edge Developer Platform, Cloudflare Network Services и Cloudflare Zero Trust Services.

Новости

Текущие новости по вашей теме

Все новости
Все новости