Существует несколько методов, которые смогут помочь уменьшить количество недостоверной информации, генерируемой ИИ. При использовании вместе, эти методы позволят минимизировать ошибки в выводах – даже если сдерживать свои ожидания от использования ИИ.
- Сбор большего количества данных
Как правило, разработчики моделей ИИ, которые обладают наибольшим количеством данных, имеют лучшие возможности для получения точных ответов. Однако сбор данных – это лишь первый шаг. Разработчики моделей и приложений ИИ должны превратить эти данные в функции, которые могут решать конкретные проблемы.
- Внедрение мер по качеству и целостности данных
Дезинформация может быть следствием плохого управления данными. Когда модели ИИ построены на неполных, неточных, противоречивых, поврежденных или ошибочных данных, они дают неправильные ответы. Нужно регулярно проводить проверки и аудиты, чтобы убедиться, что источники данных являются легитимными и не были подделаны.
- Проверка результатов
В дополнение к проверке входных данных, мы должны фильтровать то, что предоставляют большие языковые модели ИИ, отслеживая стандартизированные шаблоны и подсказки. Проверка результатов позволяет выявить дезинформацию – преднамеренную или непреднамеренную – до того, как нужно использовать эту дезинформацию для принятия решений. Можно использовать модели ИИ для проверки выходных и входных данных других моделей ИИ. Это помогает убедиться, что ответы находятся в диапазоне фактической точности.
- Контроль доступа к моделям ИИ с открытым кодом
Теневой ИИ и, в частности, несанкционированное использование общедоступных моделей ИИ с открытым кодом, может усилить влияние дезинформации в компании. Мониторинг использования этих моделей ИИ в компании может помочь защитить конфиденциальную информацию от утечки и минимизировать риск принятия работниками необоснованных решений на основе дезинформации.
- Усиление безопасности внутренних моделей
Блокировка внутренних моделей ИИ с помощью строгого контроля доступа, отслеживания версий, шифрования и цифровых сертификатов может помочь предотвратить преднамеренное и непреднамеренное заражение. Необходимо внимательно следить за тем, как используются и развертываются модели ИИ, чтобы выявить любые попытки вмешательства или кражи.
- Подготовка к дезинформационным атакам
Все организации должны быть готовыми к дезинформационным атакам. Подобно подготовке к DDoS-атаке или шантажу, необходимо иметь план обнаружения атаки, отчеты о событиях, возможности ограничения ущерба и информирования клиентов, партнеров и общественности о проблеме. Большая часть этого планирования должна согласовываться с типичными стратегиями коммуникации в кризисных ситуациях.
- Использование человеческой оценки
Необходимо различать, что является реальным, а что нет. Это становится сложнее с ИИ. Например, «дипфейки» становятся все более реалистичными, и со временем они будут продолжать совершенствоваться. Тем временем частные лица и организации создают многочисленные фейковые статьи, посты в социальных сетях и комментарии к ним, сгенерированные ИИ. К сожалению, чем больше мы сталкиваемся с идеей или якобы фактом, тем больше мы верим в их достоверность, даже если это не так.
Как ни крути, но человеческое мнение имеет решающее значение для определения того, получаем ли мы неточную информацию или дезинформацию. Людям не нужно знать правильный ответ на вопрос (если есть только один правильный ответ), им просто нужно определить, находится ли ответ в диапазоне возможных вариантов, учитывая их собственный прошлый опыт. Это так же, как когда кто-то преувеличивает или рассказывает странную историю – мы должны определить, что является правдой, а что выдумкой. Создавая среду критического мышления, прозрачности и непрерывного обучения, возможно уменьшить риски, связанные с дезинформацией, которую генерирует ИИ.