Поддержать команду Зеркала
Беларусы на войне
  1. В Беларуси банкротится компания такси — к ней возникли вопросы из-за налогов
  2. Протасевич сходил к Азаренку и рассказал, что счастлив, что выборы в Беларуси пройдут спокойно
  3. «Были попытки сфотографировать бюллетени». В ФПБ сообщили о «первых внештатных ситуациях» на досрочном голосовании
  4. С 1 февраля повысят пособия на детей до трех лет. Посчитали, сколько составит прибавка
  5. Лукашенко помиловал 15 человек, среди них не только «экстремисты»
  6. В Минске строят медцентр для сотрудников КГБ и их семей. На него потратят минимум 15 миллионов долларов «спонсорских денег»
  7. «Умелая игра Лукашенко». Исследователи рассказали о настроениях беларусов (раскол сохраняется, но есть и поводы для оптимизма)
  8. В Минском районе воспитанница детской деревни покончила с собой. «Зеркало» узнало подробности из непубличного документа прокуратуры
  9. У мобильных операторов — очередные изменения
  10. Северная Корея отправит дополнительный контингент своих бойцов. Эксперты оценили, когда они смогут оказаться на поле боя и что это изменит
  11. Проголосовать должны все. Узнали, как ради стопроцентной явки на выборах в больницах ограничивают права пациентов
  12. Муж пресс-секретаря Лукашенко нашел способ, как подзаработать на пропаганде. Деньги на это взяли из карманов налогоплательщиков
  13. ООН направила Беларуси письмо с обвинениями. Рассказываем, о чем речь
  14. «Это доктор от Бога». В Минске за «политику» судят известного врача-онколога


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.