Тимур Турсунов, основатель AI‑платформы Clipstorm, предостерегает: несмотря на меры безопасности, полностью исключить риск утечки данных при работе с крупными нейросетями невозможно. В качестве примера он напоминает апрельский инцидент 2023 года, когда секретный код Samsung оказался на серверах Chat.
По словам Турсунова, даже современные системы вроде Grok и платформ OpenAI проектируются с учётом изоляции пользовательских данных, но это не даёт стопроцентной гарантии конфиденциальности. Особую угрозу представляют сторонние надстройки и продукты, созданные на базе нейросетей: такие приложения могут сохранять вводимые пользователями сведения и становиться источником утечек. В апреле 2023 года часть секретного кода компании Samsung попала на сервера Chat, что показало реальные риски при обмене конфиденциальной информацией через AI‑сервисы.
Рекомендации экспертов:
— Никогда не передавать нейросетям пароли.
— Не сообщать банковские реквизиты и другие финансовые данные.
— Не вводить паспортные и другие персональные данные.
— Обсуждать условия сделок и сотрудничества с нейросетями можно с осторожностью, но финансовые операции и обработку персональной информации следует проводить только через защищённые процессинговые платформы.
Использование нейросетей становится повседневным, но пользователям, в том числе в Астрахани, стоит соблюдать осторожность и не доверять сервисам чувствительную информацию, даже при видимых мерах безопасности.
фото: нейросеть Кандинский