За последний год искусственный интеллект стремительно вошел в повседневную жизнь израильтян. Мы используем ChatGPT и его аналоги для работы, учебы, консультаций, поиска идей — так же активно, как когда-то привыкли к Waze или PayBox. Но вместе с удобством приходит новый риск: не все задумываются, что разговоры с ботами — это не личная беседа, а передача информации на сервер, который может быть уязвим.
В Израиле вопросы приватности особенно остро стоят на повестке дня. С одной стороны, страна стремится быть технологическим лидером: здесь открываются офисы Google, Microsoft, Amazon и строятся стартапы мирового уровня. С другой — законодательство требует серьёзной защиты личных данных: действует Закон о защите частной информации, вступили в силу Регламенты кибербезопасности, а крупные утечки данных уже приводили к громким скандалам.
Игнорировать вопросы безопасности — значит рисковать не только своими деньгами или аккаунтами, но и корпоративной репутацией, особенно если вы работаете в хайтеке, финансовом секторе или госструктуре. Поэтому каждому израильтянину важно понимать, о чём можно, а о чём нельзя разговаривать с ИИ. Иначе за быстрой консультацией может последовать очень медленная раздача извинений.
Объясняем на израильских примерах, почему лишняя откровенность может стоить дорого.
Зачем быть осмотрительным:
- Прецеденты уже были. В марте 2023 года сбой в ChatGPT позволил случайным пользователям просматривать заголовки чужих диалогов.
- Компании делают выводы. Samsung полностью запретила сотрудникам пользоваться публичными ИИ-ботами после того, как инженер по ошибке скопировал внутрь ChatGPT фрагмент закрытого кода.
- В Израиле действует Закон о защите личных данных 1981 года и Регламент по кибербезопасности 2017 года. За несанкционированное раскрытие персональной базы грозят иски и штрафы до 3.2 млн шекелей (по решению суда).
1. Личные сведения
Что под угрозой: теудат-зеут, дата рождения, адрес, мобильный.
Что может случиться: покупка SIM-карт на ваше имя, мошеннические займы, фишинговые звонки "из банка".
Как снизить риск:
- Спрашивайте бота о маршрутах "Эгед" — без точного домашнего адреса.
- При необходимости укажите только город и район.
2. Медицинские данные
Опасность: диагнозы, рецепты, результаты анализов.
Израильский нюанс: в отличие от больничных касс, ChatGPT не связан врачебной тайной.
Совет: Перед загрузкой фото снимка МРТ замажьте имя, номер пациента и штрих-код клиники.
3. Финансы
Не пишем: номера карт Bank Hapoalim и Leumi, CVV, коды Bit и PayBox.
Почему: при утечке достаточно шести цифр из 16, чтобы подобрать остальные через BIN-атаку.
Совет: Храните данные в менеджере паролей.
4. Коммерческие секреты
Риски: исходный код, бизнес-планы, база клиентов.
Показательная история: инженер Samsung загрузил внутрь ChatGPT конфиденциальный алгоритм и лишился доступа к сервису вместе со всей компанией.
Альтернатива: ChatGPT Enterprise/Team — платная версия, где данные не идут на обучение модели и хранятся в зоне SOC 2.
5. Логины и пароли
Почему нельзя: бот - не хранилище, а "ворота". Любой утекший токен потянет за собой все сервисы с SSO.
Минимальная гигиена:
1. Менеджер паролей (1Password, Bitwarden).
2. Двухфакторная аутентификация на e-Gov и банковских приложениях.
3. Регулярная проверка "гостевого режима" — временный чат без сохранения истории.
Что делать компаниям:
- Политика ИИ: Вписать четкий запрет на загрузку ПД и кода в публичные модели, это сокращает человеческий фактор.
- Корпоративный бэкап - хранить чистые логи диалогов на локальном сервере. Это помогает расследовать инцидент.
- Обучение сотрудников - ежеквартальный тренинг по ИИ-рискам, что уменьшает шанс случайной утечки.
Для частного пользователя:
- Отключите обучение — в настройках ChatGPT снимите галочку Improve the model.
- Удаляйте чаты после важных вопросов; сервисы стирают их из бэкапа в течении 30 дней.
- Используйте анонимные прокси-боты (Duck.ai) для чувствительных тем — запрос идет без метаданных.
Итог:
ChatGPT и аналоги — отличный инструмент, если помнить простое правило: все, что выходит за рамки общедоступной информации, потенциально может стать публичным. Держите персональные данные под замком, а вопросы к ИИ формулируйте так, будто их читает весь интернет.
комментарии