Серый рынок посредников в Китае продавал доступ к ИИ-моделям Claude компании Anthropic примерно за 10 % от официальной цены. По данным исследования сотрудницы Oxford China Policy Lab Цзылань Цянь, такие сервисы зарабатывали не только на чужих аккаунтах, но и на запросах пользователей: тексты, код и ответы моделей могли уходить в обучающие наборы.
Для обычного пользователя это выглядит как выгодная скидка. Для компании — как несанкционированная передача внутренних данных неизвестному оператору без договора, правил хранения и понятной ответственности.
Как устроен серый рынок Claude
По описанию Цянь, посредники делили схему на несколько уровней. Одни добывали или массово регистрировали аккаунты, другие распределяли лимиты между клиентами, третьи продавали интерфейс доступа конечным пользователям.
Часть аккаунтов создавали ради бесплатных кредитов Anthropic на $5. Ещё часть появлялась за счёт корпоративных и образовательных скидок, перепродажи неиспользованных лимитов или дробления дорогих подписок Claude Max за $200 между десятками клиентов. В исследовании также упоминаются аккаунты, оплаченные украденными банковскими картами.
Отдельная линия бизнеса связана с проверкой личности. Посредники искали людей в странах Африки и Латинской Америки, которые проходили верификацию за деньги. В источнике приведён пример биометрического чёрного рынка Worldcoin: сканы радужной оболочки глаза жителей Камбоджи и Кении продавали дешевле $30.
Почему дешёвый ИИ опасен для данных
Пользователь, который отправляет запрос через непроверенного посредника, фактически передаёт ему всё содержимое диалога. Это может быть деловая переписка, фрагмент договора, персональные данные клиента, логика внутреннего сервиса или кусок исходного кода.
Оператор такого сервиса видит запрос и ответ модели. Если он хранит логи, продаёт их или использует для обучения другой системы, пользователь чаще всего не узнает об этом. Юридических гарантий тоже нет: в сером сервисе никто не подписывает соглашение об обработке данных и не проходит аудит безопасности.
Похожая проблема возникает не только у внешних посредников. Мы уже писали, как уязвимость Ollama грозит утечкой ключей API и переписок: даже локальные инструменты требуют внимательной настройки, если через них проходят секреты.
Подмена модели: ответ может прийти не от того ИИ
Ещё один риск — подмена модели. Немецкие исследователи из CISPA Helmholtz Center for Information Security проверили 17 прокси-сервисов и выяснили, что заявленная модель часто не совпадала с реальной.
В одном из тестов доступ продавали как подключение к современной зарубежной модели, но фактический результат сильно уступал официальному интерфейсу. По данным Цянь, вместо заказанного Claude Opus пользователь мог получить ответ от более дешёвых моделей Anthropic — Sonnet или Haiku — либо от китайских ИИ-систем.
Для бытового запроса это грозит ошибками и потерей времени. Для разработчика или юриста цена выше: слабая модель может неправильно трактовать код, пропустить риск в договоре или дать уверенный, но неверный совет.
Дистилляция: запросы превращаются в обучающие наборы
Главная ценность серого доступа — не всегда плата за подписку. По словам разработчиков, с которыми общалась Цянь, наценка на доступ часто нужна для привлечения клиентов, а настоящая бизнес-модель строится на сборе данных.
Дистилляция ИИ-моделей (от англ. distillation — перегонка) — это обучение одной модели на ответах другой. Если посредник собирает пары «запрос — ответ», он получает материал, который можно использовать для тренировки конкурирующей системы. Особенно ценны ответы с рассуждениями: они показывают не только итог, но и ход решения.
В источнике говорится, что на HuggingFace уже появлялись наборы данных с рассуждениями Claude Opus 4.6 неизвестного происхождения. Сам факт публикации не доказывает связь с конкретными посредниками, но показывает спрос на такие материалы.
Схожая проблема постепенно приходит и в массовые сервисы: ИИ всё чаще встраивают в покупки, поиск и поддержку клиентов. На примере статьи «Alibaba встроит Qwen в шопинг: какие данные увидит ИИ» видно, почему важно заранее понимать, какие сведения попадают в модель и кто их хранит.
Чем рискуют компании и разработчики
Самая опасная зона — рабочие запросы. Разработчики нередко вставляют в ИИ-чат фрагменты закрытого кода, структуру API (от англ. application programming interface — программный интерфейс приложения), сообщения об ошибках и логику аутентификации.
Если такой трафик проходит через неизвестный сервер, компания раскрывает внутреннюю архитектуру. В руках постороннего оператора могут оказаться адреса служебных систем, названия таблиц, токены доступа, описание бизнес-процессов и детали защиты.
В 2023 году похожий риск проявился у Samsung: инженеры отправили исходный код в ChatGPT и раскрыли конфиденциальные данные о производстве полупроводниковых компонентов серверам OpenAI. Этот случай стал напоминанием: удобство ИИ не отменяет режим коммерческой тайны.
Что сделать перед работой с ИИ-сервисами
- Не отправляйте в ИИ-чаты пароли, токены, ключи API, персональные данные клиентов и фрагменты закрытого кода.
- Проверяйте, кто оператор сервиса, где он хранит данные и есть ли у него понятные правила обработки запросов.
- Не используйте подозрительно дешёвые посреднические сервисы для рабочих задач: скидка может оплачиваться вашими данными.
- Для корпоративной работы заведите отдельные правила: какие типы данных можно отправлять в ИИ, а какие запрещены без согласования.
- Отключайте сохранение истории запросов, если сервис это поддерживает, и регулярно чистите старые диалоги.
- В публичных сетях используйте сервис безопасного интернет-соединения, который помогает защитить интернет-соединение и приватность данных при работе вне офиса.
- Если сотрудник уже отправил в ИИ секретный код или ключ, сразу отзовите ключ, проверьте журналы доступа и разберите инцидент как утечку.
Комментарии (0)
Будьте уважительны. Спам и ссылки на сторонние сервисы скрываются модерацией.
Пока комментариев нет. Вы можете быть первым.