Cocoon (Confidential Compute Open Network) — заявленная Павлом Дуровым сеть для конфиденциальных ИИ-вычислений и децентрализованной GPU-мощности. Идея: разработчики мини-приложений и ботов в экосистеме Telegram/TON получают доступ к приватным и относительно дешёвым ИИ-вызовам, а провайдеры железа монетизируют GPU-ресурсы, не имея доступа к открытым данным пользователей.
Технологическая основа — confidential computing: аппаратные доверенные среды выполнения (TEE, trusted execution environment) с удалённой аттестацией и шифрованием данных «на всём пути» — см. Confidential Computing.
Коротко: зачем нужен Cocoon
- дать разработчикам простое API для ИИ, где данные пользователей не видят админы дата-центра и оператор узла;
- собрать сеть «доверенных» GPU-узлов с аппаратной защитой (TEE) и проверяемой конфигурацией;
- интегрировать Confidential Compute в экосистему Telegram и TON: mini-apps, боты, DeFi-сценарии, RWA/документы, приватные ассистенты;
- обеспечить криптографическое доказательство того, где и в какой среде выполнялась модель, без обсуждения доходности или роста цены каких-либо токенов.
Что уже известно (рамка на момент анонса)
На момент анонса (Blockchain Life 2025 и первые публикации медиа) проект описывается на уровне концепции — без полного whitepaper и SDK. Ниже — рабочий конспект.
| Параметр | Сведения (черновая рамка) |
|---|---|
| Название | Cocoon — Confidential Compute Open Network |
| Фокус | Конфиденциальные ИИ-вычисления (inference, обработка данных) на доверенных узлах с TEE |
| Роль Telegram | Ключевой экосистемный «клиент»: мини-приложения и боты, использующие Cocoon как ИИ-бэкенд |
| Сеть исполнителей | Провайдеры GPU-мощности, запускающие узлы Cocoon в конфиденциальных ВМ/энкламах |
| Технологическая база | Confidential Computing: TEE (TDX/SEV-SNP/ARM CCA и др.), удалённая аттестация, шифрование от клиента до энклавы |
| Экономика | Ожидается система вознаграждений для провайдеров мощности; в ряде комментариев упоминается связка с TON-экосистемой. Конкретная токеномика и тарифы ещё не опубликованы. |
| Целевые сценарии | Приватные чат-ассистенты, обработка документов, DeFi/KYC/RWA-кейсы, чувствительные данные в mini-apps и ботах |
Страница не даёт инвестиционных оценок и не рассматривает Cocoon как объект для спекуляций — мы фокусируемся на архитектуре, моделях доверия и рисках.
Базовая логика Confidential Compute в Cocoon
Чтобы понять Cocoon, достаточно разобрать, как обычно работают TEE-подходы в ИИ-сценариях.
1. Изолированная среда (TEE) Код модели и данные выполняются внутри защищённой области — энклавы или конфиденциальной ВМ:
- память зашифрована;
- гипервизор и админы хоста не видят содержимое;
- доступ к ключам ограничен самим TEE.
Примеры платформ: Intel TDX, AMD SEV-SNP, ARM CCA и др. — см. базовые принципы на странице про Confidential Computing.
2. Удалённая аттестация Перед тем как доверять узлу, клиент запрашивает attestation report — криптографическое доказательство того, что:
- код внутри TEE соответствует конкретному подписанному образу;
- платформа (CPU/микрокод/BIOS) не имеет известных критических уязвимостей;
- политика безопасности (policy) укладывается в допустимые границы.
3. Шифрованный канал прямо в энклаву Клиент (мини-апп/бот):
- проверяет отчёт аттестации;
- создаёт защищённый канал не к «узлу в целом», а к конкретной энклаве;
- шифрует запрос (промпт, документ, параметры) на публичный ключ TEE.
Даже оператор дата-центра и провайдер GPU не видят открытые данные.
4. Подпись результата Ответ модели:
- формируется внутри TEE;
- подписывается ключом, связанным с аттестованной конфигурацией;
- клиент может проверить, что ответ действительно сгенерирован «проверенной» энклавой.
Для разработчика это выглядит как «чуть усложнённый RPC/HTTP-запрос»: добавляются проверки аттестации и крипто-обвязка, но бизнес-логика приложения может остаться прежней.
Архитектура Cocoon: роли и компоненты
Точная реализация будет известна после выхода доков, но набор ролей в таких сетях обычно схож.
| Роль | Что делает | Ключевые требования |
|---|---|---|
| GPU-провайдер (Executor) | Поднимает узел Cocoon на сервере с конфиденциальной ВМ, подключает GPU, разворачивает образ ИИ-сервиса | Совместимый CPU (TDX/SEV-SNP/CCA), корректная прошивка, стабильный интернет/энергия |
| Аттестационный верификатор | Проверяет отчёты TEE, ведёт policy допустимых платформ и билдов | Прозрачная политика: списки разрешённых версий, механизм отзыва (CRL/OCSP) |
| Координатор/маркет заданий | Раздаёт задачи по узлам, собирает метрики, считает биллинг | Учёт времени, квот, анти-спам, минимизация утечек через метаданные |
| Клиентский SDK | Прячет сложность аттестации/шифрования от разработчика бота/mini-app | Простые API и обёртки для Telegram/TON-стека |
| Учёт и расчёты | Фиксирует, сколько ресурсов потреблено, и инициирует выплаты | Потенциальная связка с блокчейном (TON или др.) для прозрачного учёта |
Возможна ончейн-регистрация узлов (адреса, хэш конфигурации TEE), привязка вознаграждений к Toncoin (TON) или другим активам экосистемы, но до выхода спецификации это остаётся гипотезой.
Поток запроса: от Telegram-мини-приложения до TEE
Ниже — типичный сценарий использования Cocoon разработчиком mini-app/бота.
Шаг 1. Пользователь → mini-app/бот Пользователь в Telegram:
- пишет сообщение боту;
- загружает документ;
- инициирует операцию (например, запросить анализ транзакций или подготовку отчёта).
Приложение собирает данные, которые нужно отправить в ИИ-сервис, и добавляет контекст (роль ассистента, язык, ограничения и т.п.).
Шаг 2. Mini-app → клиентский SDK Cocoon
SDK выполняет:
- проверку актуальной конфигурации Cocoon-узлов (через реестр/дискавери);
- запрос и проверку attestation report выбранного узла;
- установку шифрованного канала прямо в энклаву.
Если аттестация не проходит policy (устаревший микрокод, отозванный сертификат и т.п.), SDK должен отклонить соединение.
Шаг 3. Передача данных и инференс
Данные пользователя:
- шифруются на публичный ключ TEE;
- попадают внутрь защищённой среды узла;
- расшифровываются и подаются в модель (LLM, мультимодальная модель, спец-алгоритм).
Оператор железа и системный администратор не видят содержимое.
Шаг 4. Подпись и возврат результата
Результат:
- формируется внутри TEE;
- подписывается ключом, привязанным к конкретной аттестованной конфигурации;
- возвращается mini-app/боту.
Клиент:
- проверяет подпись и метаданные;
- показывает ответ пользователю или запускает дальнейшие действия (например, подготовить структурированный отчёт, сформировать черновик договора, построить DeFi-аналитику поверх TON/Jetton-данных).
Зачем Cocoon TON и Telegram-экосистеме
Cocoon логично ложится на TON/Telegram-кластер:
- Telegram даёт интерфейс (чаты, каналы, mini-apps);
- TON — платёжный и смарт-контрактный слой;
- Cocoon — конфиденциальные ИИ-вычисления «рядом» с этим стеком.
Типичные сценарии:
- Приватные чат-ассистенты
Анализ переписок, офисных документов, внутренних отчётов, без раскрытия содержимого операторам ИИ-инфраструктуры.
- KYC/AML и RWA-аналитика
Проверка документов, скоринг контрагентов и токенизированных активов, где юр.службы и регуляторы требуют конфиденциальности персональных данных — см. KYC и AML.
- DeFi-инсайты поверх TON
Приватный анализ портфеля, транзакций и позиций в DEX/лендингах (например, STON.fi, DeDust, Megaton Finance), без передачи «сырых» данных сторонним аналитическим сервисам.
- Корпоративные/закрытые знания
Использование внутренних баз знаний компаний внутри ИИ-ассистентов, когда нельзя отдавать данные в классическое облако.
В совокупности Cocoon может стать приватным вычислительным слоем для всего, что строится вокруг TON, Telegram и mini-apps — при условии, что архитектура и реализация действительно выдержат требования к безопасности.
Сравнение Cocoon-подхода с альтернативами
Важно понимать, что Cocoon не единственный путь к приватным ИИ-вычислениям. Существуют конкурирующие и комплементарные технологии.
| Критерий | TEE (подход Cocoon) | ZK-вычисления | FHE | MPC |
|---|---|---|---|---|
| Производительность | Близка к нативной (овер-хед изоляции) | Дорого генерировать доказательства, но быстро проверять; хорошо для конкретных задач | Полностью на зашифрованных данных, но пока очень ресурсоёмко | Распределённые вычисления, накладные расходы растут с числом участников |
| Модель доверия | Доверие к железу и вендору TEE, к цепочке аттестации | Доверие к криптографии и реализации протокола, без доверия к железу | Аналогично, доверие к криптографии и ключам | Доверие делится между участниками MPC, нет единой доверенной стороны |
| Тип задач | Онлайновые ИИ-запросы, приватные пайплайны, stateful-сервисы | Верификация вычислений, on-chain доказательства ограниченных вычислений | Максимальная приватность, но пока больше R&D | Совместные подписи/секреты, ко-подписания, приватные аукционы |
| UX/интеграция | Относительно просто внедрить, особенно через SDK | Требует переписывать задачи под ZK-формат | Требует специальных алгоритмов и оптимизаций | Сложно использовать для длинных stateful-сервисов |
Вывод:
- TEE-подход, на котором строится Cocoon, — единственный реалистичный способ массово запустить сложные ИИ-сервисы прямо сейчас с разумной ценой и задержкой;
- ZK/FHE/MPC — не конкуренты, а дополнение:
- ZK может проверять корректность отдельных шагов;
- MPC и FHE — доп.слой конфиденциальности для самых чувствительных сценариев.
Риски и ограничения Cocoon
Конфиденциальные вычисления — не «магия», а компромисс. Помимо общих рисков ИИ-инфраструктуры есть специфические для TEE и подобных сетей.
- Сайд-чаннел и уязвимости TEE
История SGX, speculative execution (Spectre/Meltdown) и др. показывает: железо и микрокод периодически получают критические уязвимости.
Нужны:
- быстрая реакция на CVE;
- обновление прошивок и микрокода;
- чёткая политика, когда узел исключается из сети.
- Слабая политика аттестации
Если policy «принимает всё», то:
- можно подсовывать устаревшие или кастомные билды;
- атакующий TEE-узел становится тёмной точкой в сети.
Важно жёстко задавать:
- допустимые версии микрокода/BIOS/драйверов;
- форматы отчётов;
- правила отзыва.
- Метаданные и утечки по активности
Даже если данные зашифрованы, остаются:
- размер запросов;
- временные паттерны;
- частота вызовов.
Это может быть чувствительно для финансовых/корпоративных сценариев; нужны техники:
- батчинг;
- паддинг;
- джиттер задержек.
- Комплаенс и юрисдикции
Провайдеры GPU и разработчики:
- должны учитывать ограничения на экспорт моделей/данных;
Конкретные правила зависят от страны, и Cocoon не снимает обязанностей по соблюдению законов.
- Экономические риски для провайдеров
Провайдеру нужно вложиться в железо и инфраструктуру:
- окупаемость зависит от спроса на ИИ-задачи;
- финальная токеномика/тарифы пока неизвестны;
- потенциально возможны периоды недозагрузки или демпинга.
- Ошибки интеграции на стороне разработчиков
Даже при качественной TEE-реализации можно:
- неправильно проверять аттестацию;
- отправлять данные без шифрования;
- «логировать» чувствительные данные до TEE.
Поэтому нужен понятный SDK и хорошие практики безопасности — см. AI Security Hub (общий хаб по безопасности ИИ-систем).
Чек-листы интеграции Cocoon
Для разработчиков mini-apps и ботов
- Строго проверять аттестацию:
- использовать SDK, который валидирует отчёты TEE;
- вести allow-list билдов и платформ;
- обрабатывать «жёстким отказом» любую несоответствующую конфигурацию.
- Шифровать весь полезный payload:
- перестать отправлять данные «как есть» на обычные API;
- исключительно на публичный ключ TEE;
- избегать логирования до шифрования.
- Минимизировать утечки через метаданные:
- по возможности использовать батчинг запросов;
- паддинг размеров сообщений;
- джиттер таймингов.
- Планировать обновления:
- держать версию SDK и политик аттестации в актуальном состоянии;
- тестировать поведение при отзыве платформы или билда.
- Не обещать пользователям «абсолютную анонимность»:
- правильно формулировать UX-подсказки;
- указывать, что это сильное, но не идеальное усиление приватности.
Для провайдеров GPU-узлов
- Выбирать платформу с поддержкой современных TEE (TDX/SEV-SNP/CCA) и своевременным выпуском патчей.
- Обеспечить цепочку доверия:
- защищённая поставка серверов;
- контроль прошивок, BIOS, микрокода;
- мониторинг актуальных CVE.
- Изолировать трафик и управление:
- разделять служебные и пользовательские каналы;
- минимизировать телеметрию, которая может деанонимизировать клиентов.
- Понимать риски бизнеса:
- нет гарантированной загрузки;
- возможны периоды, когда вознаграждение не покрывает расходы;
Для продукт-менеджеров и юристов
- Чётко определить, какие данные попадают в Cocoon:
- текст чатов;
- документы;
- финансовые/личные данные.
- Проверить требования по локальному праву:
- хранение/обработка ПДн;
- трансграничная передача данных;
- отраслевые стандарты (финансы, медицина и др.).
- Встроить Cocoon в общую модель рисков:
- рассматривать TEE как усиление, а не замену всех других мер;
- предусмотреть fallback-режимы, если Cocoon временно недоступен.
Открытые вопросы (до выхода whitepaper/SDK)
На момент подготовки страницы остаётся ряд существенных вопросов:
- Кто и как управляет аттестацией?
- единый верификатор или федерация;
- on-chain-реестры допустимых конфигураций;
- механизмы прозрачного отзыва узлов.
- Какие именно платформы TEE поддерживаются?
- только современные серверные TEE (TDX/SEV-SNP/CCA);
- будет ли поддержка оставшихся SGX-сценариев;
- требования к ARM-серверным платформам.
- Как выглядит модель биллинга и слэшинга?
- тарификация по времени, по токенам, по запросам;
- как выявляются «недобросовестные» провайдеры мощности;
- есть ли механизмы залога и штрафов.
- Как регулируются права на модели и данные?
- ответственность за лицензии обучающих наборов;
- аудит и логирование в обезличенном виде;
- возможные on-chain реестры лицензий и политик.
- Насколько глубоко Cocoon интегрирован с TON?
- учёт и расчёты в Toncoin (TON) либо в отдельных токенах;
- использование омничейн-протоколов и мостов (см. TON × CCIP);
FAQ по Cocoon
Cocoon — это блокчейн или просто сетевой протокол? Cocoon — это сеть узлов конфиденциальных вычислений. Она может использовать блокчейн (например, TON) для учёта и вознаграждений, но её ядро — это confidential computing: TEE, аттестация, шифрование.
Чем Cocoon отличается от «просто ИИ в облаке»? В классическом облаке оператор видит данные «в момент вычисления». В Cocoon:
- данные обрабатываются внутри TEE;
- админы не видят открытый текст;
- клиент может криптографически проверить, что расчёт выполнен на доверенной платформе с разрешённой конфигурацией.
Можно ли использовать свои модели внутри Cocoon? С высокой вероятностью — да, но только через политику сборки и аттестации:
- образ модели должен быть собран и подписан по требованиям сети;
- хэш образа попадёт в policy/реестр;
- дальше клиенты смогут проверять, что они вызывают именно этот билд.
Подробности станут известны после публикации SDK и регламентов.
Cocoon гарантирует «абсолютную приватность»? Нет. Cocoon значительно усиливает конфиденциальность, но:
- остаются риски уязвимостей TEE и сайд-чаннелов;
- сохраняются регуляторные и правовые риски;
- многое зависит от того, как разработчики интегрируют SDK и обрабатывают данные до/после TEE.
Это мощный инструмент, но не «волшебный щит от всех угроз».
Нужен ли мне TON-кошелёк, чтобы пользоваться продуктами на Cocoon? Для конечного пользователя Telegram-ботов это может быть «прозрачно»: достаточно самого Telegram. Но:
- если продукт строит платёжную/DeFi-часть на TON;
- если предусмотрены криптовыплаты провайдерам мощности;
то пользователю или провайдеру, скорее всего, понадобится TON-кошелёк и базовое понимание Toncoin (TON).
Стоит ли закупать железо/токены под Cocoon прямо сейчас? С точки зрения технической вики — разумно дождаться:
- официального whitepaper;
- SDK и требований к TEE;
- понятной экономической модели.
Любые решения о закупке оборудования или активов должны приниматься с учётом рисков, сроков окупаемости и локального законодательства. Эта страница не даёт инвестиционных рекомендаций.
