Cocoon (Confidential Compute Open Network): приватные ИИ-вычисления на TEE для TON и Telegram

Cocoon (Confidential Compute Open Network) — заявленная Павлом Дуровым сеть для конфиденциальных ИИ-вычислений и децентрализованной GPU-мощности. Идея: разработчики мини-приложений и ботов в экосистеме Telegram/TON получают доступ к приватным и относительно дешёвым ИИ-вызовам, а провайдеры железа монетизируют GPU-ресурсы, не имея доступа к открытым данным пользователей.

Технологическая основа — confidential computing: аппаратные доверенные среды выполнения (TEE, trusted execution environment) с удалённой аттестацией и шифрованием данных «на всём пути» — см. Confidential Computing.

Cocoon: Confidential Compute Open Network для приватных ИИ-вычислений

Коротко: зачем нужен Cocoon

  • дать разработчикам простое API для ИИ, где данные пользователей не видят админы дата-центра и оператор узла;
  • собрать сеть «доверенных» GPU-узлов с аппаратной защитой (TEE) и проверяемой конфигурацией;
  • интегрировать Confidential Compute в экосистему Telegram и TON: mini-apps, боты, DeFi-сценарии, RWA/документы, приватные ассистенты;
  • обеспечить криптографическое доказательство того, где и в какой среде выполнялась модель, без обсуждения доходности или роста цены каких-либо токенов.

Что уже известно (рамка на момент анонса)

На момент анонса (Blockchain Life 2025 и первые публикации медиа) проект описывается на уровне концепции — без полного whitepaper и SDK. Ниже — рабочий конспект.

Параметр Сведения (черновая рамка)
Название Cocoon — Confidential Compute Open Network
Фокус Конфиденциальные ИИ-вычисления (inference, обработка данных) на доверенных узлах с TEE
Роль Telegram Ключевой экосистемный «клиент»: мини-приложения и боты, использующие Cocoon как ИИ-бэкенд
Сеть исполнителей Провайдеры GPU-мощности, запускающие узлы Cocoon в конфиденциальных ВМ/энкламах
Технологическая база Confidential Computing: TEE (TDX/SEV-SNP/ARM CCA и др.), удалённая аттестация, шифрование от клиента до энклавы
Экономика Ожидается система вознаграждений для провайдеров мощности; в ряде комментариев упоминается связка с TON-экосистемой. Конкретная токеномика и тарифы ещё не опубликованы.
Целевые сценарии Приватные чат-ассистенты, обработка документов, DeFi/KYC/RWA-кейсы, чувствительные данные в mini-apps и ботах

Страница не даёт инвестиционных оценок и не рассматривает Cocoon как объект для спекуляций — мы фокусируемся на архитектуре, моделях доверия и рисках.

Базовая логика Confidential Compute в Cocoon

Чтобы понять Cocoon, достаточно разобрать, как обычно работают TEE-подходы в ИИ-сценариях.

1. Изолированная среда (TEE) Код модели и данные выполняются внутри защищённой области — энклавы или конфиденциальной ВМ:

  • память зашифрована;
  • гипервизор и админы хоста не видят содержимое;
  • доступ к ключам ограничен самим TEE.

Примеры платформ: Intel TDX, AMD SEV-SNP, ARM CCA и др. — см. базовые принципы на странице про Confidential Computing.

2. Удалённая аттестация Перед тем как доверять узлу, клиент запрашивает attestation report — криптографическое доказательство того, что:

  • код внутри TEE соответствует конкретному подписанному образу;
  • платформа (CPU/микрокод/BIOS) не имеет известных критических уязвимостей;
  • политика безопасности (policy) укладывается в допустимые границы.

3. Шифрованный канал прямо в энклаву Клиент (мини-апп/бот):

  • проверяет отчёт аттестации;
  • создаёт защищённый канал не к «узлу в целом», а к конкретной энклаве;
  • шифрует запрос (промпт, документ, параметры) на публичный ключ TEE.

Даже оператор дата-центра и провайдер GPU не видят открытые данные.

4. Подпись результата Ответ модели:

  • формируется внутри TEE;
  • подписывается ключом, связанным с аттестованной конфигурацией;
  • клиент может проверить, что ответ действительно сгенерирован «проверенной» энклавой.

Для разработчика это выглядит как «чуть усложнённый RPC/HTTP-запрос»: добавляются проверки аттестации и крипто-обвязка, но бизнес-логика приложения может остаться прежней.

Архитектура Cocoon: роли и компоненты

Точная реализация будет известна после выхода доков, но набор ролей в таких сетях обычно схож.

Роль Что делает Ключевые требования
GPU-провайдер (Executor) Поднимает узел Cocoon на сервере с конфиденциальной ВМ, подключает GPU, разворачивает образ ИИ-сервиса Совместимый CPU (TDX/SEV-SNP/CCA), корректная прошивка, стабильный интернет/энергия
Аттестационный верификатор Проверяет отчёты TEE, ведёт policy допустимых платформ и билдов Прозрачная политика: списки разрешённых версий, механизм отзыва (CRL/OCSP)
Координатор/маркет заданий Раздаёт задачи по узлам, собирает метрики, считает биллинг Учёт времени, квот, анти-спам, минимизация утечек через метаданные
Клиентский SDK Прячет сложность аттестации/шифрования от разработчика бота/mini-app Простые API и обёртки для Telegram/TON-стека
Учёт и расчёты Фиксирует, сколько ресурсов потреблено, и инициирует выплаты Потенциальная связка с блокчейном (TON или др.) для прозрачного учёта

Возможна ончейн-регистрация узлов (адреса, хэш конфигурации TEE), привязка вознаграждений к Toncoin (TON) или другим активам экосистемы, но до выхода спецификации это остаётся гипотезой.

Поток запроса: от Telegram-мини-приложения до TEE

Ниже — типичный сценарий использования Cocoon разработчиком mini-app/бота.

Шаг 1. Пользователь → mini-app/бот Пользователь в Telegram:

  • пишет сообщение боту;
  • загружает документ;
  • инициирует операцию (например, запросить анализ транзакций или подготовку отчёта).

Приложение собирает данные, которые нужно отправить в ИИ-сервис, и добавляет контекст (роль ассистента, язык, ограничения и т.п.).

Шаг 2. Mini-app → клиентский SDK Cocoon

SDK выполняет:

  • проверку актуальной конфигурации Cocoon-узлов (через реестр/дискавери);
  • запрос и проверку attestation report выбранного узла;
  • установку шифрованного канала прямо в энклаву.

Если аттестация не проходит policy (устаревший микрокод, отозванный сертификат и т.п.), SDK должен отклонить соединение.

Шаг 3. Передача данных и инференс

Данные пользователя:

  • шифруются на публичный ключ TEE;
  • попадают внутрь защищённой среды узла;
  • расшифровываются и подаются в модель (LLM, мультимодальная модель, спец-алгоритм).

Оператор железа и системный администратор не видят содержимое.

Шаг 4. Подпись и возврат результата

Результат:

  • формируется внутри TEE;
  • подписывается ключом, привязанным к конкретной аттестованной конфигурации;
  • возвращается mini-app/боту.

Клиент:

  • проверяет подпись и метаданные;
  • показывает ответ пользователю или запускает дальнейшие действия (например, подготовить структурированный отчёт, сформировать черновик договора, построить DeFi-аналитику поверх TON/Jetton-данных).

Зачем Cocoon TON и Telegram-экосистеме

Cocoon логично ложится на TON/Telegram-кластер:

  • Telegram даёт интерфейс (чаты, каналы, mini-apps);
  • TON — платёжный и смарт-контрактный слой;
  • Cocoon — конфиденциальные ИИ-вычисления «рядом» с этим стеком.

Типичные сценарии:

  • Приватные чат-ассистенты

Анализ переписок, офисных документов, внутренних отчётов, без раскрытия содержимого операторам ИИ-инфраструктуры.

  • KYC/AML и RWA-аналитика

Проверка документов, скоринг контрагентов и токенизированных активов, где юр.службы и регуляторы требуют конфиденциальности персональных данных — см. KYC и AML.

  • DeFi-инсайты поверх TON

Приватный анализ портфеля, транзакций и позиций в DEX/лендингах (например, STON.fi, DeDust, Megaton Finance), без передачи «сырых» данных сторонним аналитическим сервисам.

  • Корпоративные/закрытые знания

Использование внутренних баз знаний компаний внутри ИИ-ассистентов, когда нельзя отдавать данные в классическое облако.

В совокупности Cocoon может стать приватным вычислительным слоем для всего, что строится вокруг TON, Telegram и mini-apps — при условии, что архитектура и реализация действительно выдержат требования к безопасности.

Сравнение Cocoon-подхода с альтернативами

Важно понимать, что Cocoon не единственный путь к приватным ИИ-вычислениям. Существуют конкурирующие и комплементарные технологии.

Критерий TEE (подход Cocoon) ZK-вычисления FHE MPC
Производительность Близка к нативной (овер-хед изоляции) Дорого генерировать доказательства, но быстро проверять; хорошо для конкретных задач Полностью на зашифрованных данных, но пока очень ресурсоёмко Распределённые вычисления, накладные расходы растут с числом участников
Модель доверия Доверие к железу и вендору TEE, к цепочке аттестации Доверие к криптографии и реализации протокола, без доверия к железу Аналогично, доверие к криптографии и ключам Доверие делится между участниками MPC, нет единой доверенной стороны
Тип задач Онлайновые ИИ-запросы, приватные пайплайны, stateful-сервисы Верификация вычислений, on-chain доказательства ограниченных вычислений Максимальная приватность, но пока больше R&D Совместные подписи/секреты, ко-подписания, приватные аукционы
UX/интеграция Относительно просто внедрить, особенно через SDK Требует переписывать задачи под ZK-формат Требует специальных алгоритмов и оптимизаций Сложно использовать для длинных stateful-сервисов

Вывод:

  • TEE-подход, на котором строится Cocoon, — единственный реалистичный способ массово запустить сложные ИИ-сервисы прямо сейчас с разумной ценой и задержкой;
  • ZK/FHE/MPC — не конкуренты, а дополнение:
    • ZK может проверять корректность отдельных шагов;
    • MPC и FHE — доп.слой конфиденциальности для самых чувствительных сценариев.

Риски и ограничения Cocoon

Конфиденциальные вычисления — не «магия», а компромисс. Помимо общих рисков ИИ-инфраструктуры есть специфические для TEE и подобных сетей.

  • Сайд-чаннел и уязвимости TEE

История SGX, speculative execution (Spectre/Meltdown) и др. показывает: железо и микрокод периодически получают критические уязвимости.

Нужны:

  • быстрая реакция на CVE;
  • обновление прошивок и микрокода;
  • чёткая политика, когда узел исключается из сети.
  • Слабая политика аттестации

Если policy «принимает всё», то:

  • можно подсовывать устаревшие или кастомные билды;
  • атакующий TEE-узел становится тёмной точкой в сети.

Важно жёстко задавать:

  • допустимые версии микрокода/BIOS/драйверов;
  • форматы отчётов;
  • правила отзыва.
  • Метаданные и утечки по активности

Даже если данные зашифрованы, остаются:

  • размер запросов;
  • временные паттерны;
  • частота вызовов.

Это может быть чувствительно для финансовых/корпоративных сценариев; нужны техники:

  • батчинг;
  • паддинг;
  • джиттер задержек.
  • Комплаенс и юрисдикции

Провайдеры GPU и разработчики:

  • могут подпадать под локальные требования KYC/AML;
  • должны учитывать ограничения на экспорт моделей/данных;

Конкретные правила зависят от страны, и Cocoon не снимает обязанностей по соблюдению законов.

  • Экономические риски для провайдеров

Провайдеру нужно вложиться в железо и инфраструктуру:

  • окупаемость зависит от спроса на ИИ-задачи;
  • финальная токеномика/тарифы пока неизвестны;
  • потенциально возможны периоды недозагрузки или демпинга.
  • Ошибки интеграции на стороне разработчиков

Даже при качественной TEE-реализации можно:

  • неправильно проверять аттестацию;
  • отправлять данные без шифрования;
  • «логировать» чувствительные данные до TEE.

Поэтому нужен понятный SDK и хорошие практики безопасности — см. AI Security Hub (общий хаб по безопасности ИИ-систем).

Чек-листы интеграции Cocoon

Для разработчиков mini-apps и ботов

  • Строго проверять аттестацию:
    • использовать SDK, который валидирует отчёты TEE;
    • вести allow-list билдов и платформ;
    • обрабатывать «жёстким отказом» любую несоответствующую конфигурацию.
  • Шифровать весь полезный payload:
    • перестать отправлять данные «как есть» на обычные API;
    • исключительно на публичный ключ TEE;
    • избегать логирования до шифрования.
  • Минимизировать утечки через метаданные:
    • по возможности использовать батчинг запросов;
    • паддинг размеров сообщений;
    • джиттер таймингов.
  • Планировать обновления:
    • держать версию SDK и политик аттестации в актуальном состоянии;
    • тестировать поведение при отзыве платформы или билда.
  • Не обещать пользователям «абсолютную анонимность»:
    • правильно формулировать UX-подсказки;
    • указывать, что это сильное, но не идеальное усиление приватности.

Для провайдеров GPU-узлов

  • Выбирать платформу с поддержкой современных TEE (TDX/SEV-SNP/CCA) и своевременным выпуском патчей.
  • Обеспечить цепочку доверия:
    • защищённая поставка серверов;
    • контроль прошивок, BIOS, микрокода;
    • мониторинг актуальных CVE.
  • Изолировать трафик и управление:
    • разделять служебные и пользовательские каналы;
    • минимизировать телеметрию, которая может деанонимизировать клиентов.
  • Понимать риски бизнеса:
    • нет гарантированной загрузки;
    • возможны периоды, когда вознаграждение не покрывает расходы;
    • возможны требования по KYC/AML и отчётности.

Для продукт-менеджеров и юристов

  • Чётко определить, какие данные попадают в Cocoon:
    • текст чатов;
    • документы;
    • финансовые/личные данные.
  • Проверить требования по локальному праву:
    • хранение/обработка ПДн;
    • трансграничная передача данных;
    • отраслевые стандарты (финансы, медицина и др.).
  • Встроить Cocoon в общую модель рисков:
    • рассматривать TEE как усиление, а не замену всех других мер;
    • предусмотреть fallback-режимы, если Cocoon временно недоступен.

Открытые вопросы (до выхода whitepaper/SDK)

На момент подготовки страницы остаётся ряд существенных вопросов:

  • Кто и как управляет аттестацией?
    • единый верификатор или федерация;
    • on-chain-реестры допустимых конфигураций;
    • механизмы прозрачного отзыва узлов.
  • Какие именно платформы TEE поддерживаются?
    • только современные серверные TEE (TDX/SEV-SNP/CCA);
    • будет ли поддержка оставшихся SGX-сценариев;
    • требования к ARM-серверным платформам.
  • Как выглядит модель биллинга и слэшинга?
    • тарификация по времени, по токенам, по запросам;
    • как выявляются «недобросовестные» провайдеры мощности;
    • есть ли механизмы залога и штрафов.
  • Как регулируются права на модели и данные?
    • ответственность за лицензии обучающих наборов;
    • аудит и логирование в обезличенном виде;
    • возможные on-chain реестры лицензий и политик.

FAQ по Cocoon

Cocoon — это блокчейн или просто сетевой протокол? Cocoon — это сеть узлов конфиденциальных вычислений. Она может использовать блокчейн (например, TON) для учёта и вознаграждений, но её ядро — это confidential computing: TEE, аттестация, шифрование.

Чем Cocoon отличается от «просто ИИ в облаке»? В классическом облаке оператор видит данные «в момент вычисления». В Cocoon:

  • данные обрабатываются внутри TEE;
  • админы не видят открытый текст;
  • клиент может криптографически проверить, что расчёт выполнен на доверенной платформе с разрешённой конфигурацией.

Можно ли использовать свои модели внутри Cocoon? С высокой вероятностью — да, но только через политику сборки и аттестации:

  • образ модели должен быть собран и подписан по требованиям сети;
  • хэш образа попадёт в policy/реестр;
  • дальше клиенты смогут проверять, что они вызывают именно этот билд.

Подробности станут известны после публикации SDK и регламентов.

Cocoon гарантирует «абсолютную приватность»? Нет. Cocoon значительно усиливает конфиденциальность, но:

  • остаются риски уязвимостей TEE и сайд-чаннелов;
  • сохраняются регуляторные и правовые риски;
  • многое зависит от того, как разработчики интегрируют SDK и обрабатывают данные до/после TEE.

Это мощный инструмент, но не «волшебный щит от всех угроз».

Нужен ли мне TON-кошелёк, чтобы пользоваться продуктами на Cocoon? Для конечного пользователя Telegram-ботов это может быть «прозрачно»: достаточно самого Telegram. Но:

  • если продукт строит платёжную/DeFi-часть на TON;
  • если предусмотрены криптовыплаты провайдерам мощности;

то пользователю или провайдеру, скорее всего, понадобится TON-кошелёк и базовое понимание Toncoin (TON).

Стоит ли закупать железо/токены под Cocoon прямо сейчас? С точки зрения технической вики — разумно дождаться:

  • официального whitepaper;
  • SDK и требований к TEE;
  • понятной экономической модели.

Любые решения о закупке оборудования или активов должны приниматься с учётом рисков, сроков окупаемости и локального законодательства. Эта страница не даёт инвестиционных рекомендаций.

См. также

Task Runner