OLAS Autonolas: полный гайд по созданию мульти-агентных сервисов с ко-владением
16-11-2025, 21:50
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизоваться© 2025 24k.ru. Все материалы носят исключительно информационный характер и не являются индивидуальной инвестиционной рекомендацией (ФЗ-39 «О рынке ценных бумаг»). Криптовалюты не являются законным средством платежа в РФ (ФЗ-259). Используя сайт, вы соглашаетесь с нашей Политикой конфиденциальности и использованием cookie.
Когда ИИ выходит из песочницы и начинает работать с реальными данными бизнеса — медицинскими картами, банковскими выписками, коммерческой статистикой — вопрос «где это всё будет крутиться» становится критическим. Классическое облако удобно, но не даёт гарантий, что данные и модели не увидит никто, кроме вас. Именно здесь появляется связка confidential computing + TEE + блокчейн, а одним из первых игроков на этом пересечении стал iExec (RLC).
iExec позиционирует себя как «trust layer для DePIN и AI»: децентрализованный слой доверия, который позволяет запускать вычисления в защищённых окружениях (Trusted Execution Environments, TEE), платить за них в токене RLC и при этом интегрироваться со смарт-контрактами и Web3-сервисами. В результате вы можете:
В этом гайде разберём, как iExec использует TEE для ИИ и аналитики, как выглядит типичный pipeline, какие есть сценарии и ограничения — и в каких случаях такой стек действительно имеет смысл. За базовой теорией по TEE можно обратиться к отдельному материалу о принципах Confidential Computing и TEE, а технические детали токена см. на странице RLC в нашей вики. Для общего контекста по инфраструктуре ИИ и DePIN также полезен обзор AI-инфра и DePIN-проектов.
Confidential computing — это подход, при котором данные остаются зашифрованными не только «на диске» и «в полёте», но и во время самой обработки. Это достигается с помощью Trusted Execution Environments (TEE) — специального защищённого окружения внутри процессора (например, Intel SGX), где код и данные:
iExec делает ставку именно на такой тип вычислений. Платформа была одной из первых Web3-компаний, вступивших в Confidential Computing Consortium, и активно продвигает термин Decentralized Confidential Computing (DeCC) — децентрализованные конфиденциальные вычисления на стыке блокчейна, TEE и DePIN.
Исторически iExec строился вокруг Intel SGX — TEE-технологии, которая позволяет запускать доверенные окружения (enclaves) на CPU. Со временем в экосистеме появились и другие опции (AMD SEV, Arm CCA), а для ИИ особенно интересным стало появление TEE на GPU (например, у NVIDIA).
Для ИИ это означает следующее:
Сам по себе TEE не решает вопрос доверия к инфраструктуре целиком: даже если данные защищены внутри процессора, кто гарантирует честное выполнение и оплату? Здесь и входит блокчейн-слой iExec:
Идея проста: TEE даёт технические гарантии конфиденциальности, блокчейн — экономические и процедурные гарантии, что все участники ведут себя честно.
На высоком уровне iExec можно представить как несколько слоёв, работающих вместе:
Для разработчика это выглядит как «облако с конфиденциальностью по умолчанию», но вместо закрытого дата-центра маленького числа компаний — распределённая сеть узлов, координируемых блокчейном.
Токен RLC в этой схеме — не просто «монета для трейдинга», а рабочая валюта протокола:
Чем больше конфиденциальных приложений (ИИ, аналитика, DeFi-интеграции) запускается через iExec, тем выше совокупный спрос на использование RLC в сети. Технический разбор токена и параметров см. в вики-статье RLC.
Конфиденциальные вычисления в iExec особенно хорошо ложатся на задачи ИИ, где одновременно нужно и мощные ресурсы, и строгая приватность.
Одна из болей при использовании LLM-сервисов — риск утечки промптов и данных пользователя. iExec предлагает концепцию private prompts, когда взаимодействие с моделью происходит внутри TEE, а скрытый «системный» промпт и пользовательские данные:
Схематично это выглядит так:
В результате ни провайдер GPU, ни разработчик инфраструктуры, ни сам iExec не видят содержимого промптов и данных — только факт выполнения задачи.
Ещё один сценарий — монетизация обученных ИИ-моделей. Вместо того чтобы продавать веса модели или запускать её в чужом облаке, владелец модели может:
Так модель превращается в цифровой актив, который можно арендовать, не передавая его копию. Это особенно актуально для моделей, обученных на дорогих или уникальных данных.
Для аналитики iExec позволяет строить пайплайны, где данные вообще не покидают защищённых окружений. Например:
Вместо того чтобы выгружать сырой массив в облако, данные могут быть зашифрованы и обработаны внутри TEE, при этом наружу уходят только агрегированные показатели или результаты модели. Это снижает регуляторные риски и облегчает согласование проектов с юристами и безопасниками.
Рассмотрим условный пример: вы делаете B2B-сервис, который анализирует приватные документы клиента (отчёты, договоры) с помощью LLM и возвращает структурированные инсайты. Клиент не хочет, чтобы его документы ушли в публичное облако или к сторонним подрядчикам.
С точки зрения клиента важно, что ни модель, ни данные не видны третьим лицам, а факт выполнения и оплаты прозрачно фиксируется в блокчейне.
| Подход | Что даёт | Ограничения | Когда подходит |
|---|---|---|---|
| Классическое облако (без TEE) | Быстрый старт, много сервисов, привычная модель биллинга. | Данные и модели видны провайдеру; сложнее доказать соблюдение требований к конфиденциальности. | MVP, не чувствительные данные, внутренние эксперименты. |
| Облако с TEE (SGX/SEV и т.п.) | Защищённое выполнение, меньше рисков утечки данных на стороне провайдера. | Привязка к одному провайдеру, нет нативной токенизации и on-chain учёта. | Enterprise-кейсы в рамках одного облака и одной юрисдикции. |
| iExec (TEE + блокчейн) | Децентрализованный пул TEE-ресурсов, on-chain учёт задач и оплат, токенизация моделей и данных (RLC/xRLC). | Нужно разбираться в Web3-стеке; нужна интеграция с RLC для платежей. | Приватные ИИ-сервисы, кросс-организационные вычисления, DeFi/ончейн-интеграции. |
| MPC/ZK-подходы | Криптографическая приватность без доверия к железу (multi-party computation, zero-knowledge proofs). | Сложность реализации, накладные расходы по производительности, пока ограниченные фреймворки для ИИ. | Кейсы, где нельзя доверять даже TEE и нужно формальное криптографическое доказательство. |
В реальных проектах часто выбирают гибридный подход: где-то использовать TEE (вкл. iExec), где-то — закрытое облако, а для отдельных задач — ZK/MPC, если требования к доверительной модели особенно жёсткие.
Прямых публичных «прайсов за минуту GPU» у iExec обычно нет — это не классический облачный провайдер. Модель ближе к маркетплейсу ресурсов:
Из этого следует важный вывод: считать стоит не цену за секунду CPU/GPU, а экономику всего конвейера:
Хорошая практика — завести отдельные FinOps-метрики на уровне продукта: $/инференс, $/обработанный документ, $/успешный запрос. Такие подходы подробно разбираются в гайдах по оптимизации стоимости LLM и RAG-нагрузок.
Использование TEE и iExec не нужно «везде и всегда». Есть сценарии, где это избыточно, и сценарии, где без этого сложно двигаться дальше.
Если же у вас экспериментальный прототип, не чувствительные данные или внутренний инструмент — зачастую проще и дешевле стартовать в классическом облаке, а уже на этапе product-market fit думать о миграции в iExec/TEE.
iExec — это платформа, которая позволяет запускать приложения и аналитические задачи в защищённых окружениях (TEE), при этом координируя их работу с помощью блокчейна. Вы можете загружать модели и данные, запускать вычисления на распределённом пуле TEE-узлов и платить за это в токене RLC. Цель — сделать конфиденциальные вычисления доступными как сервис: особенно для ИИ, DeFi и аналитики.
В iExec приложение (iApp) разворачивается внутри TEE-окружения — например, Intel SGX или TEE на GPU. Данные расшифровываются только внутри enclave, модель работает там же, а снаружи виден только результат. Даже администратор инфраструктуры или оператор узла не может прочитать содержимое памяти enclave. Дополнительно используется remote attestation, чтобы клиент был уверен, что внутри enclave запускается именно тот код, который он ожидает.
Классическое облако с TEE решает задачу защиты на уровне одного провайдера. iExec добавляет поверх этого:
Это особенно интересно там, где участники не хотят зависеть от одного провайдера и где важен on-chain-слой (DeFi, DAO, мультисторонние проекты).
С точки зрения архитектуры iExec как раз ориентирован на кейсы, где данные слишком чувствительны, чтобы просто положить их в обычное облако. TEE-окружения позволяют исключить доступ к ним со стороны провайдера инфраструктуры, а блокчейн-слой — прозрачно учитывать, кто что запустил и с какими правами.
Но окончательный ответ всегда зависит от:
Для реальных медицинских и банковских проектов обычно подключают профильных юристов и security-команды, чтобы адаптировать стек под локальные нормы.
В отличие от классического облака с «ценой за vCPU/час» в iExec есть несколько компонентов:
Итого вы считаете $/задача или $/инференс, переводя RLC в фиат/стейблы по текущему курсу. Важно закладывать в модель не только непосредственные расходы на вычисления, но и ценность того, что приватный стэк позволяет вообще реализовать продукт (или выйти на клиентов, для которых обычное облако неприемлемо).
Да, архитектурно iExec хорошо сочетается с DePIN-экосистемой: GPU-сети (io.net, Aethir, Nosana), децентрализованные CDN и хранилища (AIOZ, Filecoin-подобные решения). Одна часть стека может отвечать за «сырой compute/storage», другая — за confidential-слой и токенизацию вычислений. Важно лишь чётко разделять роли: какие задачи доверяем iExec TEE, какие — отдаем DePIN-сетям, а где всё ещё используем классическое облако.
Материал носит исключительно информационный характер и не является индивидуальной инвестиционной рекомендацией (ФЗ-39). Криптовалюты не являются законным средством платежа в РФ (ФЗ-259).
16-11-2025, 21:50
16-11-2025, 22:17
17-11-2025, 21:03
18-11-2025, 17:30
16-11-2025, 20:17
Комментариев нет