AI-токены: обзор сегмента, архитектуры ценности и карты рисков

Этот хаб даёт цельную картину по рынку AI-токенов: какие классы проектов существуют, чем они полезны прикладному ИИ и на что смотреть в первую очередь — на стадии ресерча, пилота и эксплуатации. Мы сознательно отделяем «маркетинговые обещания» от производственной реальности: токен может быть востребован только там, где помогает снижать «цену эпизода» (полную себестоимость полезного ответа системы) или увеличивает устойчивость/скорость продукта.

AI-токены: обзор сегмента, архитектуры ценности и карты рисков

Чтобы говорить на одном языке, используем каркас AI-стека — он показывает, где именно токенизированный компонент даёт ценность. Дальше фокусируемся на трёх кластерах:

  • Compute/DePIN — рыночные площадки GPU/CPU и работу децентрализованных провайдеров. См. понятие DePIN и обзор механики в дек. вычисления.
  • Agents/GenAI — прикладные платформы и протоколы вокруг генерации и агентности (планы, инструменты, схемы вывода).
  • Data/Analytics — проекты данных, индексации и аналитики, повышающие проверяемость ответов, качество поиска и интеграцию с ончейн/оффчейн витринами.

Далее — минимально необходимая теория для оценки, практические метрики и чек-листы. Внизу — навигационные блоки: карточки токенов по категориям и соответствующие организации.

Где AI-токены живут в AI-стеке

Проще всего представить себе связку «слой стека → вид токена → сигнал пользы»:

Слой AI-стека Роль Соответствующие токены (классы) Какую пользу ищем
Исполняющий субстрат (инференс/батч) Реальная генерация/вычисления Compute/DePIN Снижение TTFT/P95, «цена эпизода», эластичность
Представления/поиск знаний Эмбеддинги, индексы, гибридный поиск Data/Analytics Recall/precision, цитатность, управляемость затрат на контекст
Оркестрация/агенты План → шаги → инструменты → контроль Agents/GenAI Устойчивость пайплайна, доля неформата, экономия на шагах

Важно: токен — это не автоматическое «ускорение». Ценность появляется там, где архитектурная интеграция действительно уменьшает стоимость и/или стабилизирует SLO. Для ориентира используйте роли и метрики из AI-стека.

Compute/DePIN: зачем рынку такие токены

Класс Compute/DePIN связывает спрос на вычисления с предложением GPU/CPU через рыночные механики (каталоги профилей, аукционы слотов, стейкинг/слэшинг операторов). В продуктах такой слой добавляет эластичность и географию, помогает опускать TTFT за счёт тёплых пулов и держать P95 под контролем при грамотной оркестрации. Важные сигналы зрелости:

  • Профили GPU и VRAM, наличие warm-пулов, понятные SLO.
  • Наблюдаемость запросов: TTFT, P95, доля неформата на границах.
  • Прозрачный биллинг, который позволяет считать «цену эпизода».

Для терминологии и принципов смотрите дек. вычисления и базовое определение DePIN.

Agents/GenAI: когда токены действительно полезны

Здесь проверяйте не «набор модных слов», а контракты вывода и дисциплину инструментов. Агентные системы стоят денег там, где уменьшают ручную работу и делают шаги воспроизводимыми (валидируемые схемы, коды ошибок, лимиты глубины и стоимости эпизода). Сигналы зрелости:

  • Контракты JSON/табличные форматы, доля неформата ≤ целевого.
  • Метрики «Steps/Episode», «Tool Error Rate», политика ретраев.
  • Прозрачные пайплайны: план → исполнение → критик → выпуск.

Если этого нет, «агентность» легко превращается в дорогую игрушку.

Data/Analytics: данные как рычаг доверия и экономии

Токены класса данных решают две главные задачи: доверие (проверяемость ответов через ссылки/ID источников) и экономию контекста (конденсация, гибридный поиск). Сигналы зрелости:

  • Версионирование эмбеддеров и индексов, измерение дрейфа качества.
  • Цитатность ответов и логи соответствий «запрос → документ».
  • Фильтры и политики лицензий/источников.

Такие проекты опосредованно снижают «цену эпизода», уменьшая ввод и ретраи.

Как считать «цену эпизода» и почему это ключ к отбору

«Цена эпизода» = ввод/контекст + префилл + генерация + инструменты (ретривер/классификаторы) + ретраи + пост-обработка. Для каждого класса токенов спрашивайте: какой компонент уравнения он реально делает дешевле/стабильнее?

Класс Где влияет Что проверять
Compute/DePIN Префилл/генерация TTFT, P95, тарифы, тёплые пулы, гео-роутинг
Agents/GenAI Инструменты/ретраи/пост-обработка Контракты, доля неформата, Steps/Episode, Tool Error Rate
Data/Analytics Ввод/контекст Конденсация, recall/precision, цитатность, дрейф эмбеддера

Чек-лист быстрого due diligence

  • Продуктовая метрика: на каком сценарии демонстрируется польза (Q&A, отчёты, интеграции)?
  • SLO: TTFT/P95 и доля неформата в референтных сценариях.
  • Экономика: отчёты «до/после» по «цене эпизода», понятные прайс-модели.
  • Наблюдаемость: трейсинг запросов, версии моделей/индексов/шаблонов.
  • Релизы: канарейки и пороги отката.
  • Комплаенс: политика PII/логов/лицензий, аудит артефактов (подписи/хэши).

Риски и типовые ошибки оценки

Риск/ошибка Симптом Как лечить
«Бренд вместо метрик» Выбрали «по имени», P95 скачет Пилот + канарейка, отчёт «до/после», одинаковые шаблоны
Смешение профилей В одном пуле Light/Heavy Развести очереди и лимиты длины
Нет контрактов вывода Битые JSON/таблицы, ретраи Строгие схемы + пред-валидация
Игнор дрейфа данных Просадки качества/цитатности Версионировать эмбеддер/индексы, регулярные эвалюации
«Ретраи до победы» Счёт растёт, стабильности нет Ретраить только по коду/неформату, потолок бюджета
Отсутствие гео-роутинга TTFT выше целевого Кэш префилла, ближние регионы, warm-пулы

FAQ

Нужны ли самые большие модели, чтобы AI-токен «заработал»? Нет. Часто выигрывает связка «средняя модель + дисциплина контекста и вывода + правильный слой инфраструктуры».

Почему Compute/DePIN не всегда дешевле? Эластичность и география помогают, но без оркестрации (очередей/кэша/лимитов) P95 и ретраи «съедят» выгоду.

Как честно сравнивать проекты из разных классов? Сравнивайте не «по обещаниям», а по вкладу в «цену эпизода» и стабильность SLO на одном и том же сценарии и шаблонах.

Где предел «агентности»? Если цикл действий не описуем и не проверяем, агенты превращаются в затратный эксперимент. Нужны инструменты с контрактами, лимиты глубины и критик.

Словарь коротких определений

  • TTFT — время до первого токена, отражает «живость» интерфейса.
  • P95 — 95-й перцентиль задержек; индикатор «длинного хвоста».
  • Неформат — нарушение контракта вывода (битый JSON/таблицы).
  • Цитатность — доля ответов с валидными ID/ссылками источников.
  • Steps/Episode — среднее число шагов агента на задачу.
  • Tool Error Rate — доля неуспешных вызовов инструментов.
  • Дрейф эмбеддера — изменение качества представлений и поиска со временем.

Токены по категориям (навигация)

Compute/DePIN

Agents/GenAI

Data/Analytics

Организации и соответствующие токены (навигация)

См. также

Task Runner