Fetch.ai — организация и технологический стек для построения автономных сервисов и мульти-агентных систем, где программные агенты обмениваются данными, заключают сделки и исполняют задачи без постоянного участия человека. В фокусе — интеграция ИИ-моделей, ончейн-логики и источников данных в единый цикл «наблюдение → планирование → действие», с прозрачными стимулами участников.
Связанные страницы для практики и архитектуры: Фреймворки агентов: сопоставление подходов · Model serving · Cost optimization LLM · Confidential Compute / TEE · Evals · The Graph (GRT) · Oraichain (ORAI) · Ritual · Gensyn.
Чем занимается Fetch.ai (коротко)
- Агентная парадигма. Программные агенты представляют интересы пользователей/сервисов: собирают сигналы, ведут переговоры, проводят сделки, вызывают смарт-контракты.
- Инфраструктура данных и вычислений. Связка ИИ-моделей (LLM/классические ML) с ончейн-правилами и внешними источниками; акцент на воспроизводимости и телеметрии.
- Экономика стимулов. Участники получают вознаграждение за полезную работу (данные, вычисления, исполнение задач), а некорректное поведение экономически наказывается.
- Интеграции Web3. Поддержка DeFi-сценариев (автоматизация стратегий, мониторинг рисков), рынков данных и прикладных доменов (логистика/IoT, поиск/реклама, RAG-сервисы).
Архитектура (упрощённая модель)
| Компонент | Роль | Ключевые нюансы для продакшена |
|---|---|---|
| Агенты (Agents) | Автономные приложения с целями/политиками | Контроль версий, политика ошибок/ретраев, хранилище контекста |
| Хосты/исполнители | Узлы, на которых запускаются агенты/пайплайны | Изоляция окружений, учёт ресурсов, обновления без простоя |
| Планировщик/шина | Маршрутизация задач/событий, матчинги между агентами | Приоритеты, очереди, дедлайны, аудит трасс |
| Слой данных | Индексация/ретрив и подписка на внешние фиды | Векторные БД (Qdrant/Weaviate/Pinecone), кэш, контроль версий |
| Ончейн-модуль | Взаимодействие со смарт-контрактами и учет действий | Лимиты газа/комиссий, правила паузы/аварий, журнал доказательств |
| Сервинг ИИ | Инференс LLM/ML, инструменты агента | vLLM для LLM, схемы вывода/стоп-правила, контроль токенов |
Поток задачи (пример): агент получает событие → извлекает знания (ретрив через векторную БД) → формирует план/решение (LLM/правила) → исполняет действие (ончейн/оффчейн) → пишет телеметрию и подтверждение результата.
Типовые сценарии использования
- DeFi-автоматизация. Ребалансировки, исполнение лимит-заявок, арбитраж, управление лендингом/ликвидациями.
- Рынки данных. Поиск/проверка источников, упаковка датасетов, торговля «вычислением рядом с данными».
- RAG/LLM-агенты. Тематический ретрив документов, генерация ответов, формирование действий (например, выпуск ончейн-транзакций при совпадении условий).
- Логистика/IoT. Мониторинг и автоматизация цепочек поставок, маршрутизация, SLA-алерты.
- Маркетинг/поиск. Персонализированная выдача, аукционы внимания, анти-бот-фильтры.
Экономика и стимулы (обобщённо)
| Участник | За что получает/платит | Риски/контрмеры |
|---|---|---|
| Операторы узлов | Вычисления, аптайм, соблюдение SLA | Штрафы за простои/ошибки; рейтинг/репутация |
| Поставщики данных | Актуальность, полнота, качество сигналов | Дедупликация, мерклизация, spot-аудит |
| Разработчики | Популярность компонентов/агентов, подписки | Конкуренция/замены; поддержка и обновления |
| Потребители | Доступ к сервисам/агентам, выполнение задач | Лимиты бюджета/риска, SLA-договорённости |
*Важно.* Точные параметры стимулов/комиссий и онтология ролей зависят от конкретной реализации и эволюции экосистемы Fetch.ai.
Интеграция ИИ и RAG: практический маршрут
- Сервинг LLM. Используйте vLLM; задайте жёсткую JSON-схему ответа и стоп-правила (см. Model serving).
- Финопс. Ограничьте max_new_tokens, держите умеренный k у ретривера; следуйте гайду Cost optimization LLM.
- Телеметрия/качество. «Золотые» наборы evals, мониторинг доли «пустых» ответов и стоимости запроса.
Метрики и SLO для агентных сервисов
- Latency p50/p95/p99 (по шагам: ретрив → генерация → исполнение).
- Throughput (запросов/с, tokens·s; для ончейн — транзакций/час).
- Надёжность (успешные действия/ретраи/таймауты; N-из-M подтверждений для критичных операций).
- Качество (task-метрики, faithfulness для RAG, снижение ошибок формата).
- Стоимость (удельные расходы на задачу/1k токенов/транзакцию).
Безопасность и соответствие
- LLM-угрозы. Учитывайте prompt-инъекции, утечки промптов, poisoning датасетов. Жёстко валидируйте формат вывода (JSON-схема, типы, диапазоны).
- Приватность. Минимизируйте выдачу данных; используйте шифрование и одноразовые ключи/TTL; для чувствительных кейсов — TEE/аттестация.
- Ончейн-безопасность. Лимиты газа/комиссий и «стоп-кнопка»; разделение ключей и ролевые политики.
- Аудит и версии. Хэшируйте артефакты (веса/скрипты/датасеты), ведите журнал изменений и регрессы по evals.
Пошаговый плейбук запуска (MVP → прод)
- Сформулируйте SLO: p95 времени ответа, потолок стоимости/задачи, KPI качества.
- Соберите минимального агента (одна цель, один источник данных, один ончейн-действие).
- Включите наблюдаемость: трассы, коды ошибок, метрики нагрузки/стоимости.
- Добавьте эскалацию: fallback-модель, резервный источник данных, ручная верификация для дорогих действий.
- Расширяйте домены агентности только после стабилизации качества/стоимости.
Сравнение: Fetch.ai и смежные экосистемы
| Платформа | Фокус | Сильные стороны | На что обратить внимание |
|---|---|---|---|
| Fetch.ai | Мульти-агентные сервисы, ИИ + ончейн | Гибкость сценариев, интеграции с данными/контрактами | Инженерия качества (evals), эксплуатация и стоимость LLM |
| Olas (OLAS) | Ко-владение сервисами и стимулы компонентов | Экономика «кто создал — тот и зарабатывает» | Дизайн распределения долей/рисков |
| Ritual (on-chain AI) | Верифицируемый инференс для контрактов | Прозрачность провайдеров/доказуемость | Накладные на валидацию/арбитраж |
| Gensyn (verifiable ML) | Проверяемое обучение/инференс | Воспроизводимость/споры по шагам графа | Настройка детерминизма и бюджет проверок |
Исторический контекст: альянс ASI
В 2024–2025 вокруг объединения активов и R&D сложился альянс ASI (см. отдельную страницу с хронологией). Для избежания путаницы токенные/листинговые вопросы и «кто с кем» — смотрите там; здесь — организационный и технологический портрет Fetch.ai.
FAQ
Это «агентная ОС» или набор библиотек?
Скорее стек: агенты + исполнители + шина событий + интеграции ИИ/контрактов. Реализация может отличаться в деталях, но парадигма одинакова.
Нужен ли свой узел, чтобы пользоваться экосистемой?
Не обязательно. Начните с готового хостинга/песочницы. Собственный узел — когда нужен контроль SLO/стоимости, изоляция и гибкая телеметрия.
Как обеспечить предсказуемость ответов LLM-агента?
Жёсткая JSON-схема и стоп-правила, контроль длины, «малый-потом-большой» (маршрутизация по уверенности), кэш пролога/KV-кэш и «префилл» (Prefill cache), регрессы по evals.
Где хранить знания агента?
Внешний индекс (Qdrant/Weaviate/Pinecone) с версионированием и контрольными суммами; держите окно контекста в пределах context window.
