GPU-сети для ИИ: полное сравнение io.net, Aethir и Nosana 2025
16-11-2025, 22:17
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизоваться© 2025 24k.ru. Все материалы носят исключительно информационный характер и не являются индивидуальной инвестиционной рекомендацией (ФЗ-39 «О рынке ценных бумаг»). Криптовалюты не являются законным средством платежа в РФ (ФЗ-259). Используя сайт, вы соглашаетесь с нашей Политикой конфиденциальности и использованием cookie.
LLM-агенты быстро переезжают из песочницы в прод: они ходят в API бирж, подписывают транзакции, управляют DeFi-стратегиями и общаются с пользователями «как человек». В Web3 это особенно чувствительно: ошибка или атака на агента может стоить не только инцидента с данными, но и прямых ончейн-потерь.
В этом практикуме разберём, как построить базовый уровень безопасности для LLM-агентов в Web3: какие атаки реально встречаются (prompt injection, утечки данных, poisoning извлекаемых документов и векторных БД), как они проявляются именно в связке «агент + смарт-контракты», и что можно сделать уже сейчас, чтобы не городить «картонные копилоты». За общей теорией по агентам можно зайти в вики-материал «AI-агенты: что это и как они работают», здесь будет именно практикум по безопасности.
Обычный «чат-бот на модели» — это, по сути, интерфейс к тексту: максимум он может сгенерировать письмо или текстовый отчёт. LLM-агент — это уже орchestrator действий: он подключен к инструментам (tools), ходит в API, пишет в базу, вызывает смарт-контракты.
Для Web3 это означает несколько вещей:
Результат: к классическим рискам LLM (prompt injection, утечки, неправильная обработка вывода) добавляется риск «избыточной агентности» — когда агент реально воздействует на ончейн-мир, а не просто «говорит». В OWASP Top 10 для LLM это уже оформлено отдельными пунктами: prompt injection, утечки конфиденциальной информации, data/model poisoning и «excessive agency» для агентов.
Prompt injection — это когда атакующий заставляет модель игнорировать первоначальные инструкции и следовать новым, вложенным в пользовательский ввод или внешние данные. OWASP ставит prompt injection первым номером в списке рисков для LLM.
В контексте Web3 это выглядит так:
Опасность в том, что агент не просто отвечает текстом — он может:
OWASP отдельно выделяет риск sensitive information disclosure: модели могут нечаянно «выдать» конфиденциальные данные сквозь ответы. В случае с агентами и Web3 к этому добавляется ещё несколько уровней:
Любая инъекция, jailbreak или просто ошибка в обработке вывода — и эти данные попадают наружу через ответ модели, систему логирования или сторонний инструмент.
OWASP LLM Top 10 объединяет training data poisoning и атаки на RAG/векторные БД в класс data and model poisoning. Суть проста: атакующий подсовывает вредоносные данные туда, откуда агент потом забирает контекст.
В Web3 это может быть:
Модель в таком случае «честно» извлекает контекст и строит ответ/действие на основе уже отравленных данных.
Ещё один риск из OWASP Top 10 — excessive agency: когда агент получает слишком широкие права или неограниченный доступ к инструментам.
В Web3 это может быть:
send_transaction(to, amount) доступны без ограничений по токену, сумме, сети;Любая инъекция или ошибка в такой архитектуре сразу выстреливает в деньги, а не просто в «странный ответ бота».
Прежде чем бороться с инъекциями и poisoning, полезно описать, что вы защищаете. Минимальный threat model для Web3-агента включает:
Хорошая практика — визуально нарисовать схему и отметить: «здесь LLM видит X», «здесь находится ключ», «здесь агент может вызвать sendTransaction». Это помогает увидеть места, где простая инъекция превращается в серьёзный инцидент.
Главный принцип: никогда не давать одному и тому же агенту полный доступ и к данным, и к деньгам. Минимум два контура:
LLM-агент в такой архитектуре готовит план, но не держит руку на кнопке «Подписать». Это резко снижает цену любого prompt injection.
Простой «системный промпт» вида «ты полезный ассистент» в Web3-агенте — это путь к проблемам. Нужны жёсткие политические инварианты, которые нельзя переписать пользователю:
Такие политики удобно реализовывать не только в виде текста, но и как программный слой guardrails — набор проверок и фильтров для входящих/исходящих сообщений и вызовов инструментов. Подробно подходы к guardrails мы разбираем в вики-статье «Guardrails для LLM-приложений», а обзор всего стека защит (от OWASP LLM Top 10 до практик RAG security) смотрите на хабовой странице «AI Security Hub».
Каждый инструмент агента в Web3 должен быть ограничен и явно описан:
get_balance — только выбранные сети и кошельки;swap — список разрешённых токенов/пулов и максимальный объём;send_transaction — списки адресов (allowlist), лимиты по сумме и дневные лимиты.Агент не должен иметь универсальную функцию «исполнить любой произвольный код/tx», особенно если он опирается на текстовые подсказки. Чем более структурирован контракт между LLM и tool-слоем, тем сложнее инъекции превращать в реальные атаки.
Если агент использует RAG, он может подтягивать в контекст любые документы из векторной БД. Это мощно, но открывает двери для poisoning. Минимальный набор защит:
Отдельно стоит провести ревизию векторной БД и RAG-пайплайна на предмет OWASP-рисков (poisoning, data exfiltration). Хороший чек-лист — в материалах OWASP по LLM и современных обзорах по безопасности RAG-пайплайнов.
С агентами часто допускают ошибку: «поставили и забыли». Без нормального мониторинга это, по сути, чёрный ящик с доступом к средствам. Нужны:
Это не отменяет других мер, но делает инцидент управляемым: вы не ждёте, пока пользователи расскажут про странные транзакции, а сами видите отклонения.
Важно уметь тестировать свои защиты — но делать это в безопасной среде: тестовые сети, тестовые кошельки, synthetic data. Ниже — несколько сценариев, которые можно проиграть на стенде, не заходя в «gray hat» зону.
Цель теста — убедиться, что пользователь не может текстом заставить агента нарушить ключевые политики (например, запросить seed или обойти лимиты).
Что проверяем:
Здесь мы имитируем реальную ситуацию: агент читает текст с внешнего источника (страница токена, описание NFT, ончейн-мемо) и вместе с ним получает вредоносные инструкции.
На стенде можно:
Тест для RAG-сценариев: мы добавляем в векторную БД документ, который выглядит релевантным, но подменяет важные детали (адрес, параметры транзакций, лимиты).
Проверяем:
Такие тесты полезно регулярно добавлять в regression suite, чтобы не потерять безопасность после очередного рефакторинга пайплайна.
По умолчанию — нет. LLM-агент — это сложный софт с новой поверхностью атак: prompt injection, утечки данных, poisoning и «избыточная агентность». Если дать ему прямой доступ к ключам и транзакциям, любая ошибка или удачная инъекция может привести к потере средств.
Безопасная архитектура подразумевает:
Только при соблюдении этих принципов и регулярном тестировании можно говорить о приемлемом уровне риска.
Prompt injection — это класс атак, при котором злоумышленник с помощью специальных формулировок во входных данных заставляет модель игнорировать исходные инструкции и следовать новым. В контексте агентов это может привести к тому, что модель начнёт вызывать опасные инструменты или раскрывать конфиденциальную информацию.
Защита строится на нескольких уровнях:
Основное правило — не давать агенту видеть больше, чем ему нужно для ответа, и не логировать лишнее. Практически это означает:
Poisoning — это отравление данных: когда в тренировочный или RAG-корпус попадают намеренно изменённые документы, которые потом искажают поведение модели. В Web3 это может быть подмена документации, описаний токенов, страниц с адресами и параметрами транзакций.
Если агент опирается на такие данные, он может:
Защита — в контроле источников, фильтрации контента, маркировке доверенных документов и регулярной ревизии векторных БД.
Да, это два разных слоя риска. Смарт-контракт может быть формально безопасен, но агент, который с ним работает, — уязвим к инъекциям и утечкам. И наоборот: хорошо защищённый агент мало поможет, если контракт допускает прямые эксплойты. Поэтому в зрелых Web3-проектах:
Материал носит исключительно информационный характер и не является индивидуальной инвестиционной рекомендацией (ФЗ-39). Криптовалюты не являются законным средством платежа в РФ (ФЗ-259).
16-11-2025, 22:17
16-11-2025, 21:50
16-11-2025, 17:41
16-11-2025, 20:17
18-11-2025, 17:30
Комментариев нет