Видео и подкасты для разработчиков
AI-агенты и безопасность — безопасность, уязвимости, LLM, MCP
В гостях Ильдар Исхаков – основатель компании по безопасности AI-агентов и фанат опенсорса.
В этом выпуске обсуждаем безопасность AI-агентов: как происходят атаки через tool-calling и промпт-инъекции, и какие угрозы несут недобросовестные тулы и галлюцинации моделей. Разбираемся, что такое MCP-сервера, «USB-C для LLM» и почему одна невинная команда может привести к взлому или утечке.
В гостях Ильдар Исхаков – основатель компании по безопасности AI-агентов и фанат опенсорса. Ильдар рассказал о концепции «летальной триады» и о том, как сохранить баланс между функциональностью и безопасностью с помощью readonly-режимов, guardrails и паттернов вроде CAMEL.
Содержание:
- 00:00 О чем выпуск
- 07:45 Примеры уязвимостей
- 18:00 Уязвимости AI-агентов
- 20:36 Примеры атак на AI-агентов
- 25:01 Способы решения проблем уязвимостей
- 30:50 Летальная триада и защита
- 36:46 Ограничения категоризации
- 41:44 Паттерны для защиты агента
- 01:00:42 Внешние модели и контроль
- 01:05:24 Заключение
-
Новости4 недели назадВидео и подкасты о мобильной разработке 2026.13
-
Разработка4 недели назад10 ошибок, которые Android-разработчики до сих пор допускают при работе с Jetpack Compose
-
Разработка4 недели назадЯ купил самый дешёвый MacBook от Apple и попробовал заняться настоящей разработкой
-
Видео и подкасты для разработчиков3 недели назадЗачем нужны Vim и NeoVim в 2026 — Своя среда разработки вместо готовой IDE
