Představte si scénář: nasadíte stovky „laser-focused“ AI agentů, aby zrefaktorovali váš kód. Vše běží hladce, dokud nezjistíte, že každý z nich vytvořil vlastní Pull Request a spustil tisíce pipeline naráz. Výsledek? „DDOSnutá“ infrastruktura a účet za GitHub Actions, ze kterého se protáčejí panenky. V 32. díle technického podcastu AI ta Krajta se Jack, Petr a Prokop noří do reality nasazování autonomních agentů ve velkých firmách (Enterprise scale). Pokud řešíte MCP servery, optimalizaci CI/CD nebo přechod na vendor-agnostic pravidla pro AI, tento díl je pro vás povinným studijním materiálem.
O čem byla řeč? Hlavní kapitoly epizody
- 0:00 – Úvod: Problém škálování agentů a zahlcení CI/CD pipeliny
- 1:19 – Novinky: Claude Code integrace do Slacku a ovládání vývoje z mobilu
- 4:48 – Masivní refaktoring pomocí AI: Když 1000 agentů vygeneruje 1000 PR
- 13:02 – Velká akvizice: Anthropic koupil Bun (a co to znamená pro rychlost)
- 16:26 – Vznik Agentic AI Foundation: Standardizace MCP pod Linux Foundation
- 21:51 – GitHub MCP Server: Nedostatky a nutnost vlastních úprav
- 30:40 – Interní MCP Server: Jak sjednotit pravidla pro Cursor, Claude i IntelliJ
Hloubková analýza: Agenti v produkci a MCP revoluce
Past „Laser-Focused“ Agentů a CI/CD náklady
Jedním z nejsilnějších momentů epizody je sdílení fuckupu (a následného poučení) z praxe. Nasazení malých, specializovaných agentů je skvělé pro kvalitu kódu, ale katastrofální pro infrastrukturu. 8:56 – Když dojdou zdroje v Kubernetes. Každý agent, který vytvoří separátní Pull Request, spustí celou sadu testů a buildů. Řešením, které Jack navrhuje, je zavedení „Konsolidačního Agenta“, který sbírá commity z různých větví a vytváří hromadné merge requesty, čímž drasticky snižuje spend za cloudové zdroje.
MCP (Model Context Protocol) jako nový standard
Velká část diskuze se točí kolem Model Context Protocol (MCP). Kluci rozebírají, proč je MCP budoucností vývoje a jak se zbavit závislosti na konkrétním IDE (vendor lock-in). 32:48 – Migrace pravidel do MCP. Jack popisuje přechod z pravidel uložených v .cursorrules na centralizovaný interní MCP server. Ten dynamicky servíruje relevantní pravidla (pomocí RAG a embeddingů) jakémukoliv nástroji – ať už vývojář používá Cursor, Claude Desktop nebo IntelliJ. To zajišťuje konzistenci napříč celou firmou bez ohledu na používaný editor.
Anthropic, Bun a Agentic AI Foundation
Epizoda se dotýká i strategických pohybů na trhu. Založení Agentic AI Foundation (spojení gigantů jako Google, OpenAI, Microsoft a Anthropic) signalizuje, že agentní systémy se stávají mainstreamem a potřebují standardizaci. Zároveň akvizice runtime prostředí Bun firmou Anthropic 13:09 – Anthropic kupuje Bun naznačuje tlak na zrychlení inferencí a běhu agentů v lokálním i cloudovém prostředí.
Závěr
Doba, kdy jsme si s AI jen „povídali“ v chatu, je pryč. Nastupuje éra autonomních agentů, kteří reálně sahají do kódu a infrastruktury. Jak ukazuje tento díl, s velkou mocí přichází i velká zodpovědnost za optimalizaci nákladů a architektury.
Co si o tom myslíte vy? Už jste narazili na limity své infrastruktury při používání AI agentů? A plánujete nasadit vlastní MCP server? Podělte se o své zkušenosti v komentářích.

Komentáre