Kaptor Security KAPTOR SECURITY
Kaptor Research
Investigación Kaptor

Blog & Research

Blog e Investigación

Offensive AI security, LLM pentesting techniques, and field notes from securing AI automations.

Seguridad ofensiva en IA, técnicas de pentesting de LLMs y notas de campo sobre cómo proteger automatizaciones con IA.

AI applied to pentesting cover

AI applied to pentesting: approaches, architectures, and where it actually pays off

IA aplicada al pentesting: enfoques, arquitecturas y dónde realmente compensa

When, how, and at what cost does it make sense to lean on AI during a pentest? A review of the main approaches being used today, from classic chat to HITL copilots and generalist code agents, the architectural components that separate a useful tool from a token-burner, and where each path actually pays off.

¿Cuándo, cómo y a qué coste tiene sentido apoyarse en IA durante un pentest? Una revisión de los principales enfoques que se están utilizando hoy, desde el chat clásico hasta los copilotos HITL y los agentes de código generalistas, los componentes arquitectónicos que separan una herramienta útil de un quema-tokens, y dónde compensa realmente cada vía.

Classic pentest vs. AI pentest cover

Classic pentest vs. AI pentest: why it isn’t “the same thing with extra steps”

Pentest clásico vs. pentest de IA: por qué no es “lo mismo con más pasos”

Traditional pentesting is still necessary when systems with AI components are involved, but it is no longer enough. These systems introduce categories of attack that don’t appear in the classic catalogue, and the more agentic the setup, the wider the gap between what a conventional audit covers and what a real attacker can exploit.

El pentest tradicional sigue siendo necesario cuando hay sistemas con componentes de IA de por medio, pero ya no es suficiente. Estos sistemas introducen categorías de ataque que no aparecen en el catálogo clásico, y cuanto más agéntico es el sistema, mayor es la brecha entre lo que una auditoría convencional cubre y lo que un atacante real puede aprovechar.

Blind Prompt Injection cover

Blind Prompt Injection: The New Blind SQL Injection in AI Automations

Blind Prompt Injection: el nuevo Blind SQLi en automatizaciones con IA

Blind Prompt Injection is the same family of attacks as Blind SQL Injection, translated to LLM-powered automations. The attacker controls a predicate that evaluates against server-side data; the application exposes an oracle; the attacker reads the leaked bit through the oracle. Binary search over the oracle extracts arbitrary values one character at a time.

Blind Prompt Injection es la misma familia de ataques que Blind SQL Injection, trasladada a automatizaciones impulsadas por LLM. El atacante controla un predicado que se evalúa contra datos del lado del servidor; la aplicación expone un oráculo; el atacante lee el bit filtrado a través del oráculo. Una búsqueda binaria sobre el oráculo extrae valores arbitrarios carácter a carácter.