• La irrupción de los Large Language Models (LLMs) ha transformado la forma en que interactuamos con la inteligencia artificial, pero también ha abierto la puerta a nuevos vectores de ataque. Entre ellos, los prompt injections se han convertido en una de las técnicas más estudiadas, al demostrar cómo una simple instrucción maliciosa puede alterar el