Glosario de Riesgos LLM y Cumplimiento AI Act
Este glosario reúne definiciones clave sobre auditoría, seguridad, cumplimiento normativo y gestión de riesgos en sistemas basados en modelos de lenguaje (LLM), incluyendo terminología relevante del Reglamento Europeo de Inteligencia Artificial (AI Act). Forma parte del marco técnico de Novanot-ia para la mitigación de riesgos en entornos reales y regulados.
Riesgos técnicos y operativos en sistemas LLM
→ Red Teaming de LLMs
Proceso estructurado de simulación de ataques contra un sistema basado en LLM para identificar vulnerabilidades antes de su despliegue o explotación. Incluye pruebas de prompt injection, extracción de información, evasión de salvaguardas y generación de salidas no deseadas.
Objetivo: descubrir fallos antes de que lo hagan terceros.u texto aquí...
→ Prompt Injection
Técnica mediante la cual un usuario introduce instrucciones maliciosas o manipuladas en una entrada para alterar el comportamiento previsto del sistema. Puede provocar exfiltración de información, saltos de políticas y respuestas fuera de control.
→ Jailbreak de Modelos
Intento deliberado de eludir restricciones y salvaguardas para obtener respuestas prohibidas, peligrosas o inconsistentes con las políticas del sistema.
Innovación
Soluciones tecnológicas para empresas que destacan.
CONTACTO
Consultas
+34 914 13 46 96
© 2025. All rights reserved.
C. Ramírez de Arellano, 17, Cdad. Lineal, 28043, Madrid
