Glosario de Riesgos LLM y Cumplimiento AI Act

Este glosario reúne definiciones clave sobre auditoría, seguridad, cumplimiento normativo y gestión de riesgos en sistemas basados en modelos de lenguaje (LLM), incluyendo terminología relevante del Reglamento Europeo de Inteligencia Artificial (AI Act). Forma parte del marco técnico de Novanot-ia para la mitigación de riesgos en entornos reales y regulados.

Riesgos técnicos y operativos en sistemas LLM

→ Red Teaming de LLMs

Proceso estructurado de simulación de ataques contra un sistema basado en LLM para identificar vulnerabilidades antes de su despliegue o explotación. Incluye pruebas de prompt injection, extracción de información, evasión de salvaguardas y generación de salidas no deseadas.

Objetivo: descubrir fallos antes de que lo hagan terceros.u texto aquí...

→ Prompt Injection

Técnica mediante la cual un usuario introduce instrucciones maliciosas o manipuladas en una entrada para alterar el comportamiento previsto del sistema. Puede provocar exfiltración de información, saltos de políticas y respuestas fuera de control.

→ Jailbreak de Modelos

Intento deliberado de eludir restricciones y salvaguardas para obtener respuestas prohibidas, peligrosas o inconsistentes con las políticas del sistema.