IA y legalidad 21 de abril de 2026 · 9 min de lectura

¿Es legal usar IA para redactar pliegos de contratación pública?

Es la pregunta que más hace Carmen, técnica de contratación del ayuntamiento, antes de probar cualquier herramienta nueva: "¿Y si el interventor me pone un reparo porque el pliego lo ha redactado una IA?" La respuesta corta es que sí es legal. Pero la respuesta completa requiere entender qué dice la normativa, quién asume la responsabilidad y por qué no es lo mismo usar ChatGPT que una herramienta especializada en contratación pública.

1. ¿La LCSP prohíbe usar IA para redactar pliegos?

No. La Ley 9/2017 de Contratos del Sector Público (LCSP) no contiene ninguna restricción sobre las herramientas que el técnico puede usar para preparar la documentación contractual. Lo que regula la ley es el contenido, la estructura y los requisitos legales del documento final, no el proceso de redacción.

Usar una herramienta de IA para redactar el borrador de un PPT o una Memoria Justificativa es jurídicamente equivalente a usar una plantilla de Word, una base de datos de modelos documentales o el borrador de un expediente anterior como referencia. La ley no exige que el técnico redacte el documento de su puño y letra desde cero: exige que el documento cumpla los requisitos legales y que la persona competente lo valide y suscriba.

Principio básico: La LCSP regula el qué debe contener un pliego y quién lo aprueba. No regula el cómo se redacta. El uso de herramientas de apoyo a la redacción, incluyendo IA, es una decisión técnica del organismo.

Esta interpretación es consistente con la estrategia de digitalización del sector público español (España Digital 2026 y el Plan de Digitalización de las Administraciones Públicas) y con las guías de la Secretaría de Estado de Digitalización e Inteligencia Artificial, que promueven activamente el uso de IA en la Administración Pública.

2. Quién tiene la responsabilidad jurídica del pliego

Esta es la pregunta real que subyace al debate sobre la legalidad: si un pliego generado con IA contiene un error y provoca un recurso o una nulidad, ¿de quién es la culpa?

La respuesta es clara y no ha cambiado con la llegada de la IA: la responsabilidad recae siempre sobre la persona física que suscribe el documento. El técnico de contratación que firma el PPT, la Memoria o el PCAP es el responsable de su contenido, independientemente de qué herramientas haya usado para redactarlo.

Cadena de responsabilidad en la redacción con IA

La IA genera

Un borrador basado en la información proporcionada, la normativa y el historial documental. No tiene responsabilidad legal.

El técnico valida

Revisa el contenido, corrige lo necesario y verifica que cumple los requisitos de la LCSP. Aquí nace la responsabilidad profesional.

El técnico firma

Al suscribir el documento, asume la responsabilidad jurídica completa del contenido. Como si lo hubiera redactado manualmente.

El órgano aprueba

La Alcaldía o el órgano competente aprueba el expediente. Esta aprobación no exime al técnico de su responsabilidad técnica por el contenido del pliego.

El uso de IA, por tanto, no crea un nuevo régimen de responsabilidad ni exime al técnico de ninguna obligación existente. Lo que sí hace es cambiar el foco del trabajo: en lugar de dedicar horas a redactar, el técnico dedica su tiempo a revisar, validar y mejorar. Un trabajo de mayor calidad y menor riesgo.

3. El Reglamento de IA de la UE y la contratación pública

El Reglamento (UE) 2024/1689 sobre Inteligencia Artificial (AI Act), en vigor desde agosto de 2024, clasifica los sistemas de IA por niveles de riesgo. Las herramientas de IA para la redacción de documentos administrativos como pliegos de contratación quedan fuera de las categorías de alto riesgo definidas en el Anexo III del Reglamento.

Los sistemas de IA de alto riesgo en el ámbito público son los que se usan para tomar decisiones sobre personas (acceso a servicios públicos, evaluación de crédito, control migratorio, etc.). Un sistema que asiste en la redacción de documentos técnicos revisados por humanos antes de su publicación no entra en esa categoría.

Conclusión práctica: Las herramientas de IA para asistencia en redacción de pliegos se clasifican como sistemas de IA de riesgo limitado o mínimo bajo el AI Act de la UE, siempre que incluyan transparencia sobre el uso de IA y mantengan al humano en el rol de decisor final (principio de supervisión humana, art. 9 AI Act).

4. IA genérica vs. IA especializada: diferencias que importan

No toda IA es igual cuando se trata de documentación de contratación pública. Esta distinción es la que más impacto tiene en la calidad del resultado y en el tiempo de revisión que necesita el técnico.

Aspecto ChatGPT / Copilot genérico LicitadIA (especializada)
Conocimiento normativo Genérico, desactualizable LCSP 9/2017 + normativa complementaria integrada
Historial del organismo No disponible Sistema RAG: aprende de tus pliegos históricos
Terminología institucional Genérica Replicada del propio organismo
Validación automática Ninguna Detecta marcas, criterios subjetivos, incoherencias
Datos en Europa Servidores EE.UU. (variable según plan) Cloud europeo, RGPD compliant
Tiempo de revisión técnica Alto — requiere revisión profunda Bajo — borrador ya ajustado a estándares

El problema con las herramientas genéricas no es que sean ilegales: es que generan borradores que suenan bien pero que requieren una revisión técnica casi tan profunda como redactar el documento desde cero. Pueden mencionar artículos de leyes derogadas, usar terminología que no es la del organismo o generar criterios de adjudicación que un abogado especialista en contratación desaconsejaría inmediatamente.

Una IA especializada como LicitadIA parte de una base de conocimiento normativo actualizado y, sobre todo, aprende del historial documental del propio organismo. El resultado es un borrador que ya incorpora las cláusulas que el interventor conoce, los plazos que el organismo suele usar y la terminología que el Tribunal Administrativo regional reconoce. La revisión del técnico se convierte en una validación rápida, no en una reescritura.

5. Seguridad de datos y RGPD: la preocupación real

El miedo a que "los datos del ayuntamiento vayan a servidores americanos" no es irracional. Es una preocupación jurídicamente fundada. Los pliegos de contratación pueden contener datos personales (nombres de responsables del contrato, datos de empleados, información de infraestructuras) y su tratamiento está sujeto al Reglamento (UE) 2016/679 (RGPD) y a la Ley Orgánica 3/2018 de Protección de Datos Personales (LOPDGDD).

Transferir datos a un proveedor cuyos servidores están fuera del Espacio Económico Europeo sin las garantías adecuadas (cláusulas contractuales tipo, decisión de adecuación, etc.) puede constituir una infracción del RGPD. En el contexto de las administraciones públicas, esto tiene implicaciones adicionales por la sensibilidad de la información de contratación.

Qué exigir a una herramienta de IA para contratación pública

Alojamiento en cloud europeo

Los servidores donde se procesan y almacenan los datos deben estar en el EEE. El proveedor debe poder acreditarlo documentalmente.

Acuerdo de tratamiento de datos (DPA)

El proveedor actúa como encargado del tratamiento. Debe existir un contrato DPA conforme al art. 28 RGPD que delimite responsabilidades.

No uso de datos para reentrenamiento

El proveedor no debe usar los documentos del organismo para entrenar o mejorar sus modelos generales. Los datos del organismo son suyos exclusivamente.

Política de retención y borrado

El proveedor debe especificar cuánto tiempo conserva los datos y cómo se procede a su borrado cuando se rescinde el contrato.

6. ENS: lo que las AAPP deben exigir a sus herramientas digitales

El Esquema Nacional de Seguridad (ENS), regulado por el Real Decreto 311/2022, establece los requisitos de seguridad que deben cumplir los sistemas de información de las administraciones públicas y los proveedores que los soportan. Para herramientas digitales que procesan documentación administrativa, el ENS es cada vez más un requisito explícito en los pliegos de contratación TIC.

Una herramienta de IA para contratación pública que aspire a ser adoptada por administraciones locales en España debería:

  • Estar orientada a la obtención de la certificación ENS en nivel medio o alto
  • Documentar las medidas de seguridad técnica y organizativa implementadas
  • Ofrecer logs de auditoría de los accesos y operaciones realizadas
  • Implementar control de acceso basado en roles
  • Garantizar la disponibilidad del servicio con SLAs documentados

LicitadIA ha sido diseñada desde el inicio con estos requisitos en mente: alojamiento en cloud europeo, arquitectura de datos que garantiza el aislamiento entre organismos y un roadmap de certificación ENS que forma parte de la hoja de ruta del producto. Puedes consultar los detalles técnicos y de seguridad en la página de características.

7. Cómo usar la IA correctamente en contratación pública

El uso correcto de la IA en contratación pública no es una cuestión de normativa, sino de metodología. Estas son las buenas prácticas que deben seguirse:

01

La IA genera, el técnico decide

El borrador generado por la IA es siempre el punto de partida, nunca el documento final. El técnico debe revisar cada sección activamente, no simplemente aprobar sin leer.

02

Documentar el proceso

Si el organismo adopta herramientas de IA para contratación, es recomendable tener un procedimiento interno que describa cómo se usan. Esto protege al técnico y da transparencia al proceso.

03

No delegar la decisión normativa

La IA puede proponer una solución normativa (p.ej. el procedimiento adecuado para un contrato), pero la decisión final sobre la interpretación de la norma corresponde al técnico o al asesor jurídico.

04

Usar herramientas con validación integrada

Una herramienta que no solo genera sino que también valida el resultado contra la normativa reduce drásticamente el riesgo de errores que el técnico podría no detectar en la revisión.

05

Verificar las referencias normativas

Siempre confirmar que los artículos citados en el pliego son de legislación vigente. Es el error más fácil de detectar y el que más daña la credibilidad del documento.

Para ver cómo LicitadIA implementa estas prácticas en su flujo de trabajo paso a paso, visita la página de cómo funciona. Y si quieres resolver tus dudas específicas sobre el uso en tu organismo antes de comprometerte con nada, lo más directo es solicitar una demo gratuita donde podrás ver el sistema con datos reales.

Preguntas frecuentes

¿Es legal usar inteligencia artificial para redactar pliegos de contratación pública en España?

Sí, es legal. La LCSP 9/2017 no contiene ninguna restricción sobre las herramientas que el técnico puede usar en la preparación de documentos contractuales. Lo que la ley exige es que el documento final cumpla sus requisitos de contenido y que la persona competente lo valide y firme. Usar IA para redactar el borrador es jurídicamente equivalente a usar una plantilla Word o el borrador de un expediente anterior. La responsabilidad jurídica del pliego siempre recae sobre quien lo suscribe.

¿Qué diferencia hay entre usar ChatGPT y una IA especializada como LicitadIA para redactar pliegos?

ChatGPT y herramientas genéricas de IA generan texto plausible pero sin conocimiento real de la normativa española de contratación pública ni del historial documental de tu organismo. Sus borradores pueden incluir referencias normativas erróneas, terminología genérica que no corresponde al organismo y criterios de adjudicación que un especialista desaconsejaría. LicitadIA está construida sobre la LCSP y normativa complementaria, usa el sistema RAG para aprender de los documentos reales del organismo y valida automáticamente el borrador antes de presentarlo al técnico.

¿Mis datos van a servidores americanos si uso una IA para redactar pliegos?

Depende de la herramienta. Las soluciones genéricas (ChatGPT, Copilot Microsoft 365) pueden procesar datos en servidores fuera del EEE, lo que puede ser problemático bajo el RGPD si los pliegos contienen datos personales. LicitadIA aloja todos los datos en cloud europeo, opera bajo un acuerdo de tratamiento de datos (DPA) conforme al artículo 28 RGPD y garantiza que los documentos del organismo no se usan para reentrenar modelos generales. Todos estos compromisos están recogidos en nuestra Política de Privacidad y en el contrato de servicio.

La respuesta a tus dudas no está en Google. Está en una demo real.

Muéstrale a LicitadIA uno de tus contratos reales. En 30 minutos verás exactamente cómo genera el borrador, qué valida automáticamente y qué decisiones siguen siendo tuyas. Sin compromiso.

Solicitar demo gratuita