Desde 2022, la inteligencia artificial ha dejado de ser un terreno experimental para convertirse en una tecnología estructural en organizaciones públicas y privadas. Ya no hablamos solo de innovación, sino de una transformación real en la forma de diseñar software, organizar el trabajo y tomar decisiones.

Este cambio no se explica únicamente por los avances técnicos. La aparición de los modelos base, el desarrollo de agentes capaces de ejecutar tareas complejas y, especialmente, la consolidación de un marco jurídico europeo han redefinido el papel de la IA en la acción pública. A partir de la investigación desarrollada en el Laboratorio de IA de Berger-Levrault y de la reflexión compartida con Mustapha Derras, autor y divulgador en innovación, este artículo propone una lectura clara y actual de ese nuevo escenario.

De la promesa tecnológica a un ecosistema estructurado

Cuando en 2022 irrumpieron herramientas como ChatGPT, la inteligencia artificial pasó de los laboratorios al debate público casi de forma abrupta. Para muchas organizaciones, especialmente en el sector público, sus capacidades resultaban tan evidentes como difíciles de situar en el día a día.

Desde entonces, el panorama se ha ordenado. Los modelos fundamentales —capaces de trabajar con texto, imagen, audio, vídeo o datos estructurados— han cambiado la forma de concebir el software. Ya no se limitan a ejecutar instrucciones: interpretan contextos, ajustan respuestas y aprenden de su uso.

Esta evolución abre oportunidades claras, pero también plantea una exigencia central para las instituciones: mantener el control. Control sobre los datos, sobre los modelos y sobre las decisiones que se apoyan en ellos. No como freno, sino como condición para un uso responsable y sostenible.

El software ya no es solo funcional: también es responsable

En este nuevo contexto, desarrollar software no consiste únicamente en que “funcione”. Supone establecer una relación clara de responsabilidad entre la institución y los sistemas que utiliza.

Los debates europeos recientes han reforzado esta idea al subrayar la necesidad de modelos controlables, auditables y, cuando sea posible, soberanos. El objetivo es evitar dependencias estructurales y garantizar que la inteligencia artificial refuerza la capacidad de decisión pública en lugar de debilitarla.

Para las administraciones, esto se traduce en una pregunta muy concreta: ¿Cómo integrar sistemas inteligentes sin perder trazabilidad, explicabilidad ni capacidad de supervisión?

Agentes inteligentes: apoyo a la experiencia

La investigación en IA avanza hacia modelos híbridos y agentes inteligentes capaces de encadenar acciones complejas en lenguaje natural. En la práctica, ya existen herramientas que analizan grandes volúmenes de información, detectan incoherencias o proponen alternativas fundamentadas.

Su valor no está en automatizarlo todo, sino en ampliar la capacidad de los equipos humanos. Diseñar bien estos sistemas implica que sean comprensibles, auditables y coherentes con las prácticas existentes. La experiencia sigue siendo humana; la IA actúa como apoyo, no como sustituto.

Orquestación inteligente y gestión de procesos públicos

En varias ciudades europeas, los sistemas conversacionales y multimodales ya permiten gestionar flujos administrativos completos: análisis de expedientes, generación de resúmenes verificables o alertas ante situaciones ambiguas.

Las experiencias más recientes muestran reducciones claras en los plazos de tramitación sin pérdida de calidad. Pero también confirman algo importante: a mayor capacidad técnica, mayor necesidad de gobernanza interna. Cada decisión automatizada debe poder revisarse, explicarse y, si es necesario, corregirse.

Modelos predictivos y gemelos digitales al servicio del territorio

La IA también se está utilizando para anticipar escenarios: cargas de trabajo futuras, saturación de infraestructuras o impactos de políticas públicas. Los gemelos digitales territoriales, ya implantados en algunos territorios pioneros, permiten simular dinámicas sociales, económicas y medioambientales complejas.

Estos modelos no son neutrales. Su utilidad depende de los indicadores que integran y de cómo se interpretan. Por eso, deben concebirse como herramientas de apoyo a la decisión pública, incorporando criterios sociales y democráticos para evitar reforzar desigualdades existentes.

El papel del ser humano cambia, no desaparece

A medida que la inteligencia artificial gana capacidad, el rol de las personas también evoluciona. El profesional público deja de ser un mero ejecutor para convertirse en supervisor, intérprete y responsable último de los procesos decisorios.

Esto exige nuevas competencias: comprensión básica de los modelos, capacidad crítica y una visión que combine estrategia y control. Las nuevas formas de visualización de datos, más narrativas e inmersivas, están ayudando a que perfiles no técnicos comprendan mejor fenómenos complejos y tomen decisiones informadas.

Un marco europeo que refuerza la confianza

La adopción del reglamento europeo de inteligencia artificial en 2024 marca un antes y un después. Introduce obligaciones claras: registros de uso, auditorías, supervisión humana y requisitos de explicabilidad.

Más allá del cumplimiento normativo, el debate ha puesto sobre la mesa un concepto clave: el riesgo institucional. Utilizar modelos potentes sin control suficiente puede comprometer la autonomía operativa de una administración. De ahí la importancia de modelos gobernables, auditorías independientes y equipos multidisciplinares que evalúen impactos técnicos, jurídicos y sociales.

Ética, confianza y soberanía digital

La confianza en la inteligencia artificial se apoya en tres pilares sencillos de formular, pero exigentes de aplicar: comprender las decisiones del sistema, controlar los datos y las infraestructuras, y mantener siempre la responsabilidad humana final.

La gobernanza ética no es un añadido, sino parte del diseño. Requiere implicar a expertos, profesionales públicos y responsables institucionales, con una mirada que entienda la IA como una tecnología con impacto social y político, no solo técnico.

Conclusión: la madurez como verdadero indicador

Lo más relevante de estos últimos años no es solo la velocidad del avance tecnológico, sino el desplazamiento del equilibrio entre lo que delegamos en las máquinas y lo que decidimos mantener bajo control humano.

La inteligencia artificial ya es una fuerza estructurante en la acción pública. Redefine responsabilidades, transforma profesiones y cambia la forma de decidir. La diferencia no la marca cuántos algoritmos se despliegan, sino el grado de madurez institucional con el que se integran.

Ahí es donde se juega el verdadero valor de la inteligencia artificial en el sector público: en su capacidad para reforzar el control colectivo, la responsabilidad y la calidad de las decisiones.