Depuis 2022, l’intelligence artificielle est passée du stade exploratoire à celui de technologie structurante pour les organisations publiques et privées. Modèles fondation, agents cognitifs, nouvelles pratiques de développement logiciel et cadre juridique européen redéfinissent en profondeur la manière de concevoir les logiciels et de prendre des décisions. En s’appuyant sur les travaux de recherche menés notamment au sein du Lab IA de Berger-Levrault, cet article propose une lecture éclairée de cette transformation et de ses impacts concrets sur l’action publique et les métiers du numérique, avec l’éclairage de Mustapha Derras, auteur et conférencier en innovation.

De l’émergence à la structuration d’un nouvel écosystème technologique

En 2022, un article publié par la Direction de la Recherche et de l’innovation de Berger-Levrault esquissait les premiers contours d’une transformation encore naissante. L’intelligence artificielle y apparaissait comme un outil potentiel au service des organisations, mais avec des usages qui restaient largement mystérieux. Cette émergence s’appuyait sur des technologies de rupture encore, pour partie, au stade exploratoire.

Cette réflexion se situait dans le contexte très particulier : des semaines ayant suivi l’annonce de ChatGPT, qui provoqua une secousse mondiale et révéla brutalement au grand public les capacités de systèmes jusqu’alors cantonnés aux cercles de la Recherche.

Depuis, le paysage s’est profondément organisé. L’apparition des modèles fondation, l’essor des agents cognitifs capables d’orchestrer des chaînes d’actions complexes, ainsi que la structuration d’un cadre juridique européen, ont posé les bases d’une nouvelle ère. L’intelligence artificielle interroge désormais de manière continue sa place dans les activités humaines, économiques et institutionnelles.

Cet article s’inscrit dans la continuité de cette réflexion. Il ne constitue pas une simple mise à jour, mais une suite logique qui revisite les intuitions formulées en 2022 à la lumière des mutations récentes. La perspective adoptée est volontairement plus large et la technologie n’est plus envisagée comme une promesse abstraite, mais comme une force de transformation concrète, susceptible de contribuer positivement à l’action publique.

Transformation des logiciels à l’ère des modèles fondation

L’intelligence artificielle a connu une accélération inégalée dans l’histoire des technologies numériques. L’émergence successive de modèles fondation multimodaux, capables de manipuler texte, image, audio, vidéo et données structurées, a profondément modifié la manière dont les organisations conçoivent et utilisent les logiciels.

Les travaux de chercheurs comme Fei-Fei Li, Yann Le Cun ou Josh Tenenbaum montrent que les modèles de nouvelle génération ne se contentent plus d’exécuter des commandes. Ils construisent des représentations du monde, interprètent des intentions, anticipent des événements et ajustent leurs réponses aux contextes d’usage.

Le comportement et l’utilisation des logiciels sont ainsi appelés à se métamorphoser. Les systèmes deviennent dynamiques, évolutifs, dotés de capacités d’auto-analyse. Cette transformation place les institutions publiques et privées face à un défi majeur qui consiste à conserver la maîtrise des agents d’IA, des données d’entraînement et des mécanismes de supervision et d’explicabilité.

Cette maîtrise est indispensable pour éviter une dépendance systémique aux algorithmes et une dépendance stratégique aux grands acteurs du numérique. Les débats européens de 2024 ont renforcé cette exigence en soulignant la nécessité de développer des modèles fondation publics, souverains et contrôlables.

Dans ce contexte, l’ingénierie logicielle ne consiste plus uniquement à produire des systèmes fonctionnels. Elle vise désormais à instaurer un rapport de responsabilité entre les institutions et les modèles qu’elles mobilisent, condition essentielle pour faire de l’intelligence artificielle un levier de puissance collective plutôt qu’une source de fragilité structurelle.

Nouveaux fondements de la recherche et essor des agents intelligents

La recherche en intelligence artificielle s’oriente aujourd’hui vers de nouveaux paradigmes associant ingénierie augmentée, agents intelligents et architectures hybrides. L’émergence d’agents capables d’exécuter des chaînes complexes d’actions en langage naturel transforme déjà le travail des individus et des équipes.

À terme, ces agents pourront planifier des actions, explorer des solutions, vérifier l’intégrité des résultats et maintenir un dialogue quasi continu avec leurs superviseurs humains. Les réflexions de Stuart Russell sur la notion « d’alignement » et les contributions de Gary Marcus en faveur d’approches neuro-symboliques nourrissent un débat méthodologique essentiel.

Les environnements de travail s’appuient désormais sur des outils capables d’analyser automatiquement des milliers de dépendances, de détecter des incohérences et de proposer des alternatives robustes. Toutefois, ces avancées ne visent pas une automatisation totale, mais une augmentation contrôlée des capacités d’assistance offertes aux équipes humaines.

L’enjeu central consiste à concevoir des systèmes capables de soutenir l’expertise plutôt que de la remplacer. Cela implique des modèles explicables, auditables et intégrés de manière cohérente dans les pratiques existantes. Cette articulation entre performance, intelligibilité et contrôle constitue aujourd’hui le cœur de la recherche sur les agents intelligents.

Hyperautomatisation et orchestration intelligente des activités humaines

Les dernières années ont vu émerger une nouvelle génération de systèmes capables d’orchestrer des processus entiers. Dans plusieurs grandes villes européennes telles que Barcelone, Helsinki, Amsterdam, Milan ou Paris,  des agents conversationnels multimodaux permettent désormais de gérer des flux administratifs complets.

Ces dispositifs intègrent l’analyse de dossiers complexes, la génération de synthèses vérifiables et l’alerte des agents humains en cas de situation ambiguë. Des expérimentations menées en 2024 à Barcelone, Montréal et Helsinki montrent qu’ils réduisent considérablement les délais de traitement sans dégrader la qualité du service rendu.

Cette efficacité nouvelle s’accompagne toutefois d’un besoin accru de régulation interne. Les travaux contemporains sur la gouvernance de l’intelligence artificielle convergent vers une même préoccupation  consistant à : définir un cadre qui limite l’action des systèmes algorithmiques à un périmètre décisionnel explicitement contrôlé par les humains.

Dès 2020, Ben Green proposait la notion de « contestabilité », insistant sur la nécessité de rendre chaque étape d’un système algorithmique ouverte à l’intervention humaine. En 2023, Mireille Hildebrandt a relié cette exigence au principe d’État de droit, en rappelant que toute action automatisée doit rester traçable, imputable et juridiquement interprétable.

Ces réflexions ont conduit au concept de « trajectoire algorithmique encadrée », qui affirme que l’autonomie des systèmes ne doit jamais rompre la continuité de responsabilité, de justification et de contrôle exercée par les institutions.

Temporalités technologiques et essor des modèles prédictifs territoriaux

Les usages immédiats de l’intelligence artificielle se sont donc intensifiés. Génération automatique de documents juridiques, extraction intelligente de données, analyse de dossiers volumineux et vérification continue de la cohérence administrative font désormais partie du quotidien de nombreuses administrations.

Parallèlement, des institutions de recherche telles que Inria, le MIT Senseable City Lab, l’ETH Zurich ou TNO développent des modèles capables d’anticiper l’évolution de la charge de travail des services publics, d’estimer la saturation future des infrastructures urbaines ou de projeter l’impact climatique des politiques territoriales.

Les jumeaux numériques territoriaux, enrichis par l’apprentissage profond et déjà déployés dans des territoires pionniers comme Madrid, Helsinki, Singapour, Dubaï, Montréal ou la région Auvergne-Rhône-Alpes, permettent de simuler des dynamiques sociales, économiques et environnementales complexes.

Loin d’être neutres, ces dispositifs doivent être conçus comme des appuis critiques à la décision publique. Ils doivent intégrer des indicateurs démocratiques et sociaux afin de ne pas renforcer des inégalités existantes. Les travaux publiés dans la revue Horizons Publics rappellent régulièrement que ces technologies doivent être replacées dans une perspective institutionnelle, démocratique et sociale.

Redéfinition du rôle de l’humain dans la supervision algorithmique

L’extension continue de la puissance de l’intelligence artificielle transforme également profondément la nature du travail. La frontière entre exécution et décision se déplace, reconfigurant la place de l’humain dans les organisations.

L’humain ne peut plus être considéré comme un simple opérateur. Il devient superviseur, interprète et architecte de parcours décisionnels, responsable de l’orientation et de la validation des actions menées par les systèmes intelligents.

Cette évolution appelle de nouvelles formations et le développement de compétences clés telles que : la compréhension des modèles, la capacité d’analyse critique et l’articulation entre vision stratégique et contrôle algorithmique. Parallèlement, les modes de représentation des données évoluent et prennent la forme d’espaces narratifs et immersifs.

Les travaux du MIT Civic Data Lab et l’Observatoire de la ville et du développement durable de Lausanne montrent que ces visualisations avancées permettent aux décideurs non spécialistes de mieux s’approprier des phénomènes complexes, comme l’évolution des mobilités ou la progression des inégalités.

Cadre juridique européen et gouvernance renouvelée des risques

Avec l’adoption du règlement européen sur l’intelligence artificielle en 2024, un cadre juridique structurant accompagne encadre désormais l’usage des systèmes algorithmiques. Il impose la mise en place de registres d’usage, d’audits réguliers, de mécanismes de supervision obligatoire et d’exigences renforcées en matière d’explicabilité.

Les débats ayant accompagné ce texte ont mis en lumière la notion de risque institutionnel. L’usage massif de modèles fondation peut en effet fragiliser la souveraineté opérationnelle d’un service si les outils échappent au contrôle des institutions.

De nombreuses publications convergent désormais vers la nécessité de développer des modèles souverains, de recourir à des audits indépendants et de constituer des équipes pluridisciplinaires capables d’évaluer les impacts organisationnels, sociaux et juridiques des choix technologiques.

Éthique, confiance et souveraineté numérique comme piliers de l’action publique

Les enjeux éthiques occupent par ailleurs une place centrale. La confiance repose sur trois conditions essentielles :

  • la capacité à comprendre et justifier les décisions produites par les systèmes,
  • la maîtrise des données et des infrastructures,
  • et le maintien d’une responsabilité humaine finale.

Ces principes rejoignent les travaux de Luciano Floridi et Kate Crawford, qui soulignent la dimension politique et sociale de l’intelligence artificielle. Une gouvernance éthique distribuée, associant experts, agents de terrain, citoyens et responsables publics, s’impose comme une nécessité.

Conclusion : vers une maturité collective des systèmes intelligents

Ce qui a véritablement changé depuis 2022 ne tient pas à la vitesse des progrès technologiques, mais à un déplacement profond du centre de gravité entre ce que les organisations délèguent aux machines et ce qu’elles choisissent de conserver sous contrôle humain.

En quelques années, l’intelligence artificielle est devenue une force structurante pour les institutions publiques et privées. Elle redéfinit désormais les responsabilités, transforme les métiers et instaure une nouvelle forme de décision partagée entre interprétation humaine et capacité computationnelle.

La transformation en cours ne se mesure donc pas au nombre d’algorithmes déployés, mais au niveau de maturité institutionnelle atteint. Elle annonce une époque dans laquelle la maîtrise collective des systèmes intelligents devient l’une des expressions centrales de la puissance publique.