Boldo Logo
intelligence_artificielle_hero
Intelligence Artificielle
Architecture d'Entreprise

Publié le

Par Guilhem Barroyer

Fondamentaux de l’Intelligence Artificielle

L’intelligence artificielle (IA) désigne l’ensemble des technologies qui permettent à un système d’apprendre, de raisonner et de s’adapter pour reproduire certaines capacités cognitives humaines. Elle s’appuie sur des algorithmes capables de percevoir un environnement, d’interpréter des signaux, et d’agir pour maximiser la probabilité d’atteindre un objectif.

Autrement dit, une IA n’est pas seulement un calculateur : c’est un système qui prend des décisions, parfois en quelques millisecondes, parfois sur la base de millions d’exemples.


Son fonctionnement rappelle la présence d’un grand maître d’échecs, un stratège qui observe les configurations, compare des milliers de scénarios possibles, anticipe les conséquences, puis propose des actions optimales.

Comme dans un match d’échecs où un expert murmurerait les prochains “coups probables”, l’IA apporte de la vitesse, de la cohérence et une capacité à voir plus loin que ce qu’un humain peut percevoir seul. Cette métaphore est particulièrement pertinente en architecture d’entreprise :

L’IA donne aux organisations une conscience élargie de leur propre système. Elle met en lumière les dépendances invisibles, accélère la compréhension, et permet de simuler l’impact de décisions avant qu’elles ne se produisent réellement.

Une longue histoire de l’intelligence artificielle

Si l’on observe l’évolution de l’intelligence artificielle, un pattern apparaît clairement : L’histoire de l’intelligence artificielle est bien plus ancienne que ChatGPT.

Elle n’est pas née d’un saut technologique, mais d’une série de progrès successifs visant à comprendre, formaliser, puis automatiser certaines formes de raisonnement humain. Cette trajectoire peut se lire en trois grands mouvements.

Frise Chronologique de l'IA

Frise Chronologique de l'IA

1. Des machines à calculer aux machines à raisonner

L’idée de confier une partie du raisonnement humain à des machines remonte au XIXe siècle.

Avec Charles Babbage et Ada Lovelace, la logique devient exécutable : une machine peut enchaîner des instructions pour simuler un raisonnement simple.

Un siècle plus tard, Alan Turing pose la question fondatrice “Les machines peuvent-elles penser ?”, et propose un test pour évaluer leur capacité à imiter un humain.

Cette période installe les deux intuitions qui guideront toute l’histoire de l’IA :

  1. La pensée peut être formalisée.
  2. Une machine peut en exécuter une partie.

Dans les années 1950–1970, ces idées s’incarnent dans les premiers systèmes experts, qui tentent de représenter la logique humaine sous forme de règles.

2. L’apprentissage : faire émerger la connaissance au lieu de la programmer

À partir des années 1980, un changement majeur s’opère : l’IA cesse d’être un ensemble de règles pour devenir un processus d’apprentissage.

Les travaux de Hinton, LeCun ou Rumelhart montrent que des réseaux neuronaux peuvent apprendre à partir de données.

Mais l’infrastructure d’époque limite leur usage : il faudra attendre les années 2010 pour que la puissance du cloud, l’arrivée des GPU et l’explosion des données permettent au deep learning d’exprimer tout son potentiel.

C’est cette convergence qui amène l’IA moderne :

  • reconnaissance d’images,
  • traduction automatique,
  • synthèse vocale,
  • génération d’images via les GANs.

À ce stade, l’IA sait reconnaître, classifier, prédire. Mais elle ne sait pas encore réellement “comprendre”.

3. Le contexte et le langage : l’IA devient une interface

La véritable rupture arrive en 2017, avec l’architecture Transformer publiée par Google.

Cette approche introduit la notion d’attention : la capacité d’un modèle à identifier les éléments les plus importants d’une séquence pour en saisir le sens global.

C’est cette innovation qui rend possible :

  • les grands modèles de langage (LLMs),
  • la compréhension du contexte,
  • l’écriture cohérente,
  • la génération multimodale (texte, image, code).

À partir de là, l’IA change d’échelle. Elle sort des laboratoires, gagne en cohérence, en mémoire, en polyvalence jusqu’à devenir une interface. Un outil capable d’interagir, de reformuler, de raisonner, puis d’agir.

Cette transition se lit dans l’accélération des avancées récentes :

  • 2020 - GPT-3 (OpenAI) : premières capacités textuelles massives.
  • 2021 - CLIP & DALL·E : apparition du multimodal, l’IA “voit” et “associe”.
  • 2022 - ChatGPT : diffusion mondiale des interfaces conversationnelles, adoption grand public.
  • 2023 - Claude, Gemini, Copilot : intégration dans les outils métiers, l’IA devient un collaborateur.
  • 2024 - Modèles européens souverains (Mistral, Aleph Alpha) : montée des exigences de maîtrise, transparence et souveraineté.
  • 2025-2026 - Assemblages d’agents : vers des systèmes capables d’agir, planifier et interagir dans des SI complexes.

En quelques années, l’IA est passée d’un outil d’analyse, à une technologie d’interaction, puis à une couche d’intelligence transversale, capable de s’insérer dans les processus et les applications.

Elle n’est plus une fonction isolée : elle devient une interface cognitive entre les humains et les systèmes d’information.

Convergence, modèles et émergence des agents

L’évolution récente de l’intelligence artificielle ne s’explique pas par une innovation isolée, mais par la convergence de trois ruptures technologiques qui, ensemble, ont fait basculer l’IA dans une nouvelle dimension.

1. La puissance de calcul : l’explosion du GPU

Le cloud public et les GPU dédiés (NVIDIA, AMD) ont rendu possible l’entraînement de modèles contenant des centaines de milliards de paramètres.

Cette puissance a permis d’unifier dans un même modèle des capacités autrefois séparées : langage, vision, code, multimodalité.

2. La donnée : l’accès à des corpus massifs et variés

Jamais autant de données n’avaient été disponibles, en volumes, en langues et en formats.

Ce n’est plus seulement la quantité de données qui compte, mais leur hétérogénéité et leur contextualisation, qui élargissent considérablement le champ d’apprentissage.

3. La modélisation : le rôle pivot des Transformers

Depuis 2017, l’architecture Transformer introduit un mécanisme décisif : l’attention, qui permet au modèle de comprendre quelles parties d’un texte sont pertinentes les unes par rapport aux autres.

Cette innovation donne naissance à des modèles capables d’interpréter, de résumer, de reformuler et de générer.

L'IA Générative

De cette convergence technologique est née une génération de modèles capables de produire du texte, des images, du code, des résumés ou des réponses complexes.

Cette capacité à synthétiser plutôt qu’à seulement prédire constitue la rupture majeure. Elle transforme l’IA en un système de production : rapports, explications, idées, résumés, instructions, dessins, prototypes… Et surtout : l'interaction en langage naturel devient l’interface principale.

Depuis 2022, cette capacité est accessible à travers des outils conversationnels, qui font de l’IA une présence quotidienne dans l’entreprise comme dans le grand public.


Aujourd’hui (au 19/11/2025), plusieurs acteurs structurent ce paysage, chacun avec une philosophie et des forces différentes :

OpenAI - GPT-5 / GPT-5.1
Excellente qualité conversationnelle, très bonne multimodalité, intégration profonde dans l’écosystème Microsoft.
Limites : modèle fermé, coût élevé, forte dépendance au cloud américain.

Anthropic - Claude 3
Reconnu pour sa sécurité, son raisonnement long et sa “Constitutional AI”, qui garantit un comportement contrôlé.
Limites : un peu moins performant en génération de code.

Google - Gemini
Multimodalité native (texte, image, vidéo) et intégration forte avec la recherche Google.
Limites : stabilité variable, moins contrôlable dans les usages avancés.

Mistral - Mixtral
Modèles européens rapides, légers, open source ou souverains, très personnalisables et efficaces.
Limites : nécessitent du tuning et un peu plus d’expertise interne.

Meta - LLaMA 3
Open source, réentraînable, immense écosystème dérivé et communauté active.
Limites : cohérence et robustesse moindres en production.

DeepSeek (Chine)
Performant sur le raisonnement mathématique et logique, coût d’inférence réduit.
Limites : transparence limitée des données d’entraînement.

xAI Grok
Capable d’accéder au flux temps réel de X (Twitter) et d’adopter un ton conversationnel plus libre.
Limites : documentation faible, modèle encore instable.

La face émergée de l'iceberg

Si l’IA générative occupe aujourd’hui l’espace médiatique, elle n’est pourtant qu’un sous-ensemble de l’intelligence artificielle moderne. Elle repose sur une famille particulière de modèles, les foundation models, dont les LLMs sont l’un des types.

Pour comprendre cette place dans l’écosystème global, il est utile de distinguer :

  • l’IA générative (produire),
  • l’IA d’interprétation (comprendre),
  • l’IA de perception (voir, écouter),
  • l’IA symbolique (raisonner par règles),
  • et l’orchestration qui relie ces capacités aux outils métiers.
La place des LLMs dans la sphère de l’IA

La place des LLMs dans la sphère de l’IA

Une architecture complète de l’IA moderne

Si l’IA générative a rendu l’intelligence artificielle visible, elle n’en représente donc qu’une partie.
L’IA moderne forme un écosystème cohérent, organisé en trois couches complémentaires : les domaines fonctionnels, les couches d’orchestration et les écosystèmes technologiques.
Cette lecture architecturale est essentielle : elle permet de comprendre comment l’IA s’intègre dans un système d’information, où elle se branche, ce qu’elle consomme et ce qu’elle produit, mais aussi ce qui conditionne sa fiabilité, sa gouvernance et sa sécurité.

Domaines fonctionnels : les “capacités cognitives”

Les domaines fonctionnels regroupent les grandes “familles de compétences” d’une IA, de la perception à l’action.

  • Traitement du langage (NLP) : compréhension, résumé, extraction, traduction, génération.
  • Vision par ordinateur (CV) : analyse d’images, de vidéos, détection d’objets.
  • IA générative (GenAI) : création de texte, image, code, son.
  • Raisonnement / décision : systèmes symboliques, moteurs logiques, modèles hybrides.
  • Action autonome (agentique) : planification, exécution via API, enchaînement de tâches.

Ces domaines sont des “capabilities” cognitives, exactement comme les business capabilities d’une organisation.
Ils forment la cartographie mentale de ce que l’IA sait faire.

Couches d’orchestration : relier, contextualiser, activer

Une IA n’est pas utile parce qu’elle existe : elle est utile parce qu’elle s’insère dans un workflow, un outil ou un processus.
Ces couches assurent cette intégration.

  • APIs & connecteurs : relient les modèles aux outils métiers.
  • Frameworks d’orchestration (LangChain, LlamaIndex, Dust…) : organisent la mémoire, le contexte, la récupération de données, l’enchaînement d’actions.
  • Outils de RAG (Retrieval-Augmented Generation) : connectent les modèles au patrimoine documentaire interne.
  • MCP et protocoles standardisés : permettent aux IA d’accéder de façon gouvernée aux applications internes.

C’est là que l’IA devient utile : quand elle se branche au SI, pas quand elle reste un modèle isolé dans le cloud.

Écosystèmes technologiques : ouverture, performance, souveraineté

Le paysage de l’IA est structuré autour de trois approches technologiques, chacune avec son avantage :

  • Propriétaire : focalisée sur la performance, l’intégration, la stabilité.
    Ex : OpenAI, Anthropic, Google.
  • Open source : focalisée sur la transparence, l’adaptabilité, l’intégration locale.
    Ex : Meta (LLaMA), Mistral, Falcon.
  • Souveraine : focalisée sur la maîtrise des données et l’indépendance stratégique.
    Ex : Aleph Alpha, initiatives européennes.

Un écosystème encore fragile

Malgré ses progrès rapides, l’IA reste une technologie sensible dont les limites structurantes doivent être intégrées dès le départ.
Les modèles apprennent à partir de données imparfaites : ils peuvent donc reproduire des biais ou générer des réponses incorrectes mais crédibles (hallucinations). Ce n’est pas un accident : c’est une propriété inhérente à leur fonctionnement statistique.

À cela s’ajoutent des enjeux de sécurité et de gouvernance. Les modèles peuvent être manipulés par des attaques ciblées (prompt injection, contournement de règles), et il n’est pas toujours possible de retracer précisément l’origine d’une réponse ou de garantir la conformité d’un agent qui enchaîne des actions. La question de la dépendance technologique est également centrale : l’essentiel des capacités avancées repose sur quelques acteurs, ce qui influence la souveraineté, les coûts et le contrôle opérationnel.

Enfin, une IA n’apporte de valeur que si l’organisation est prête à l’accueillir : données cohérentes, processus clairs, responsabilités explicites. Sans cet alignement, même les modèles les plus performants restent limités.

Conclusion

L’évolution récente de l’IA montre une constante : plus les modèles gagnent en capacité, plus ils dépendent du contexte dans lequel ils opèrent. L’IA n’est plus un moteur isolé capable de prédire ou générer ; elle devient un système qui interagit, récupère de l’information, et s’insère dans les workflows de l’organisation, principalement avec l'apparition des agents IA.

Ce glissement transforme l’IA en couche transverse du système d’information : une couche capable d’observer, de relier et d’agir. Et cette capacité n’existe que si le SI lui-même est lisible : données cohérentes, référentiels maîtrisés, processus compréhensibles.

Une IA ne vaut jamais plus que l’environnement dans lequel elle s’intègre. (Lire notre article sur l'AI-Readiness)

Dès lors, l’enjeu n’est plus d’ajouter de l’IA “à côté”, mais de comprendre où et comment elle se branche dans l’existant.C’est cette continuité naturelle qui relie l’IA à l’architecture d’entreprise : représenter les dépendances, clarifier les interfaces, identifier les impacts.

C’est là que Boldo intervient : fournir un cadre visuel pour cartographier ces nouvelles capacités cognitives, exprimer les points d’intégration et guider les décisions. Dans un contexte où l’IA devient un acteur clé du SI, l’architecture redevient le support de maîtrise et la cartographie, le point d’appui indispensable pour en tirer un avantage réel.