Boldo Logo
AI_readiness
Intelligence Artificielle
Architecture d'Entreprise

Publié le

Par Sylvain Melchior, Guilhem Barroyer

Devenir AI-Ready

L’adoption de l’IA n’est plus un sujet prospectif : elle est déjà devenue massive, souvent sans que les organisations n’en aient réellement mesuré l’impact.

Selon le Stanford Human-Centered AI Index, 78 % des organisations utilisent déjà l’IA sous une forme ou une autre - mais seules 13 % s’estiment réellement prêtes à en tirer un bénéfice à grande échelle .

Ce décalage crée un paradoxe : l’utilisation croît, mais la maîtrise stagne. Résultat : une Shadow AI se développe, des usages non encadrés, souvent invisibles de la DSI, exposant l’organisation à des risques de fuite et de désalignement.


AI Readiness: Le constat du terrain

Seules 13 % des entreprises se déclarent pleinement prêtes à tirer parti du potentiel de l’IA. (Cisco - 2024)

74 % des organisations ne parviennent pas encore à démontrer une valeur concrète de leurs initiatives IA, faute de gouvernance, de priorisation ou de compétences adaptées. (BCG - 2024)


L’IA ne manque pas de promesses. Ce qui manque, c’est le cadre. Et c’est exactement ce que la cartographie remet en place, “elle permet d’être AI-Ready”

L’IA révèle les failles structurelles du SI

L’IA s’est diffusée très vite : copilotes bureautiques, assistants d’écriture, outils de résumé, automatisation des analyses… Mais cette diffusion, faute de cadre, met en lumière plusieurs vulnérabilités.

Une perte de visibilité

Des outils d’IA sont utilisés sans inventaire, sans supervision et souvent en dehors de tout cadre. Copilotes bureautiques, assistants d’écriture, extensions navigateur : leur adoption est rapide, mais totalement opaque pour la DSI. Résultat : impossible de savoir qui utilise quoi, et sur quelles données.

Cette zone grise a désormais un nom : la Shadow AI , l’usage d’IA non déclaré, souvent branché sur des données internes sensibles sans aucun contrôle.

Des fuites de données

Le cas le plus courant : des collaborateurs copient du code, des contrats, des données clients ou des extraits de tickets directement dans des plateformes externes (ChatGPT, Gemini, Claude…).

Le risque n’est plus théorique : plusieurs entreprises ont déjà fait marche arrière, parfois brutalement.


Samsung interdit l’usage de l’IA générative

En mai 2023, Samsung a interdit à une partie de ses employés d’utiliser ChatGPT après avoir constaté plusieurs cas d’utilisation jugées « abusives » certains impliquant des données sensibles collées dans l’outil.

L’entreprise a explicitement interdit tout téléchargement d’informations professionnelles sur ces plateformes lorsque les collaborateurs travaillent hors des locaux.

(Le Monde - 2023)


Ce genre d’incident illustre une réalité simple : l’IA abaisse la barrière d’accès à la donnée, et donc élargit mécaniquement la surface de risque.

Des décisions sans traçabilité

L’IA produit aussi des résultats impossibles à expliquer a posteriori.

Dans de nombreuses organisations, on ne sait pas :

  • d’où vient l’information,
  • quelles données ont été mobilisées,
  • quel modèle a pris la décision,
  • quel contexte a influencé la réponse.

Cette absence de chaîne de responsabilité pose un problème majeur pour la conformité, la sécurité… et la confiance collective.

Construire un socle commun

L’IA est entrée dans les organisations par l’usage : chacun teste un copilote, un agent, un modèle.

Ce foisonnement favorise l’innovation, mais fragilise la maîtrise collective : visibilité faible, sécurité poreuse, responsabilité diffuse.

Autrement dit, on expérimente beaucoup… mais on apprend peu à l’échelle de l’entreprise.


Dans le secteur financier européen, près de 90 % des établissements ont déjà intégré l’IA à un certain niveau de leurs opérations, mais la large majorité reste à un niveau expérimental. (EY Survey - 2024)


Ce n’est pas l’IA qui pose problème, mais la manière dont elle se diffuse — sans coordination, sans transparence, sans gouvernance.

Absorber l’IA sans se fragmenter

L’arrivée des modèles introduit de nouveaux flux, de nouveaux connecteurs et de nouvelles dépendances.

Sans socle commun, chaque cas d’usage crée son propre petit système : un modèle, ses données, son intégration… et ses risques.

On multiplie les solutions locales, mais on fragmente l’architecture globale.

Avec un socle partagé, l’IA se branche sur des fondations cohérentes :

des APIs documentées, des événements standardisés, des données qualifiées, des processus identifiés.

Au lieu d’additionner des initiatives isolées, on construit une plateforme capable d’accueillir l’IA sans dériver.

Ce socle a un autre effet essentiel : il permet d’industrialiser ce qui fonctionne.

Aujourd’hui, trop de réussites IA restent bloquées au stade du POC, non pas par manque de technologie, mais par manque d’un environnement stable où elles peuvent être reproduites, auditées, améliorées et déployées à grande échelle.

Avec un socle commun, chaque capacité IA n’est plus un “one shot” : elle s’inscrit dans une architecture qui sait absorber, tracer et orchestrer l’intelligence.

Un langage commun entre la DSI, la data, les métiers et la conformité

L’IA oblige à faire collaborer des équipes qui, historiquement, ne partagent ni les mêmes priorités ni les mêmes outils.

La DSI pense intégration et robustesse, la data pense modèles et qualité, les métiers pensent valeur opérationnelle, la conformité pense risques et responsabilités.

Sans cadre partagé, ces visions s’entrechoquent : ce qui est pertinent pour l’un devient risqué pour l’autre, techniquement faisable mais non industrialisable, prometteur mais impossible à auditer.

Un socle commun permet justement de réconcilier ces perspectives.

Il clarifie qui est responsable de quoi, quelles données sont mobilisées, où se situent les points sensibles, quelles règles s’appliquent.

En offrant une référence commune (une cartographie des données, des modèles, des flux, des impacts) il transforme une somme de visions locales en une gouvernance lisible, où l’intelligence artificielle devient un projet collectif plutôt qu’une constellation de tests individuels.

Les 5 fondations d’un SI AI-Ready

Être AI-ready ne consiste pas à ajouter une technologie de plus dans la pile existante.

C’est repenser les fondations du système d’information pour que l’IA puisse s’y insérer sans créer de risques, de silos ou de comportements imprévisibles.

Un SI prêt pour l’IA est un SI connecté, gouverné et modélisé, où les données, les processus et les décisions reposent sur une logique commune.

1. Des infrastructures ouvertes et modernes

L’IA ne vit pas dans un espace isolé : elle s’appuie sur l’ensemble de l’écosystème applicatif.

Elle exige un environnement fluide, capable d’échanger en temps réel, d’absorber des volumes croissants et d’exposer ses données sans fragiliser la sécurité.

Cela implique de transformer une architecture souvent rigide en une plateforme interconnectée.

Les organisations qui avancent sont celles qui ont fait évoluer leurs environnements vers des architectures hybrides ou multicloud, qui ont introduit des mécanismes événementiels pour réagir en temps réel, et qui ont structuré un patrimoine d’API clair et documenté.

Surtout, elles savent où se trouvent leurs dépendances techniques (environnements, interconnexions, middlewares) car elles les ont cartographiées.

Un SI moderne, c’est un SI où chaque composant peut dialoguer sans recréer de silos.

C’est la condition indispensable pour que l’IA soit autre chose qu’un ensemble de POC isolés.

2. Des données gouvernées et traçables

L’IA n’est performante que si les données le sont.

La qualité, la traçabilité et la contextualisation deviennent des impératifs structurants : un modèle n’est jamais meilleur que la donnée qui l’alimente.

Construire un socle de données fiable implique d’harmoniser les sources, de clarifier les flux et d’assurer la continuité entre données opérationnelles, décisionnelles et données d’entraînement.

Certaines organisations s’appuient pour cela sur un Master Data Management centralisé, une cartographie systématique des flux ou encore un registre des modèles et datasets utilisés.

Ce travail permet de savoir d'où vient la donnée, comment elle circule, quelle est sa sensibilité et avec quels modèles elle interagit.

C’est ce qui fait la différence entre une IA brillante en démonstration et une IA fiable en production.

3. Une gouvernance interdisciplinaire

L’IA traverse les frontières de l’organisation : ce n’est plus un sujet réservé à la tech.

Elle implique la DSI, la data, les métiers, la conformité, le juridique et les RH.

Aucune de ces équipes ne peut l’assumer seule, leurs priorités diffèrent, leurs contraintes aussi.

C’est pourquoi les organisations matures mettent en place une gouvernance en réseau, où les responsabilités sont clairement réparties : qui détient le modèle, qui valide son usage, qui surveille ses dérives, qui gère les incidents.

Elles définissent des règles pour cadrer les cas d’usage, documentent le cycle de vie des modèles, et rendent visibles les informations essentielles : sources, logs, décisions, risques.

Cette gouvernance n’est pas un frein : c’est un cadre de confiance qui permet d’aligner l’ensemble de l’organisation et d’éviter les zones d’ombre.

4. Une culture de la compréhension

La réussite de l’IA n’est pas qu’une question d’infrastructure : c’est aussi un enjeu culturel.

Dans les organisations avancées, chacun comprend ce que fait l’IA, quelles données elle utilise et comment elle influence la prise de décision.

Cette culture se construit par la pédagogie, l’explicabilité et la visualisation.

Comprendre les biais, savoir lire un résultat, reconnaître une hallucination, comprendre les dépendances : ce sont des compétences qui deviennent aussi importantes que la maîtrise des outils numériques traditionnels.

La cartographie joue ici un rôle crucial : elle permet de visualiser où intervient l’IA, quels flux elle touche et comment elle interagit avec le SI. Elle transforme l’IA en un sujet lisible, partageable et maîtrisé.

5. Une sécurité et une souveraineté repensées

Chaque modèle, API ou connecteur introduit un nouveau point de sensibilité dans le système d’information.

L’IA crée des surfaces d’exposition inédites : dépendances à des fournisseurs externes, localisation des données, zones d’opacité dans les décisions, risques de fuite ou d’entraînement involontaire.

La sécurité ne peut plus être pensée comme une couche ajoutée après coup : elle doit être intégrée dès la conception.

Il faut maîtriser les environnements hybrides, contrôler où résident les données sensibles, choisir des modèles en fonction de leur niveau de souveraineté (cloud privé, open source, hébergement local) et isoler des environnements d’expérimentation pour éviter que des tests ne contaminent la production.

L’objectif n’est pas de brider l’innovation, mais de permettre à l’organisation d’innover sans perdre la maîtrise.

Conclusion

L’IA peut accélérer, automatiser et même transformer l’organisation mais seulement si elle s’appuie sur un socle solide, partagé et gouverné.

Un SI prêt pour l’IA n’est pas celui qui multiplie les modèles ; c’est celui qui sait où ils se branchent, quelles données ils consomment, quels processus ils influencent et comment les contrôler dans le temps.

C’est là que la cartographie devient un outil décisif : elle rend tangible ce que les modèles traversent, elle expose les dépendances invisibles, elle clarifie les responsabilités et permet de piloter un environnement en mouvement permanent.


Avec Boldo, cette compréhension ne reste pas théorique. Elle devient visuelle, actionnable et partageable : un support pour orchestrer l’IA, documenter les risques, aligner les équipes et construire une architecture où l’innovation ne se fait jamais au détriment de la maîtrise.

L’enjeu, désormais, n’est plus de faire entrer l’IA dans l’organisation, mais de lui donner un cadre.

Un cadre clair, gouverné, et suffisamment évolutif pour accueillir l’intelligence tout en gardant la main.

IA_fr