25 000 agents. Et maintenant, on met quoi sur l’organigramme ?

McKinsey & Company opère aujourd’hui avec environ 40 000 humains et 25 000 agents IA qui travaillent côte à côte.

Les agents gèrent la recherche, la synthèse, les tâches répétitives. Les consultants conservent le jugement, la responsabilité, la relation client.

Ce n’est pas une expérience pilote. C’est leur modèle opérationnel en 2026.

Et la question que ça soulève pour toutes les organisations n’est pas « est-ce qu’on devrait faire pareil ». C’est : si les agents font maintenant partie de l’équipe, est-ce qu’ils apparaissent sur l’organigramme ?

La question que personne ne pose encore

Dans beaucoup d’organisations, il y a des employés dont le rôle principal est de colliger des données, générer des rapports, produire des fichiers Excel. C’est du travail réel, nécessaire. Et c’est exactement ce que l’IA fait maintenant, plus vite, sur des volumes que l’humain ne pourrait pas traiter.

Alors on met quoi sur l’organigramme ?

Ce n’est pas une question piège. C’est la vraie question organisationnelle de 2026. Parce que si l’agent fait le travail, mais que personne ne lui a assigné de rôle clair, personne ne sait non plus qui est responsable de ce qu’il produit.

Deux rôles distincts. Complémentaires.

Ce que j’observe dans le marché, c’est que les organisations qui avancent le mieux ont compris deux choses distinctes.

Première chose : l’IA est exceptionnelle pour trier, colliger et accélérer le travail sur de grandes masses de données. Elle ne se fatigue pas, elle ne rate pas une ligne, elle livre en secondes ce qui prenait des heures.

Deuxième chose : le jugement humain n’a jamais été aussi important. Pas pour faire le tri. Pour valider ce que le modèle a généré. Pour décider ce qu’on fait avec. Pour assumer la responsabilité du résultat.

Ces deux rôles sont distincts. Ils sont complémentaires. Et une organisation qui les confond, ou qui n’a pas décidé lequel appartient à qui, va se retrouver avec beaucoup de vitesse et peu de contrôle.

La peur qui freine. Et comment la dépasser.

J’entends encore des gens dire qu’ils ne veulent pas utiliser l’IA.

Les raisons varient. Mais quand on creuse, ça revient presque toujours au même endroit : la peur que leurs données se retrouvent quelque part sur internet, exposées, utilisées par quelqu’un d’autre.

C’est une préoccupation légitime. Mais elle témoigne souvent d’une incompréhension de ce qui est possible aujourd’hui.

Parce qu’on peut circonscrire l’IA à vos bureaux, vos données, votre environnement. Sans connexion externe. Sans que vos informations sensibles quittent votre organisation. Les configurations existent. Les outils existent. Et bien faite, cette approche simplifie même la cybersécurité plutôt que de la compliquer.

Ce n’est pas un argument pour ignorer la gouvernance. C’est exactement l’inverse. Une bonne gouvernance IA, c’est ce qui permet d’avancer avec confiance plutôt que de rester sur le bord du chemin pendant que le marché avance.

Ce qu’on retient

L’IA bien gouvernée, c’est une IA sécurisée. Les configurations existent pour protéger vos données et garder votre environnement fermé.

Et le jugement humain ne disparaît pas. Il devient encore plus pertinent, parce que c’est lui qui valide ce que les modèles génèrent.

On ne choisit pas entre l’IA et les humains. On redéfinit ce que chacun fait mieux.


Cet article est tiré de l’édition du 23 avril 2026 de L’Architecte, l’infolettre hebdomadaire de Steve Johnston sur la transformation numérique des PME.

Partagez cet article