Ceux qui me subissent en cours le savent, au moins autant que mes clients : je n’ai que “IA” à la bouche (et Astro, oui, c’est vrai). J’explique à longueur de journée qu’on assistera bientôt à un changement de paradigme social et économique, et que l’IA jouera un rôle majeur dans cette transformation.
On va essayer de faire le point sur les tenants et aboutissants du caractère totalement disruptif de cette technologie, et de ce que vous pouvez faire pour survivre à cette triste réalité : le progrès technique ne connait ni pitié, ni compassion.
Mais d’abord, posons quelques bases sur les limites de ce qu’on appelle à tort “IA”.
Les limites techniques actuelles de l’IA
L’IA a fait des progrès fulgurants ces dernières années, mais elle est encore loin d’égaler l’intelligence humaine.
Elle excelle dans des tâches spécifiques, comme la reconnaissance d’images ou la traduction automatique, mais elle manque de bon sens, de créativité et de capacité d’adaptation. Ne nous y trompons pas : l’IA actuelle est une “IA faible”, spécialisée dans des tâches précises. La véritable “IA forte”, celle qui possède une conscience et une intelligence générale comparable à celle d’un humain, reste un objectif très lointain.
Manque de bon sens et de compréhension contextuelle
L’IA peut effectuer des tâches complexes, mais elle a souvent du mal à comprendre le contexte et à faire preuve de bon sens. Elle peut suivre des instructions à la lettre, mais elle est incapable de s’adapter à des situations imprévues ou de comprendre les nuances du langage humain.
On parle d’un problème “d’alignement”. Là où l’humain pense que ses instructions sont simples, l’IA trouvera un biais pour résoudre le problème de manière totalement hallucinantes, ou bien ne comprendra tout simplement pas la question.
Pour l’instant, pour de nombreuses tâches nécessaitant de la réflexion, l’IA a besoin d’être “nourrie” de données pour chaque situation. Le bon sens, lui, ne se télécharge pas.
Difficulté à généraliser et à apprendre de nouvelles tâches
L’IA est souvent spécialisée dans une tâche précise. Si on lui demande d’effectuer une tâche différente, elle doit être réentraînée à partir de zéro. Elle a du mal à généraliser ce qu’elle a appris et à l’appliquer à de nouvelles situations.
Par exemple, un algorithme entraîné à reconnaître des chats ne saura pas reconnaître des chiens.
Si aujourd’hui l’IA fait fureur, c’est pour sa capacité à générer du texte qui a du sens, et qui fonctionne, tant que le contexte le permet (on va en reparler plus tard).
Dépendance aux données
L’IA a aussi besoin de grandes quantités de données pour apprendre et s’améliorer. Si les données sont de mauvaise qualité, incomplètes ou biaisées, l’IA produira des résultats médiocres ou erronés. De plus, l’IA est vulnérable aux attaques adversariales, c’est-à-dire à des manipulations subtiles des données qui peuvent la tromper et lui faire prendre de mauvaises décisions.
Essayez de demander à ChatGPT de vous coder un truc totalement inédit ou peu documenté, et vous allez vite comprendre qu’on a encore besoin de développeurs.
De “prédire le prochain Token” à l’AGI…
Maintant qu’on a posé ces bases, enfonçons définitivement les portes ouvertes : ce qu’on appelle à tort et à travers “IA” n’a rien à voir avec une véritable intelligence artificielle.
Ce n’est pas un “robot” qui se comporte comme un humain, mais un système d’intelligence qui peut “apprendre” à partir de données et qui peut “répondre” à des questions, en calculant la sortie statistiquement la plus probable.
Essayez de demander à Nova, notre chatbot présent en bas à droite de cette page : “Le Chat boit du …” pour voir ce qu’elle va répondre.
(Bon au passage, il y a des chances qu’elle fasse une blague foireuse, mais c’est un autre sujet…)
Du lait ? Vraiment ?
Quand j’avais un chat, il buvait de l’eau. Pas du lait.
Sauf que, dans l’imaginaire collectif, et toutes ses représentations écrites qu’on trouve dans les données d’entrainement d’une IA, le chat boit du lait.
Ca n’en fait pas une réalité, certes, mais cela démontre bien les limites de l’IA telle qu’on la définit actuellement : elle rammasse tout ce qu’il y a dans son data-set, et en restitue une forme de “moyenne”.
Pour le meilleur et pour le pire donc !
Un LLM n’est donc pas une forme d’intelligence, mais bien un programme qui va restituer des données de manières statistiquement optimales, c’est à dire les plus probables.
Et c’est déjà beaucoup, car le LLM travaille mieux et plus vite que nous… Fini les heures à éplucher les fils sur Stackoverflow : ChatGPT le fait en une seconde.
Besoin de coder une fonction WordPress ? C’est tellement documenté que le modèle ne se trompera jamais.
Cool.
Par contre, si on sort totalement des sentiers battus, et qu’on pose une question sur des données peu documentées, on obtient une réponse qui est totalement inexacte, et qui ne peut pas être corrigée par l’utilisateur : c’est la fameuse “hallucination” de l’IA.
Vers une IA Agentique
Pour pallier à ces petites errances des LLM, les “agents” entrent en jeu, et c’est ça le futur de l’IA : une forme d’intelligence qui “supervise” le travail du LLM et lui définit des tâches complémentaires à réaliser avant de fournir une réponse.
En gros, le superviseur va générer une succession de prompt, à partir de votre prompt, pour contextualiser de manière plus “sure” et “précise” votre question, ce afin d’obtenir une réponse plus pertinente.
Au passage, il fera peut être plusieurs aller-retours entre ses différents agents, donc la consommation de tokens sera plus importante.
Le superviseur apprend ainsi à “établir une succession de tâches à accomplir pour répondre de manière plus précise” : mais n’est-ce pas le prémisses de l’intelligence ?
L’AGI proviendra donc très certainement des IA dites “agentiques”, celles qui seront une succession d’agents spécialisés dans un domaine, et gérées par un “superviseur” qui va les “entraîner” à répondre de manière plus précise…
Et ça, nous y sommes presque : le mode “deep thinking” sera celui qui nous rapprochera le plus de l’AGI, et il existe déjà sur ChatGPT, DeepSeek R1, Manus AI etc…
Le changement de paradigme social et économique
Maintenant que nous avons établi cette base (nous aurons bientôt accès à des modèles qui seront plus rapides et plus performants que nous, pour tout), que va-t-il se passer ?
Demandez aux traducteurs et rédacteurs web : leur chiffre d’afffaire s’effondre.
Ou bien à certaines équipes de développement qui voit leurs effectifs s’amenuir jour après jour, car leur “force de production” peut être gérée par 20, 30, ou 50 % de personnes en moins, bien épaulées par une IA…
Ou encore aux “petites mains” du web qu’on retrouve sur de grosses plates-formes comme Amazon, et qui se voient de plus en plus remplacés par des chatbots…
L’IA ne se syndique pas. Elle travaille H24, 7 jours sur 7 jours. Elle n’a aucune prétention salariale, et payer pour son exploitation ne génère ni charges sociales, ni charges patronales.
Il y a donc fort à parier que plus le temps va passer, plus l’IA va se substituer à l’humain : le capital passe toujours en force sur le travail dans une entreprise.
Nous serons donc bientôt tous obsolètes.
Mais que font les gouvernements ?
Face à cette menace grandissante, que font ceux qui sont censés nous protéger ?
A chaque fois qu’un gros acteur du marché à commencé à se faire connaitre, il a, très souvent, à des fins de communication ou de relation publique, monté un “département éthique et sécurité” (ou autre appellation marketing-bullshit de ce genre), dont le but était de “définir les risques et les enjeux de l’IA”.
Et en général, pas longtemps après, ce département disparait.
Pourquoi ?
Parce que toute tentative de limiter / moduler / raisonner / réduire les risques freine considérablement le développement des modèles et des sociétés, dans un contexte ou, justement, TOUT LE MONDE court après l’AGI, ou un truc qui s’en rapproche.
Les département, les sociétés, les actionnaires, et encore plus haut : les gouvernements. Les Américains, les Chinois, les Européens : TOUT LE MONDE.
L’AGI, c’est un peu le nouveau “graal” : la techno sera tellement disruptive que quiconque prend de l’avance sur le marché peut potentiellement gagner le gros lot.
Donc les gouvernements ne font rien, bien au contraire : ils poussent.
Et quand la techno sera mûre, vraiment mûre, avec une grande facilité d’adoption par le grand public, il sera trop tard.
Les conséquences du changement de paradigme lié à l’IA
Dans une entreprise, utiliser l’IA sera largement moins coûteux que faire appel à l’humain : nous serons tous obsolètes. L’essor de la robotisation va considérablement accélerer ce processus. Certes, pour les métiers les plus complexes, il y aura un peu de résistance.
Mais pour toutes les tâches simples ou redondantes, qui nécessitent une motricité relative et peu d’analyse, c’est plié : nous serons remplacés par des robots.
Et ça n’est pas de la science-fiction, comme vous pouvez le voir dans cette vidéo : les robots humanoïdes font des progrès spectaculaires.
Est-ce que ça va arriver : oui.
Que pouvons-nous faire : pas grand chose.
Pour une raison toute simple : nous allons tous adopter cette technologie. Moratoire ou pas.
La question qui va se poser, ce sera donc celle de la responsabilité des propriétaires de ces technologies : les transferts de capitaux seront massifs, comme la valorisation boursière (s’il y en a une). Et c’est dans ce contexte de changement massif, brutal, que d’autres problèmes vont se poser… Même si le premier sera bien l’obsolescence de l’Homme !
Sécurité et risque éthique
En raison de l’utilisation massive des modèles, et de la connexion forte avec les écosystèmes économiques et domotiques, l’IA va soulever des questions en matière de sécurité et de confidentialité des données.
L’utilisation massive de données personnelles pour entraîner les algorithmes d’IA soulèvera des inquiétudes légitimes quant à la protection de la vie privée. Et il faudra aussi prendre en compte les données en possession des entreprises, qui pourront s’en servir pour vous vendre des produits/services, ou bien revendre vos données à des tiers.
Les risques éthiques de l’IA
L’IA n’est pas intrinsèquement bonne ou mauvaise. C’est un outil, et comme tout outil, elle peut être utilisée à des fins nobles ou néfastes. La question n’est donc pas de savoir si l’IA est une menace, mais plutôt comment encadrer son développement pour minimiser les risques éthiques. Imaginez une voiture autonome qui doit choisir entre sauver son passager ou un groupe de piétons. Qui décide ? Selon quels critères ? Ces questions, loin d’être théoriques, sont au cœur des enjeux éthiques de l’IA.
Biais algorithmiques et discrimination
Les algorithmes d’IA apprennent à partir de données. Si ces données sont biaisées, l’IA reproduira et amplifiera ces biais. C’est un cercle vicieux. Par exemple, un système de reconnaissance faciale entraîné principalement sur des visages blancs aura du mal à identifier les personnes de couleur.
Résultat ? Des décisions injustes et discriminatoires dans des domaines comme le recrutement, le crédit ou la justice.
N’allez surtout pas croire qu’une IA est neutre : elle va amplifier ce qu’elle a dans son data-set.
Se pose donc la question de la modération :
- Qui va la faire ?
- En vertu de quels critères ?
Il est donc crucial de veiller à la qualité et à la diversité des données utilisées pour entraîner les algorithmes, et de mettre en place des mécanismes de contrôle pour détecter et corriger les biais.
Les questions éthiques sont bien nombreuses, et il y a fort à parier que cela prendra des décennies pour les traiter efficacement, sachant qu’il y aura forcément un biais politique ou idéologue.
La question de l’IA va devenir terriblement Prométhéenne !
Manipulation et désinformation
L’IA peut également être utilisée pour créer des deepfakes (vidéos truquées) ultra-réalistes, pour générer de fausses informations ou pour manipuler l’opinion publique. C’est une arme redoutable entre les mains de personnes mal intentionnées.
Imaginez un deepfake d’un homme politique faisant une déclaration compromettante. L’impact sur l’opinion publique pourrait être dévastateur. Il est donc essentiel de développer des outils pour détecter et dénoncer les deepfakes et les fausses informations, et de sensibiliser le public à ces risques. La désinformation à l’ère de l’IA, c’est une bombe à retardement.
Google travaille déjà sur le sujet, avec le SynthID nativement intégré à Gemini et Imagen (son modèle le plus poussé pour générer des images). Pour en savoir plus, c’est par là : tout savoir sur SynthID.
Surveillance de masse et atteinte à la vie privée
L’IA permet également de collecter, d’analyser et d’utiliser des quantités massives de données personnelles. C’est une aubaine pour les entreprises et les gouvernements, mais c’est aussi une menace pour la vie privée des individus. Imaginez une société où chaque mouvement, chaque achat, chaque interaction en ligne est surveillé et analysé par des algorithmes.
La Centralisation des données, et la course à la dématérialisation de l’économie, facilitée par la blockchain et les Central Bank Digital Currencies vont démultiplier ce biais et tout les risques qui y sont associés !
Le risque est donc bien de glisser vers une société de surveillance de masse, où la liberté individuelle est compromise.
La nécessité d’une IA responsable et transparente
Face à ces défis, il est impératif de développer une IA responsable et transparente. Cela implique de mettre en place des réglementations strictes et neutres, de promouvoir l’éthique dans la conception des algorithmes et de sensibiliser le public aux enjeux de l’IA.
L’IA doit être au service de l’humanité, et non l’inverse. La transparence est la clé. Il faut comprendre comment les algorithmes prennent leurs décisions, quels sont les biais potentiels et comment les corriger.
Idéalement, un système Open Source pourrait limiter la casse, et il faut espérer que des modèles de ce genre verront le jour…
Sensibilisation et éducation du public
Vous avez compris, je fais parti de ces gens (illuminés ?) qui pensent que le futur sera digne des films de science-fiction des années 2000, mais l’actualité va de plus en plus dans ce sens (l’Euro numérique sort en Octobre 2025, les modèles sont de plus en plus performants, les robots arrivent sur les chaines de production, etc…).
Aujourd’hui, plus que jamais, il est important de sensibiliser le public aux enjeux de l’IA, de ses avantages et de ses risques. Il faut éduquer les citoyens à comprendre comment fonctionne l’IA, à identifier les biais potentiels et à se protéger contre la manipulation et la désinformation.
L’éducation à l’IA, c’est un investissement d’avenir. Plus les citoyens seront informés, plus ils seront en mesure de prendre des décisions éclairées et de participer activement au débat public.
Il faut également vous approprier cette technologie, pour voir comment vous pouvez la mettre en place dans votre propre entreprise, dans votre service, ou dans votre quotidien, car plus vous serez à l’aise avec, plus vous serez productif, et moins vous serez enclin à vous faire remplacer…
Je suis persuadé que pour la plupart d’entre nous, c’est une question de vie ou de mort économique : le progrès technique ne connait ni pitié, ni compassion, il est sans merci, et, bien poussé par le marché, il ne s’arrête jamais…
A bon entendeur…