Intelligence artificielle_Livre blanc-IA

jmleray 19 views 70 slides May 17, 2025
Slide 1
Slide 1 of 70
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52
Slide 53
53
Slide 54
54
Slide 55
55
Slide 56
56
Slide 57
57
Slide 58
58
Slide 59
59
Slide 60
60
Slide 61
61
Slide 62
62
Slide 63
63
Slide 64
64
Slide 65
65
Slide 66
66
Slide 67
67
Slide 68
68
Slide 69
69
Slide 70
70

About This Presentation

Livre blanc sur l'intelligence artificielle, compilé à partir de 7 des 11 billets que j'ai écrits, à ce jour, sur l'intelligence artificielle (IA) et sur l'informatique quantique (IQ)


Slide Content

Intelligence artificielle
Ce livre blanc est compilé avec 7 billets des 11 que j'ai écrits à ce jour sur l'IA, entre le 13 avril et le 17
mai 2025 :
1. La troisième révolution civilisationnelle : l'intelligence artificielle (IA) (13 avril 2025)
4. Intelligence artificielle, ordinateurs et traduction automatique (17 avril 2025)
5.Intelligence artificielle - Premier bloc (22 avril 2025)
6.Intelligence artificielle - Deuxième bloc (24 avril 2025)
7.Intelligence artificielle - Troisième bloc (29 avril 2025)
8.Intelligence artificielle - Quatrième bloc (3 mai 2025)
11.Intelligence artificielle. Post-Scriptum (17 mai 2025)
Les autres (2., 3., 9. et 10.), notamment sur l'informatique quantique (IQ), sont sur ma page dédiée.
** *
La troisième révolution civilisationnelle : l'intelligence artificielle (IA)
Les deux premières furent l'Imprimerie et Internet, l'Intelligence artificielle sera (est)
la III
e
révolution civilisationnelle. La différence étant qu'il aura fallu un peu plus d'un demi-millénaire
entre la première et la deuxième, contre une cinquantaine d'années entre la seconde et la troisième :
une évolution 10 fois plus rapide !
Je n'ose penser quelle sera la quatrième, et quand... L'informatique quantique ?
Dans révolution il y a évolution. Toutefois cette dernière peut être positive ou négative. Par exemple,
lorsque l'on pense « révolution industrielle », on peut être saisi par la crainte de la « destruction
créatrice » d'emplois, cette force motrice de la croissance selon Joseph Schumpeter... Des métiers
disparaissent, de nouvelles professions apparaissent, au mieux se côtoient pendant quelque temps.
Dans cette jungle, il incombe à chacun(e) de trouver sa propre réponse.
L'idée de ce billet m'est venue en constatant le déploiement de plus en plus omniprésent des IA
traductionnelles, dont je peux ressentir chaque jour les effets directs sur mon activité désormais
ultra-quarantenaire...
Pour commencer la préparation de ce billet, j'ai donc posé à 4 Intelligences artificielles (IA pour les
intimes) - ChatGPT, Mistral.ai, Deepseek et Gemini - la question suivante : Quelles sont les plus
importantes révolutions industrielles ?
Je vous ai concocté les résultats sous forme de tableau synoptique, selon le schéma suivant :

• Introduction
• 1
e
révolution industrielle (Innovations/Impact)
• 2
e
révolution industrielle (Innovations/Impact)
• 3
e
révolution industrielle (Innovations/Impact)
• 4
e
révolution industrielle (Innovations/Impact)
• Conclusion
En cliquant sur les images vous avez un accès direct au PDF correspondant.
Introduction


1
e
révolution industrielle

2
e
révolution industrielle


3
e
révolution industrielle

4
e
révolution industrielle



Conclusion


En associant les résultats complémentaires des 4 IA, on obtient un tableau intéressant. Mais surligné
en jaune, vous constaterez que Deepseek est la seule à évoquer dans sa conclusion une cinquième
révolution industrielle.
*
Ce devait être le titre de ce billet, et puis j'ai pensé que non, ça ne collait pas ! Comme son nom
l'indique, la cinquième révolution industrielle se limite davantage à l'Industrie 5.0, dont le but, en
bref, ne consistera plus uniquement à automatiser et optimiser les processus, mais à améliorer la vie
des travailleurs grâce à la technologie plutôt que de les remplacer par des robots.
*

C'est là où le bât blesse avec l'intelligence artificielle puisque, selon moi, dans de nombreux secteurs,
elle vise purement et simplement à prendre la place des ressources humaines, les digital
workers n'ayant pas d'état d'âme.
Car si la deuxième révolution ne s'est pas substituée à la première, si l'écran n'a pas tué l'écrit (de
même que ceci n'a pas tué cela...), au grand bonheur des obsédés textuels, en remplaçant juste le
texte classique par l'hypertexte, l'antique palimpseste par le moderne palimptexte, le passage de la
deuxième à la troisième révolution civilisationnelle, 10 fois plus rapide que le premier, ressemble
davantage à un choc des civilisations et me semble beaucoup plus préoccupant, bien moins
"empathique".
Plus aucun domaine n'est à l'abri, ce que démontrent différentes études prospectives, des armées à
l'éducation, de l'enseignement à la logistique et aux transports, du droit à la banque en passant par
la médecine, etc., pour n'en citer que quelques-uns, et de nombreux emplois, y compris qualifiés,
devront soit se mettre à niveau, soit disparaître...
Depuis plusieurs années la traduction / l'interprétation est déjà confrontée à cette problématique,
accompagnée d'une baisse généralisée des services (et des salaires) que je nomme industrialisation
du good enough... J'y reviendrai plus loin.
*
Dans sa newsletter du 11 avril 2025, Tariq Krim (éditions Cybernetica), que j'ai rencontré il y a fort
longtemps, publie un article intitulé « Quand le logiciel cessera d’obéir », où il nous propose une
vision élargie de l'intelligence artificielle et de la rupture actuelle, en termes de conception
architecturale des systèmes d’IA, notamment avec MCP (une brèche dans le code de programmation)
et le protocole agent-à-agent (A2A) de Google. Tout ceci présage d'un fonctionnement de l'IA en
réseau de systèmes intelligents dialoguant directement sans passer par nous : les machines prennent
le contrôle, les robots prennent le pouvoir ! Sans parler des questions d'éthique...
*
Le monde des agents est foisonnant ! Parmi cette myriade, pour ne prendre qu'un exemple, celui
de MindStudio offre des agents pour la recherche, l'analyse de contenu (voir en P.S.), la création
(podcasts, billets, articles, vidéos, etc.), la génération d'images, pour les étudiants, les financiers, les
développeurs, etc., il suffit d'installer l'extension sur Chrome et à la seconde tous ces agents sont à
votre disposition :

Et si vous n'y trouvez pas votre bonheur (une centaine d'agents libres d'utilisation), vous pouvez
construire le vôtre (build), question de minutes ! En version gratuite vous avez jusqu'à 10000
requêtes (runs) par mois, au-delà (jusqu'à 100000) c'est 0,002$/run, vous avez accès à une
cinquantaine de modèles IA et à des services tiers, etc. etc.
Donc, sans compter les outils de création de sites, de logiciels via prompt (le vibe coding), dont le
lancement par Google d'un nouvel outil impressionnant (firebase.io) ou les perspectives d'autres
acteurs de premier plan, vous comprenez bien que lorsque Tariq Krim évoque la possibilité (déjà
réalité) que tout ce joli monde fonctionne en réseau de systèmes intelligents dialoguant directement
sans passer par nous, c'est instantané et exponentiel, et les perspectives réelles vont bien au-delà de
notre compréhension simplement humaine.
Eric Schmidt lui-même confirme cet état de fait : « Les ordinateurs sont auto-apprenants. Ils n'ont
plus besoin de nous écouter »...
*
À mon niveau de traducteur lambda, qu'est-ce que tout cela peut bien signifier ?
Je m'interroge depuis une dizaine d'années déjà sur l'avenir du travail pour les métiers libéraux, et
sur le mien in primis, au point d'avoir écrit une moyenne d'un billet par an pendant 8 ans sur ces
questions :
1. Plaidoyer pour un marketing de la traduction
2. SOLO², branding & marketing à l’intention des auto-entrepreneurs et des professionnels
exerçant en profession libérale
3. Le « nouveau maintenant » de nos professions
4. Transition université - marché du travail
5. Conseils aux jeunes qui réfléchissent à leur carrière future

6. De l'évolution du métier de traducteur-interprète et de la nécessité de s'adapter
7. La création de son propre emploi
8. Télétravail : sommes-nous prêts ?
J'ai expliqué dans un récent billet que la profession est en plein bouleversement, où le traducteur
devient post-éditeur de traduction automatique (ce qui n'est plus le même métier), autrement dit
l'inspecteur des travaux "finis"... Si l'on passe sous silence le fait que certains (Jaap Van Der Meer)
rêvent d'automatiser aussi la post-édition, toute la problématique se concentre donc sur la finition !
*
Lorsque j'avais mon bureau de traduction à Rome, je recevais des étudiants français en
stage provenant de différentes universités (Grenoble, Rennes 2), où mon rôle consistait, dans une
ultime opération, à contrôler et parfaire le texte à livrer. Une traduction réalisée à 95% n'est pas un
produit fini : il manque 5%. On ne dirait pas, mais 5% de 1000 mots ce sont 50 mots incorrects. C'est
énorme et ça fait toute la différence : la finition qualifie le traducteur de métier.
Or une IA traductionnelle n'est ni plus ni moins qu'un stagiaire : sans vérification et correction finales,
le client n'en aura jamais pour son argent (if you pay peanuts you get monkeys), quand bien même il
aura payé très peu (en tout cas bien moins qu'il y a quelques années), car là est le paradoxe de la
quadrature du triangle : entre DÉLAIS, COÛTS et QUALITÉ, prenez-en deux et oubliez le troisième !
Désormais, un adage d'autrefois…
L'élément nouveau qu'introduit l'IA est que deux des trois paramètres sont (plutôt brillamment)
résolus ! Les DÉLAIS sont immédiats, et les COÛTS éliminés, ou peu s'en faut. Y compris sur
d'énormes quantités. Aucun traducteur humain n'est compétitif face à une telle réalité. Ne reste plus
que la QUALITÉ, dont le degré ultime se définit au moment de la finition. À l'heure actuelle, sans
cette réception - au sens technique - de la traductrice ou du traducteur en charge du « contrôle
qualité », aucun agent intelligent (intellagent ?) artificiel n'est encore en mesure d'assurer seul ce
niveau de finition. L'IA peut s'en rapprocher pour certains couples de langues et domaines (les plus
documentés), mais ça reste très compliqué pour d'autres (IT > FR en juridique, par exemple), et bien
que ça soit probablement à sa portée, cela demandera encore pas mal de temps. Nous sommes donc
en sursis...
*
Pour conclure, je terminais un précédent billet par cette citation :
Pourtant, une conséquence bien concrète de tout ce chambardement : après 40 ans de métier, j'ai de
moins en moins de travail...
De quoi se demander si traducteur-interprète est un métier d'avenir ?
J'en doute !
Mon sentiment est qu'au fil du temps l'avènement de l'IA dépasse et rend vains tous mes
questionnements, les uns après les autres, peut-être le temps de la réflexion est-il venu...

P.S. À titre d'exemple, j'ai fait tourner l'agent Create Study Guide sur mon billet (rédigé en français)
intitulé Branding & Marketing pour Traducteurs & Interprètes, en quelques secondes, voici le résultat
(en anglais !) (il suffit de cliquer sur l'image) :


[Agents]

* * *

Intelligence artificielle, ordinateurs et traduction automatique

L'intelligence artificielle est légèrement plus âgée que moi, et nous retrouvons pour la première fois
le terme anglais dans le document préparatoire à la conférence de Dartmouth :

« Nous proposons d'organiser un séminaire de deux mois sur l'intelligence artificielle, impliquant dix
personnes, durant l'été 1956 au Dartmouth College de Hanover, dans le New Hampshire. Le postulat
de l'étude se base sur le principe que l'on peut décrire avec un un tel niveau de précision chaque
aspect de l'apprentissage ou toute autre caractéristique de l'intelligence qu'une machine pourra le
simuler. Nous tenterons de trouver comment les machines pourront utiliser le langage, formuler
des abstractions et des concepts, résoudre des problèmes aujourd'hui réservés aux humains et
s'améliorer. »
Tous les problèmes sont déjà posés ! Or cette déclaration date du 31 août 1955 ! Soixante-dix ans
plus tard, je dirais que c'est chose faite, non ? Puisque désormais les machines ont une telle capacité
de s'auto-améliorer qu'elles sont à deux doigts de s'affranchir de nous...

Quant au traitement du langage, et donc des langues, il a évolué en parallèle à celui de l'IA et des
ordinateurs. Dès la moitié des années 40 apparaissent les premiers calculateurs électroniques à
grande échelle, le Colossus britannique (1944) et l'ENIAC américain (1945). Or ces "ordinateurs" ante
litteram n'avaient aucun programme en mémoire. Ainsi, pour configurer une nouvelle tâche, il fallait
modifier une partie du câblage de la machine, réacheminer les câbles à la main et régler les
commutateurs.
C'est Alan Turing qui conçut le principe de base de l'ordinateur moderne : contrôler les opérations de
la machine au moyen d'un programme d'instructions codées, stockées dans la mémoire de
l'ordinateur, en contribuant à la construction des premiers ordinateurs programmables au monde :
les Colossus Mark 1 et Mark 2. Il fut aussi l’un des principaux acteurs du déchiffrement
d’Enigma durant la seconde Guerre mondiale et, last but not least, l'un des pionniers de l'Intelligence
artificielle !
*
Côté traitement des langues, après l’apparition des premiers ordinateurs, il faudra attendre 1946 et
la rencontre entre Andrew Booth et Warren Weaver, directeur de la Fondation Rockfeller, et,
surtout, le 4 mars 1947, avec la lettre de ce dernier à Norbert Wiener évoquant la possibilité
d’utiliser les nouveaux ordinateurs pour la traduction des langues naturelles :
...Je ne sais rien d'officiel sur les nouvelles méthodes de cryptographie, puissantes et mécanisées ... –
des méthodes qui fonctionnent, j'imagine, même sans connaître la langue codée –, donc,
naturellement, je me demande si le problème de la traduction pourrait être traité comme un
problème de cryptographie. En lisant un article en russe, je pense : « En réalité, c'est écrit en anglais
mais codé avec des symboles étranges. Je n'ai plus qu'à procéder au décodage. »
Norbert Wiener lui répond, pour le moins sceptique, le 30 avril 1947 :
Franchement, concernant le problème de la traduction mécanique, je crains que les frontières entre
les mots dans les différentes langues ne soient trop floues et les connotations émotionnelles et
internationales trop étendues pour qu'un projet de traduction quasi-mécanique soit prometteur. (...)
À l'heure actuelle, au-delà de la conception de dispositifs de lecture photoélectrique pour les
aveugles, la mécanisation du langage semble très prématurée…
Warren Weaver formalisera son intuition deux ans plus tard, le 15 juillet 1949, avec la publication
d’un mémorandum simplement intitulé : Translation, publié in Machine translation of languages:
fourteen essays [ed. by William N. Locke and A. Donald Booth (Technology Press of the
Massachusetts Institute of Technology, Cambridge, Mass., and John Wiley & Sons, Inc., New York,
1955), p.15-23], qui commence ainsi :
Inutile de souligner l'évidence, à savoir que la multiplicité des langues entrave les échanges culturels
entre les peuples de la planète et constitue un sérieux obstacle à la compréhension internationale. Le
présent mémorandum, en partant de la validité et de l'importance de ce fait, contient quelques
commentaires et suggestions sur la possibilité de contribuer, au moins en partie, à la solution du
problème mondial de la traduction grâce à l'utilisation d'ordinateurs électroniques de grande
capacité, flexibilité et rapidité.
Or le 31 mai 1949 était sortie une dépêche aux États-Unis (notamment sur le New York Times et
le New York Herald Tribune), qui sera reprise également en Italie, annonçant la construction par le
Bureau of Standards, à l'Université de Californie (Los Angeles), de l'ordinateur SWAC (Standards

Western Automatic Computer), un "cerveau électrique" capable de traduire une langue étrangère...
Vingt mathématiciens et techniciens travaillent sous la direction du Dr Harry Huskey, qui a déclaré :
« Pour réussir à traduire les langues, celles-ci doivent être saisies à la machine. Le service des
recherches navales a déjà débloqué une somme d'argent considérable pour construire le cerveau. »
M. Huskey est certain du bon fonctionnement de sa merveilleuse machine, qui produira une
traduction littérale, mot à mot, et il incombera ensuite à l'utilisateur d’interpréter le sens de la
traduction. Le cerveau électrique sera testé au plus tard d’ici un an...

Le hasard (!?) voulut que vingt jours plus tôt, M. Federico Pucci, un salernitain, avait adressé un
courrier recommandé au président américain, Haary S. Truman, dans l'espoir de recevoir un appui
financier pour la construction de ses électro-traducteurs.
M. Pucci, troublé d'apprendre cette nouvelle venant des États-Unis, décida d'envoyer le 10 juillet
1949 (soit seulement 5 jours avant la publication du mémorandum de Weaver !), son premier
courrier au Conseil National des Recherches italien intitulé : « Cerveau électrique nord-américain
pour la traduction des langues étrangères et traducteur électromécanique italien participant à
l'exposition-concours d’inventions qui se tiendra du 16 au 29 septembre 1949 à Paris », dans le seul
but de revendiquer l'antériorité de son invention...
Avant l’ordinateur, il n'était question que de « traduction mécanique », voire de « machine à
traduire », un distinguo qui demeure dans l’appellation anglaise de la discipline : « Machine
Translation », ou MT en abrégé. Après l’ordinateur, parfois qualifié de « cerveau électrique », ou
« cerveau électronique », les premiers « logiciels » de traduction automatique furent des systèmes
dits « à base de règles » (RBMT, ou Rule-Based Machine Translation), dont la première
démonstration de l’histoire est connue dans ses moindres détails : date, lieu, équipe, langues,
déroulement, etc.
En fait, une anecdote plus qu’une véritable démonstration scientifique : nous sommes le 7 janvier
1954, à New York, au siège d’IBM, l’équipe est une collaboration entre la Georgetown University (M.
Paul Garvin pour la partie linguistique) et IBM (M. Peter Sheridan pour la partie programmation), la

paire de langues est le russe et l’anglais, un lexique de 250 mots choisis avec soin, quelques dizaines
de phrases, 6 règles !
Le lendemain, IBM annonce dans un communiqué de presse :
En quelques secondes, l'ordinateur géant a transformé ces phrases en un anglais facilement lisible.
Ce même communiqué mentionnait cette phrase du professeur Leon Dostert, de l'Université de
Georgetown, selon lequel, en l’espace de quelques années la traduction automatique aurait pu
devenir réalité :
Dans cinq ans peut-être, voire dans trois, la conversion de sens entre différentes langues par
processus électronique dans d'importants domaines fonctionnels pourrait bien être un fait accompli.
Le ton optimiste de cette déclaration eut surtout pour effet d'inciter le gouvernement américain à
mettre à disposition d’importantes sommes pour la recherche. De ce point de vue, l'objectif fut
atteint ! Pour autant, dans la réalité, l'expérience « Georgetown University – IBM » fut suivie d’une
décennie que tous les spécialistes de l'histoire de la TA s'accordent à définir comme « la grande
désillusion ».
Sans rien enlever à Federico Pucci, créateur de la première RBMT documentée de l'histoire, inventée
à partir de rien, qui présenta initialement son système en public en décembre 1929, soit 20 ans
avant le mémorandum de Warren Weaver sur la traduction automatique, et 25 ans avant
l'anecdote IBM - Georgetown University...
Sources :
• Réécrire l'histoire de la traduction automatique
• Mise à jour sur Federico Pucci
• Federico Pucci censuré par Wikipedia.it
*
En clair, sur les 70 dernières années, nous avons vu de front l'essor inarrêtable et conjugué du
traitement automatique des langues, de la puissance de calcul des ordinateurs et de l'explosion de
l'intelligence artificielle, mais nous atteignons aujourd'hui un point de bascule. Où le
binôme suprématie quantique - superintelligence artificielle reléguera la traduction automatique sur
les étalages des vide-greniers de l'histoire (not a failure anymore...) !
Pour faire le point de la situation, rendez-vous en 2029 (dans 4 ans !), date du centenaire de
l'invention par Federico Pucci de sa méthode de traduction automatique à base de règles...

* * *

Intelligence artificielle - Premier bloc

Sommaire
Introduction

Pour l'utilisateur lambda, l'intelligence artificielle (IA) se résume à poser des questions. Les réponses
sont plutôt intelligentes, claires et concises, avec une introduction, un développement articulé et une
conclusion en forme de synthèse. Si l'on pense que l'IA vous répond dans l'espace de quelques
secondes en n'importe quelle langue et sur n'importe quel sujet avec un très bon degré d'exactitude,
la performance est suffisamment époustouflante pour être soulignée.
Idem pour la traduction : vous saisissez un bout de texte quelconque, vous indiquez dans quelle
langue vous souhaitez qu'il soit traduit, et le tour est joué !
Choses encore inconcevables il n'y a pas si longtemps, avec un tel niveau qualitatif. Cela étant,
chaque réaction de l'IA me fait penser à une chambre d'hôtel, du 4 étoiles au palace : bien propre,
aseptisée, tirée au carré, rien ne dépasse, politiquement correcte, plus ou moins luxueuse, mais
toutefois impersonnelle, pas la moindre individualité, elle m'appartient autant qu'au voisin, sans
distinction, aucune singularité. En bref, chacun(e) pourrait dire, « Il y manque ma touche » !
Certes, cela n'est que le sommet de la partie émergée de l'iceberg...

*
En préparant ce billet, je ne peux m'empêcher de faire un parallèle avec celui écrit sur Facebook en
octobre 2007. À l'époque, il était déjà question de Facebook tous les jours, dans tous les médias, tous
les "experts" du moment proposant leur propre réponse, avec en arrière-plan un faisceau diffus
d'interrogations : c'est quoi Facebook, à quoi ça sert, comment ça marche, quel est l'intérêt, en quoi
cela me concerne-t-il ? Et mon propre questionnement : quoi dire, aujourd'hui, et comment le dire,
pour sortir du lot ? Cela a donné le billet le plus lu de toute l'histoire de mon blog, et le seul qui m'ait
valu d'être en première page des résultats de Google sur la requête "Facebook" !
Je ne prétends pas réitérer, mais 18 ans plus tard, il suffit de remplacer Facebook par IA : il est
question de l'IA tous les jours, dans tous les médias, tous les "experts" du moment proposant leur
propre réponse, avec en arrière-plan un faisceau diffus d'interrogations : c'est quoi l'IA, à quoi ça
sert, comment ça marche, quel est l'intérêt, en quoi cela me concerne-t-il ? Et mon propre
questionnement : quoi dire, aujourd'hui, sur l'IA, et comment le dire, pour sortir du lot ? Voici ma
tentative de réponse.

*
L'IA est l'aboutissement idéal de l'Encyclopédie de Diderot et d'Alembert, ce fameux dictionnaire
raisonné des sciences, des arts et des métiers qui portait - il y a deux siècles et demi - l'ambition
considérable de présenter une synthèse des / de toutes les connaissances de l'époque. Cependant, la
capacité protéiforme de l'IA (démultipliée à l'infini par les phénoménales puissances de calcul
atteintes en 2025, et destinées à connaître une croissance exponentielle dans les mois et années à
venir) va bien au-delà.
De facto, l'IA n'est plus une simple technologie, ou juste un outil, mais plutôt une prosthesis, selon
son étymologie originelle (signifiant « action d'ajouter »), non pas pour remplacer notre intelligence
(en aucun cas l'intelligence artificielle ne doit supplanter l'intelligence humaine), mais pour la
fortifier, pour l'aider à prendre de bonnes (meilleures) décisions. L'essentiel n'est plus de savoir si elle
va supprimer mon emploi, ou tous nos emplois, mais de comprendre son impact fondamental dans
nos vies de tous les jours, dans tous les secteurs économiques, sociaux, culturels, etc., et comment
elle va réinventer notre façon de travailler en particulier, et de vivre en général !
Dans L'homme augmenté. Futurs de nos cerveaux (© Éditions Grasset & Fasquelle, 2024), Raphaël
Gaillard observe fort justement : « [R]ien ne dit qu’une (...) greffe de l’IA sur nos corps fonctionnerait
pleinement » (il se demande même si la perspective est crédible), et prône plutôt un retour aux
humanités :
Que peuvent être les humanités au XXI
e
siècle ? Ce qu’elles ont toujours été depuis l’Antiquité, passées
de main en main, de cerveau en cerveau, de génération en génération, s’enrichissant ainsi de
nouvelles traces de génie.
Redonner leur place aux humanités, ce n’est certainement pas tourner le dos aux nouvelles
technologies, c’est au contraire s’armer pour naviguer vers ces nouveaux horizons.
C’est considérer la culture pour ce qu’elle est : non une fin en soi, mais un moyen.
Ainsi de l'IA : elle n'est pas - ni ne peut, ni ne devra jamais être - une fin en soi, mais un moyen. Que
chacun(e) doit apprendre à déployer en conscience et en connaissance de cause.
*
L'intelligence artificielle, que j'ai qualifiée de troisième révolution civilisationnelle, est la capacité des
machines à effectuer des tâches typiquement associées à l'intelligence humaine, comme
l'apprentissage, le raisonnement, la résolution de problème, la perception ou la prise de décision.
C'est également le champ de recherche visant à développer de telles machines ainsi que les systèmes
informatiques qui en résultent.
Toutefois, s'agissant d'un nouvel écosystème, expérimental et évolutif (machines, systèmes
informatiques, intelligents, algorithmes, applications, capteurs, matériels, logiciels, réseaux
neuronaux, langages, robots, modèles, agents, IA générative, agentique, etc.), il n’y a pas vraiment
une seule définition qui serait universellement acceptée.
Selon la BEI, comment fonctionne l’IA ?
L’IA se nourrit de grands volumes de données, dont la quantité et la qualité forment le socle de son
efficacité. Ses capacités lui permettent ensuite d’extraire de ces données certains critères et de les
traiter aux fins d’un résultat. Les systèmes d’apprentissage automatique requièrent une part
d’intervention humaine afin d’indiquer à la machine les modalités d’extraction des attributs

recherchés. Les systèmes d’apprentissage profond, qui relèvent d’un niveau d’IA beaucoup plus
perfectionné, sont capables de se former eux-mêmes et d'apprendre à extraire et à classer différentes
caractéristiques.
Avec à terme, d'après Tariq Krim, un fonctionnement de l'IA en réseau de systèmes intelligents
dialoguant directement sans passer par nous, et des ordinateurs auto-apprenants qui n'ont plus
besoin de nous écouter (Eric Schmidt) ! [Début]
*
Cette "force de transformation" (force brute...) investit tous les domaines, toutes les sphères
d'activité. La liste est infinie, je ne me limiterai donc qu'à quelques exemples. Après avoir abordé
précédemment le binôme intelligence artificielle et traduction, voici 40 déclinaisons supplémentaires
de l'intelligence artificielle, classées à l'intuition :
1. L'intelligence artificielle générative
2. L'intelligence artificielle agentique
3. L'intelligence artificielle autonome
4. L'intelligence artificielle et l'interaction homme-machine
5. L'intelligence artificielle et la bancassurance
6. L'intelligence artificielle et la finance
7. L'intelligence artificielle et l'immobilier
8. L'intelligence artificielle et le commerce
9. L'intelligence artificielle et le droit
10. L'intelligence artificielle et le travail
Ce premier billet, qui comprend les 10 sujets ci-dessus, sera suivi de trois autres (30 thèmes restants,
divisés en trois blocs de 10 chacun). Pour l'heure, voici les 30 sujets, pêle-mêle, je les classerai
ensuite au gré de mon inspiration...
1. L'intelligence artificielle et les transports
2. L'intelligence artificielle et la logistique
3. L'intelligence artificielle et la voiture
4. L'intelligence artificielle et la robotique
5. L'intelligence artificielle et l'informatique
6. L'intelligence artificielle et le militaire
7. L'intelligence artificielle et la médecine / pharmacie
8. L'intelligence artificielle et la santé
9. L'intelligence artificielle et l'environnement
10. L'intelligence artificielle et l'enseignement

11. L'intelligence artificielle et l'éducation
12. L'intelligence artificielle et la formation
13. L'intelligence artificielle et les langues
14. L'intelligence artificielle et la culture
15. L'intelligence artificielle et la téléphonie
16. L'intelligence artificielle et la politique
17. L'intelligence artificielle et la domotique
18. L'intelligence artificielle et l'énergie
19. L'intelligence artificielle et l'agriculture
20. L'intelligence artificielle et la sécurité
21. L'intelligence artificielle et les services publics
22. L'intelligence artificielle et les loisirs
23. L'intelligence artificielle et la fabrication / production
24. L'intelligence artificielle et la statistique
25. L'intelligence artificielle et les ressources humaines
26. L'intelligence artificielle et le marketing
27. L'intelligence artificielle et les bibliothèques (livres et documentation lato sensu)
28. L'intelligence artificielle et la cryptographie
29. L'intelligence artificielle et la comptabilité
30. L'intelligence artificielle et la construction / le BTP
*
1. L'intelligence artificielle générative
Selon Google, l'IA générative fait référence à l'utilisation de l'IA pour créer de nouveaux contenus,
comme du texte, des images, de la musique, de l'audio et des vidéos, en s'appuyant sur des modèles
de base (grands modèles d'IA ne nécessitant qu'un entraînement minimal et pouvant être adaptés à
des cas d'utilisation ciblés avec très peu d'exemples de données) capables d'effectuer plusieurs
opérations en même temps et de réaliser des tâches prêtes à l'emploi, telles que la synthèse, les
questions/réponses, la classification, etc.
À l'opposé, à la hauteur des espoirs qu'elle suscite, elle peut aussi être source d'inquiétudes et de défis
éthiques, techniques et socioéconomiques, en contribuant à des usages abusifs, accidentels ou
détournés (militaires notamment), à une suppression massive d'emploi, à une manipulation de la
population via la création de fausses nouvelles, de deepfakes ou de nudges numériques.
Elle fonctionne en utilisant des modèles d'apprentissage automatique (modèle Machine
Learning) pour créer du contenu de manière autonome. L'une des techniques les plus couramment
utilisées en IA générative est l'utilisation de réseaux de neurones artificiels : les réseaux génératifs

adverses (GAN) et les réseaux de neurones récurrents (RNN). Les GAN reposent sur une architecture
composée de deux réseaux de neurones dits concurrents : un générateur qui crée une image et la
transmet à un discriminateur qui détermine si l'image est réelle ou synthétique. Quant aux RNN, ils
sont le plus souvent utilisés pour générer du texte ou de la musique.
Elle peut servir pour alimenter la création artistique, en générant de l'art visuel, de la musique, de la
littérature et d'autres formes d'expression artistique ; améliorer la création de contenu en aidant les
rédacteurs à générer du contenu rédactionnel, tels que des articles, des rapports ou même des scripts
pour la création de vidéos ; créer des mondes virtuels, des personnages et des scénarios dans des jeux
vidéo et des simulations ; personnaliser l'expérience utilisateur en tenant compte des préférences
individuelles de chaque utilisateur ; générer des données de test en informatique ou en science ; coder
des programmes simples, etc. etc. [Début]
*
2. L'intelligence artificielle agentique
Contrairement à l'IA générative, qui se concentre principalement sur la création de contenu, l'IA
agentique représente une approche plus complexe et dynamique de l'intelligence artificielle : elle est
conçue pour prendre des décisions autonomes, poursuivre des objectifs complexes, s'adapter à des
environnements changeants et prendre des mesures proactives plutôt que réactives en vue
d'atteindre des objectifs spécifiques, élaborer des stratégies, planifier et exécuter des tâches en
plusieurs étapes avec une autonomie allant au-delà de la simple reconnaissance de modèles.
En favorisant les actions suivantes :
• Efficacité et évolutivité améliorées des processus
• Automatisation des flux de travail complexes
• Évolutivité des performances
• Réponse rapide et adaptabilité
• Soutien des rôles humains
• Automatisation des tâches répétitives
• Soutien de la prise de décision
• Expériences client personnalisées
• Collaboration et communication
• Créativité et innovation, etc.
l’IA agentique libère des employés qui peuvent se concentrer sur des tâches à forte valeur ajoutée.
Basée sur le déploiement d'agents IA autonomes, l'IA agentique est destinée à transformer la
productivité des entreprises. [Début]
*
3. L'intelligence artificielle autonome
L'avenir de l'IA : autonome signifie que le système exécute, sans intervention humaine
supplémentaire, différentes actions en vue d'obtenir un résultat attendu. Toutefois les machines -

voire les objets, ou les robots - deviennent ainsi des agents totalement indépendants, avec le risque
de comportements imprévisibles.
Cela peut bien sûr engendrer des défis et des risques, outre soulever des questions éthiques
(responsabilité en cas d’accident ou de discrimination) en provoquant des pertes d’emplois dans
certains secteurs, son utilisation n'étant pas neutre en termes de sécurité et de cybersécurité
(systèmes ciblés par des cyberattaques), ou de mise en place nécessaire de cadres de contrôle et de
gouvernance.
2025 semble être l'année des "agents IA autonomes" :

Types d'agents auxquels nous en ajouterons un cinquième, les agents apprenants, composés de
quatre fonctions principales :
• L'apprentissage améliore les connaissances de l’agent en apprenant de l’environnement par
le biais de ses préceptes et capteurs.
• La critique fournit un retour à l’agent sur la qualité de ses réponses par rapport à la norme de
performance.
• La performance est responsable de la sélection des actions à partir de l’apprentissage acquis.
• Le générateur de problème crée diverses propositions d’actions à entreprendre.
Tout ceci ne va pas sans risques, liés à la complexité informatique, aux dépendances multi-agents ou
à des boucles de rétroaction infinies...
Voir un exemple de construction d'un système autonome multi-agents en partant de zéro. [Début]
*
4. L'intelligence artificielle et l'interaction homme-machine
L'intelligence artificielle autonome est appelée à profondément redéfinir l'interaction homme-
machine, notamment les interfaces utilisateurs (humain-machine et humain-robot).
Dans sa leçon inaugurale, prononcée au Collège de France le jeudi 24 février 2022 (Réimaginer nos
interactions avec le monde numérique), Wendy E. Mackay précise que l’interaction humain-machine
consiste à augmenter les capacités humaines grâce à celles de la machine.
C'est exactement la même logique que celle décrite plus haut à propos de l'IA,
une prosthesis destinée non pas à remplacer notre intelligence, mais à la fortifier pour l'aider à
prendre de bonnes (meilleures) décisions...
Selon Mme Mackay, il s'agit de trouver le compromis entre puissance et simplicité :

Du point de vue de la conception, le défi de la recherche en interaction humain-machine est
d’augmenter les capacités humaines en fournissant une plus grande puissance d’expression, tout en
maintenant la simplicité d’expression. Mais faire simple, c’est compliqué ! (...) [U]ne technologie
simple à utiliser n’est souvent pas très puissante, tandis qu’une technologie très puissante est souvent
difficile à utiliser.
Or l'IA étant une technologie extrêmement puissante, dynamique et évolutive, le postulat est qu'elle
sera très difficile à utiliser de manière simple. Le compromis n'est plus seulement entre puissance et
simplicité, mais entre avantages et défis, ce qui rend indispensable de mener une réflexion critique
sur la manière dont nous adoptons et intégrons ces technologies, dans les différents secteurs. [Début]
*
5. L'intelligence artificielle et la bancassurance
Sur le rôle essentiel de l'intelligence artificielle dans le secteur bancaire, Google explique que l'IA
améliore l'analyse des données, l'engagement client, prédit les tendances et les risques de fraude, et
permet à divers secteurs bancaires, y compris les banques de détail, commerciales et
d'investissement, de comprendre en profondeur les dynamiques du marché et les comportements des
clients, d'analyser les interactions numériques et d'offrir un engagement comparable à l'intelligence
et aux interactions humaines, mais à une échelle beaucoup plus grande.
Selon IBM, l’avènement des technologies IA accentue l’importance de la transformation numérique,
en ayant le potentiel de remodeler le secteur et de rebattre les cartes de la concurrence.
D'après BPI France l’IA permet aux institutions bancaires de rivaliser avec les fintechs et d’innover
continuellement pour rester compétitives. Elle augmente l’efficacité opérationnelle en automatisant
les tâches répétitives et en optimisant les processus. L’expérience client est améliorée grâce aux
chatbots, la personnalisation des services.
Quant aux compagnies d’assurance, l’IA est tout d'abord un outil pour évaluer et analyser, en amont,
les risques qu’elles souscrivent. Et si le potentiel du marché de l’IA dans l’assurance est immense, de
nombreuses entreprises rencontrent des difficultés à accélérer son déploiement à grande échelle : les
freins principaux sont liés à des préoccupations autour de la sécurité des données, de la conformité
aux réglementations locales, et de l’éthique dans l’utilisation des algorithmes.
L'univers des nouveaux acteurs de l'assurance est déjà plutôt encombré !

Un aspect commun à la banque et à l'assurance sont également les concepts de connaissance fine de
la clientèle (KYC = Know your customer), d'intégration des clients ou encore de lutte contre le

blanchiment de capitaux et le financement du terrorisme (LCB-FT), où l'IA apporte des changements
considérables, sous réserve d'un entraînement correct des systèmes et d'une formation du personnel
adaptée.
Enfin, qui dit bancassurance dit aussi finance ! [Début]
*
6. L'intelligence artificielle et la finance
Dans ses recommandations pour une utilisation responsable de l’intelligence artificielle en finance,
l'Autorité des Marchés Financiers du Canada identifie dès 2021 quatre grandes fonctions de l’IA dans
ce domaine :
1. L’évaluation, pour le pointage de crédit des consommateurs par , ou la mesure de l’empreinte
ESG d’un investissement.
2. L’incitation, pour diminuer les risques comportementaux et affiner la tarification des produits
d’assurance.
3. L’optimisation, pour la construction de portefeuille ou l’amélioration des flux du travail.
4. Le conseil et l’information, pour le service à la clientèle personnalisé.
Mais la finance, c'est également la spéculation, le trading (notamment haute fréquence), les cryptos,
etc. Selon le FMI (voir chapitre 3), l’IA pourrait provoquer d’importants bouleversements dans la
structure des marchés sous l’effet d’une utilisation plus répandue et plus puissante de la négociation
algorithmique ainsi que de nouvelles stratégies de trading et d’investissement.
Points positifs :
• Réduction (et meilleure gestion) des risques pour la stabilité financière
• Augmentation de la liquidité des marchés
• Amélioration de la surveillance des marchés par les autorités de réglementation et par les
acteurs de marché
Points négatifs :
• Apparition de nouveaux risques
• Accélération des opérations et augmentation de la volatilité en période de tension
• Opacité et difficultés majeures en matière de surveillance des institutions financières non
bancaires
• Accentuation des risques opérationnels en raison de la dépendance vis-à-vis d’une poignée
de grands prestataires tiers en services d’IA
• Aggravation des cyber-risques et des risques de manipulation des cours de marchés
Quant aux dispositifs réglementaires existants, ils apportent une protection contre bon nombre de ces
risques, mais l’avenir pourrait donner lieu à de nouvelles évolutions qui n’avaient pas été
anticipées. Conditionnel !

Côté cryptos, le secteur est en pleine effervescence, et l'avertissement est toujours valable : la
négociation de cryptomonnaies comporte un niveau de risque élevé, et peut ne pas convenir à tous. Il
est recommandé de pleinement s’informer des risques associés, et de n’investir que des sommes que
l'on peut se permettre de perdre... [Début]
*
7. L'intelligence artificielle et l'immobilier
Vous connaissiez les acteurs Fintech, Assurtech, EdTech et autres BioTech ou FoodTech, et bien voici
venus ceux de la Proptech : contraction des mots anglais Property (biens immobiliers)
et Technology (technologie). Cela englobe un large éventail de technologies, allant des plateformes
en ligne pour la recherche de biens immobiliers et la gestion immobilière aux solutions basées sur l’IA
pour l’évaluation des biens, en passant par les outils de réalité virtuelle pour la visite de propriétés à
distance.
Exemple immédiat d'impact sur l'emploi : une agence de Singapour lance un service d'intelligence
artificielle qui remplace les agents immobiliers traditionnels, offrant des services à moindre coût et
simplifiant la recherche de logement.
Mais là encore, ce n'est que le sommet de la partie émergée de l'iceberg ! Selon Les Échos, en
partenariat avec l'agence d'architecture PCA-STREAM et le groupe d'ingénierie Artelia, le gestionnaire
de patrimoine de Groupama a lancé la chaire Ville métabolisme, inaugurée le 5 février 2024 à
l'Université PSL (Paris Sciences & Lettres), autour de six axes de recherche fondamentale :
1. La ville comme système vivant, approche analogique
2. Étudier l’évolution des villes et la coexistence de strates
3. Maintenir en vie, maintenir en état de fonctionnement
4. Évaluer la « bonne santé » des villes et la qualité de vie des habitants
5. Normes et gouvernance : approches réflexives
6. La recherche-création et l’exploration du champ des possibles
« Chacun des six axes de recherche interdisciplinaires formulera sa propre réflexion sur l'IA afin de
recueillir de nouvelles données et d'enrichir ses connaissances sur la ville et son
environnement », annonce Étienne Riot, directeur de la recherche appliquée et de l'innovation
chez PCA-STREAM. L'avenir de l'IA se jouera, aussi, sur les terrains politique et social.
Conclusion
L’intelligence artificielle marque un tournant décisif pour le secteur immobilier, en réinventant chaque
étape du processus, de la recherche d’un bien à la finalisation des transactions. Plus qu’un simple outil
d’optimisation, elle devient un moteur d’innovation qui façonne un marché plus agile, plus
transparent et plus accessible. L’intelligence artificielle n’est plus une simple tendance, mais une
révolution en marche qui redéfinit les standards du marché. [Début]
*
8. L'intelligence artificielle et le commerce
L'intelligence artificielle transforme de nombreux secteurs (pour ne pas dire tous), et le commerce ne
fait pas exception : de la personnalisation des expériences client à l’optimisation de la chaîne

d’approvisionnement, l’IA redéfinit la manière dont les entreprises opèrent et interagissent avec leurs
clients.
De la vente au détail au commerce international, du parcours client au e-commerce, etc., les
évolutions sont profondes, les boutiques en ligne, disponibles 24/7/365 (souvent dans les principales
langues), bénéficient de l'apport des outils IA, outre le contenu généré automatiquement :
• Moteurs de recommandations
• Outils de tarification dynamique
• Chatbots pour le service client
• Outils de segmentation de la clientèle
• Systèmes logistiques intelligents
• Prévision des ventes et de la demande
• Optimisation de la recherche vocale
• Recherche visuelle
• Identification des fausses évaluations
• Détection et prévention des fraudes
• Prise de décision en temps réel
• Efficacité marketing accrue
• Sécurité renforcée
• Efficacité opérationnelle
• Rentabilité
• Etc. etc.
en permettant ainsi d’analyser un très grand nombre de produits, de prix ou de comportements de
consommateurs.
Mais cela s'applique aussi au commerce physique, notamment avec le smart phygital (terme
désignant le phénomène par lequel les points de vente physique intègrent les techniques et ressources
numériques afin d’assurer le développement de leur activité).
Le rythme exponentiel de cette transformation du commerce par l’intelligence artificielle change la
donne à tous les niveaux, en réduisant les coûts, en remodelant les échanges de services, en
augmentant le commerce des marchandises et des services et en redéfinissant les avantages
comparatifs des économies. Un bouleversement qui n'en est qu'à ses débuts... [Début]
*
9. L'intelligence artificielle et le droit
Comme les précédents acteurs, ceux de la LegalTech ont le vent en poupe, en rendant les services
juridiques plus accessibles, plus efficaces et souvent moins coûteux. Pour autant, l'impact de
l'intelligence artificielle sur le droit et les professions du droit va bien au-delà de la

seule dématérialisation : dans certains tribunaux, par exemple, l’IA a été utilisée pour prédire le taux
d’innocence des accusés. Les résultats ont été surprenants : les algorithmes d’apprentissage
automatique étaient plus précis que les humains pour prédire qui était susceptible d’être innocent et
méritait donc d’être libéré de prison avant le procès.
Il est clair que les implications sont énormes, de même que les risques pour les droits
fondamentaux !
Dans un billet publié en mars 2016, je m'intéressais au « nouveau maintenant » de nos professions,
titre emprunté à un livre blanc de M. Bernard Lamon, intitulé Services juridiques : Innover pour
survivre au « nouveau maintenant », dans lequel l'auteur considérait que le modèle économique des
cabinets d’avocats, déjà concurrencés dans leurs activités de conseil par les experts-comptables, les
experts des banques d’affaires et des fonds d’investissement, était attaqué au cœur : ils subissent
« une très forte tension sur les chiffres d’affaires avec une remise en cause très sévère de la
facturation au taux horaire », le taux horaire laissant très progressivement la place à une facturation
au forfait, à la tâche accomplie.
Or cela était bien avant le déploiement de l'intelligence artificielle ! Aujourd'hui, en revanche, la
technologie tend à devancer l’humain en termes de compréhension et de capacités, le pouvoir tend à
glisser entre les mains des algorithmes, et les idéaux démocratiques et d’égalité devant la loi risquent
d’être remis en cause.
L'auteur de l'article (publié il y a un an), Bruno Ancel, avocat au barreau de Paris, nous signalait
également que la législation sur l'intelligence artificielle adoptée le mercredi 13 mars 2024 par le
Parlement européen, englobait aussi la justice pénale, en offrant un cadre juridique uniforme se
distinguant nettement des approches américaine et chinoise, ce qu'il définit comme une incitation à
la responsabilité algorithmique !
Cela étant, à qui est imputable une responsabilité quelconque en matière d'intelligence artificielle, ça
reste à voir... [Début]
*
10. L'intelligence artificielle et le travail
J'ai lu cette semaine l'annonce de la startup Mechanize, axée sur le développement
d'environnements de travail virtuels qui permettront l'automatisation complète des secteurs
économiques, et destinée à remplacer, PARTOUT, l'ensemble des travailleurs humains !? Le créateur
de la société a même calculé le potentiel incommensurable de "son" marché : au total, les
travailleurs américains gagnent environ 18 000 milliards de dollars par an. À l’échelle mondiale, le
chiffre, trois fois supérieur, est d'environ 60 000 milliards de dollars par an » !
C'est pas compliqué : en divisant ça par 8 milliards de terriens, on obtient un revenu de 7500 $ par an
(20,5 $/jour) et par personne, nouveau-nés et vieillards compris, dimanches et jours fériés compris.
Bon, cela dit, huit milliards de bipèdes en passe de se tourner les pouces, je vous laisse conclure par
vous-mêmes ! [Début]
À suivre...

* * *

Intelligence artificielle - Deuxième bloc


Fonctionnement d'un système d'IA
*
1. L'intelligence artificielle et les transports
À l'instar de tous les secteurs, l'IA bouleverse le monde des transports : aérien (gestion des vols),
ferroviaire (optimisation des horaires), maritime (automatisation des ports), routier (circulation
automobile) et trafic urbain (réduction des embouteillages, gestion intelligente du trafic), etc.
Aviation, aéronautique, secteur spatial

L'expérience passagers, la manutention des bagages, la maintenance préventive des appareils, la
gestion intelligente du trafic, la sécurité des aéroports, mais encore la mise au point de solutions d’IA
d’aide aux pilotes, les projets d’avions sans pilotes, les drones et la mobilité aérienne innovante,
la menace sur les emplois dans le secteur aéroportuaire, les boîtes noires, l’apprentissage
automatique utilisés pour l’exploration spatiale, etc. etc.
Chemins de fer
Mobilité ferroviaire plus intelligente et durable, maintenance prédictive pour mieux anticiper les
pannes de train, des milliers de capteurs placés sur les trains transmettent chaque jour une masse
colossale de données, traitées ensuite pour en sortir une information pertinente et fluidifier le trafic,
en transformant ces données complexes en informations exploitables (la digitalisation du rail, selon
Alstom, la deuxième révolution numérique de l'IA générative, selon la SNCF), une révolution dans la
gestion des flux (analyse des données passagers et personnalisation de l’expérience voyageurs,
optimisation des itinéraires, sécurité optimisée, prédiction de la demande et allocation des
ressources, gestion de la maintenance et du trafic en temps réel), une application à 360° de l’IA au

système intégré (comprenant des véhicules, des processus d’exploitation et des infrastructures) du
transport ferroviaire. En bref, des implications pour l'ensemble du secteur ferroviaire.
Transport de fret maritime
Optimiser les routes maritimes, réduire les consommations de carburant et les émissions de gaz à
effet de serre (GES), tracer et sécuriser les marchandises, gérer la conformité réglementaire et
technique, contrôle des flottes, capteurs de suivi des conteneurs intelligents, réduction de la vitesse
des navires (ce qui permet des économies de carburant de 10 à 25 %), etc., l’intelligence artificielle
transforme en profondeur l’industrie maritime (responsable du transport de plus de 90 % du
commerce mondial et de 3 % des émissions de gaz à effet de serre de la planète), et l'impression est
que nous n'en sommes qu'au début...
Transport routier
Des initiatives comme la bourse de fret permettent de maximiser les chargements pour assurer un
transport efficace, optimiser les trajets, réduire les coûts logistiques, pallier la pénurie de
conducteurs, améliorer la durabilité des flottes, planifier les itinéraires, etc.
L'approche centrée sur le conducteur fournit un outil prédictif pour évaluer les risques de
conduite, affiner l’analyse des comportements (juste en France, selon l’ONISR, les facteurs humains
sont impliqués dans 92 % des accidents mortels), à travers le développement de systèmes de
perception « bio-inspirés », la mise en place de capteurs perceptifs pour les aides à la conduite ou les
véhicules autonomes, là où les planificateurs humains n’ont plus la capacité d’optimiser de tête des
situations de plus en plus complexes.
Dans un marché mondial de l'aide à la conduite routière (HDA) qui devrait atteindre 37,8 milliards de
dollars d'ici 2033, le rôle de l'intelligence artificielle sera toujours plus crucial.
Trafic urbain
L'intelligence urbaine se propose de réinventer le trafic et d'améliorer la qualité de l'air au cœur des
villes, avec des impacts profonds sur la santé publique, l'économie, et l'environnement.
Les solutions et les applications sont nombreuses : systèmes intelligents de gestion de trafic (ITS),
optimisation des feux de circulation, amélioration de la logistique urbaine, mobilité en tant que
service (MaaS), sécurité et gestion des incidents, etc.
La création de jumeaux numériques géospatiaux promet de façonner l’avenir de la vie urbaine, de
même que les innombrables innovations de l'IA dans le monde des transports, stimulées par les
progrès technologiques et l'évolution des attentes des consommateurs, porteront rapidement à
de nouveaux cas d’usage dont l’impact ira grandissant, à condition d’anticiper les problématiques de
transparence, d'éthique et de responsabilité induites par ce bouleversement technologique. [Début]
*
2. L'intelligence artificielle et la logistique
La logistique est probablement l'un des domaines où la plupart des entreprises ont recours à l'IA, à
diverses fins : prévision de la demande, planification des expéditions, visibilité des itinéraires, temps
de transit, optimisation de l'entreposage, état des cargaisons, perturbations potentielles et
transporteurs alternatifs, assistance conversationnelle basée sur l'IA pour répondre aux questions
fréquentes des clients, analyse des réclamations, transmission des données pertinentes aux équipes
concernées, etc.

La logistique intelligente exploite les dispositifs de l'Internet des Objets (IdO) (on parle désormais
d'intelligence artificielle des objets - AIoT), tels que les capteurs, les étiquettes d’identification par
radiofréquence (RFID) ou les étagères intelligentes pour superviser l'état et les niveaux d'inventaire
en temps réel, etc., pour optimiser la chaîne d’approvisionnement, réduire les coûts et améliorer
l’efficacité de la production.
De l'automatisation des entrepôts à la grande distribution (l'un des secteurs les plus concernés par
la gestion des stocks, de nombreux usages possibles), les avantages de l’IA sont nombreux :
• Précision optimisée
• Économies de coûts
• Efficacité accrue
• Satisfaction des clients améliorée
• Évolutivité
• Prise de décision éclairée
La révolution est en marche... [Début]
*
3. L'intelligence artificielle et la voiture
À la croisée des transports et de la logistique, voitures autonomes sans conducteur et gestion
automatisée de flottes de véhicules utilisent des agents IA pour analyser l’environnement en temps
réel et ajuster la conduite selon le trafic ou les obstacles, afin d'optimiser une navigation
sécurisée, sans intervention humaine. Mais les projets ne s'arrêtent pas là : taxis aériens autonomes,
déjà autorisés, livraisons autonomes (avant on avait des chauffeurs-livreurs, désormais il n'y aura
plus ni chauffeurs ni livreurs...), itinéraires calculés par l'IA sous la dénomination de planificateurs de
trajets, bientôt individuels :
Le planificateur apprendra automatiquement de l’expérience des recharges passées pour mieux
identifier les plages où les meilleures conditions de charge sont réunies, non seulement en fonction du
modèle, mais du véhicule spécifique. En d’autres termes, nous préparons un planificateur taillé sur
mesure pour chaque électromobiliste.
Côté réglementation, le déploiement des véhicules autonomes se heurte encore à la Convention de
Vienne (1977), dont l'article 8-1 impose la présence d'un conducteur, l'article 8-5 ajoute que ce
dernier doit avoir le contrôle de son véhicule, et l'article 8-15 précise que le conducteur doit en
rester maître. Règles aisément contournables en assimilant une IA à un humain (exemple de
la Californie) ! Mais soyons assurés que le cadre réglementaire ne sera pas un problème bien
longtemps...
En matière de gestion du parc automobile, différents logiciels se concurrencent, il n'y a
que l'embarras du choix. L'intelligence artificielle aussi y apporte sa touche, et l'impact se fait
sentir ! [Début]
*
4. L'intelligence artificielle et la robotique
L'IA et la robotique semblent faits sur mesure l'une pour l'autre ! Ce qui ne va pas sans susciter
quelques craintes : menaces pour l'emploi, dysfonctionnements, piratages, etc., mais leur point
commun est que les robots opèrent aussi dans des secteurs investis par l'IA : robotique dans

l'industrie en général, les véhicules autonomes, la santé, l’agriculture, la fabrication, la défense,
l’aérospatiale (exploration spatiale mais aussi sous-marine), la restauration, etc.
Donc, lorsque ces derniers intègrent la première, ils apprennent à prendre des décisions de manière
autonome (avec des temps d'apprentissage pouvant être extrêmement rapides) et à s’adapter à leur
environnement. Pour ne citer qu'un exemple, certains entrepôts "intelligents" d'Amazon sont
presque entièrement robotisés : pas de maladies, pas de grèves, pas de réclamations, bien qu'on y
voie passer un humain de temps en temps...
Cela n'empêche pas certains de penser que les perspectives pour l'humanité sont prometteuses !
Moi qui ai le temps d'écrire ces billets parce que j'ai de moins en moins de travail à cause des IA
traductionnelles, je n'en suis pas si sûr :-) [Début]
*
5. L'intelligence artificielle et la domotique
Avant Internet, j'achetais des dictionnaires pour les besoins de mon métier. C'est ainsi qu'en 1990 je
me suis procuré le Dictionnaire de domotique (sous la direction de Witold Zaniewicki), Éditeur :
Milieu et techniques (Paris), diffusion Eyrolles, payé 750 FF de l'époque (un peu plus de 200€ à
l'heure actuelle !).

Par curiosité, j'ai été voir si le concept d'intelligence artificielle était déjà défini. Oui :
Discipline, issue des courants de la cybernétique et de l’analyse de systèmes, reposant sur la
simulation de certains processus du raisonnement humain par des procédures automatiques de
recherche de solution de problèmes formels – ces procédures étant exécutées par des programmes
d’ordinateur ; principaux domaines d’application : apprentissage de jeux, démonstration de
théorèmes, diagnostic médical, reconnaissance de formes, synthèse de la parole ; si les recherches en
intelligence artificielle, concomitantes avec le développement de systèmes-experts de plus en plus
performants, proviennent de l’observation et de la représentation que l’on se fait de l’intelligence
humaine, il faut aussi remarquer que la réciproque est vraie et que les innovations permanentes dans
ce domaine modifient et font reculer la définition de l’intelligence humaine, c’est-à-dire les limites de
sa spécificité par rapport à la machine et aux mécanismes ; ainsi peut-on concevoir les futurs
développements de la domotique…
Une très belle définition, qui nous permet de mesurer, 35 ans plus tard, l'écart incroyable entre ce
que l'IA représentait à l'époque et ce que ces 4 billets (2 encore à venir...) en disent - brièvement -
aujourd'hui.

Le dictionnaire définissait également la "maison intelligente", ce qu'était un "produit intelligent",
mais encore l'immotique ou ce qu'était un "immeuble intelligent".
En 2025 l'évolution de la domotique est inarrêtable, et lorsque l'intelligence artificielle
domestique vient se greffer sur les maisons connectées (ou sur les objets connectés d'une manière
générale), la "maison intelligente" (ou le "bâtiment intelligent" / son "jumeau numérique")
devient domotique résidentielle, en attendant la "ville intelligente" ! Nous avons vraiment changé
d'échelle, mais n'en sommes qu'aux premiers ... échelons ! [Début]
*
6. L'intelligence artificielle et l'informatique
Initialement, l'intelligence artificielle était une branche de l'informatique ! Peut-on encore en dire
autant aujourd'hui ? Je pense plutôt qu'elle s'en est émancipée et que la première va transformer la
seconde. Probablement jusqu'à ce que la quatrième révolution civisationnelle "révolutionne"
la troisième, qu'à son tour l'informatique quantique transforme l'IA...
En attendant, l'IA réinvente l'informatique, dans les petites et les grandes largeurs, de
la programmation au développement en passant par la génération de code (générateurs) : « L'IA va
écrire 80 % du code d’ici 5 ans », selon Thomas Dohmke (PDG de GitHub).

Tariq Krim nous en parlait déjà dans Quand le logiciel cessera d’obéir (Nous ne sommes pas encore
prêts pour ce qui vient après le logiciel déterministe), en annonçant un changement d’une ampleur
inédite dans la conception des architectures des systèmes d’IA, et il est loin d’être certain que la
majorité d’entre nous en mesure pleinement l’importance — et surtout l’impact radical que cela va
avoir sur la manière dont nous écrivons des logiciels.
Il est intéressant d'observer que la conceptualisation de l'intelligence artificielle remonte aux années
50, c'est-à-dire à la même époque que la création des premiers ordinateurs. Or à présent que
l'informatique traditionnelle a acquis sa pleine maturité et serait plutôt sur le déclin, l'IA est au
contraire en pleine phase de lancement et entame tout juste sa croissance !

Dire que l'informatique est sur le déclin est probablement exagéré, mais quoi qu'il en soit les
ordinateurs tels que nous les connaissons pourraient bien laisser la place à la téléphonie mobile
intelligente... [Début]
*
7. L'intelligence artificielle et la téléphonie
Au niveau individuel, de plus en plus de nouveaux modèles de smartphones intègrent l’intelligence
artificielle pour offrir des fonctionnalités avancées. Nous allons dans le sens de la prévision d'Eric
Schmidt : que se passera-t-il lorsque les mobiles mettront dans la poche de chacun de nous
l'équivalent du plus intelligent des experts humains pour chaque problème ?
Probable que les principales fonctions actuellement permises par l'IA :
• Assistants virtuels et intelligence contextuelle
• Photographie améliorée
• Performances et gestion de la batterie optimisées
• Sécurité et reconnaissance faciale
• Amélioration de l’accessibilité et des interactions
• Traduction/interprétation dans plusieurs langues
• Synthèse rapide de documents pour ne retenir que les informations importantes
nous sembleront demain de simples gadgets auxquels plus personne ne prête attention.
Au niveau de l'entreprise, l’intelligence artificielle s’impose comme un nouvel étage stratégique dans
la téléphonie cloud et déploie toute son influence transformatrice :
1. SVI intelligents (serveurs vocaux interactifs)
2. Conversations analysées en temps réel
3. Assistants IA d'accompagnement des collaborateurs
4. Personnalisation affinée des interactions et de l'expérience client
5. Automatisation des tâches
6. Amélioration de la qualité des appels
7. Résolution des problèmes, etc.
En clair, l'IA dessine un avenir incontournable dans le secteur des télécommunications. Les
opérateurs télécom ne s'y trompent pas et investissent massivement, y compris dans la sécurité, un
autre enjeu majeur pour l’industrie... [Début]
*
8. L'intelligence artificielle et la sécurité

Les deux faces du binôme intelligence artificielle - sécurité sont 1) la sécurité de l'intelligence
artificielle, et 2) la sécurité par l'intelligence artificielle.
1) La sécurité de l'intelligence artificielle
Toute utilisation abusive, voire malfaisante, de l'IA peut vite s'avérer très problématique. Selon Eric
Schmidt, il existe de nombreuses preuves que, s'ils ne sont pas contrôlés, les nouveaux modèles d'IA
peuvent produire des agents pathogènes, notamment des virus, juste en prenant des souches
existantes et en les modifiant. Pour l'heure personne ne sait, ni ne peut imaginer, jusqu'où cela nous
mènerait. L'exemple d'une pandémie vient immédiatement à l'esprit, mais le bioterrorisme n'est
qu'une menace parmi tant d'autres...
Le rapport 2025 sur la sécurité de l'IA (version intégrale en anglais), premier du genre, évoque un
cadre mondial en construction.
En vous invitant vivement à lire en détail la note de synthèse, en français, je vous en livre juste la
conclusion (c'est moi qui souligne en graissant) :
L’avenir de l’IA à usage général est incertain, dans un contexte où de nombreuses trajectoires
paraissent possibles, même dans un avenir proche, avec des résultats parfois très positifs, parfois
très négatifs. Mais aucun aspect de l’avenir de l’IA à usage général n’est inévitable. Comment l’IA à
usage général sera développée et par qui, quels problèmes sera-t-elle conçue pour résoudre, les
sociétés pourront-elles en extraire pleinement le potentiel économique, qui en bénéficiera, à quels
types de risques nous exposons-nous et quelles sommes investirons-nous dans la recherche pour en
atténuer les risques ? Ces questions, comme un tas d’autres dépendent des choix que font les
sociétés et gouvernements aujourd’hui et qu’ils feront demain pour façonner le développement de
l’IA à usage général.
Quoi qu'il en soit, l'AI safety est promise à un bel avenir !
2) La sécurité par l'intelligence artificielle
Faisons donc confiance à notre prochain, ne serait-ce qu'une seconde, et voyons ce que l'intelligence
artificielle peut faire POUR la sécurité. Notamment en matière de sécurité de l’information,
de détection des menaces, de fraudes, de deepfakes, d'hallucinations, de cybersécurité, voire en
sécurité informatique dans le monde nucléaire.
Par exemple, dans le cas de la prévention des pertes de données (DLP) dans le cloud, le pilotage par
l'IA permet de comprendre et d'analyser en profondeur le contenu des pages d'un document pour
détecter les informations personnelles identifiables (PII) et les informations de santé protégées (PHI)
et en empêcher ainsi toute fuite indésirable. De fait, automatiser l'analyse des menaces permet de
mieux les contrer, à temps si possible !
Manifestement, le pendant de ce qui précède est ce que l'intelligence artificielle peut faire CONTRE
la sécurité, outre les risques qu'elle fait peser sur les organisations publiques et privées en termes de
désinformation, de manipulation et d’escroqueries diverses.
Enfin, dans le domaine de la sécurité, il y a une convergence naturelle entre intelligence artificielle et
intelligence économique, raison pour laquelle les experts en intelligence artificielle devraient
désormais être intégrés aux métiers de l'intelligence économique tout court :

Source : EGE
Sur ce 8
e
point, il est évident que les termes sécurité/sûreté sont interchangeables. [Début]
*
9. L'intelligence artificielle et la cryptographie
La fusion de l'IA et de la cryptographie avancée inaugure une ère nouvelle dans la lutte contre la
cybercriminalité et le Dark Web. Ce point est étroitement lié au précédent, bien que cette alliance
puisse parfois déboucher sur des résultats surprenants et décrypter de vieilles énigmes !

Il ne reste plus qu'à associer l'informatique quantique au binôme intelligence artificielle-
cryptographie, et la sécurité des données numériques, et pléthoriques, devrait faire un grand bond
en avant. On va même passer direct au chiffrement quantique...
Cela pourrait être déterminant pour le chiffrement des cartes bancaires, les signatures électroniques
et les communications sécurisées sur Internet, autant d'opérations vitales pour toute personne
vivant dans un régime totalitaire et qui ne plaît pas au régime. Or qui est-ce qui est en train
de développer un super-ordinateur quantique ? La Chine ! [Début]
*
10. L'intelligence artificielle et le militaire

Je n'ai pas choisi l'argument le plus marrant pour terminer ce second bloc ! Par contre il est logique
de le traiter après la sécurité et la cryptographie, vu que les militaires ont toujours été en pointe dans
ces domaines. Rappelons que nous devons la naissance d'Internet à l'Agence américaine pour les
projets de recherche avancée de défense (DARPA : Defense Advanced Research Projects Agency),
chargée de développer de nouvelles technologies à usage militaire...
Une récente publication de l'ONISTS (Observatoire national de veille stratégique des innovations
scientifiques et des technologies de rupture pour la sécurité intérieure) nous signale la sortie d'un
rapport de l'UNIDI (Institut des Nations-Unies pour la Recherche sur le Désarmement), en précisant :
L'intelligence artificielle ramenée au domaine militaire est souvent liée à des sujets d'autonomie ou à
des systèmes d'armes qui demeurent des question très importantes, mais ces domaines ne
représentent qu'une très petite partie de l'éventail des applications militaires possibles de
l'intelligence artificielle.
Je cite :
• Contrôle des drones et des robots militaires pour des missions de surveillance et de
reconnaissance
• Prévention des attaques
• Assistance au commandement et proposition de solutions stratégiques
• Gestion des approvisionnements et de la logistique
• Optimisation des itinéraires de transport et des déploiements de forces sur le terrain
• Planification des stocks de matériel et de fournitures et des mouvements de personnel et de
matériel
• Développement de nouvelles technologies de drones et de robots autonomes
Il est certain que les armes restent la chasse gardée (si l'on peut dire) des militaires, mais de
telles innovations utilisées à des fins militaires, entre les mains de régimes autoritaires tels que la
Chine, la Russie ou de dictatures comme la Corée du Nord, représentent une menace
significative... [Début]

* * *

Intelligence artificielle - Troisième bloc

1. L'intelligence artificielle et la politique
Le mercredi 3 mai 2023, Libération titrait en une « Intelligence artificielle et politique : les liaisons
dangereuses ».

Popularisation de ChatGPT, diffusion de fausses images, accélération des techniques de propagande...
L'irruption de l'IA bouleverse déjà le monde politique, qui redoute son influence sur la présidentielle
de 2027.
Et une ingérence dans les processus démocratiques, les quatre pages d'articles successives (2-5)
étant totalement à charge de l'IA. Or deux ans ont passé, nous sommes à mi-chemin de l'élection
présidentielle et qu'a fait la politique depuis pour affronter la question ? Rien...
Si ce n'est la publication d'un beau rapport, le 13 mars 2024, intitulé « IA : notre ambition pour la
France », où Macron partage sa volonté affichée de faire du pays un champion de l'IA, parfaitement
conscient de la situation, où les rapporteurs écrivent noir sur blanc de bien belles paroles, à partir de
la page 54, point 1.7, L’IA peut-elle nuire à la qualité de l’information ? :
Or, l’IA a le potentiel de mettre en cause l’activité des entreprises de presse et par conséquent le rôle
fondamental qu’elles jouent dans la production d’une information fiable et pluraliste. De nouveaux
médias à base exclusive d’IA, sans respect de ces responsabilités, cherchent déjà à se positionner
comme concurrents des médias « traditionnels ». Des sites fournissent des informations non fiables,
générées par des IA et portant souvent des noms destinés à faire croire qu’il s’agit de contenus
produits par des journalistes. S’ajoutent des robots plagiaires qui utilisent de manière irrégulière les
contenus publiés par les médias traditionnels pour produire des articles, sans créditer leurs sources et
sans rémunération.
Le cadre est posé. À quand un numéro vert ? Comme l'observe Tariq Krim :
À deux ans de la prochaine élection présidentielle, les politiques numériques de l’État français
semblent désormais en pilotage automatique.
• Absence de vision claire : aucune doctrine numérique forte n’est portée par le gouvernement.
Les grands outils comme France 2030 ou la BPI sont en train de se réorienter vers les secteurs
défense et souveraineté après avoir joué la carte de la réindustrialisation, mais il va falloir du
temps pour que cette stratégie porte ses fruits.
• Stratégie du risque politique zéro : pour l’instant, on cherche à gagner du temps pour
masquer la sidération face à la politique économique et diplomatique des US.
Donc, il est vrai que ChatGPT peut servir de « super-propagateur d'infox », que les images
peuvent informer ou désinformer, et l’IA doper les arnaques et la propagande en ligne, etc., mais
c'est exactement la même chose pour chacun des 40 binômes « Intelligence artificielle et... » que je
traite dans mes billets : tous se prêtent à une simple analyse SWOT pour identifier forces, faiblesses,
opportunités et menaces, pour trouver un équilibre entre positif et négatif, et d'une manière
générale les parties prenantes préfèrent de loin mettre en avant le positif.
La politique, non ! C'est tout le contraire. Pourquoi ? Avez-vous jamais entendu Retailleau dire un
seul mot positif sur l'immigration ? Et pourtant...

Dissertation. Prenez, au choix, l'un des cinq sujets problématisés par ChatGPT, vous avez quatre
heures :
1. L’intelligence artificielle peut-elle améliorer le processus démocratique ou constitue-t-elle une
menace pour la démocratie ?
2. L’intelligence artificielle remet-elle en question la souveraineté des États ?
3. L’intelligence artificielle permet-elle une gouvernance plus efficace ou accentue-t-elle les
inégalités politiques ?
4. Peut-on confier des décisions politiques à une intelligence artificielle ?
5. L’intelligence artificielle transforme-t-elle la manière de faire campagne et de
gouverner ? [Début]
*
2. L'intelligence artificielle et la statistique
Habituellement, lorsque l'on parle de statistiques on pense "sondages" ! Ou à la rigueur "chiffres"
auxquels on fait dire tout et son contraire, ça dépend du moment et des humeurs... Mais qui dit
"sondages" dit aussi "élections" et donc "vote".
L'IA influence-t-elle les électeurs ? C'est évident ! Mais ni plus ni moins que les sondages avant elle,
qui se satisfaisaient fort bien des médias dominants (télé, radio, presse, etc.) pour manipuler
l'opinion publique à l'envi... Il est d'ailleurs intéressant de comparer la liste des milliardaires
propriétaires de tous les médias qui comptent, aux noms des acteurs qui possèdent les principaux
instituts de sondage : surprise, beaucoup se recoupent (groupes Bolloré, Pinault, Arnault, Saadé,
Dassault, Bouygues, Niel, Drahi, Amaury, Havas, Lagardère, Rothschild, Medef, Fidelity, Kretinsky,
Stérin, etc.), la plupart étant plus ou moins des soutiens enthousiastes de Macron, par ailleurs.
Donc l'IA est un outil puissant, certes, mais rien de nouveau sous le soleil.
N'oublions pas que d'autres applications impliquent l'intelligence artificielle et la statistique, comme
les algorithmes génétiques, la finance, les indices de prix, les SIG, les grandes cohortes de données en
santé, etc.
Il n'y a pas que la politique dans la vie ! [Début]
*
3. L'intelligence artificielle et la santé
Il y a aussi la santé !
L'Institut national de la santé et de la recherche médicale (INSERM) nous propose une excellente
introduction en la matière, à lire absolument pour mieux comprendre, en profondeur, de quoi il
s'agit.
Les implications de l'IA pour la santé ont une portée gigantesque, un billet de 100 pages ne suffirait
pas à épuiser le sujet. Pour ne parler que du cancer, le potentiel en termes de prévention, de
détection et de personnalisation des traitements fait naître d'immenses espoirs chez les patients et
les médecins. Plus de 160 000 décès chaque année en France à cause du cancer, près de 20 millions
de cas diagnostiqués sur un an dans le monde (dont la moitié à peu près décèdent), la maladie
cancéreuse produit une quantité considérable de données (outre que de souffrances...) :

Ces grands volumes de données posent des problèmes d’archivage dans la durée, d’administration de
bases de données gigantesques, centralisées ou réparties. Les autres défis autour des données sont la
centralisation et le croisement de sources multiples, l’interopérabilité, le partage entre structures
hospitalières et la ville, le contrôle de la qualité, le lien entre clinique, images et omiques, la sécurité
des bases de données et la protection des personnes.
Un challenge difficile à surmonter est l’utilisation du traitement automatique du langage naturel afin
d’exploiter la richesse des informations contenues dans les dossiers médicaux en données utilisables
pour la recherche dans une modélisation partagée de la maladie selon des standards internationaux.
(blanc)
L’IA permet parfois de faire aussi bien et plus vite ce que sait faire un cerveau humain : reconnaître
une tumeur ou compter les cellules. Mais l’IA, c’est aller au-delà de ce qu’un cerveau humain est
capable de faire grâce à la puissance des machines en analysant des quantités de données
considérables. Ainsi, le codage automatique de centaines de milliers de comptes rendus médicaux,
l’étude quantitative des données à l’origine des images ou l’interprétation automatique du
transcriptome illustrent les apports de l’IA avec des résultats jusque-là inatteignables. Il ne s’agit
plus d’outils qui aident ou remplacent le médecin mais d’outils qui permettent d’aller plus loin dans
la recherche, les soins et la compréhension de la maladie.
Résumé d’une communication présentée lors de la journée dédiée « Médecine et intelligence
artificielle » du mardi 3 mai 2022 à l’occasion de la parution de l’ouvrage : « Nordlinger B, Villani C, de
Fresnoye O Dir. Médecine et intelligence artificielle. Paris : CNRS éditions, 2022 ».
La dernière partie que j'ai soulignée est fondamentale et peut pratiquement s'appliquer à toutes les
disciplines en matière de santé ! [Début]
*
4. L'intelligence artificielle et l'environnement
Les problèmes de santé ont une origine à la fois endogène, nous les portons en nous, et exogène, à
savoir qu'ils sont provoqués par des facteurs externes, dont notre environnement.
Chaque jour il est question de transition écologique, de green deal, de biodiversité, de responsabilité
environnementale, etc., désormais l'intelligence artificielle devient durable, voir la feuille de
route internationale pour le lancement de la coalition mondiale (février 2025), et naturellement,
l'intelligence artificielle a son mot à dire sur chacun des objectifs de développement durable de
l'agenda 2030, bien fourni :

Au début du mois s'est déroulé au Rwanda le sommet mondial sur l'intelligence artificielle en
Afrique, qui s'est conclu par une Déclaration Africaine sur l'Intelligence Artificielle, dont les objectifs :
• Exploiter le potentiel de l'IA pour stimuler l'innovation et la compétitivité afin de faire
progresser les économies, les industries, et les sociétés africaines.
• Positionner l'Afrique comme un leader mondial dans l'adoption d'une IA éthique, fiable, et
inclusive.
• Favoriser la conception, le développement, le déploiement, l'utilisation, et la gouvernance
durables et responsables des technologies d'IA en Afrique.
s'accompagnent des engagements suivants :
• Initiatives d'éducation à l'IA à l'échelle du continent avec le développement de
programmes scolaires pour les jeunes à tous les niveaux
• Programmes adaptés d'établissements d'enseignement supérieur qui fournissent des
compétences en IA compétitives au niveau mondial
• Capacité accrue de recherche en IA dans les établissements d'enseignement supérieur en
renforçant les programmes de doctorat en Afrique et en développant la capacité de
recherche grâce à des partenariats internationaux stratégiques
• Programmes qui informeront et habiliteront les citoyens à connaître les avantages et les
risques de l'IA grâce à des formations de sensibilisation et d'alphabétisation à l'IA
• Création d'un Panel Scientifique Africain sur l'IA, qui sera composé d'experts en IA
d'Afrique et de la diaspora, pour promouvoir une recherche contextuelle pertinente et
fondée sur des preuves sur les risques, les opportunités, et l'impact socio-économique de
l'IA en Afrique, fournissant une base de connaissances pour les décideurs politiques, les
chercheurs, et les praticiens
Comme on le voit, compte tenu de l'importance de l'IA à l'échelle mondiale, chaque continent,
chaque pays, tente de se positionner le mieux possible en vue d'affronter les bouleversements en
cours. [Début]
*
5. L'intelligence artificielle et la médecine / pharmacie
Dans un mois aura lieu le King’s Festival of Artificial Intelligence, avec toute une série d'événements
autour de l'IA, y compris sur la médecine, les maladies, l'accès aux données de santé : on parle ici de
médecine prédictive, de soins extrêmement précis, de diagnostics simultanés de millions de patients,
en identifiant les causes profondes de chaque malade et en tenant compte de l’intégralité de ses
antécédents cliniques, biologiques, de son mode de vie, tout en adaptant les interventions en
fonction des projections et des simulations sanitaires individualisées.
Au fur et à mesure que l'apprentissage par renforcement des modèles d'IA s'affine, ils peuvent
prendre eux-mêmes les décisions mais manquent d'explicabilité : or c'est un problème d'éthique (cfr.
les documents du Comité d'éthique de l'Inserm - CEI), mais aussi juridique, puisque les décisions
prises par le modèle engagent la responsabilité des cliniciens. Un médecin n’acceptera jamais un
diagnostic automatisé sans l’avoir lui-même validé au préalable.
Tous les aspects de la médecine sont concernés, de l'imagerie médicale aux neurosciences,
des ovocytes aux lois de bioéthique, de l'antibiorésistance à la surprescription de médicaments pour
les enfants et les adolescents, la liste est potentiellement sans fin.

Et puisqu'il est question de médicaments, arrêtons-nous un instant sur la pharmacie. Une thèse
s'interroge : l’officine, bientôt dotée d’intelligence artificielle ? Une question à laquelle a déjà
répondu, depuis quelques années déjà, la grande industrie pharmaceutique : oui !
Cela étant, les laboratoires pharmaceutiques n'ont pas toujours les compétences requises. Si l'on
prend l'exemple de Sanofi, qui n'est quand même pas le pharmacien du coin, ils ne se sont mis à l'IA
qu'en juin 2023. Car l'intégration de l'IA dans le secteur pharmaceutique implique de nombreux défis,
notamment en matière de protection des données sensibles, de conformité réglementaire et de
risques de biais dans les résultats générés par l’IA. Des premières recherches à la commercialisation
du médicament, il faut compter entre 12 et 15 ans !
En intégrant l'IA, l'ambition de Sanofi est de réduire cette durée de moitié. Au mois de mai 2024, ils
ont lancé le programme Muse, en partenariat avec OpenAI et FormationBio (voir comment se
déroule le déploiement de Muse, ici et là), qui vise à recruter des patients pour les essais cliniques,
tout en réduisant les délais de recrutement. Concrètement, l’outil analyse le contexte (maladie,
traitements existants), identifie les profils des patients idéaux, puis élabore des stratégies de
recrutement à l’aide de documents et de questionnaires personnalisés pour chaque population
visée. L’objectif étant d'augmenter la pertinence des essais en recrutant des profils issus de groupes
d’habitude sous-représentés. (Interview de Kaoutar Sghiouer, responsable monde de la data et de
l'intelligence artificielle chez Sanofi, dans Challenges n° 861 / 6-12 février 2025).
Toujours selon Kaoutar Sghiouer (interview à BFMTV), les principaux avantages de l'IA sont la
prédiction des performances et la simulation de la stabilité d'un médicament, ainsi que l'optimisation
de sa production manufacturière et de la logistique, en attendant l'IA augmentée, qui devrait
permettre d'individualiser les traitements (zéro possibilité de ne pas y avoir accès), et de créer un
"doublon" d'un médicament, ou une "copie", un peu à l'instar de l'ARN-messager. Je laisse aux
spécialistes le soin de déchiffrer, pour l'heure, ce sera tout pour la MedTech...
Enfin, indépendamment de ce qui précède, le binôme IA-Pharma représente aussi un espoir pour le
traitement des maladies orphelines.
Du côté obscur de la force, je mentionnerais juste les risques en termes d'agents pathogènes et
d'armes biologiques (ou autres). Sur les premiers, Eric Schmidt a déjà lancé un fort avertissement.
Sur les secondes, dès 2023, Dario Amodei a témoigné devant le Sénat des États-Unis, en précisant
que, selon lui, dans les prochaines années, il existait un risque majeur qu'un chatbot soit capable de
guider les utilisateurs à travers chaque étape nécessaire à la création d'une arme biologique : « Cela
pourrait considérablement élargir l'éventail des acteurs disposant des capacités techniques
nécessaires pour mener une attaque biologique à grande échelle ».
Suite à son témoignage, deux sénateurs ont demandé une enquête plus approfondie, en se basant
sur une étude conjointe Harvard/MIT, qui présentait l'expérimentation suivante :
Pour tester les dangers des derniers modèles d'intelligence artificielle comme GPT-4, ils ont donné une
heure à trois groupes d'étudiants – tous sans formation en sciences de la vie – pour voir si l'utilisation
des chatbots pouvait les aider à créer une nouvelle épidémie mortelle.
Dans le temps imparti, les résultats obtenus ont utilement informé les étudiants de quatre candidats
potentiels à une pandémie, comme la variole ; expliqué comment des agents pathogènes peuvent
être synthétisés à partir d'une séquence génomique et liés à des protocoles spécifiques ; et indiqué
des entreprises susceptibles de créer des séquences d'ADN personnalisées sans dépistage préalable de
commandes suspectes.

Selon l'étude :
Collectivement, ces résultats suggèrent que les LLM (les grands modèles de langage qui alimentent
les chatbots comme ChatGPT, bien conscient du problème) rendront les agents de classe pandémique
largement accessibles dès qu'ils seront identifiés de façon crédible, même à des personnes peu ou pas
formées en laboratoire. Parmi les mesures utiles en vue d'empêcher toute non-prolifération :
l'évaluation préalable des LLM par des tiers, le traitement des jeux de données d'apprentissage pour
éliminer les concepts nocifs, et un filtrage vérifiable de l'ADN généré par les fournisseurs de synthèse
et utilisé par les organismes de recherche sous contrat ou par les « laboratoires cloud » robotisés afin
de concevoir des organismes ou des virus.
Si vous souhaitez conclure, personnellement, je ne sais pas trop quoi dire ! Une petite vidéo, peut-
être... [Début]
*
6. L'intelligence artificielle et la fabrication / production
Dans un article intitulé « Comment l'IA révolutionne l'industrie manufacturière », Appinventiv nous
propose les douze principaux domaines les plus impactés :

Voici la liste :
1. Gestion de la chaîne logistique
2. Cobots (robots collaboratifs)
3. Gestion d'entrepôt
4. Optimisation des chaînes de montage
5. Maintenance prédictive
6. Développement de nouveaux produits
7. Optimisation des performances
8. Assurance qualité
9. Simplification des formalités administratives
10. Prévision de la demande
11. Gestion des commandes
12. Usines connectées
Usine 4.0, gestion de réseaux privés sécurisés, surveillance de l’état de santé des équipements,
supervision de leur consommation et géolocalisation indoor de leur emplacement, monitoring des

machines d’analyses, binôme IoT/Big Data, binôme IA/robotique (le cerveau et les bras de l'industrie,
auxquels ajouter la vision industrielle), binôme OT/IT, etc., nous sommes déjà en route vers l'Usine
5.0 avec la collaboration entre humains et machines (applications collaboratives robotisées).
Pour l'instant, je me contenterai d'approfondir les points 2 et 12.
Point 2 : les cobots
Il s'agit des robots collaboratifs, probablement plus coopératifs que collaboratifs. En termes simples,
la différence entre robotique collective (ou robotique en essaim) et robotique collaborative est que
la première utilise de nombreux robots travaillant ensemble pour accomplir une tâche complexe,
tandis que la seconde implique des robots conçus pour travailler directement avec des humains dans
un environnement partagé. Cette dernière est également connue sous le nom de cobotique.
En relation au point précédent (5. L'intelligence artificielle et la médecine / pharmacie), l'utilisation
médicale des cobots peut se décliner sous plusieurs formes d'assistance : aider les patients à se lever,
à être plus attentifs lors de séances de rééducation, voire apporter un soutien émotionnel vis-à-vis
de personnes handicapées et déprimées, ou avoir une fonction d'auxiliaires thérapeutiques au
service de personnes atteintes de la maladie d’Alzheimer. Il peut aussi s'agir de robots chirurgicaux
assistés par des médecins.
Cette branche technologique émergente vise à combiner la cognitique (intégration de l’humain et du
numérique, etc.), les facteurs humains (comportement, décision, robustesse, contrôle de l’erreur,
etc.), la biomécanique (mécanique physique, dynamique des mouvements, efforts, limites biologiques,
etc.) avec la robotique classique (modélisation, programmation, mouvements, capteurs, forces, etc.).
De même qu'elle soulève plusieurs enjeux en matière de santé et de sécurité au travail (SST).
La nouvelle spécification technique ISO/TS 15066 pour la collaboration avec les robots définit qu’une
application robotique collaborative implique la mise en œuvre d’au moins l'une de ces 4 mesures de
sécurité :
1. Arrêt nominal de sécurité contrôlé (le robot s'immobilise lorsqu'il détecte une présence dans
son espace de travail)
2. Guidage manuel (le robot ne se déplace que lorsqu’il est sous contrôle d’un opérateur)
3. Contrôle de la vitesse et de la distance de séparation (fonction de sécurité actionnée par des
capteurs lorsque quelqu'un se trouve à proximité)
4. Limitation force et énergie (limitation de la force du robot lorsqu’il entre en contact avec une
personne)
En clair, en robotique collective, les systèmes sont dotés d'un grand nombre de robots homogènes
"simples" agissant ensemble de manière décentralisée, en suivant des règles locales pour réaliser des
tâches globales, alors qu'en robotique collaborative des robots hétérogènes, souvent plus
complexes, opèrent de concert en se coordonnant explicitement pour accomplir une tâche
commune. Pour en savoir plus...
Point 12 : les usines connectées
Rothschild nous propose une belle illustration des (r)évolutions industrielles :

Nous sommes donc aujourd'hui à la frontière entre l'usine 4.0 et l'usine 5.0. ChatGPT nous propose le
comparatif suivant :

Pour Proaction International, en revanche, les trois piliers de l'industrie 5.0 sont l'humanocentrisme,
la durabilité et la capacité d'adaptation :

Une capacité d'adaptation qui passe par le partage transparent des informations entre personnes,
machines et capteurs afin d'autonomiser les travailleurs, qui sont très certainement connectés aussi
(ou augmentés).
Nous sommes passés de l'Internet des objets (IoT) à l'Internet industriel des objets (IIOT) pour
une usine intelligente (smart factory), où l’intelligence artificielle est le cerveau du système, avec les
rôles principaux ci-après :
• Maintenance prédictive
• Optimisation de la production
• Contrôle qualité intelligent
• Gestion logistique et des stocks
• Aide à la décision
Les systèmes industriels (SI), qui se caractérisent par les couches OT (Operational Technology), IT
(Information Technology) et ICS (Industrial Control System) de contrôle-commande industriel exigent
une disponibilité continue et ne tolèrent que peu, voire pas, d’interruptions. Tout arrêt imprévu ou
toute défaillance peut entraîner des pertes financières, des dommages humains, matériels ou
environnementaux, et même perturber des chaînes d’approvisionnement critiques comme l’eau,
l’électricité, le gaz ou les transports.
En bref, hier c'était l'avenir de la production, aujourd'hui, nous y sommes déjà ! [Début]
*
7. L'intelligence artificielle et la construction / le BTP
Nous retrouvons ces chaînes d’approvisionnement critiques (eau, électricité, gaz, transports) aussi
dans le BTP. Dans la construction lourde et l'exploitation minière, les chaînes d'approvisionnement
sont souvent décentralisées, d'où une augmentation des coûts de transport. Beaucoup des secteurs
que j'ai traités se recoupent parfois. Lorsque vous parlez d'armes biologiques, cela concerne autant
le secteur militaire que pharmaceutique. De même, lorsque vous parlez du bâtiment, la domotique
n'est jamais très loin...
Dès 2019, la FFB (Fédération française du bâtiment) a mis en place un groupe de travail sur le binôme
« Intelligence artificielle et bâtiment » représentant divers métiers et territoires. Un rapport intitulé
« Comprendre, anticiper et agir : des opportunités pour la profession » a été publié, qui résume
six mois de réflexions basées sur la tenue d'une trentaine d'auditions d'experts, chercheurs,
institutionnels, députés, start-up et grandes entreprises.
Le rapport insiste sur la nécessité de faire des entreprises du bâtiment « des productrices conscientes
de données », une question complexe pour trois raisons :
• le secteur s’avère fragmenté : il compte de nombreux métiers (donc d’intervenants) et
près de 400 000 entreprises de toutes tailles en France métropolitaine ;
• les données d’un chantier ou de toute intervention n’apparaissent pas suffisamment
organisées pour être structurées en l’état : sauf exception, elles sont au mieux classées
dans un fichier Excel ;
• les données se révèlent rarement partagées, chacun gardant ses prérogatives sur son
domaine d’activité ou peut-être, de manière plus prosaïque, n’y a-t-il pas de réelle
demande de partage.

La qualité du réseau numérique est également un enjeu, le numérique constituant (après l’eau, le
gaz et l’électricité) un nouveau « fluide ». La prévention n'est pas oubliée non plus.
Donc, concernant la gestion et la maîtrise des données, le rapport identifie quatre risques :
1. perte de la maîtrise des données
2. non-interopérabilité des systèmes
3. cyberattaques
4. fiabilité du cloud
et trois cas d’utilisation des données selon la CNIL :
1. IN-IN : seul l’utilisateur en a la maîtrise ;
2. IN-OUT : données transmises à un prestataire, sans action sur le bâtiment ;
3. IN-OUT-IN : pilotage automatique à distance.
Les implications majeures des données dans le bâtiment, notamment juridiques, sont reprises dans
ce schéma :

Or, vu que les données constituent le « carburant » de l’IA, ce rapport sera suivi d'un second, quatre
ans plus tard (juin 2023), intitulé « Mobiliser les données au service de l’IA et de l’innovation dans le
secteur du bâtiment », pour présenter des exemples concrets d’application et les enjeux du cadre
règlementaire européen en cours de définition.
La FFB met désormais à disposition de ses adhérents des modules opérationnels sur « La mise en
place d’un diagnostic data IA », « Le choix de l’approche IA » et « L’expérimentation de la solution
IA ».
Comme le souligne Quentin Panissod, l'IA s’incarne, dans le secteur du bâtiment, dans de multiples
terrains d’application à toutes les étapes des projets. De la conception des plans à l’anticipation des
pannes en passant par l’aide à la gestion des chantiers. Prometteuse, elle soulève des problèmes de
compétences et de transparence, à prendre en considération pour sa pleine mise en œuvre demain.
Problèmes de compétences et de transparence transversaux à tous les secteurs. [Début]

*
8. L'intelligence artificielle et l'énergie
Dans ce binôme "intelligence artificielle - énergie", remarquons tout d'abord que l'IA est une
consommatrice phénoménale d'énergie. Ça va même au-delà de l'entendement ! S'il est clair que l'IA
peut contribuer activement à la protection de l'environnement (nous l'avons vu plus haut), c'est
également une source de pollution considérable (un peu comme la voiture électrique...). Les centres
de données et les algorithmes complexes nécessitent une très grande puissance de calcul, entraînant
une consommation d’énergie permanente, 24/7/365, d'où un impact significatif sur la planète.
Du reste, les centre de données sont les véritables moteurs de nos vies numériques : cloud, IA,
surveillance, streaming, stockage, etc. Beaucoup sont de véritables mastodontes, avec des
consommations équivalant à celle de villes moyennes ou grandes. Si l'on prend les quinze plus
gros data centers de la planète, on a une capacité énergétique cumulée de 2,5 GW. Donc si un parc
d'1 GW de puissance installée peut alimenter 800 000 foyers en électricité, je vous laisse faire le
calcul...
Selon le CNRS, les ordinateurs, data centers et réseaux… engloutissent près de 10 % de la
consommation mondiale d’électricité, un chiffre qui ne cesse d’augmenter. Or le problème avec l'IA,
c'est que les centres de données traditionnels ne suffisent plus, raison pour laquelle Nvidia
développe à présent des usines d'IA !

Vidéo…
Pour citer un exemple concret, le superordinateur Colossus d'Elon Musk, implanté à Memphis
(Tennessee), construit afin d'alimenter l'intelligence artificielle de X (xAI) à l'aide de 35 turbines à gaz
méthane (dont 20 n'ont pas été autorisées), capables d'alimenter une ville entière, vu que l'IA est
très énergivore : elle consomme plus d'électricité pour fournir ses résultats par rapport aux requêtes
de recherche classiques.
À terme, Musk a prévu d'étendre le nombre de ses processeurs à 1 million de GPU...
Mais on peut toujours faire mieux dans la démesure : le système CS-3 est conçu pour entraîner des
modèles de langage 10 fois plus grands que GPT-4 et Gemini (...) en s'appuyant sur un important
système de mémoire pouvant atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de
paramètres peuvent être stockés dans un seul espace mémoire logique sans partitionnement ni
remaniement, selon Cerebras (dont j'ai déjà parlé ici), qui assure : « L'apprentissage d'un modèle à

mille milliards de paramètres sur le CS-3 est aussi simple que l'apprentissage d'un modèle à un
milliard de paramètres sur les GPU ».
Soit 1000 fois plus rapide qu'avec les GPU (Graphics Processing Unit), qui sont des processeurs
optimisés pour un traitement massivement parallèle, très utilisés pour le calcul haute performance et
déjà jusqu’à 100 fois plus rapides que les CPU (Central Processing Unit) traditionnels.
Tout cela sans parler du fait que, pour être instantanément transmises d'un continent à un autre,
toutes ces données empruntent des câbles, la plupart sous-marins :

[Parenthèse : le jour où j'écris ce point 8., l'Espagne et le Portugal sont en état d’urgence à cause
d'une panne d’électricité géante, je ne crois pas qu'il y ait beaucoup de précédents d'une telle
envergure. Il semble que cette perturbation majeure ait été causée par des variations extrêmes de
température à l’intérieur de l’Espagne, générant un phénomène appelé « vibration atmosphérique
induite » sur les lignes à très haute tension (400 000 volts). Les oscillations anormales ont
désynchronisé les systèmes électriques et provoqué une réaction en chaîne sur l'ensemble du réseau
interconnecté.]
Je me pose juste la question de savoir ce que l'intelligence artificielle pourrait faire pour éviter ce
genre de désastre, ce qui m'amène à la deuxième partie : l'IA au service de l'énergie et de sa gestion.
À une époque où le volume total de données - produites et en transit - pourrait atteindre
175 zettaoctets (175 milliards de téraoctets, comparez avec la capacité de votre disque dur ) :

et où l'informatique quantique (Google toujours présent...) prévoit de faire des bonds en avant
gigantesques (voir ma réflexion sur le sujet), je vous laisse terminer votre lecture sur différents cas
d'usage... [Début]
*
9. L'intelligence artificielle et l'agriculture
Revenons à un domaine plus terre à terre ! En fin d'année (2-3 décembre 2025), se déroulera au
centre de congrès Bellevue (Biarritz) le « Davos » de l'intelligence artificielle appliquée aux
campagnes, premier forum international sur l’agriculture numérique organisé par l’Estia, l’école
d’ingénieurs de Bidart, et par DeepFarm : Tera Nova, un clin d’œil à la fois à la « nouvelle terre » et
aux volumes croissants de données (téra signifiant 10¹²) (voir le précédent paragraphe...).
Dix milliards d’habitants à nourrir en 2050, dans un contexte de dérèglement climatique : capteurs,
drones, robots, satellites, IoT...
Avec 500 participants internationaux, 75 intervenants et une conférence scientifique quasi finalisée,
l’événement promet d’attirer des figures de premier plan. Le comité d’honneur compte des
personnalités telles que Barack Obama, Jack Ma, Aliko Dangote et Xavier Niel, sollicités pour des
interventions phares.
Exemples d'applications :
• comment l’intelligence artificielle peut aider les agriculteurs à mieux gérer la ressource en
eau ?
• fertilisation de précision : l’intelligence artificielle à la rescousse de l’agriculture durable
• détection précoce des maladies et ravageurs
• modélisation dans le domaine de l'agronomie
• modélisation et aide à la décision pour les exploitations et les filières agricoles
• de la bergerie au centre de calcul
• amélioration des rendements et de la qualité des produits
et ainsi de suite. Désormais, l'agriculture est connectée autant que l'usine :

La télédétection grâce aux drones se démocratise, de même que les systèmes de pulvérisation
aérienne sans pilote. Des drones agricoles assurent le traitement phytosanitaire du vignoble. En clair,
l’intégration des drones dans l'agriculture marque une évolution majeure vers une gestion plus
efficiente et durable des ressources agricoles :
• Surveillance et cartographie des cultures
• Gestion optimisée de l’eau et des intrants
• Amélioration de la productivité et de la rentabilité
• Réduction de l’impact environnemental
De même que l'imagerie satellite contribue à une agriculture durable, ou permet de détecter les
incendies de forêt et planifier les interventions d’urgence, d’identifier des zones en manque d’eau,
en déficit d’engrais ou infestées par des nuisibles.
Cela étant, à eux seuls l'intelligence artificielle et les algorithmes connexes ne régleront pas à terme
le problème de la faim dans le monde, l'humain ne semble pas près d'être remplacé par la machine
dans un futur proche. [Début]
*
10. L'intelligence artificielle et les ressources humaines
L'humain est sans aucun doute le point commun à tous les binômes « Intelligence artificielle et... ».
Or, tout comme « Labourage et pâturage sont les deux mamelles dont la France est alimentée »
(Maximilien de Béthune, duc de Sully), « Expérience et compétence sont les deux mamelles dont les
RH sont alimentées ».
Quand on parle RH, on pense immédiatement DRH, grandes boîtes, processus de recrutement
complexes, chasseurs de têtes (ça me rappelle un souvenir : quand je m'intéressais aux noms de
domaine, j'avais pris givaros.com, le site des recruteurs ), etc. Mais la portée des ressources
humaines dans tous les secteurs est bien plus vaste que le seul périmètre des multinationales !
Un bon artisan est une ressource précieuse, un talent dirait-on en langage moderne, tout comme un
bon ouvrier, un artiste, un compagnon... L'enseignement secondaire et l'université ont toujours
privilégié les métiers "intellectuels" par rapport aux métiers manuels, mais l'arrivée de l'intelligence
artificielle pourrait renverser cette tendance : les métiers intellectuels semblent plus facilement

remplaçables que les métiers manuels. Le robot-plombier qui répare votre salle de bain, c'est pas
encore pour demain.
Cela dit, comment classifier un pilote de chasse ? Manuel ou intellectuel ? Les deux, mon général. Or
dans un tweet récent, Elon Musk a prévenu que l'arrivée des essaims de drones à bas coût allait
renvoyer vite fait les pilotes de chasse et les équipages dans leurs pénates (Crewed aircraft will be
destroyed instantly by cheap drone swarms) ! Comme quoi, plus personne n'est à l'abri...
Donc, en recherchant "intelligence artificielle et RH", vous allez trouver nombre d'articles fort
sérieux et bien documentés : je vous y renvoie pour une lecture abondante et fructueuse. [Début]

* * *

Intelligence artificielle - Quatrième bloc

1. L'intelligence artificielle et le marketing
Sur mon profil X-Twitter est restée la mention Translator & Interpreter | Content & Language
Consultant | Branding & Web Marketing Coach for freelancers, qui témoigne de mon intérêt pour
le Branding/Marketing. Entre 2008 et 2017 j'ai animé une dizaine de sessions dédiées
aux professionnels des langues entre Tunisie, Italie et France, documentées sur SlideShare dans mes
présentations et autre documentation (à ce jour globalement vues 200 000 fois). Mon introduction
est la plus consultée :

Ainsi, en partant de tout le matériel didactique et formatif réalisé pour les langues, l'idée m'est
venue de le retravailler pour en faire un guide pratique à l’intention des freelances, des consultants
indépendants et de tous les professionnels libéraux travaillant en solo, mais également des TPE/PME-
PMI à la recherche de pistes de réflexion et de méthodes pour promouvoir leur image et leur

notoriété. En effet, les bouleversements en cours qui intéressent l'ensemble des professions libérales
n'étant pas prêts de s'arrêter..., j'ai affiné SOLO² : [(Small Office / Lean Office) x (SOcial/LOcal)]
Déclinaison du SOHO (Small Office / Home Office), le SOLO² est un concept réactualisé du travail en
indépendant, qui entend adapter une philosophie de Lean Office à une version « Small »,
personnalisée, en éliminant les nombreux gaspillages de temps, d’énergie et, donc, d’argent, qui
caractérisent souvent la façon de travailler à domicile, et s’inspirer du branding & marketing à
l’intention des auto-entrepreneurs et des professionnels exerçant en profession libérale, voire en
portage salarial ou en société, qui sont ma cible de prédilection.
Toutefois ma conception du marketing reste artisanale, surtout orientée freelances. OK Boomer, me
direz-vous, il serait temps de te mettre à la page !
Or le marketing n'est d'aucune utilité si vous n'avez rien à vendre : produits, services, ou votre
professionnalisme. Donc a priori l'AI marketing concerne davantage les sociétés, bien que certaines
applications de l'IA, orientées client, s'avèrent précieuses aussi pour les indépendants :
• maximisation des publications sur les réseaux sociaux
• génération et marketing de contenu
• e-mail marketing
• automatisation des tâches de routine
• analyse des données des clients et prospects
• segmentation du public (surtout pour identifier son marché)
• optimisation pour les moteurs de recherche (SEO)
Côté production d'images et d'illustrations, DALL-E est un modèle d'intelligence artificielle développé
par OpenAI (la même société qui est à l'origine de ChatGPT), dont le nom fusionne le D de Salvador
Dalí à WALL-E (le robot de Pixar), pour symboliser sa capacité de créer des œuvres artistiques et
technologiques, spécialisé dans la génération d'images à partir de descriptions textuelles.
En fin de compte, le grand apport de l'IA est qu'au lieu de tout faire tout seul dans son coin, ça
accélère le traitement de gros volumes d'infos en l'automatisant, y compris grâce à l'utilisation
d'agents IA. Je vous laisse sur quelques lectures :
• Comprendre comment l’IA s’applique dans le marketing
• L’intelligence artificielle au service du marketing
• Marketing et IA : que réserve l'avenir ? [Début]
*
2. L'intelligence artificielle et la comptabilité
Comme pour les autres professions, l'intelligence artificielle redéfinit les métiers de la comptabilité,
dont beaucoup sont promis à disparaître, ou pour le moins à se transformer en profondeur. Dès
2013, dans The Future of Employment: How Susceptible are Jobs to Computerisation? (Oxford
University), C.B. Frey et M.A. Osborne prévoyaient qu'environ 47 % du total des emplois aux États-
Unis auraient dû faire face à un « risque élevé d'informatisation » au cours des deux décennies
successives, à savoir d'ici le début des années 2030.
En 2018, l'étude « L'impact de la révolution digitale sur l'emploi », de l'Institut Sapiens, classait la
comptabilité parmi le top 5 des métiers en voie de disparition. Nous y sommes donc ! Selon
le cabinet PWC, dans son rapport intitulé Will robots really steal our jobs?, les taux d'automatisation

prévisibles menaçaient potentiellement jusqu'à 30 % des emplois au Royaume-Uni, 38 % aux États-
Unis ou 35 % en Allemagne, contre seulement 21 % au Japon.
Les services financiers seraient plus touchés que les autres secteurs par la première vague
d’automatisation en cours, et l'arrivée d'outils comptables dopés à l'IA ne va certes pas tranquilliser
les collaborateurs des cabinets : saisie des documents, facturation électronique, réconciliation de
compte, rapprochement bancaire, automatisation des tâches répétitives, analyse des données,
génération de rapports, conformité réglementaire, détection des erreurs, anomalies, fraudes,
etc., toutes ces opérations autrefois chronophages ne prennent plus que quelques secondes et
permettent de dessiner plus finement les tendances en cours, financières ou autres.
L'évolution est donc claire quant aux aspects difficilement remplaçables par l'IA :
• Conseil stratégique : moins de temps consacré aux tâches mécaniques, plus d'accent sur
les missions à haute valeur ajoutée
• Jugement professionnel : les situations complexes requièrent une compréhension
profonde du contexte économique et humain et une évaluation subtile des risques
• Relation client : les dimensions humaines de confiance, d'empathie et de compréhension
des problématiques spécifiques sont fondamentales pour chaque client
• Innovation fiscale et financière : l'orientation des décisions stratégiques d'une
entreprise conception et une optimisation individualisée
Une situation dont les contours étaient déjà tracés dès 2021, dans l'étude « L'attractivité et l'avenir
de la profession comptable á l'horizon 2040 » du cabinet Sophos, qui indiquait : « À l’horizon 2040, les
cabinets d’expertise comptable (…) seront devenus des sociétés multiservices, centrées et guidées par
un objectif principal ; aider les entreprises à créer de la valeur et à piloter leur performance
globale ». [Début]
*
3. L'intelligence artificielle et l'éducation
L'éducation concerne l'individu en général et son développement global. Les parents éduquent (ou
pour le moins devraient éduquer) l'enfant, l'adolescent (avec la collaboration de l'enseignement),
puis la vie et les milieux sociaux et professionnels éduquent (ou pour le moins devraient éduquer) le
jeune et l'adulte...
Les parents sont les premiers éducateurs de leurs enfants. Leur rôle consiste à poser les valeurs et les
bases humaines et affectives sur lesquelles l’école, la société et la vie viendront construire ensuite.
Que vient faire l'IA là-dedans ? En fait, pas grand chose ! L'IA n'est qu'un outil, extrêmement puissant
et perfectionné, certes, mais comme tous les outils, toutes les techniques, cela dépend de qui l'utilise
et comment, quand, pourquoi, dans quelles circonstances, etc.
Au niveau des parents, l'IA pourrait faciliter leur rôle de curateurs de solutions éducatives et de
médiateurs technologiques pour accompagner leurs enfants dans l'appropriation et l'utilisation des
mille dispositifs désormais à leur portée et les guider dans leurs usages numériques (l'avons-nous fait
avec la télévision et la presse, en matière d'éducation à l'image et de décryptage de l'information ?),
pour peu que les parents eux-mêmes en soient capables, ce qui est encore loin d'être évident, avec
dans certains cas des renversements de situation (ce sont les enfants qui aident leurs parents à
mieux maîtriser les technologies, exemple de moi et mon fils, que je consulte régulièrement pour

l'utilisation de mon mobile) (perso je fais un blocage sur le smartphone et ses myriades d'applis, trop
invasif à mon goût)...
Selon moi l'éducation porte bien davantage sur les composantes abstraites de la transmission des
valeurs (principes moraux et éthiques), du développement de l'identité, de l'élaboration des
structures mentales, de l'intériorisation des normes sociales, du développement émotionnel et
relationnel, de la transmission culturelle et du sens, justement en donnant du sens à l'existence.
Bien qu'invisible, cette dimension abstraite de l'éducation, qui façonne profondément ce que
deviendra l'enfant, se transmet souvent de manière implicite, à travers l'exemple parental, les récits,
les discussions adaptées à chaque âge de l'enfant qui grandit, ainsi qu'à travers les expériences
significatives partagées au sein de la famille et de la communauté.
C'est pourquoi, plutôt qu'à l'éducation, je vois l'IA mieux adaptée à la formation et à l'enseignement.
Du reste les enseignants ne dépendent-ils pas du ministère de l'Éducation nationale ? Or quand on
voit ce qu'est devenue l'éducation aujourd'hui en France, on peut s'interroger sur le choix du terme...
Je trouve la dénomination italienne d'Instruction publique beaucoup plus pertinente (quand bien
même le gouvernement Meloni l'a renommé en ministère de l'Instruction et du Mérite, le choix des
mots n'est jamais neutre...) !

En conclusion, l'IA est parfaite - et fortement conseillée - pour répondre aux questions que se posent
les parents d'une manière générale, et plus particulièrement sur l'éducation. En revanche, dans le
lien parents-enfants, son rôle se limiterait plutôt à du soutien et de l'accompagnement, car jamais
elle ne remplacera la bienveillance et l'amour de la relation humaine. Par conséquent je laisse à
chacun(e) le soin de choisir ses propres outils, si besoin est... [Début]
*
4. L'intelligence artificielle et l'enseignement
Lorsque l'on soumet aux moteurs du Web la requête "L'intelligence artificielle et l'éducation", la
plupart des résultats renvoient à l'enseignement et non à l'éducation, alors qu'en toute logique le
premier est une composante de la seconde.

Dans un cadre scolaire ou universitaire, la dimension cognitive de l'enseignement se focalise sur la
transmission de savoirs et de compétences techniques. Dans ce contexte, l'IA n'a pas vocation à
remplacer les enseignants/professeurs, mais plutôt à les assister pour personnaliser, optimiser et
enrichir les processus d’apprentissage, à travers la personnalisation d'études de cas, l'adaptive
learning, les tutoriels, la génération de quiz, de scénarios pédagogiques ou d'articles conçus par l'IA,
la création de contenus en général (texte, images et autres...).
Comme dans beaucoup de domaines, nous allons donc vers une hybridation enseignement-IA, où le
soutien de l'intelligence artificielle aux enseignants passe par la correction automatisée, la gestion
des classes, l'analyse des besoins, voire l'accessibilité et l'inclusion pour les porteurs de handicaps
(reconnaissance vocale pour les malentendants, synthèse vocale pour les malvoyants, ou traduction
en temps réel pour les élèves allophones, etc.), l'enseignement dans des zones reculées (plateformes
diverses) ou l'apprentissage immersif (IA + réalité virtuelle).
En bref, l’IA permet de transformer la façon d’enseigner, avec potentiellement un fort impact sur le
rôle des enseignants, et de nouveaux enjeux, de nouveaux défis, de nouveaux dangers...
Quelques conseils et règles simples à respecter : explorer et tester les outils, en allant des plus
simples aux plus complexes (pour la plupart, des tutoriels existent pour faciliter l’auto-formation) ;
intégrer progressivement l'IA en classe, en commençant à utiliser ces outils en situation réelle avec les
apprenants, tout en prévoyant des solutions alternatives pour pallier d'éventuels
dysfonctionnements.
Une dernière question : qui formera les enseignants ? [Début]
*
5. L'intelligence artificielle et la formation
Les objectifs de l'enseignement sont les savoirs théoriques, ceux de la formation l'acquisition de
savoir-faire et le développement de compétences pratiques dans des contextes professionnels ou
techniques. On se forme soit pour un métier, soit pour se mettre à niveau et conserver son
employabilité si on en a déjà un. La formation peut se dérouler dans des centres de formation
professionnelle, des entreprises, des organisations, des ateliers, des lieux d'enseignement, ou via des
programmes de développement personnel, des mises en situation (FEST), des séminaires, des stages,
le e-learning, le tutorat, etc. Elle peut être continue, en alternance, à distance, programmée, etc., en
vue d'acquérir de l'expertise, des soft skills, d'apprendre l'adaptabilité et la résilience..., cela dépend
de différents facteurs : niveau d'études initial, objectifs professionnels, contraintes de temps et de
budget, style d'apprentissage de chacun(e), et ainsi de suite.
L'IA intervient essentiellement pour personnaliser les parcours d’apprentissage, et améliorer
l'engagement des apprenants. Il incombe à chaque responsable en charge de dispenser la formation
de s'adapter aux contextes, aux équipes, et de considérer l'IA comme un outil pédagogique, non
comme une solution miracle. Une entreprise peut également décider d'intégrer l'IA en interne pour
former ses collaborateurs ou leur servir d'assistant numérique, voire de coach personnel.
Quelques liens pour vous inciter à approfondir :
• L'IA et la formation professionnelle : une synergie stratégique et prometteuse
• Intelligence Artificielle et formation : entre scepticisme et innovation ?
• Intelligence artificielle et formation : l'avenir des entreprises
• Intelligence artificielle et formation : 6 cas d'usage qui transforment l'apprentissage

• 2025, l’année de la maturité de l’IA en formation ?
Dans le Guide des outils pour la formation dopés à l'IA que vous propose d'obtenir l'ILDI via ce dernier
lien, les outils présentés couvrent les domaines suivants :

Bonne lecture ! [Début]
*
6. L'intelligence artificielle et les langues
En général, dans le binôme "intelligence artificielle et langues", il est question
d'apprentissage/enseignement des langues (essentiellement vivantes, mais pas seulement), et donc
des ressources que l'IA peut mettre à disposition des élèves/enseignants. Pêle-mêle :
• Intégration de l'IA dans les cours
• Enjeux pédagogiques et éducatifs
• Assistants pédagogiques
• Exemples de séquences pédagogiques utilisant l'IA
• Types de tâches réalisables grâce à l'IA (traduction, correction automatique,
reconnaissance vocale, interactions, etc.)
• Responsabilisation des élèves (détecteurs d'IA, contribution à la recherche de supports,
médiation, animation de groupes, auto-évaluation, etc.)
• Évaluation des compétences des élèves (grammaticales - p. 106, compétences en
production écrite, compétences en production et réception orale, enrichissement du
vocabulaire) et des enseignants
• Évaluation de la qualité des travaux
• Risques liés à l'utilisation de l'IA (protection des données, dépendance technologique,
etc.)
• Utilisation efficace et responsable de l'IA par les enseignants
• Sensibilisation des élèves aux différents usages et risques
• Correction linguistique avec ChatGPT 4
• Expression écrite avec ChatGPT 4
• Préparation des cours et création du matériel pédagogique
• Gestion des parcours d’apprentissage en ligne
• IA et formation des enseignants de langue
• Autoformation des enseignants de langue à l’utilisation de l’IA
• Etc.

Autres ressources documentaires :
• Notre atelier sur l'intelligence artificielle et l'enseignement des langues
• Portail documentaire LISEO
• Références bibliographiques du dossier « Les données en éducation »
• L'IA pour l’éducation aux langues
Enfin, on ne peut mener une réflexion sur l'intelligence artificielle et les langues sans
évoquer Duolingo et Google...
Je m'étais intéressé à Luis von Ahn il y a plus de 10 ans dans une de mes présentations, diapositive n°
35 intitulée « Apprendre gratuitement les langues en traduisant le Web » :

La société, devenue depuis l'un des acteurs incontournables de l'apprentissage des langues, vient
juste de lancer 148 nouveaux cours de langue élaborés à partir de l'IA :
“Developing our first 100 courses took about 12 years, and now, in about a year, we’re able to create
and launch nearly 150 new courses. This is a great example of how generative AI can directly benefit
our learners. This launch reflects the incredible impact of our AI and automation investments, which
have allowed us to scale at unprecedented speed and quality.”
En gros, « Nous avons mis à peu près 12 ans pour développer nos 100 premiers cours, et tout juste un
an pour lancer près de 150 nouveaux cours : c'est là un formidable exemple des avantages de l'IA
générative pour nos apprenants, et cela témoigne de l'impact exceptionnel de nos investissements
dans l'IA et l'automatisation, qui nous ont permis d'évoluer à une vitesse sans précédent et avec une
qualité remarquable. »
Sa nouvelle devise est AI-first ! Ça doit être un partisan de MAGA (Make AI Great Again)... Dans la
foulée, il a donc viré 10% de ses salariés. Voici la lettre qu'il leur a adressée :

L'avant-dernier paragraphe est intéressant :
Ceci étant dit, Duolingo reste une entreprise qui se soucie profondément de ses employés. Il ne
s'agit pas de vous remplacer par l'IA. Il s'agit de supprimer les goulots d'étranglement afin de pouvoir
exploiter pleinement les personnels exceptionnels dont nous disposons déjà. Nous souhaitons d'abord
que vous vous concentriez sur le travail créatif et les problèmes concrets, plutôt que sur des tâches
répétitives. Nous allons donc vous accompagner en vous proposant davantage de formations, de
mentorat et d'outils pour exploiter l'IA dans le cadre de vos fonctions.
Attention toutefois au retour de bâton...
Un joli petit tableau que Google vient chambouler en annonçant trois outils d'apprentissage des
langues basés sur l'IA (Tiny Lesson, Slang Hang et Word Cam). Et Google, c'est ... Google !
• Tiny Lesson est conçu pour une acquisition de vocabulaire ciblée. Les utilisateurs
choisissent une langue et un thème (voyages, gastronomie, affaires) et reçoivent
instantanément une liste de mots pertinents, accompagnée d'extraits audio et de
définitions.
• Slang Hang offre aux utilisateurs un aperçu du langage courant en simulant des
conversations réelles intégrant l'argot local (toutefois, Google met en garde les
utilisateurs contre toute inexactitude éventuelle générée par l'IA).
• Word Cam est un outil de traduction d'images amélioré permettant à l'internaute de
prendre des photos de scènes du quotidien. Les objets contenus dans ces images sont
instantanément étiquetés dans la langue choisie, alliant ainsi le contexte réel à
l'enrichissement du vocabulaire.
Pour l'heure, ces outils ne sont ouverts à l'exploration que sur la plateforme expérimentale de
Google (certaines options prenant même en charge des dialectes régionaux). Or si l'avenir de cet

écosystème en évolution n'est pas encore totalement assuré, son existence signale d'ores et déjà une
accélération vers des systèmes d'apprentissage interactifs et adaptatifs.
La bataille des langues entre dans une nouvelle phase, et la concurrence pour les solutions telles que
Duolingo et les autres va être rude (notamment avec l'arrivée d'un nouvel acteur :
NVIDIA !)... [Début]
*
7. L'intelligence artificielle et la culture
Dès 2020, une mission « Intelligence artificielle et culture », commanditée par le Conseil supérieur
de la propriété littéraire et artistique (CSPLA), a produit un rapport « fruit d’une réflexion menée à
partir d’auditions, de contacts informels et de nombreuses lectures », selon ses auteures, Alexandra
Bensamoun (professeure à l’Université de Rennes 1) et Joëlle Farchy (professeure à l’Université Paris
1 Panthéon-Sorbonne).

Je signale ce rapport à toutes fins utiles, car il aborde très largement les problématiques juridiques,
certes incontournables, mais ce n'est pas du tout l'angle d'approche que je privilégie. Je suis plutôt
branché "culture et création", et donc sur le rôle de l'IA, entre imitation et innovation culturelle,
dans la production culturelle et la création liée à toute forme d'expression (art pictural, musique,
cinéma, littérature, etc.), d'où les questions de la place de l'artiste / du créateur dans la chaîne et de
la pertinence de l'intervention humaine dans le processus créatif.
Ainsi que sur leur corollaire : la "consommation" de culture (la consommation culturelle inclut tous
les biens et services acquis pour satisfaire les besoins liés à la culture), que l'on appelle fréquemment
aujourd'hui la "culture de masse" (comprendre les choix : 600 pages de thèse !)...

Le mode de production influant le mode de consommation, et réciproquement, dans une boucle
évolutive où l'IA intervient - et interviendra de plus en plus - à tous les niveaux, en tenant compte du
fait que la culture n'est pas, a priori, un objet de consommation comme les autres, et qu'elle
génère un comportement des consommateurs toujours plus complexe :
À l’heure actuelle, on observe l’existence d’un « homo consumericus de troisième type », c’est-à-dire
un « turbo consommateur flexible » (décalé, mobile) totalement libéré des anciennes cultures de
classe, imprévisible dans ses goûts, à la recherche d’expériences émotionnelles et de mieux-être, de
qualité de vie, d’authenticité, d’immédiateté.
Source.
D'autre part, il est désormais notoire que l'IA, pour entraîner ses moteurs, est à la recherche
permanente de données qui ne lui appartiennent pas mais qui ont été créées par d'autres, les
véritables titulaires des droits... Donc la transparence des fabricants d'IA dans l’utilisation des
contenus qu'ils "pompent", outre devenir si possible un "levier de rémunération" pour
les auteurs (j'ai observé que les robots conversationnels d'IA indiquent toujours plus fréquemment
les sources de là où ils vont puiser leurs raisonnements), est en fait une véritable reconnaissance de
la paternité des contenus.
Côté consommateurs, bien que, potentiellement, toutes et tous aient "librement" et "gratuitement"
accès à la culture, qui s'est considérablement démocratisée, en réalité de nombreuses fractures (pas
seulement numériques) entre classes sociales et générations entravent cet accès. Il devrait y avoir un
nivellement par le bas, au sens positif, où la base de la pyramide des utilisateurs devient toujours
plus large et inclusive. Car dans la réalité, aujourd'hui nous assistons plutôt à une IA dominante de
sens contraire, avec une « homogénéisation culturelle forcée engendrée par les outils d’IA,
essentiellement entraînés avec des textes écrits en anglais à l’aide d’algorithmes rédigés en langue
anglaise, qui sont conçus pour des contextes propres aux économies avancées et alignés sur les
valeurs de ces dernières. »
Il s'ensuit que les outils et services d’IA s’adaptent souvent mal aux environnements des cultures et
des pays non anglophones, et que leurs résultats dans les langues locales laissent beaucoup à
désirer. Cette situation entame la confiance dans l’IA et ralentit son adoption par celles et ceux qui se
trouvent du mauvais côté de la fracture numérique grandissante.
Alors qu'au contraire l'IA devrait contribuer activement à éliminer ces fractures, ou pour le moins à
les atténuer, en facilitant dans toutes les langues un accès équivalent aux œuvres et à la production
culturelle lato sensu.
En France, Mistral.ai tente de réduire le biais anglo-saxon de l'IA. [Début]
*
8. L'intelligence artificielle et les services publics
L'IA pourrait bien moderniser les services publics, MAIS, ne pas confondre vitesse et précipitation :
les annonces tonitruantes des politiques d'un côté, la réalité du terrain de l'autre...
J'ai déjà traité dans mes quatre blocs le rapport entre IA et nombre de ces services publics
(éducation, santé, sécurité, droit, transports, etc.), mais pas encore de la contribution, par
l'intermédiaire de l'IA, de l'État, des collectivités locales ou d'autres entités publiques
et administratives au déploiement de ces services, dont quelques-unes des caractéristiques
principales sont les suivantes :

• Intérêt général (réponses à des besoins collectifs de la société)
• Accessibilité [destinés à l'ensemble des citoyen(ne)s, indépendamment de leur
situation psycho-physique, géographique, financière ou sociale]
• Qualité (normes de qualité minimales pour en assurer l'utilité)
• Continuité et amélioration continue (services fournis de manière régulière et constante,
sans en compromettre la fourniture, même en cas de perturbations ou de crises, y
compris via la dématérialisation)
• Adaptabilité [selon les évolutions de la société et les besoins changeants des
citoyen(ne)s] [le paradoxe étant qu'il y a parfois renversement de l'adaptabilité des
services publics vers l'adaptabilité des usagers, qui doivent être capables de faire les
démarches en ligne parce que le progrès prend ce sens (nombre d'usagers ne pouvant
bénéficier des services publics s'ils ne s'adaptent pas, d'où le concept de "maltraitance
institutionnelle"...)]
• Efficacité (capacité des prestataires publics d'atteindre les objectifs fixés en utilisant les
ressources de manière judicieuse)
• Responsabilité (des prestataires publics)
Si l'on en croit le Conseil d'État, l'IA et l'action publique doivent construire la confiance et servir la
performance, en permettant d'assister l’humain dans des tâches impossibles à réaliser jusque-là...
Et puisque l'on parle de l'État, à côté des services publics, il y a aussi les services régaliens, à savoir
ses missions et prérogatives essentielles, indispensables à l'exercice de sa souveraineté et à la
garantie de l'ordre public :
• Sécurité et défense
• Justice
• Affaires étrangères
• Monnaie et finances publiques
• Sécurité civile
Je les mentionne uniquement par souci de précision, car cela sort des visées (modestes) du présent
billet. Je terminerai en signalant une récente publication de la CNIL sur le sujet (notamment ses
recommandations relatives à l'emploi) :

[Début]

*
9. L'intelligence artificielle et les loisirs
Qu'il s'agisse du divertissement ou du tourisme (activités menées pendant le temps dont on peut
librement disposer en dehors de ses occupations et contraintes habituelles), une récente étude
indique les loisirs les plus populaires en France en 2024 :

En clair, par ordre d'importance :
1. Les voyages, le tourisme
2. Les livres et la lecture
3. La musique
4. Le jardinage
5. Les spectacles, le cinéma, le théâtre, les concerts, etc...
6. Le bricolage
7. L'aménagement et la décoration de la maison
8. L'actualité sportive ou le sport
9. L'actualité politique et sociale
10. La mode, les vêtements
11. Les sciences
12. L'actualité économique et financière
13. Les techniques, en général ou dans certains domaines
14. Les arts (peinture, sculpture, gravure, photographie d'art)
Sans fournir de liens à chaque fois sur "IA et ceci" ou "IA et cela", je vous propose de saisir vous-
même les requêtes "IA + secteur" dans les moteurs et d'analyser les nombreux résultats (signe que
l'IA est désormais omniprésente dans tous les domaines) ou, mieux encore, de tester directement les
IA ci-dessous :
• Gemini
• Mistral

• ChatGPT
• DeepSeek
• Claude
• Perplexity
• GroK (pas encore dispo en Europe, juste sur X)
avec le prompt suivant (ou l'invite, si vous préférez) :
« Quel est l'impact de l'intelligence artificielle sur la cuisine [ou l'un des 14 secteurs ci-dessus] »
Et d'étudier ensuite les réponses, y compris les sources, lorsqu'elles sont mentionnées, puis de
comparer (aussi bien entre les IA qu'entre les résultats des IA et ceux des moteurs de recherche). J'en
ai fait moi-même l'expérience et je vous en parle au point suivant... [Début]
*
10. L'intelligence artificielle et les bibliothèques (livres et documentation lato sensu)
Au Canada et, au-delà de ses frontières, partout dans le monde :
L'IA aide les bibliothèques à relever des défis complexes et à répondre aux besoins changeants des
chercheurs, des éducateurs et des étudiants, dans des domaines tels que l’analyse de données, la
découverte de ressources et les services personnalisés aux utilisateurs. En adoptant ces innovations,
les bibliothèques de recherche jouent également un rôle essentiel dans la promotion d’approches
éthiques et inclusives de l'IA...
L'exemple de la BNF est particulièrement parlant à cet égard :
Plus de 40 millions de documents de multiples natures (livres, manuscrits, cartes, partitions, objets,
documents sonores et jeux vidéo) dans les magasins physiques de la Bibliothèque, près de 9 millions
de documents numérisés et accessibles dans Gallica, 15 millions de notices dans le catalogue
général, 40 milliards d’URL collectées dans les archives de l’internet : ces chiffres donnent une idée de
l’immensité des gisements documentaires sur lesquels la Bibliothèque veille. Face à une telle
volumétrie, l’IA ouvre aux bibliothécaires comme aux publics de nouvelles voies vers l’intelligibilité
des collections.
Des chiffres impressionnants ! Voici pour terminer une présentation d'Alice Bernard (conseillère
numérique France Services à la bibliothèque départementale d’Indre-et-Loire, et formatrice),
intitulée « Les intelligences artificielles en bibliothèque » :

Voilà. Je préfère m'arrêter là.

En concluant cette série de quatre blocs sur l'Intelligence artificielle par une expérience, vécue en
préparant ce billet, et ce dixième point en particulier. Durant mes recherches de matériel sur les
bibliothèques, je suis tombé sur ce passage de Umberto Eco :
« C’est une absurdité de croire qu’il faille absolument lire tous les livres que l’on achète, tout comme il
est ridicule de reprocher à quelqu’un d’acquérir plus de livres qu’il n’en pourra jamais lire dans une
vie. Ce serait comme dire qu’il faut utiliser tous les couverts, tous les verres, tous les tournevis ou
forets que l’on possède avant d’en acheter de nouveaux. Il est des choses dans l’existence dont il faut
toujours disposer en abondance, même si l’on n’en utilisera qu’une infime partie. Prenons les livres
comme des remèdes : mieux vaut une armoire pleine de soins que quelques fioles esseulées. Le jour
où l’âme vacille ou vacille le cœur, on ouvre alors cette armoire — non pas au hasard — mais pour y
choisir le livre juste, celui qui saura panser, éclairer, relever. D’où l’importance de toujours avoir un
vaste éventail de choix. Celui qui n’achète qu’un seul livre, le lit, puis s’en débarrasse, ne fait
qu’appliquer à la lecture une logique de consommation. Il traite le livre comme une simple
marchandise, un bien de passage. Mais ceux qui aiment les livres savent qu’ils ne sont rien de tout
cela. Un livre n’est pas un produit. C’est une présence ».
dont l'authenticité a été mise en doute en adressant une demande de vérification à Grok :
@noeldalus :
Vous avez la source de cette citation car je ne crois que cela a été dit de cette façon. @grok :
merci de vérifier l’exactitude de la source de la citation d’Umberto Eco dans le tweet cité.
Voici la réponse de Grok :
La citation attribuée à Umberto Eco semble apocryphe. Après vérification, aucune source fiable, y
compris ses œuvres, discours ou le documentaire *Umberto Eco : A Library of the World*, ne
confirme qu’il l’ait dite ou écrite. Bien que le propos reflète ses idées sur les livres, notamment sa
notion d’« antilibrairie » et son amour des bibliothèques, les mots exacts ne sont pas authentifiés. Il
est donc probable qu’Eco n’ait pas formulé cette citation ainsi.
Intrigué, j'ai décidé de demander la même vérification (en français et en italien) à d'autres IA, dont
voici les réponses (sans préciser qui a répondu quoi, et en quelle langue) :
1.
La citation que vous mentionnez provient du livre N’espérez pas vous débarrasser des livres, un
recueil de dialogues entre Umberto Eco et Jean-Claude Carrière. Dans cet ouvrage, Eco exprime sa
vision personnelle de la lecture et de la collection de livres, soulignant que l'acquisition de livres ne
doit pas être motivée uniquement par l'intention de les lire tous, mais plutôt par le plaisir d'avoir un
large éventail de choix à disposition. Il compare les livres à des remèdes, suggérant que, tout comme
une armoire pleine de médicaments peut être utile même si l'on n'en utilise qu'une petite partie, une
bibliothèque bien fournie offre des ressources pour nourrir l'esprit aux moments opportuns.
Cette perspective met en lumière l'importance de la diversité et de la richesse des livres dans une
bibliothèque personnelle, et critique une approche consumériste de la lecture qui se limiterait à lire un
seul livre à la fois avant de s'en débarrasser.
Pour une exploration plus approfondie de cette philosophie, vous pouvez consulter le livre N’espérez
pas vous débarrasser des livres, disponible sur des plateformes telles que Babelio. [En citant plusieurs
sources, dont celle-ci.] [J'ai vérifié personnellement, et contrairement à ce qu'affirme l'IA, aucune
mention de ce texte n'est faite dans le livre cité]

2.
Cette citation d'Umberto Eco provient de son livre "Cette chaire n'est pas une pipe" [Alternative :
Comment voyager avec un saumon. Nouveaux pastiches et postiches]
3.
Cette citation d'Umberto Eco provient de son essai "De Bibliotheca" (ou "La bibliothèque" en
français), écrit en 1981. Dans ce texte, Eco réfléchit sur la nature des bibliothèques, leur utilité et leur
signification culturelle.
Ce discours a été prononcé à l'origine lors de l'inauguration de la bibliothèque municipale de Milan.
Eco y développe sa vision sur la relation entre les lecteurs et leurs livres, défendant l'idée qu'une
bibliothèque personnelle abondante n'est pas un signe d'ostentation mais une nécessité intellectuelle
- une sorte de pharmacie de l'esprit où l'on peut trouver le remède approprié quand le besoin s'en fait
sentir.
Cette réflexion s'inscrit parfaitement dans la pensée d'Eco, qui était lui-même un collectionneur
passionné de livres et possédait une immense bibliothèque personnelle. Sa vision du livre comme
objet culturel dépassant largement sa dimension commerciale est une constante dans son œuvre. [J'ai
vérifié le discours prononcé lors de l'inauguration de la bibliothèque municipale de Milan, et cela n'a
rien à voir avec la citation]
4.
Cette citation souvent attribuée à Umberto Eco circule largement sur internet, notamment dans des
articles et discussions sur la bibliophilie, mais elle ne figure pas textuellement dans ses œuvres
publiées. Elle semble plutôt être une reformulation libre inspirée de ses idées sur les livres et la
culture, mélangée à des ajouts poétiques.
Origine probable : Un mélange d'inspirations
Umberto Eco était un grand bibliophile (il possédait plus de 30 000 livres) et a souvent défendu l'idée
qu'une bibliothèque personnelle est un "antidote à l'oubli", un outil de recherche bien plus qu'une
simple collection de livres lus.
Dans De Bibliotheca (1981, conférence), il compare les livres à des "remèdes" et évoque l'importance
d'avoir une réserve de savoir à portée de main.
Dans Sur les épaules des géants (2017), il parle des livres comme "outils" qu'on ne consulte pas
toujours, mais dont la présence est essentielle.
La métaphore des couverts/outils ressemble à des propos tenus par d'autres auteurs (comme Anatole
France ou Jorge Luis Borges), mais elle a été popularisée sous le nom d'Eco.
La version exacte de la citation semble issue de forums ou blogs (années 2000–2010), où des lecteurs
ont synthétisé ses idées avec une touche littéraire.
Citations vérifiables d'Umberto Eco sur le sujet
En voici une, plus authentique :
« La bibliothèque est une sorte de cerveau artificiel qui multiplie nos possibilités de mémoire. On n’a
pas besoin d’avoir lu tous les livres, mais ils doivent être là, comme une pharmacie où l’on trouve le
remède au bon moment. » (De Bibliotheca, 1981)

Pourquoi cette confusion ?
Eco a souvent parlé de l'accumulation culturelle et du rôle des livres comme "objets potentiels" plutôt
que consommables.
Le style de la citation apocryphe est proche de sa pensée, d'où son attribution erronée.
Conclusion
La citation est inspirée d'Eco, mais reformulée de manière créative. Pour retrouver sa vraie pensée,
mieux vaut se plonger dans ses essais (De Bibliotheca, Sur les épaules des géants) ou ses interviews.
Le saviez-vous ? Eco disait aussi : "Un livre non lu est plus utile qu’un livre lu, car il représente une
possibilité infinie." (idée reprise par Tzvetan Todorov).
*
Je vous fait grâce des autres réponses. Résultats :
1. La numéro 1 est fausse.
2. La numéro 2 propose faussement deux livres où la citation n'est pas mentionnée.
3. La numéro 3 est fausse, y compris la circonstance de la bibliothèque municipale de
Milan.
4. La numéro 4 est vraie.
En fait, j'ai demandé à 5 IA, qui m'ont fourni 4 réponses fausses, et 1 vraie. Si l'on y ajoute celle de
Grok, également vraie, cela me donne au final 6 IA consultées, 4 réponses fausses et 2 vraies. La
problématique est la suivante : lorsque vous consultez une IA, comment déterminer si les réponses
qu'elle vous fournit sont fausses ou vraies ? Il en va donc de l'IA comme de tous les médias en 2025,
ne jamais rien donner pour acquis, mais vingt fois sur le métier, recouper, recouper, et recouper
encore les infos et les sources ! [Début]

* * *

Intelligence artificielle. Post-Scriptum

Ce billet est le P.S. aux 4 blocs sur l'intelligence artificielle, durant la rédaction desquels je n'ai cessé
un seul instant de m'interroger sur ce qu'est véritablement l'IA et sur comment elle fonctionne. Je
vais tenter de fournir ici des réponses simples à ces questions compliquées.
En général, quand on ne connaît pas le sens d'un terme, on ouvre un dictionnaire. Au hasard, le
Robert :
Intelligence artificielle (IA)
ensemble des théories et des techniques développant des programmes informatiques complexes
capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…).

Intelligence artificielle générative, capable, à partir de grands volumes de données (textes, sons,
images…), de dégager des modèles et d'en générer de nouveaux, ou d'améliorer les modèles
existants.
En clair, l'IA développe des systèmes intelligents capables de fonctionner en mode autonome et
d'interagir avec leur environnement, en se basant sur trois piliers conceptuels : penser (la pensée,
l'analyse et le raisonnement), savoir (le savoir, l'apprentissage, la mémorisation et la gestion des
données) et agir (l'action, l'interaction, l'exécution, l'application concrète). Ces trois capacités
essentielles forment une boucle : le savoir alimente la pensée, la pensée guide l’action, tandis que les
retours d’expérience (rétroaction) vont enrichir à leur tour le savoir.

Chacune de ces capacités, qui simule diverses facettes de l’intelligence et de la cognition humaines et
s'en inspire, se traduit par des mécanismes algorithmiques, des modèles mathématiques et autres
techniques spécifiques.
Dans mon deuxième bloc sur l'IA, j'ai inséré un diagramme simple présentant le fonctionnement
d'une intelligence artificielle en quatre étapes, qui se superposent aux 3 piliers conceptuels et à la
boucle de rétroaction :
1. analyse de grandes quantités de données saisies (penser)
2. détection des constantes au moyen d'algorithmes (savoir)
3. exécution des tâches (agir)
4. apprentissage et amélioration des performances (rétroagir)
*
1. Analyse de grandes quantités de données saisies (penser)
L'IA n'a aucune capacité de "penser" par elle-même si elle ne se fonde en amont sur des données
pour l'alimenter et la former. Lorsqu'on parle d'intelligence pour une machine, un système ou autre,
il faut avant tout évoquer une aptitude à comprendre, toute « machine intelligente » dépendant de
facto d'une programmation pointue, permettant d’effectuer des tâches préformatées... Plus la
programmation est élaborée, plus la machine résulte « intelligente »...

Les données sont le carburant de l'IA, qui s'en nourrit voracement, vu les quantités énormes dont
elle a constamment besoin pour apprendre, en les traitant et les organisant... Elles sont essentielles
pour entraîner les modèles, sans données l'IA ne "pense" pas ! En revanche, plus elle en a, plus elle
est capable de "penser". Les volumes nécessaires peuvent aller de 1 Go à 100 Go pour des modèles
intermédiaires, voire de 100 To à plusieurs Po (à la louche, 1 Pétaoctet = 1 milliard de livres...)
pour les grands modèles de langage (LLM / Large Language Model).
En poursuivant l'analogie avec la pensée, nous pourrions dire que les LLM sont le "cerveau" que l'IA
se construit en partant des données, notamment grâce au développement de réseaux de neurones
artificiels, souvent basés sur des modèles de type Transformeur (dans ChatGPT, loin de la phonétique
française, GPT signifie Generative Pre-trained Transformer), une architecture de réseau
neuronal introduite en 2017 par Vaswani et al. (Google !) dans l'article "Attention is All You Need".
Dans un premier temps, la collecte des données consiste à rassembler différentes informations
(textes, images, sons, etc., bien que ce billet se limite au seul volet textuel). Et qui dit texte (et mots
écrits) dit traitement du langage naturel (NLP) multilingue, pour permettre à l’IA de comprendre et
d'interagir ensuite, en combinant, entre autres, analyse grammaticale, apprentissage profond (deep
learning) sur de vastes corpus, reconnaissance du contexte et des intentions. Toutefois, l'ensemble
de ces données provenant de sources diverses, elles sont toujours multi-formats, non structurées,
d'où la nécessité de les "tokéniser" en vue de standardiser un corpus.
En sécurité informatique, la tokénisation est le procédé permettant de remplacer une donnée critique
par un élément équivalent (un token, ou jeton) qui n’aura aucune valeur intrinsèque ou signification
exploitable une fois sortie du système, d'où la protection des données (sensibles) d'une entreprise. En
intelligence artificielle, tokéniser consiste à décomposer le texte en unités/entités plus petites
(tokens, ou symboles) : selon la méthode utilisée, il peut s'agir par exemple de mots, de sous-mots
ou de caractères. Prenez le mot "anticonstitutionnellement" :
1. tokénisé par mot : "anticonstitutionnellement" --> 1 mot = 1 token
2. tokénisé par sous-mot : "anti"-"constitutionnellement" --> 2 sous-mots = 2 tokens
3. tokénisé par caractères : "a" "n" "t" "i" "c" "o" "n" "s" "t" "i" "t" "u" "t" "i" "o" "n" "n" "e"
"l" "l" "e" "m" "e" "n" "t" --> 25 caractères = 25 tokens
Chaque token est encodé ensuite (en une valeur numérique, un identifiant unique) pour que le
modèle d'IA puisse le traiter. La tokénisation par caractères est plus flexible, plus simple à mettre en
œuvre (mais plus gourmande en ressources, et donc plus coûteuse), sans règles complexes, elle
permet de capturer la structure des mots à un niveau plus granulaire et de gérer tous les langages,
puisque tous utilisent des caractères (idéal pour les modèles multilingues, les langues peu
représentées, les mots inconnus).
Par contre il peut y avoir une perte de structure sémantique, elle peut être moins efficace pour saisir
le sens global. Une option pour l'utilisateur, selon ses besoins spécifiques, pourrait donc être de
retenir une approche hybride davantage équilibrée, combinant caractères et mots (ou sous-mots).
Quoi qu'il en soit, la tokénisation est un processus clé permettant de convertir le langage humain en
un format exploitable par les machines.
Quant à standardiser le corpus, cela signifie transformer les données brutes d'entrée d'un modèle
d'IA pour qu'elles aient des caractéristiques similaires et cohérentes. C'est une étape cruciale
du prétraitement des données, avant d'entraîner le modèle. Entraîner le modèle revient à analyser
les données pour y identifier des motifs et des relations.

Les motifs (patterns, en anglais) sont des "régularités", des caractéristiques récurrentes dans les
données. En phase d'apprentissage, l’IA extrait ces motifs en s’entraînant sur de nombreux exemples
pour pouvoir ensuite classer ou prédire correctement de nouveaux cas, ce qu'on appelle l'inférence.
La compréhension des relations contextuelles, entre mots d'une séquence, y compris éloignés, entre
phrases, sémantiques ou syntaxiques complexes est cruciale pour une IA, notamment pour mieux
comprendre comment répondre aux questions qui lui sont posées.
C'est la capacité de raisonner de manière multimodale (en intégrant des informations provenant de
différentes modalités sensorielles, textes, images, sons, etc.), causale et flexible d'une IA, qui ne
peut pas aller au-delà des corrélations apprises à travers les données. Tout au moins jusqu'à présent.
Car avec l'arrivée en force des agents ou du protocole A2A (Agent to Agent) de Google et
du protocole MCP d'Anthropic, les intelligences artificielles vont s'autonomiser toujours davantage,
en communiquant et en collaborant de façon fluide directement entre agents, sans plus passer par
aucun dialogue avec des opérateurs "humains". Ce qui soulève quelques problèmes éthiques, hors
du périmètre de ce billet.
Le raisonnement conduit à la prise de décisions, logiques et non hallucinées espérons-le, à la
résolution des problèmes, aux inférences (prédictions sur de nouvelles données en utilisant les
connaissances acquises lors de l'entraînement du modèle), à la planification d'actions futures, etc.
Tout cela grâce aux algorithmes...
*
2. Détection des constantes au moyen d'algorithmes (savoir)
Toute IA se fonde sur des algorithmes et des modèles mathématiques sophistiqués. La différence
entre les deux est que le modèle est le résultat ou la structure mathématique qui encapsule la
connaissance apprise à partir des données, tandis que l’algorithme est le processus qui permet
d’obtenir ce modèle et de l’utiliser. Selon la thèse de Church Turing, s'il existe un algorithme pour
résoudre un problème, un ordinateur peut être programmé pour implémenter cet algorithme :
1. l'algorithme consiste en un ensemble fini d'instructions simples et précises qui sont
décrites avec un nombre limité de symboles ;
2. l'algorithme doit toujours produire le résultat en un nombre fini d'étapes ;
3. l'algorithme peut en principe être suivi par un humain avec seulement du papier et un
crayon ;
4. l'exécution de l'algorithme ne requiert pas d'intelligence de l'humain sauf celle qui est
nécessaire pour comprendre et exécuter les instructions.
Vous pouvez avoir jusqu'à une cinquantaine d'algorithmes différents pour construire et entraîner un
grand modèle de langage, selon la complexité du modèle et de l’application. Ces algorithmes incluent
le prétraitement (tokenisation, normalisation), l’architecture (Transformers), l’optimisation (Adam),
la régularisation (dropout), l’évaluation (validation croisée), et le post-traitement (quantification,
fine-tuning). Ici mon but n'est pas de rentrer dans les détails techniques (nous sommes dans de la
très haute ingénierie), mais juste de donner une idée de la complexité du processus.
Et lorsque le modèle d'IA compte des centaines de milliards de paramètres et plusieurs milliards de
mots (l'entraînement de GPT-3 a porté sur 175 milliards de paramètres, et GPT-4 entraîne son
modèle sur des milliards de textes - sans divulguer exactement la quantité ni combien de paramètres
- pour prédire le mot suivant...), qu'ils soient généraux ou spécialisés, les corpus leur servant
d'entraînement sont proportionnés :

• C4 (Colossal Clean Crawled Corpus), de Google, un corpus massif basé sur des données
extraites du Web, nettoyées, représente environ 750 Go de texte brut, soit plusieurs
centaines de milliards de mots, y compris en versions multilingues (mC4).
• arXiv a des dizaines de milliards de mots, environ 1,5 million d’articles scientifiques en
libre accès (principalement informatique, physique, mathématiques)
• Les datasets (ou jeux de données) de Twitter (désormais X) comptent des milliards de
messages
• CC-100 : un corpus massif issu de Common Crawl, couvrant une centaine de langues avec
294,58 milliards de tokens, idéal pour les tâches multilingues.
• OPUS (Open Parallel Corpus), qui collecte des corpus parallèles pour la traduction
(incluant des sous-titres, des documents officiels, des textes littéraires) rassemble des
milliards de paires de phrases, alignées, dans plus de 100 langues.
Quant aux milliards de paramètres au cœur des performances des IA modernes, avec des
perspectives d’optimisation croissantes et rapides, il s'agit pour le plus des poids numériques (et
des biais) en virgule flottante, stockés dans des matrices au sein des couches d’un réseau neuronal
(comme un Transformer). Ils encodent les connaissances apprises à partir des données massives et
sont essentiels pour l'apprentissage du réseau et la modélisation des fonctions complexes.
À titre d'anecdote (!), l'IA chinoise Wu Dao 2.0, la plus puissante à ce jour, tourne avec 1750 milliards
de paramètres... Ceci n'est qu'un bref exemple de fonctionnement et d'une partie des ressources
nécessaires, qui suffit cependant à donner un aperçu de l'énormité de la chose. Qui doit forcément
reposer sur des puissances de calcul à la hauteur !
Dans mon précédent billet sur « La quatrième révolution civilisationnelle : l'informatique quantique »,
j'indiquais que l'informatique "classique" (très haute performance, quand même) était déjà en
mesure d'effectuer 125 millions de milliards d'opérations en virgule flottante par
seconde (125 pétaflops) de performances maximales grâce à 4000 milliards de transistors et 900 000
cœurs de calcul optimisés pour l'IA :
Le système CS-3 est conçu pour entraîner des modèles de langage 10 fois plus grands que GPT-4 et
Gemini, pour ne citer qu'eux. Il s'appuie pour cela sur un important système de mémoire pouvant
atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de paramètres peuvent être stockés
dans un seul espace mémoire logique sans partitionnement ni remaniement, assure Cerebras. (...) Les
configurations compactes à quatre systèmes permettent d'affiner des modèles de type 70B en une
journée, tandis qu'à grande échelle, en utilisant 2048 systèmes, Llama 70B peut, par exemple, être
entraîné à partir de rien en une seule journée.
(Source : L'Usine digitale). Où 70B signifie 70 milliards de paramètres...
Évidemment, plus les capacités des processeurs sont élevées, plus ces milliards de paramètres et
d'opérations ne prennent que quelques secondes pour être traités ! Les processeurs matures
actuellement utilisés, tels que GPU (jusqu’à 30 téraFLOPS pour un NVIDIA A100) ou TPU (180
téraFLOPS par module TPU), seront largement inférieurs aux nouveaux processeurs photoniques
lorsque ceux-ci auront atteint leur maturité, ce qui n'est pas encore le cas, mais les résultats
annoncés sont ... (je vous laisse remplir avec le qualificatif qui convient !) :
Le processeur photonique peut fonctionner (avec des erreurs intermittentes) à une fréquence
d’horloge de 2 GHz, soit 262 000 milliards d’opérations adaptatives en virgule flottante par blocs de
16 bits – ABFP16 – par seconde.

Passage extrait de l'article Universal photonic artificial intelligence acceleration, approuvé par la
revue Nature le 3 mars 2025. Pour UN (1) processeur ! En attendant la mise en service
du supercalculateur exaflopique Jules Verne (on parle de 10
18
, soit un milliard de milliards
d'opérations par seconde...), qui devrait être opérationnel dès la fin de l'année auprès du Très Grand
Centre de Calcul (TGCC) du CEA et opéré par le GENCI.
Et ceci sans mettre l'informatique quantique dans l'équation : la Chine dévoile un ordinateur
quantique un million de milliards de fois plus rapide que les superordinateurs existants. Laissons
tomber, c'est sans fin ! Non, nous n'avons résolument aucune idée de ce que sera réellement
la convergence SUP²...
*
3. Exécution des tâches (agir)
Juste pour commencer par un exemple d'application concrète en IA : le développement de nouveaux
médicaments grâce à la "simulation moléculaire". Il s'agit de modéliser la manière dont les particules
interagissent à l'intérieur d'une molécule pour tenter de créer une configuration capable de
combattre une maladie donnée :
Ces interactions sont incroyablement complexes et peuvent prendre de nombreuses formes
différentes, ce qui signifie qu'une prédiction précise du comportement d'une molécule sur la base de
sa structure nécessite d'énormes quantités de calculs.
Il est impossible de le faire manuellement, et l'ampleur du problème est également trop importante
pour les ordinateurs classiques actuels. En fait, on estime que la modélisation d'une molécule de
seulement 70 atomes prendrait jusqu'à 13 milliards d'années à un ordinateur classique. (...)
Les ordinateurs quantiques ont toutefois le potentiel de résoudre un jour le problème de la simulation
moléculaire en quelques minutes.
Avec l'informatique classique, nous avons déjà une idée des délais de développement d'un nouveau
médicament (entre 12 et 15 ans), et de l'ambition des grands laboratoires de réduire cette période
de moitié grâce à l'IA. Donc, dans l'attente de la suprématie quantique, et bien qu'en partie le
quantique soit déjà opérationnel, contentons-nous de ce qui existe actuellement, et ce n'est pas
peu !
L'IA agentique est déjà réalité, et dans la capacité d'interaction de l'IA avec son environnement et
d'exécuter des actions physiques ou numériques en vue d'atteindre divers objectifs, on pense
souvent au contrôle de la robotique, aux systèmes et véhicules autonomes (voitures, drones, taxis...),
ou encore à l'automatisation via des agents logiciels. C'est ce dernier volet que je souhaite aborder
ici.
Où l'on entend par automatisation les programmes et entités logicielles, autonomes (à savoir
prenant des décisions sans intervention) ou semi-autonomes (qui nécessitent la supervision d'un
opérateur), souvent basés sur des LLM, qui exécutent des tâches complexes (traduction multilingue,
analyse scientifique, gestion industrielle) avec un minimum d’intervention humaine :
• La prise de décision permet de choisir l'action optimale en fonction de l'objectif fixé
• L'interaction physique contrôle les dispositifs pour effectuer des tâches en réel
• L'interaction numérique gère les interfaces utilisateur, les robots conversationnels ou les
systèmes automatisés

• L'adaptabilité permet d'ajuster les actions en temps réel selon les changements dans
l’environnement
La capacité d'action d'une IA implique donc une prise de décisions basées sur sa "pensée" et son
"savoir", chaque action lui permettant en retour d'obtenir davantage d'informations sur
l'environnement, pour mieux réagir aux nouvelles situations et adapter ses actions selon les
changements ou les objectifs, y compris l'apprentissage de nouvelles tâches et l'ajustement en temps
réel de ses stratégies. Par conséquent les résultats génèrent au fur et à mesure de nouvelles
connaissances, dans une boucle de rétroactions et d'adaptation.
*
4. Apprentissage et amélioration des performances (rétroagir)
Une IA robuste et polyvalente est capable d'équilibrer ces trois dimensions, interconnectées :
penser, savoir, agir. Dans ce cadre, l’apprentissage par renforcement (Reinforcement learning)
permet de développer des algorithmes plus efficaces pour explorer et exploiter les différents
environnements, ou de simuler des environnements riches pour entraîner les IA à la gestion de
scénarios complexes.
À ce type d'apprentissage s'ajoutent deux sortes de rétroactions : le retour d'informations par
l'humain (RLHF / Reinforcement Learning from Human Feedback), et le retour d'informations par
(une ou plusieurs) IA (RLAIF / Reinforcement Learning from AI Feedback) :
Les avantages du RLHF sont les suivants
• Alignement du modèle amélioré sur les préférences humaines : avantage fondamental,
qui permet aux LLM de comprendre et de générer des réponses non seulement
grammaticalement correctes mais aussi utiles, pertinentes, inoffensives et conformes
aux valeurs humaines.
• Meilleures performances sur les tâches complexes et nuancées : le feedback humain aide
le modèle à gérer des tâches qui impliquent des préférences, des jugements ou des
valeurs subtiles, chose essentielle pour les applications conversationnelles ou la création
de contenu.
• Réduction des comportements indésirables : crucial pour minimiser la génération de
contenus biaisés, toxiques, dangereux, factuellement incorrects (hallucinations) ou
répétitifs. Les évaluateurs humains peuvent pénaliser les réponses non vérifiables.
• Expérience utilisateur améliorée : les modèles affinés grâce au RLHF offrent des
interactions plus naturelles, intuitives et personnalisées, notamment via les préférences
utilisateurs.
• Adaptabilité et amélioration continue : grâce au processus itératif du RLHF, les modèles
s'adaptent et s'améliorent continuellement en fonction des interactions des utilisateurs
et des nouveaux retours.
• Efficacité accrue pour les paramètres complexes : le feedback humain est plus efficace
que des règles ou des métriques techniques pour des paramètres d'entraînement
subjectifs (comme l'ambiance d'un texte ou la créativité d'une histoire).
Les inconvénients
• Coût et intensité en ressources humaines : collecter les données de préférences
humaines est extrêmement coûteux, chronophage et laborieux, en exigeant une grande

quantité de jugements humains de haute qualité. Recruter, former et gérer les
évaluateurs est à la fois un défi logistique et humain, et un surcoût financier.
• Biais du feedback humain : les jugements humains sont intrinsèquement subjectifs et
peuvent être influencés par les préférences, les valeurs, les expériences, voire les biais
culturels des évaluateurs. Sans oublier les incohérences, ou parfois la malveillance des
évaluateurs, qui dégradent la qualité du feedback. Il est pour le moins nécessaire d'avoir
un pool d'évaluateurs diversifié.
• Difficultés de généraliser à de nouveaux contextes : il se peut que le modèle rencontre
des contextes ou des prompts (invites) inattendus, pour lesquels il n'a eu aucun feedback
direct. Dans ces cas-là, la robustesse du modèle peut montrer ses limites et conduire à
des "hallucinations", des comportements indésirables.
• Complexité et instabilité de l'entraînement : le processus de conception d'une fonction
de récompense* efficace et stable peut s'avérer opaque et insuffisant (imaginez le cas
d'un évaluateur humain répondant systématiquement "Je ne sais pas" pour éviter tout
risque de mauvaise note). Cela peut parfois rendre le comportement du modèle difficile
à comprendre.
• Risques de sur-alignement et manque de créativité : si le modèle est trop fortement
aligné sur les préférences moyennes des évaluateurs, il peut devenir trop "prudent" ou
"générique", et risque de perdre une partie de sa créativité, de sa diversité ou de sa
capacité à explorer des réponses nouvelles et inattendues.
• Contournement des mesures de sécurité (jailbreaking) : le RLHF vise à rendre les
modèles plus sûrs, entraînés pour ne pas générer de contenu nocif en conditions
normales, mais des prompts ingénieux pourraient le forcer à le faire, en révélant un
alignement superficiel.
* Je voudrais insister ici sur le mécanisme de la "récompense" (reward), fondamental dans
l'évaluation d'une IA. En réalité, la récompense n'est autre qu'un signal numérique indiquant à un
modèle d'IA si son action ou sa réponse est "bonne" ou "mauvaise" par rapport à l'objectif
fixé. L'attribution des récompenses par un humain se déroule comme suit : l'évaluateur note des
réponses d'IA de 1 à 5, par exemple. Un modèle de récompense (reward model) est entraîné pour
prédire ces notes, et l'IA optimise ses réponses pour maximiser la récompense prédite. Exemple :
ChatGPT préfère des réponses utiles et polies car son modèle de récompense a appris que les
humains favorisent cette manière de répondre.
Donc, de fait, le RLHF reste la méthode la plus efficace pour aligner les IA complexes sur des critères
subjectifs, mais son succès dépend :
• de la qualité des annotateurs (diversité, expertise),
• de la robustesse du modèle de récompense,
• d'éventuels compléments techniques (combinaison de plusieurs modèles de récompense
pour équilibrer les biais, par exemple).
Pour autant, les défis liés aux coûts, à la qualité et aux biais du feedback humain, poussent à la
recherche de solutions alternatives, comme le RLAIF, dans la perspective de réduire à terme la
dépendance aux humains (!).
- - -
Les avantages du RLAIF sont les suivants

• Scalabilité et rapport coût-efficacité : avantage le plus significatif, compte tenu des coûts
et de la lenteur relative du déploiement à grande échelle du feedback humain. Les
évaluateurs IA peuvent générer des retours d'informations beaucoup plus rapidement, à
un coût significativement moindre, et permettent un entraînement sur d'immenses
volumes de données. La mise à l'échelle du RLAIF permet de générer des volumes
massifs de données de feedback, chose essentielle pour entraîner des modèles toujours
plus grands et complexes (là où le feedback humain serait vite un goulot
d'étranglement).
• Réduction des biais humains et consistance du feedback : lorsque les principes de
jugement d'une IA sont définis clairement et sans biais, cela permet de réduire les biais
humains dans le processus d'alignement. S'il est bien conçu, un évaluateur IA peut
appliquer des règles de jugement plus cohérentes et objectives que des humains, dont
les préférences sont souvent changeantes, et réduire ainsi la variabilité du feedback.
• Vitesse d'itération : accélération considérable du feedback, ce qui permet des cycles
d'itération et d'amélioration des modèles beaucoup plus rapides, un facteur d'une
importance cruciale pour un développement accéléré des LLM.
• Exploration de comportements et performances accrues : les évaluateurs IA peuvent être
programmés pour évaluer des comportements très spécifiques ou rares, potentiellement
difficiles à définir pour des humains.
• Qualité des réponses et de l'éthique du modèle : certains résultats suggèrent que les
modèles RLAIF sont moins susceptibles de fournir des réponses évasives dans le cas de
requêtes sensibles, tout en restant inoffensifs. De même, un évaluateur IA peut être
programmé pour respecter des règles éthiques prédéfinies, en garantissant ainsi que le
modèle reste aligné sur des normes éthiques bien précises.
• Flexibilité et adaptabilité : les évaluateurs IA peuvent être rapidement mis à jour ou
reprogrammés pour s'adapter à de nouveaux critères d'évaluation ou à de nouvelles
exigences de performance. Par ailleurs, les modèles entraînés par RLAIF peuvent
atteindre des performances comparables, voire supérieures, à ceux entraînés par RLHF
sur certaines tâches, notamment en matière de concision, de factualité et d'absence de
toxicité.
Les inconvénients
• IA vs. humain, une question de préférence : l'évaluateur IA peut finir par aligner le
modèle sur ses propres "préférences d'IA", plutôt que sur les préférences humaines
réelles. S'il contient des biais ou des lacunes, cela sera propagé et amplifié dans le
modèle final. Défi majeur : l'évaluateur IA peut hériter ou développer ses propres biais,
ce qui l'éloignera potentiellement des véritables préférences humaines ou introduira de
nouvelles formes de biais.
• Manque de nuance humaine et détérioration de certains aspects : certaines nuances du
comportement humain sont difficiles à incorporer dans des principes ou des règles pour
un évaluateur IA. Les évaluateurs IA peuvent avoir du mal à saisir les subtilités, l'humour,
le sarcasme, l'empathie ou la créativité, autant de facteurs essentiels pour une
interaction véritablement "humaine". Ils peuvent également optimiser des métriques
sans en saisir les intentions profondes sous-jacentes. Sur certains aspects, l'inoffensivité
des réponses peut parfois en diminuer légèrement l'utilité ou la justesse par rapport au
RLHF.

• Dépendance à la qualité de l'évaluateur IA : la performance du modèle final dépend
fortement de la capacité de l'IA juge de comprendre et d'appliquer correctement les
principes de jugement définis. Si l'évaluateur IA n'est pas lui-même suffisamment
performant ou bien aligné, le feedback généré sera de mauvaise qualité, d'où une
performance dégradée du modèle final, ce qui peut conduire à un cercle vicieux.
• Manque d'explicabilité des décisions de l'IA juge : comprendre pourquoi un évaluateur IA
a pris une certaine décision ou attribué un certain score peut être opaque, ce qui rend le
débogage et l'amélioration du processus plus difficiles.
• Risque de reward hacking* de l'évaluateur IA : de même qu'avec un feedback humain, le
modèle entraîné peut apprendre à contourner l'IA juge, en trouvant des façons d'obtenir
des scores élevés sans pour autant fournir des réponses optimales d'un point de vue
humain.
• Défis de mise en œuvre technique : implémenter un système RLAIF efficace peut s'avérer
complexe du fait de la nécessité d'interagir entre deux modèles (le modèle à entraîner et
l'évaluateur IA), et de formuler des principes de jugement sans équivoque. Si le modèle
apprenant et le modèle juge sont trop similaires (cas de deux LLM), cela peut créer des
boucles de renforcement des erreurs.
* La encore, il s'agit de récompense, et plus explicitement de "fraude à la récompense" (ou
d'optimisation abusive de la récompense) : phénomène indésirable lorsqu'un agent (un modèle d'IA,
dans ce cas) apprend à maximiser la fonction de récompense sans pour autant atteindre l'objectif
sous-jacent souhaité par les développeurs. L'IA, qui trouve là une faille ou une faiblesse dans la façon
dont la récompense est définie, l'exploite pour obtenir un score plus élevé, mais de manière non
intentionnelle, voire préjudiciable.
Bien que le RLAIF soit une avancée majeure pour "démocratiser" l’alignement des IA, il ne remplace
pas totalement le RLHF mais doit être privilégié pour des tâches objectives et scalables (ex. :
classification, génération de code). Pour des problématiques plus subtiles (l'éthique, les interactions
sociales), il y a tout intérêt à l'associer au RLHF afin d'obtenir des résultats mieux équilibrés. Sa
réussite dépendra de l’amélioration des modèles juges (évaluateurs IA) et de la gestion des biais
hérités.
*
Conclusion
Ce billet n'est qu'un saupoudrage, très très superficiel, de ce qu'est une IA et de la manière dont elle
fonctionne. Dans la réalité, c'est de la très haute ingénierie, tout est très compliqué, souvent difficile
à appréhender, donc traduire ça en mots simples était un défi. J'espère l'avoir relevé, en tout cas
c'était passionnant à écrire, je souhaite que ça le soit autant pour vous à le lire. Je reste ouvert à
toute critique et suggestion.