L’IA Générative pour les nuls

L’IA Générative pour les nuls
L’IA Générative pour les nuls

L’IA générative qu’il s’agisse de modèles de langage comme GPT, Bard ou Llama, ou d’outils d’image comme DALL·E ou MidJourney ne “comprend” pas vraiment ce qu’elle produit. Elle brasse simplement des montagnes de données avec des calculs statistiques pour deviner, au mieux, ce qui a le plus de chances de coller à ce qu’on lui demande.


Un ordinateur, c’est uniquement des mathématiques

  • Un processeur informatique ne sait faire qu’une seule chose : des calculs mathématiques (additions, multiplications, matrices).
  • Pour qu’un texte ou une image puisse être traité par un ordinateur, il faut le convertir en une forme mathématique.

L’IA ne comprend pas le langage comme un humain, elle ne fait que manipuler des nombres.


Les mots en chiffres (ou comment l’IA fait sa tambouille avec le langage)

🔹 Découpage du texte (tokenisation)

Bon, pour commencer, l’IA ne lit pas vraiment. Elle découpe.
Elle prend une phrase et elle la coupe en petits bouts, qu’on appelle des tokens. Rien de très poétique.

Exemple tout bête :

  • Phrase : "L’IA générative n’est pas magique."
  • Tokens : ["L’", "IA", "générative", "n’", "est", "pas", "magique", "."]

C’est pas qu’elle comprend ces mots — elle les prépare juste à être transformés en chiffres. Comme un cuistot qui épluche des patates sans savoir ce qu’il va en faire.

🔹 Encodage : des mots aux vecteurs

Une fois les bouts découpés, l’IA les transforme en vecteurs. C’est juste une façon mathématique de représenter un mot.
Chaque mot devient une série de nombres, dans un espace avec plein (vraiment plein) de dimensions.

Genre :

MotVecteur (exemple)
Roi[0.23, 0.67, -0.12, 0.88]
Homme[0.55, -0.30, 0.91, 0.44]
Femme[0.60, 0.28, -0.75, 0.92]

Et à partir de là, elle peut faire des trucs un peu étranges comme :

📊 "Roi" - "Homme" + "Femme" = "Reine"

Ça a l’air malin, mais ça reste des maths, pas de la magie noire.
L’IA ne comprend pas ce qu’est un roi ou une reine. Elle ne fait que manipuler des formes, des motifs statistiques. En vrai, elle est très bonne pour faire illusion, mais elle n’a aucune idée de ce qu’elle dit.


L’IA ne pense pas, elle devine le mot d’après

Le truc à comprendre avec les IA génératives, c’est qu’elles n’inventent rien. Elles prédisent.
Elles apprennent en bouffant des montagnes de textes, et elles repèrent quels mots reviennent souvent ensemble. Pas plus.

Quand tu lui demandes une phrase, elle ne se dit pas “tiens, je vais être créative”. Non. Elle regarde tous les mots qu’elle connaît et fait un calcul pour savoir lequel a le plus de chances de venir ensuite.

Prenons un exemple tout simple :
➡️ "Le ciel est..."

L’IA va sortir une liste avec des probabilités genre :

MotProbabilité
"bleu"78 %
"vert"10 %
"nuageux"5 %
"triste"3 %

Et paf, elle balance “bleu”, parce que c’est celui qui a le plus de chances de coller. Rien à voir avec de l’intuition ou de l’imagination. C’est juste de la statistique déguisée en prose.


Le rôle des prompts : comment parler à une IA

Un prompt, c’est juste le texte que tu envoies à l’IA pour qu’elle te réponde. Rien de plus.
Mais c’est là que tout se joue : si ton prompt est clair, la réponse a des chances d’être bonne. S’il est flou ou mal foutu, ben... t’auras un résultat bancal.

Exemples de prompts pour générer du texte :

  • “Explique-moi la relativité en 5 phrases.”
  • “Raconte une histoire d’un astronaute qui se perd dans l’espace.”
  • “File-moi une recette de gâteau au chocolat.”

Et pour générer des images :

  • “Dessine un chat robotique style cyberpunk.”
  • “Fais un paysage de montagne au coucher du soleil.”

💡 En gros : bon prompt = bonne réponse.
Un peu comme poser une question à quelqu’un : si t’es vague, tu risques d’avoir une réponse vague.


Comment l’IA comprend ce qu’on lui demande ?

Quand tu balances un prompt à une IA, elle ne le comprend pas comme toi ou moi. En gros, il se passe plusieurs trucs en coulisses :

1. Elle découpe tout

Elle commence par hacher le texte en petits morceaux, qu’on appelle des tokens. C’est sa manière à elle de bosser, elle découpe pour mieux traiter.

2. Elle fait des calculs

Ensuite, elle regarde ces morceaux et les compare à des tonnes de trucs qu’elle a déjà vus pendant son entraînement : des livres, des sites web, des forums, etc. Elle ne comprend pas le sens profond, mais elle repère les combinaisons de mots qui reviennent souvent ensemble.

Et c’est là qu’arrive l’astuce des Transformers :

Les modèles comme GPT sont construits sur une architecture qu’on appelle Transformer. C’est le cœur du système, celui qui fait toute la différence avec les anciens modèles.

Au lieu de lire un texte mot après mot comme un humain qui suit une ligne, le Transformer regarde tout en même temps. Il est capable de repérer les liens entre les mots, même quand ils sont à l’autre bout de la phrase.

Ce mécanisme là, on l’appelle l’attention. En gros, le modèle “fait attention” à certains mots plus qu’à d’autres, en fonction de leur importance dans la phrase. C’est ce qui lui permet, par exemple, de "comprendre" que dans "elle a dit à son frère qu’il pouvait venir", le "il" parle sans doute du frère, et pas de quelqu’un d’autre au pif.

Bref, c’est pas de la compréhension au sens humain, mais c’est une bonne mécanique pour repérer les bons patterns au bon moment.

3. Elle essaie de deviner la suite

Elle construit sa réponse mot après mot (ou bout par bout), en fonction de ce qui lui semble le plus probable. Elle cherche pas “la vérité” — juste la suite qui, selon elle, colle le mieux avec ce qu’elle connaît.

4. Et elle s’adapte au style

Si tu lui dis “fais-le drôle” ou “en cinq phrases”, elle ajuste. Elle n’invente pas vraiment un style, elle suit les consignes qu’elle détecte dans ton prompt.


Pourquoi elle peut dire n’importe quoi

Une IA générative peut parfois sortir des énormités. Pourquoi ? Parce qu’elle ne vérifie rien.

Elle ne sait pas si ce qu’elle dit est vrai ou faux. Elle se base uniquement sur les modèles statistiques qu’elle a appris. Donc si elle a vu plein de fois une fausse info, elle risque de la ressortir. Et si elle n’a rien de solide à se mettre sous la dent ? Elle invente. C’est ce qu’on appelle une hallucination.

Exemple :

“Qui a inventé la machine à voyager dans le temps ?”
✔️ Réponse correcte : “Personne, c’est de la science-fiction.”
❌ Réponse IA possible : “John Smith, en 1885.”

👉 Elle n’a pas fait exprès de mentir. Elle a juste combiné des bouts de phrases qui lui semblaient logiques, sans se poser la question de la réalité.


Et les biais, alors ?

Même quand une IA donne l’impression d’être neutre, en vrai, elle ne l’est pas forcément. Elle est juste le miroir des textes sur lesquels elle a été entraînée.
Et ça veut dire quoi ? Ben qu’elle peut répéter, voire amplifier, des biais culturels, sociaux, politiques ou idéologiques qu’elle a “appris” sans les remettre en question.

Prenons un exemple :
Si la majorité des textes d’entraînement viennent d’une seule partie de la population ou véhiculent des clichés, l’IA va absorber ça. Elle ne sait pas faire la différence entre une info sérieuse, une opinion, une blague ou une phrase un peu douteuse. Elle recrache ce qui lui semble statistiquement “être une bonne réponse”.

Moralité : faut garder l’esprit critique. Même quand la réponse paraît bien tournée, elle n’est ni toujours vraie, ni vraiment objective.


Ce qu’il faut retenir

  • Un processeur, ça fait juste des calculs. C’est tout.
  • L’IA transforme les mots en chiffres pour bosser dessus.
  • Elle ne comprend rien au fond. Elle prédit juste ce qui vient après.
  • Elle peut halluciner, inventer, sortir un truc faux sans s’en rendre compte.
  • Un prompt clair et bien pensé aide beaucoup à avoir une réponse qui tient la route.
  • Et surtout : elle peut reproduire les biais des textes qu’elle a lus. Donc, méfiance toujours.
P.S. Ce texte a été rédigé par mes soins, avec un petit coup de main de l’IA pour reformuler certaines phrases et corriger quelques fautes. Comme quoi, même quand on en parle, elle peut servir.