En 2025, les LLM (Large Language Models) sont devenus l'ossature de l'IA générative en entreprise : assistants métier, synthèse de documents, aide au code, moteurs de recherche internes?
Pour décider quoi déployer (et comment), il faut comprendre ce qu'est un LLM, d'où il vient, comment il apprend, ce qu'il permet et quels risques encadrer.
Un LLM est un modèle neuronal (le plus souvent un Transformer) qui génère du texte en prédisant le prochain ?token? (morceau de mot) à partir du contexte. En répétant cette tâche sur d'immenses corpus, il apprend des régularités linguistiques et factuelles réutilisables dans de nombreux usages (réponse, résumé, traduction, code).
Pour faire simple, un LLM, ou Large Language Model (grand modèle de langage), est un programme d'intelligence artificielle qui apprend à comprendre et à produire du texte.
Pour fonctionner, il analyse d'énormes quantités de textes (livres, articles, pages web?) et repère les liens entre les mots. Ensuite, quand on lui pose une question ou que l'on donne un début de phrase, il devine quel mot ou groupe de mots devrait venir ensuite pour que la phrase ait du sens. En répétant ce travail des millions de fois, le LLM devient capable de tenir une conversation, d'expliquer un sujet, de résumer un texte, de traduire, ou même d'écrire du code informatique.
Avant l'IA moderne, on faisait du language modeling avec des n-grammes : on calculait la probabilité des suites de mots (« le mot B après A »). Cette approche, née avec Shannon (1951), a régné jusqu'aux années 2010, utile en reconnaissance vocale et traduction « statistique ».
Les lois d'échelle (scaling laws, 2020) montrent alors que : plus de données et de paramètres = meilleurs résultats, mais avec un coût matériel élevé (entraînement distribué, beaucoup de GPU).
Deux branches se distinguent ensuite
Dans les deux cas, on part d'un pré-entraînement massif, puis on adapte légèrement (fine-tuning, instructions, ou simple prompting) pour la tâche métier.
But : donner au modèle une « culture générale » du langage.
Données : de très grands volumes de textes publics (livres, articles, pages web?).
Tâche : deviner des mots manquants ou prédire le prochain ?token? (un token = un morceau de mot ou un mot).
Deux variantes courantes :
Ce que ça lui apprend : grammaire, style, faits fréquents, relations entre concepts? bref, les règles et régularités de la langue.
Image mentale : c'est comme un entraînement « remplir les blancs » et « deviner la suite » répété des milliards de fois, jusqu'à développer des réflexes linguistiques très solides.
But : spécialiser le modèle pour votre usage.
Fine-tuning (affinage) : on ré-entraîne légèrement le LLM sur des exemples proches de la tâche visée (par ex. notices techniques, mails SAV, consignes internes).
Prompting : on ne ré-entraîne pas le modèle ; on lui donne une consigne claire (le prompt) et parfois quelques exemples dans la question (few-shot).
Choix pratique :
But : obtenir des réponses utiles, sûres et conformes.
Étape 1 ? Retours humains : des annotateurs comparent plusieurs réponses du LLM et indiquent la meilleure (plus claire, moins risquée, plus utile).
Étape 2 ? Modèle de récompense : on entraîne un petit modèle à prédire ces préférences humaines.
Étape 3 ? Ajustement : on optimise le LLM pour maximiser cette « récompense » (souvent avec une méthode appelée PPO, un algorithme de renforcement).
Résultat : le LLM privilégie les réponses qui ressemblent à ce que des humains compétents attendent (pertinence, politesse, prudence).
But : faire apprendre sur le moment, sans ré-entraînement.
Zero-shot : une consigne bien écrite suffit parfois (« Explique ce texte à un débutant? »).
Few-shot : on ajoute 1 à 3 exemples de question?réponse pour montrer le format attendu.
Chaînes de raisonnement (Chain-of-Thought) : on demande explicitement au modèle de raisonner en étapes (« explique ton calcul pas à pas »).
Limite naturelle : le modèle ne peut pas « inventer » une langue ou un domaine jamais vus au pré-entraînement ; si la connaissance n'existe pas ou est rare, il faut ajouter des données (fine-tuning) ou brancher des documents (RAG, base de connaissances).
En résumé :
En 2025, les LLM servent avant tout de couche d'assistance métier qui s'adapte au contexte de l'entreprise :
Pourquoi ça fonctionne ? Parce qu'un LLM prédit le prochain « token » (morceau de mot) en tenant compte du contexte (vos données, votre consigne prompt). Plus le contexte est bien cadré (ex. RAG + consignes + gabarits de sortie), plus la réponse colle à votre réalité. Côté pilotage, on mesure l'impact par KPI métiers : temps gagné par ticket, délai de mise sur le marché, taux de résolution au premier contact, etc.
Concrètement, les gains ne sont pas uniformes : les tâches structurées et répétitives (synthèses, brouillons, réponses types) profitent le plus ; les tâches critiques (décision, conformité) exigent toujours validation humaine et règles de gouvernance.
OCDE, AI Paper n° 39 (20 juin 2025) : les études expérimentales confirment des gains de productivité et d'innovation, mais hétérogènes selon les tâches, les compétences et l'organisation. Vous devez donc outiller (donner l'accès aux données, RAG), former vos équipes et redessiner les processus là où l'IA apporte réellement de la valeur.
McKinsey (2023) : la valeur économique potentielle de l'IA générative est estimée entre 2,6 et 4,4 trillions $ par an, sur 63 cas d'usage et 16 fonctions (customer operations, marketing & sales, software engineering, R&D...). Côté mise en ?uvre, la capture de cette valeur dépend du rythme d'adoption, de la qualité des données et de la réingénierie des processus.
Preuve micro (développeurs) : un essai contrôlé (GitHub Copilot) montre des tâches réalisées 55,8 % plus vite ; utile pour estimer des gains sur des activités similaires (rédaction de brouillons techniques, génération de tests, doc). Attention, cependant, la qualité finale dépend toujours de la revue et des standards internes.
En résumé, les LLM sont un socle polyvalent qui, bien inséré dans vos flux (données + prompts + gouvernance), transforme des minutes perdues en productivité mesurable, tout en gardant la validation humaine sur ce qui engage la conformité, la sécurité et la relation client.
Patrick BERTHET - Expert Web