Introduction aux LLMs et à leurs usages en Product Management
On ne compte plus les posts qui vantent l’utilisation de l’IA pour les PMs. Mais est-ce que tu sais ce qu’est un LLM ? Comment cela fonctionne ? Et comment tu peux les utiliser ?
Commençons par expliquer le concept à ta grand-mère
Imagine que c’est un super bibliothécaire qui connaît tous les livres du monde et peut t’expliquer les choses dans un langage simple, comme si tu parlais à quelqu’un de très, très intelligent, mais qui ne se fatigue jamais et peut te répondre en quelques secondes.
Let’s dive in !
Un Large Language Model (LLM) est un modèle d’intelligence artificielle conçu pour traiter, comprendre et générer du texte en langage naturel. Ces modèles sont entraînés sur des volumes astronomiques de données textuelles (articles, livres, discussions en ligne) afin de saisir le contexte, la sémantique, et même l’intention derrière les mots.
Mais comment est créé un LLM ?
Pour que le modèle soit le plus pertinent possible, il faut d’abord l’alimenter avec le plus de données textuelles possible : articles, discussions en ligne, livres, etc. Ces données sont ensuite nettoyées puis découpées en un format utilisable par l’algorithme. Par exemple, pour Mistral, le texte est découpé en “tokens”, qui correspondent en moyenne à 4 caractères.
Les données sont ensuite analysées par des réseaux de neurones pour être capables d’attribuer un poids aux mots selon leur pertinence dans le contexte de la phrase. Le modèle est entraîné petit à petit en ajustant ces poids pour pouvoir compléter des phrases ou prédire la suivante.
Une fois ce modèle généraliste obtenu, on peut le **fine-tuner** avec des données très spécifiques selon son utilisation future. Par exemple, si l’on souhaite créer un modèle destiné à écrire du code, il est possible de le raffiner en l’alimentant avec de grandes quantités de code.
Entraîner un LLM mobilise des GPU à grande échelle, des millions de données, et des semaines de calcul (ce qui engendre des coûts élevés, expliquant en partie les levées de fonds colossales des acteurs de l’IA).
Et comment ça fonctionne quand je pose une question à ChatGPT ?
La requête est elle aussi transformée en tokens que le modèle peut comprendre.
Ces tokens sont introduits dans le réseau neuronal, qui analyse la relation entre les mots pour comprendre le contexte et la signification de la requête.
Le modèle calcule progressivement les probabilités des prochains mots en s’appuyant sur la requête et son entraînement.
En fonction de ces probabilités, il génère une réponse. Cette génération peut être paramétrée et ajustée (par exemple, la température permet de définir à quel point le modèle peut être créatif ou non).
La réponse est convertie en texte afin de pouvoir être affichée.
Le gros avantage d’un LLM est sa grande flexibilité, qui lui permet d’adresser une infinité de cas d’usage, allant de la génération de code dans un langage complexe à la proposition d’une recette de cuisine.
Et d’un point de vue Product ?
Les Large Language Models (LLMs) sont si polyvalents qu’ils peuvent être utilisés pour presque tout... mais attention : cela ne signifie pas que chaque usage a un véritable intérêt produit. La prochaine fois que tu bloques sur un PRD, essaie d’interroger ChatGPT : tu seras surpris par l’aide que cela peut apporter. Mais côté produit, voyons où l’IA peut vraiment briller.
Les 3 grands usages des LLMs en produit
Interaction : des chatbots intelligents
Les LLMs transforment les chatbots grâce à leur capacité à comprendre le contexte et à répondre de manière pertinente. Même si ce n’est pas souvent ton cas d’usage principal en tant que PM, il est probable que tu intègres ou utilises des outils contenant des chatbots basés sur des LLMs (notamment des outils de support utilisateur).
Ce type d’usage peut aussi être intéressant si ton produit contient une grande quantité de contenu difficile à synthétiser pour tes utilisateurs.
Par exemple, lorsque je travaillais dans une entreprise de santé mentale, j’avais réalisé un prototype de chatbot nourri à partir de tout notre contenu, capable de répondre à des questions simples comme : « Comment gérer un conflit ? », « Comment lutter contre le FOMO ? », etc.Contenu : génération, traduction et résumés.
Le cas le plus fréquent d’utilisation est la génération de contenu à partir d’une source et d’une consigne (ou **prompt**) plus ou moins visible par l’utilisateur, comme la traduction, la rédaction d’un message ou la création d’un résumé.
C’est le cas d’usage le plus simple à implémenter, mais aussi celui qui peut sembler le plus « bullshit » s’il n’apporte pas une vraie valeur ajoutée à l’utilisateur. En effet, rien n’est plus frustrant pour un utilisateur que de voir un produit proposer des fonctionnalités « boostées à l’IA » alors que des problèmes d’UI ou d’UX non résolus persistent depuis longtemps.Automatisation : réduire les corvées
Là où, selon moi, l’IA peut vraiment apporter une valeur ajoutée, c’est en automatisant des tâches qui, isolément, n’ont que peu d’intérêt et sont perçues comme des corvées. Cependant, il est essentiel de garder à l’esprit que l’utilisateur voudra conserver la possibilité de superviser le processus et de reprendre le contrôle si nécessaire.
Un excellent exemple, à mes yeux, est la fonctionnalité d’extraction d’insights proposée par Cycle. Quel que soit le type ou la qualité du feedback en entrée, cette fonctionnalité permet d’en extraire les insights en un clic, de les relire, de les modifier si besoin, et de les enregistrer. C’est particulièrement précieux lorsque les feedbacks sont constitués de longues notes ou de contenus difficiles à analyser en raison de leur format. En outre, l’utilisateur peut choisir de faire entièrement confiance à l’automatisation du processus ou, à l’inverse, de le réaliser manuellement pour conserver un contrôle total.
Les LLMs, c’est fascinant et puissant. Mais en tant que PM, reste lucide : ne mets pas de l’IA partout simplement parce que c’est tendance.
Pose-toi toujours cette question : « Cette feature IA résout-elle un vrai problème pour mes utilisateurs ? »
toujours très clair et instructif quelque soit son niveau, bravo Alexis !