LLM – Un modèle d’IA qui crée du contenu comme du texte ou des images, souvent utilisé dans des tâches génératives.
LRM – Large Reasoning Models : conçus pour la résolution de problèmes complexes et logiques au-delà de la simple génération.
Agents – Systèmes d’IA qui prennent des décisions à la volée, choisissant des actions et des outils sans instructions manuelles à chaque étape.
Agentic AI – Système d’IA qui fonctionne de manière autonome, prenant des décisions et interagissant avec des outils selon les besoins.
Multi-Agents – Configuration où plusieurs agents d’IA travaillent ensemble, chacun gérant une partie d’une tâche pour atteindre un objectif commun plus efficacement.
Vertical Agents – Agents conçus pour un domaine spécifique comme le juridique, la santé ou la finance, offrant de meilleures performances dans ces domaines.
Agent Memory – Capacité d’un agent d’IA à stocker et récupérer des données passées pour améliorer l’exécution des tâches.
Short-Term Memory – Forme de mémoire en IA qui conserve temporairement les informations pendant une interaction ou une session.
Long-Term Memory – Mémoire permettant à une IA de conserver et d’accéder aux informations sur plusieurs sessions ou tâches. Ce que l’on voit dans ChatGPT, Claude, etc.
Tools – Services ou utilitaires externes qu’un agent d’IA peut utiliser pour effectuer des tâches spécifiques qu’il ne peut pas gérer seul.
Function Calling – Permet aux agents d’IA d’appeler dynamiquement des fonctions externes selon les besoins d’une tâche spécifique.
Structured Outputs – Méthode où les agents ou modèles d’IA doivent retourner des réponses dans un format spécifique, comme JSON ou XML.
RAG – Retrieval-Augmented Generation : technique où le modèle intègre des données externes pour enrichir sa réponse et améliorer la précision.
Agentic RAG – Configuration RAG avancée où l’agent IA choisit lui-même quand rechercher des informations externes et comment les utiliser.
Workflows – Logique ou chemins de code prédéfinis qui guident l’interaction entre le système d’IA, les modèles et les outils.
Routing – Stratégie où un système d’IA envoie des parties d’une tâche à l’agent ou au modèle le plus approprié selon les besoins.
MCP – Model Context Protocol : protocole permettant aux agents d’IA de se connecter à des outils et sources de données externes.
Reasoning – Modèles d’IA qui évaluent les situations, choisissent des outils et planifient des actions en plusieurs étapes selon le contexte.
HITL – Human-In-The-Loop : conception où les humains restent impliqués dans la prise de décision pour guider les choix de l’IA.
Reinforcement Learning – Méthode d’entraînement où l’IA apprend par essais et erreurs, recevant des récompenses ou des pénalités.
RLHF – Reinforcement Learning from Human Feedback : utilise le feedback humain pour façonner le comportement du modèle.
Continual Pretraining – Méthode d’entraînement où le modèle d’IA s’améliore par l’apprentissage continu de nouvelles données.
Supervised Fine-Tuning – Entraînement du modèle d’IA avec des données étiquetées pour des tâches spécifiques.
Distillation – Compression des connaissances d’une grande IA dans un modèle plus petit.
MoE – Mixture of Experts : configuration de réseau neuronal qui dirige les tâches vers les sous-modèles les plus appropriés.
Alignment – Phase finale d’entraînement pour aligner les actions du modèle avec l’éthique et la sécurité humaines.
Post-Training – Formation supplémentaire d’un modèle après sa construction initiale.
Design Patterns – Plans ou stratégies réutilisables pour concevoir des agents d’IA efficaces.
Procedural Memory – Capacité de l’IA à se souvenir comment effectuer des tâches répétées.
Cognitive Architecture – Structure globale qui gère le traitement des entrées, la prise de décision et la génération des sorties.
CoT – Chain of Thought : stratégie de raisonnement où l’IA explique sa réflexion étape par étape.
Test-Time Scaling – Technique permettant à un agent d’IA d’ajuster la profondeur de sa réflexion pendant l’exécution.
ReAct – Approche combinant raisonnement et action dans le processus de décision de l’IA.
Reflection – Méthode où un agent d’IA examine ses choix précédents pour s’améliorer.
Self-Healing – Capacité d’un agent d’IA à identifier et corriger ses propres erreurs automatiquement.
LLM Judge – Modèle dédié qui évalue les réponses d’autres modèles ou agents.
Hybrid Models – Modèles qui combinent réflexion rapide et profonde selon la complexité du problème.
Chaining – Méthode de décomposition et d’exécution séquentielle des tâches.
Orchestrator – Coordinateur qui supervise et gère plusieurs agents d’IA.
Overthinking – Situation où un agent d’IA utilise des ressources excessives pour résoudre une tâche.