Que se passe-t-il, vraiment, quand vous parlez à une IA ?
Tokens, transformateurs, fenêtre de contexte, system prompt, outils : les fondations conceptuelles pour comprendre vraiment comment fonctionne ChatGPT, Claude ou Gemini. Sans équations.
Les essais posent les principes. Ces articles les mettent en pratique.
Chaque guide explore un sujet technique en profondeur — architecture RAG, ingénierie de prompts, évaluations, fine-tuning — avec des exemples de code, des arbres de décision et des leçons tirées de systèmes en production comme WHOOP Coach et Cursor.
Tokens, transformateurs, fenêtre de contexte, system prompt, outils : les fondations conceptuelles pour comprendre vraiment comment fonctionne ChatGPT, Claude ou Gemini. Sans équations.
L'inventaire des techniques qui peuplent la fenêtre, les phénomènes qui la dégradent, les heuristiques pour la maîtriser. Et au passage, l'anti-pattern le plus coûteux qu'on rencontre dans les agents en production.
Le pipeline RAG au complet — chunking, embedding, retrieval, reranking — et les considérations de production qui séparent les prototypes des systèmes qui fonctionnent vraiment.
Un guide pratique des patterns multi-agent — orchestrator-workers, pipelines, ensembles et swarms — et là où ils cassent.
Le fine-tuning change la façon dont le modèle pense. Le RAG change ce qu'il voit. Un cadre de décision pratique pour savoir quand utiliser l'un, l'autre — ou les deux.
Un guide pratique pour l'évaluation des LLM — vérifications par code, LLM-as-a-judge, revue humaine, et comment bâtir une suite d'evals qui attrape les régressions avant qu'elles partent en prod.
Les patterns qui séparent les prompts qui fonctionnent en démo de ceux qui tiennent en production — gestion du contexte, outputs structurés, ingénierie few-shot et contrôle de version.