🔍
Publié le 4 novembre 2025
Les LLM open source comme Llama, Mistral ou Qwen révolutionnent l'accès à l'IA générative en entreprise. L'auto-hébergement d'une IA générative offre souveraineté numérique, conformité RGPD et maîtrise des coûts à long terme. Cette formation vous apprend à déployer et exploiter ces modèles dans votre infrastructure, en allant du poste de travail individuel jusqu'au cloud dédié.
Au programme : stratégies de déploiement, dimensionnement matériel, évaluation des coûts, et mise en place d'une plateforme IA complète, qui peut remplacer ChatGPT ou Mistral (systèmes RAG, interfaces utilisateur, monitoring). Vous manipulerez des LLM directement sur votre machine avec LM Studio et Ollama, et analyserez des cas d'usage réels d'entreprises.
À l'issue de cette formation, vous aurez des éléments pour dimensionner et déployer une infrastructure LLM en interne. Vous saurez évaluer les coûts, choisir le matériel adapté, et mettre en production vos propres modèles de langage en toute autonomie.
1 jour
À distance présentiel possible en intra-entreprise)
Au maximum 10 participants
Sur devis en intra-entreprise
Cette formation est une introduction pratique à l'auto-hébergement de LLM en entreprise, couvrant l'ensemble de la chaîne technique : de l'exécution locale au déploiement cloud, en passant par le dimensionnement de l'infrastructure et l'évaluation des coûts.
L'enjeu est de maîtriser les aspects techniques, organisationnels et économiques pour réussir votre projet d'auto-hébergement de LLM en entreprise.
La formation est ouverte aux décideurs techniques et équipes DevOps qui souhaitent maîtriser l'auto-hébergement de LLM en entreprise.
Des expérimentations seront menées en local sur votre machine personnelle.
Aucune connaissance en science de données ou en mathématiques n'est nécessaire.
Un questionnaire d'auto-évaluation sera envoyé à chaque participant au début de la formation pour nous permettre d'évaluer au mieux son niveau, ses besoins et ses attentes concernant la formation.
La formation alterne présentations théoriques et démonstrations pratiques. Vous découvrirez comment manipuler des LLM open source directement sur votre machine. Vous analyserez des cas d'usage réels, et travaillerez sur le dimensionnement d'une infrastructure adaptée à votre organisation.
Notre approche pédagogique s'appuie sur l'alternance de présentations par le formateur et de mises en pratique accompagnées sur un projet fil rouge. A l'issue de la formation, vous conserverez le code et tous les supports de formation.
Nous allons intégrer les briques de notre application étape par étape à l'aide de packages IA existants.
À l'aide de ces briques, nous créerons un chatbot pour une application d'e-commerce capable de comprendre le besoin du client pour rechercher le meilleur produit et le lui proposer.
Nous créerons également un agent IA pour générer automatiquement une fiche produit complète et l'enregistrer en base de données à partir du HTML de présentation récupéré sur le serveur MCP d'un fournisseur.

Nicolas Karageuzian est Architecte Solutions IA. Après 20 ans d'expérience entre développement et production, il s'est spécialisé depuis plus de 8 ans en infrastructure IA et cloud computing, et dans le déploiement de modèles de langage en production.
Il accompagne les entreprises sur leurs projets MLOps, notamment dans les secteurs du transport et du tourisme, en concevant des architectures robustes et scalables.
Attaché à l'optimisation des performances, il a aidé plusieurs organisations à migrer vers l'auto‑hébergement, permettant des économies de 40 à 60 % par rapport aux API propriétaires.
Contributeur actif à des projets open source, il partage ses retours d'expérience lors de conférences techniques et enseigne à l'université.
L'auto-hébergement de LLM est-il vraiment plus économique que l'utilisation d'API cloud comme OpenAI ou Claude ?
Cela dépend fortement de votre volume d'utilisation et de votre horizon temporel. Pour des usages intensifs et récurrents, l'auto-hébergement peut générer des économies de 40 à 60% par rapport aux API propriétaires, une fois l'investissement initial amorti. En revanche, pour des volumes faibles ou des phases d'expérimentation, les API cloud restent plus avantageuses car elles ne nécessitent aucun investissement matériel. La formation vous donnera justement les outils pour réaliser cette analyse coût-bénéfice selon votre contexte spécifique, en prenant en compte les coûts d'infrastructure, de maintenance et d'exploitation.Faut-il être développeur ou avoir des compétences avancées en IA pour suivre cette formation ?
Non, la formation s'adresse avant tout aux décideurs techniques et équipes DevOps qui ont une culture générale en infrastructure IT et cloud. Vous n'avez pas besoin d'être expert en machine learning ou en développement d'algorithmes d'IA. Des notions de ligne de commande et d'administration système sont appréciées mais non obligatoires. L'objectif est de vous donner les clés pour dimensionner, déployer et gérer une infrastructure LLM en production, pas de former des data scientists. Un questionnaire d'auto-évaluation vous sera envoyé en début de formation pour adapter le contenu à votre niveau.Ai-je besoin d'un GPU puissant sur mon ordinateur pour suivre la formation ?
Non, un GPU n'est pas obligatoire pour suivre la formation. Le formateur réalisera les démonstrations sur sa propre machine, et vous pourrez observer les manipulations en direct. Si vous souhaitez tester vous-même l'exécution d'un modèle léger (comme Llama 3.2 3B), un ordinateur avec 16 Go de RAM suffira, même sans GPU dédié. L'objectif est de comprendre les concepts et contraintes de déploiement plutôt que d'obtenir des performances maximales. Les aspects liés au dimensionnement GPU pour des déploiements en production seront abordés dans la partie théorique.Héberger une IA générative en entreprise : le guide complet
Découvrez comment mettre en place une plateforme d'IA générative souveraine et locale dans votre entreprise ou sur votre PC : matériel, modèle, logiciels... Lire la suite
Qu'est ce qu'un LLM ? Le lexique complet de l'IA générative
Ne soyez plus surpris lorsque l'on vous parle de prompter un LLM pour construire un RAG ! Un lexique pour comprendre les mots-clés de l'IA générative. Lire la suite
Nous proposons des formations courtes dans le domaine du développement web fullstack et du développement LLM, à destination des développeurs JavaScript et Python.
Nous accompagnons aussi les dirigeants, cadres et managers techniques via des formations qui leurs sont dédiées.