Eric Burel, co-fondateur de LBKE et formateur en développement IA, a été sélectionné pour devenir ambassadeur IA dans le cadre du plan national « Osez L’IA » porté par le ministère de l’Économie.
Cette participation au plan Osez l’IA traduit l’engagement de LBKE pour une utilisation efficace des capacités de l’intelligence artificielle générative.
Découvrez nos différentes contributions : formation et rôle des développeurs informatiques, financement du logiciel libre, IA frugale, auto-hébergement ou encore lutte contre la désinformation.
Résumé de nos propositions (rédigé par l’IA)
-
Former des développeurs et développeuses LLM/IA et augmentés. Les développeurs et développeuses jouent un rôle pivot pour bâtir agents, assistants, RAG et chatbots, car le génie logiciel décuple le retour sur investissement des infrastructures LLM. Former rapidement les développeurs web à l’IA répond à un besoin technique et économique.
-
Simplifier le financement de la formation par le CPF. Le financement par le CPF exige d’associer la formation à une certification (~2 ans à créer), un fonctionnement peu adapté à la montée en compétences de cadres/techniques déjà diplômé. Proposition : alléger l’obligation de certification pour les personnes déjà diplômées.
-
Financer le logiciel libre via le CIR/CII. L’open source est la base du logiciel moderne mais est sous-financé, avec des risques (ex. Log4J, xz). Les dispositifs déjà existants pourraient faciliter le financement de l’open source moyennant de très légères adaptations.
-
Éviter les affrontements algorithmiques pour une IA frugale. L’IA générative est utilisée pour rédiger les dossiers de financement mais aussi par les administrations qui contrôlent ces dossiers. Il faut des dispositifs plus simples et fondés sur des preuves tangibles (travaux, résultats…) pour éviter les recours inutiles à l’IA.
-
Diffuser les exemples de réussite de l’auto-hébergement de LLM open source. L’IA open source auto-hébergée répond aux enjeux de confidentialité/souveraineté, mais comporte des risques d’échecs et donc de gâchis de matériel. LBKE lance l’enquête ouverte “LLM Maison” pour documenter les meilleures installations et bonnes pratiques.
-
Adopter un label de sécurité pour les LLM open source. Des technologies comme LM Studio, vLLM, ollama, permettent d’exécuter n’importe quel modèle LLM libre, mais offrent trop peu de garanties de sécurité. Un audit et une labellisation par un organisme reconnu aideraient à élargir les choix possibles au-delà d’un petit nombre de modèles et d’outils.
-
Mobiliser l’IA générative pour la lutte contre la désinformation. Il est aujourd’hui techniquement faisable de proposer un système opérant directement sur réseaux sociaux et moteurs de recherche pour renforcer la visibilité des sources fiables. Cet enjeu est critique à l’approche d’échéances électorales.
Retrouvez chaque proposition détaillée dans la suite de cet article.
1) Former les développeurs informatiques à l’IA générative
Les développeurs et développeuses LLM, IA ou encore « augmentés » jouent un rôle majeur dans la création des nouveaux systèmes informatiques intelligents - agents, assistants, RAG, chatbots…
Leur rôle dans la transition vers l’intelligence artificielle générative est particulier, car le génie logiciel permet de décupler la puissance des modèles LLM et donc d’espérer un retour sur investissement positif pour les entreprises qui investissent dans l’IA.
Aujourd’hui, ce sont généralement des ingénieurs issus du monde de la donnée qui sont en charge des tâches de développement informatique autour de l’IA. Cependant ces profils sont rares et longs à former, alors que dans d’autres domaines nous manquons au contraire d’emplois.
Former rapidement les développeurs web à l’IA paraît pertinent sur le plan technique mais aussi une nécessité économique.
2) CPF pour les personnels déjà qualifiés
Le dispositif de financement CPF est plutôt conçu pour les formations initiales et les reconversions. Il se prête moins bien à la montée en compétences sans changement de domaine pour les cadres et les personnels techniques déjà qualifiés.
En effet, chaque formation doit être associée à une certification.
Or :
- Il faut au moins deux ans pour créer une certification, ce délai est un frein majeur pour l’élaboration de formations à l’IA générative.
- Les certifications CPF sont peu utiles aux professionnels déjà titulaire d’un diplôme dans le domaine, une attestation de formation leur suffit généralement.
Nous nous sommes efforcés de lever ce frein. LBKE est à ce jour le seul organisme de formation en France à proposer une formation LangChain éligible CPF, de même qu’une formation Mastra pour les développeurs web JavaScript.
Mais nous restons limités dans l’ouverture d’autres formations dans le domaine de l’intelligence artificielle, notamment le développement augmenté avec Cursor, faute de certification adéquate.
Nous recommandons un allégement de la contrainte d’obligation de certifier lors d’un financement via le CPF, au moins pour les personnes déjà titulaires d’un diplôme dans le domaine. Le dispositif CPF des fonctionnaires ne subit pas cette contrainte et leur permet déjà d’accéder à un panel plus large de formations.
3) Financement public de l’open source via le CIR et le CII
Le logiciel libre constitue aujourd’hui le fondement de la chaîne logistique du génie logiciel : toutes les applications dépendent d’une multitudes de projets open source, parfois des dizaines de milliers !
Il s’agit aussi d’un facteur de risque extrême.
On a vu par le passé des failles de sécurité (vulnérabilité Log4J) et des piratages de niveau étatique (attaque contre xz évitée de peu) aux conséquences réelles ou potentielles dramatiques.
Dans ce contexte, le sous-financement chronique de l’open source est un problème qu’il faut résoudre avant de poursuivre dans l’adoption de l’IA.
Nous proposons une solution simple et rapide à mettre en oeuvre pour contribuer à résoudre ce problème dans les entreprises : rendre les contributions à des projets libres reconnues par les dispositifs CII et CIR.
Sans attendre une telle réforme, vous pouvez d’ores et déjà notre guide open source pour bénéficier du CIR et du CII lorsque votre organisation contribue à un projet libre ainsi que notre lettre open source au député Paul Midy, à adapter pour diffusion auprès de vos élus locaux.
4) Simplification administrative pour lutter contre les affrontements algorithmiques
L’IA générative a été adoptée rapidement pour la rédaction de dossiers de financement ou de réponses à des appels à projets. Par ailleurs, l’intelligence artificielle se répand aussi rapidement dans les administrations.
Ces deux phénomènes sont plutôt positifs, car la rédaction des dossiers de financement est souvent perçue comme un poids pour les entreprises, tandis que leur analyse peut être difficile et coûteuse pour les organismes publics.
Néanmoins, il en résulte une confrontation entre algorithmes dont l’environnement risque de payer le tribut.
Les dispositifs administratifs doivent être repensés en urgence pour tenir compte de cette évolution, dans la direction d’une simplification et d’une structuration plus formelle des demandes.
Concrètement, les dossiers administratifs vont devoir s’appuyer sur des preuves tangibles (travaux réalisés, résultats etc.) et des textes courts plutôt que sur de longues explications rédigées.
Nous avons étudié cette problématique du contrôle par l’IA dans le cadre des dispositifs CIR/CII/JEI et menons un programme de R&D pour la rédaction des dossiers de financement par l’IA.
5) Favoriser l’auto-hébergement en diffusant des exemples de réussite
Héberger soi-même une intelligence artificielle open source permet de résoudre les problématiques de confidentialité et de souveraineté auxquelles se heurtent de nombreuses organisations voulant adopter une plateforme IA.
Cependant en pratique, les projets d’auto-hébergement sont risqués, car les modèles d’IA sont associés à des contraintes techniques nouvelles en termes de matériel et de puissance de calcul.
LBKE a lancé via l’Agence LLM une enquête ouverte « LLM Maison » pour documenter les meilleures installations de plateformes IA.
L’objectif est de diffuser les meilleures pratiques et éviter les gâchis de temps et de matériel précieux. Nous espérons voir cette enquête diffusée par des instances publiques et réseaux d’entreprise à plus grande échelle.
6) Label de sécurité pour les logiciels d’auto-hébergement de LLM
En lien avec l’auto-hébergement, nous avons constaté des difficultés pratiques dans le choix des modèles open source.
Les organisations sont inquiètes du niveau de sécurité et de confidentialité que peuvent offrir les différents modèles open source. Elle se restreignent ainsi par prudence à un jeu limité de modèles, qui tendent cependant à être moins qualitatifs.
Il paraît nécessaire de concevoir un mécanisme d’audit et de labellisation offrant une garantie d’exécution pour des couples modèle/logiciel d’exécution LLM.
Il s’agit concrètement de valider si des installations comme “DeepSeek R1 exécuté avec vLLM”, “gpt-oss-20b exécuté avec Ollama” ou “Mistral Large avec PyTorch” répondent à un niveau de confidentialité satisfaisant, afin de guider les choix des décideurs.
7) Architecture IA pour la vérification de faits à grande échelle
L’open source a été explicitement identifié par le Plan d’action IA pour l’Amérique comme un vecteur pour les valeurs des États-Unis, qui se trouvent aujourd’hui en contradiction avec de nombreuses valeurs fondamentales de la France et de l’Union Européenne.
Nous avons les capacités techniques, en Europe, d’inverser cette tendance, sans devoir attendre pour autant la conception de modèles européens.
Une proposition concrète est la conception d’un système de vérification des faits capable d’opérer directement sur les réseaux sociaux, ainsi que d’un mécanisme d’optimisation de la présence des sources fiables sur les moteurs de recherche et les réseaux sociaux.
L’objectif serait de dévaloriser les contenus de désinformation, dont la stratégie de diffusion profite notamment du coût élevé et la latence de la vérification de faits.
Cet enjeu pourrait devenir critique à l’approche d’élection présidentielle en France, et à ce jour aucun verrou technique n’empêche la création d’un tel système.
Le programme de LBKE : vers une adoption de l’IA générative respectueuse des valeurs de l’Union Européenne
LBKE s’est historiquement toujours engagée pour une adoption saine des technologies nouvelles, depuis le développement web fullstack jusqu’à l’IA générative.
Notre participation au plan national Osez l’IA nous permettra de poursuivre cet engagement à une échelle plus grande et avec toujours plus d’efficacité.