Illustration for the postL'IA pour les DSI : quels outils pour quels enjeux ?

Les outils IA pour les DSI et les enjeux de l'IA générative

Par Eric Burel - Formateur chez LBKE

Publié le

Les directions des systèmes d’information jouent un rôle central dans l’émergence de l’IA en entreprise, en particulier l’intelligence artificielle générative.

Mais ce rôle reste encore à préciser, et les directeurs des systèmes d’information (DSI) auront besoin d’outils pour accomplir les missions qui leurs incombent lors de la mise en place de l’IA.

Cet article récapitule le contenu de l’atelier organisé par LBKE à destination des DSI de plusieurs PME et ETI d’Occitanie, dans le cadre du progamme “IA, on accélère” organisé à la Cité de l’Économie et des Métiers de Demain de Montpellier.

Si vous souhaitez accélérer la mise en place de l’IA générative dans votre entreprise, découvrez notre formation en deux jours « IA pour les entreprises ».

Les DSI comme piliers de la mise en place de l’IA

L’APEC définit le métier de DSI de la manière suivante :

«La directrice ou le directeur des systèmes d’information (DSI) travaille au service des différentes fonctions métiers, il a la charge de répondre aux besoins métiers et à la stratégie de l’entreprise d’un point de vue technique, notamment dans la transformation digitale, en tenant compte des enjeux humains et financiers.»

Les directions des systèmes d’information peuvent donc être utilisatrices de l’IA générative, mais sont surtout sollicitées pour sa mise en place dans les entreprises.

En pratique, l’IA générative est déjà dans les entreprises, en tout cas pour certains métiers. D’après le CMO Radar 2024 d’InfoSys, les équipes communication et marketing sont d’ores et déjà fortement utilisatrices d’IA générative : 73% des répondants de l’enquête ont expérimenté ou déployé l’IA dans toutes les activités du marketing.

Cependant, il n’est pas possible de généraliser immédiatement l’usage de la GenAI à tous les métiers de l’entreprise. La gestion des données personnelles et des donnes confidentielles est par exemple un enjeu majeur qui doit d’abord être adressé par les DSI.

Les LLM sont associés à de nouveaux types de problèmes de sécurité, de nouveaux outils pour leur monitoring, de nouveaux usages de l’informatique, qui sont encore loin d’être formalisés.

Il n’y a pas de recette clé-en-main pour réussir cette transition. Cependant, il est déjà possible d’identifier un panel d’outils qui peuvent être mobilisés, étudiés ou mis en place par les DSI.

Quels outils pour mettre en place l’IA en entreprise?

Les outils d’IA générative évoluent extrêmement vite, avec un marché émergent encore très loin d’être stabilisé. On peut cependant déjà recenser de grandes catégories d’outils utiles en entreprise qui pourraient être mis en place en priorité.

Plateformes généralistes

Microsoft Copilot, ChatGPT, Mistral, sont des plateformes qui permettent une utilisation de l’IA générative pour des cas d’usage de plus en plus variés. On peut y stocker des documents concernant l’entreprise pour obtenir de meilleurs résultats et éviter les hallucinations des LLMs, générer du texte mais aussi des images, ou encore mener des recherches en lignes en mobilisant le LLM pour synthétiser les résultats.

La plateforme Microsoft Copilot semble très utilisée en entreprise. Son intégration dans l’écosystème Microsoft (Teams par exemple) est à la fois un avantage et une faiblesse : à ce jour, Copilot ne propose pas d’API pour les développeurs, il est nécessaire de construire ses applications IA directement au sein de l’écosystème Microsoft.

Si vous n’avez pas envie de choisir : la startup Montpelliéraine Ailix propose une plateforme d’interfaçage avec plusieurs LLMs.

La question des données est bien sûr omniprésente. Elle demande une analyse fine des contrats et conditions d’utilisations de chaque plateforme, pour garantir la conformité avec la RGPD et le maintien d’un contrôle sur les données de l’entreprise.

Outils d’hébergement

Pour les usages les plus critiques, l’hébergement d’un LLM sur votre propre cloud voire sur votre propre infrastructure est envisageable.

AWS Bedrock, Azure Machine Learning et Google Vertex AI peuvent déployer des LLM open source ou privés sur un cloud dont vous gardez la maîtrise. HuggingFace, le “GitHub de l’IA”, facilite le déploiement de modèles open source. On y trouve de nombreux modèles spécialisés en plus des LLMs généralistes, qui peuvent être utiles pour des tâches spécifiques.

Ollama facilite l’installation de LLMs open source et le déploiement d’une API pour y accéder. Il existe aussi des plateformes locales avec interface graphique, LM Studio est l’une des plus répandues. Machines puissantes exigées : les grands modèles de langages, comme leur nom l’indiquent, sont grands et leur exécution consomme une grande quantité de RAM et de CPU, voire peuvent nécessiter une carte graphique spécialisée.

Attention cependant aux plateformes moins connues : il faut prendre le temps d’auditer le code source lorsqu’il est disponible pour vérifier que les données restent effectivement privées.

Une fois le LLM déployé, il faut observer son bon fonctionnement. Les plateformes “LLMObs” LangSmith, Langfuse et Datadog, fournissent des outils spécialisés pour le monitoring de LLM.

Enfin, si vous avez un doute sur la sécurité de votre installation, l’OWASP propose d’ores et déjà un top 10 des vulnérabilités affectant spécifiqument les LLM. Il s’agit d’une base solide pour mener un audit de sécurité.

Outils d’automatisation

Les outils d’automatisation gagnent en popularité, car l’IA générative décuple leurs capacités.

Un scénario simple - générer un brouillon d’article à partir d’un titre envoyé par mail - peut être implémenté en quelques dizaines de minutes par un profil non technique.

Make, Zapier et Power Automate sont de grands acteurs du domaine. Mais il faut aussi citer n8n, une solution open source qui peut être déployée aisémment sur votre propre cloud.

Outils de développement informatique

Le développement de solutions informatiques spécifiques fondées sur l’IA générative n’est pas encore un sujet d’actualité.

Cependant, chez LBKE, nous l’avons perçu comme un point central pour les mois et années à venir, et avons ouvert plusieurs formations au développement LLM à destination des développeurs Python (frameworks LangGraph et LangChain) et JavaScript (framworks Vercel AI SDK et Mastra.ai).

L’IA générative est aussi associée à des bases de données spécialisées pour le stockage d’embeddings : Pinecone, Chroma, ou le plugin pgvector pour PostgreSQL. Les embeddings (ou “plongements” en français) sont notamment nécessaires pour implémenter les architectures RAG. Les bases de données SQL traditionnelles ne sont en effet pas conçues pour ce nouveau type de données.

Enfin, comme les DSI, les développeurs ne sont pas que producteurs de solutions IA, ils en sont aussi des consommateurs avec des éditeurs de textes augmentés d’assistants de code : GitHub Copilot, Cursor, Windsurf…

En tant que DSI, ouvrir votre plateforme IA aux développeurs est une voie pour maximiser le retour sur invetissement de la mise en place de l’IA générative.

Les DSI comme utilisateurs de l’IA

Les DSI n’ont pas pour seul rôle de mettre en place l’IA en entreprise : ils peuvent bien entendu aussi mobiliser cette technologie pour leurs propres usages.

De nombreuses startups développent des produits dans le domaine de la sécurité logicielle et du monitoring d’infrastructure.

Datadog a récemment présenté BitsAI, un agent fondé sur les LLM qui aide les équipes techniques à analyser leurs données de monitoring et à répondre rapidement aux incidents. Snyk développe des outils de sécurité intégrés tels que DeepCode AI qui s’efforce de détecter les vulnérabilités logicielles dès l’étape de développement. Google développe des techniques avancées pour la génération de requêtes SQL (“text-to-SQL”) complexes à partir d’une description simple.

Et bien sûr, les DSI peuvent aussi mobiliser des plateformes généralistes (ChatGPT, Mistral AI…) pour la synthèse de documents, l’analyse de données techniques et d’autres tâches qui font partie de leur quotidien. La création d’agents avec Mistral AI ou de “GPTs” avec ChatGPT permet de créer en quelques instants des agents spécialisés dans l’analyse de logs d’infrastructure. On peut aller plus loin avec le fine-tuning lorsque l’entreprise possède suffisament de données de qualité.

On peut enfin citer des outils de productivité plus spécialisés. La transcription automatique de visioconférences est une fonctionnalité qui devient indispensable. Les modèles les plus récents comme Whisper d’Open AI obtiennent aujourd’hui d’excellents résultats, et la transcription en temps réel est intégrée à Microsoft Teams.

Les DSI jouent un double rôle d’utilisateur et de facilitateur d’IA générative

Les DSI et les développeurs partagent un enjeu commun : ils sont à la fois utilisateurs et acteurs de la mise en place de l’IA générative.

Pour accomplir leur mission, les DSI sont amenés à mobiliser un panel d’outils complémentaires, qui ont émergé seulement récemment et sont spécifiques à l’IA générative.

Il s’agit d’un investissement significatif, financier et temporel. Cependant le ROI semble déjà largement positif pour les métiers pionniers de la GenAI, comme les métiers du marketing et de la communication.

Et bien sûr les DSI peuvent aussi béneficier de l’IA générative, avec l’émergence de puissants outils de sécurité, d’analyse et de monitoring d’infrastructures.

On peut espérer des résultats comparables dans de nombreux autres métiers, surtout si l’ensemble des acteurs - DSI, équipes métiers, développeurs informatiques - travaillent main dans la main.

Vous avez apprécié cette ressource ?

Découvrez toutes nos formations Next.js, Astro.js et LangChain en présentiel ou en distanciel

Voir toutes les ressources

À propos de l'auteur

Photo d'Eric Burel

Eric Burel est ingénieur diplômé de l'ENSIMAG. Il est co-fondateur de LBKE et formateur web et IA.

Il partage régulièrement ses connaissances à travers des articles publiés sur Smashing Magazine et sur son blog. Vous le croiserez sûrement au détour d'un meetup sur Montpellier !

En savoir plus sur Eric Burel

Partager sur Bluesky Partager sur X
Flux RSS