Illustration for the postPremiers pas pour installer LangChain en Python

Premiers pas pour installer LangChain en Python

Par Eric Burel - Formateur chez LBKE

Publié le

LangChain facilite la communication entre vos applications et les grands modèles de langage (LLMs), en proposant des interfaces standardisées et de nombreux outils.

Les LLM évoluent constamment, utiliser un framework permet aux développeurs d’utiliser ces modèles sans se perdre dans les détails techniques ou le code spécifique à chaque fournisseur (Anthropic, OpenAI, Mistral…).

Comme expliqué dans notre précédent article, l’écosystème LangChain et LangGraph est un excellent choix pour cela.

Découvrons comment installer LangChain pour créer une toute première application fondée sur l’IA générative.

Configurer LangChain dans l’environnement de développement Google Colab

Commencez par créer un nouveau notebook dans Google Colab, qui vous donne accès à des ressources de calcul gratuites idéales pour l’expérimentation.

Vérifiez que votre environnement fonctionne en exécutant un calcul simple comme 2+2 et ajoutez un titre en Markdown :

# Introduction à LangChain

Google Colab est conçu pour l’apprentissage et offre un excellent point de départ sans les soucis d’une configuration locale.

Installer LangChain et les dépendances spécifiques à Mistral AI

Installez LangChain avec l’intégration de Mistral AI en utilisant cette commande :

%pip install -qU "langchain[mistralai]"

La syntaxe %pip est spécifique aux notebooks Jupyter, et Google Colab est justement une version cloud de Jupyter. Elle premet de garantir que la version du package installée est compatible avec l’environnement Python utilisé par Colab (le kernel).

La syntaxe !pip existe aussi, elle est plus générale. Le point d’exclamation permet de lancer n’importe quelle commande Linux.

Gérer les clés API de manière sécurisée

LangChain a besoin de clés API pour communiquer avec les fournisseurs de modèles. Utilisez le module getpass pour saisir votre clé API en toute sécurité :

import getpass, os
if not os.environ.get("MISTRAL_API_KEY"):
  os.environ["MISTRAL_API_KEY"] = getpass.getpass("Enter API key for Mistral: ")

Un champ va apparaître pour vous laisser copier-coller une clé d’API. Si vous n’avez pas encore de clé d’API, vous pouvez utiliser la console de Mistral AI.

Vous pouvez aussi stocker vos clés dans la gestion des Secrets de Colab, qui est très pratique :

from google.colab import userdata
os.environ["MISTRAL_API_KEY"] = userdata.get('MISTRAL_API_KEY')

Cette méthode protège vos identifiants tout en les rendant disponibles pour votre code.

Initialiser la connexion avec le LLM

Après avoir installé LangChain et configuré votre clé API, initialisez la connexion un modèle optimisé pour la génération de code comme Codestral :

from langchain.chat_models import init_chat_model
model = init_chat_model("codestral-latest", model_provider="mistralai")

Cela crée une instance de modèle de chat connectée au modèle de Mistral AI spécialisé pour le code. LangChain gère la communication avec l’API, vous permettant de vous concentrer sur votre application.

Votre premier appel à un LLM avec LangChain

LangChain utilise une interface basée sur les messages pour les interactions avec les modèles de chat. On peut passer un seul message au LLM, ou une conversion complète, selon la situation.

from langchain_core.messages import HumanMessage
messages = [
    HumanMessage(
		"Generate a short Python program with LangChain that sends a message to a LLM."
		),
]

Il est assez courant d’utiliser un message “system” en plus du message humain, il sert à configurer le comportement du LLM pour toute la conversation. On peut par exemple lui attribuer un rôle : “Tu es un expert de LangChain”.

Envoyer votre premier prompt avec LangChain

Enfin, vous pouvez invoquer le modèle avec votre instruction ou “prompt” et afficher le résult.

res = model.invoke(messages)
print(res.content)

Résultat d'un premier appel à LangChain

Le modèle génère du code Python basé sur votre demande. Cela illustre la fonction principale de LangChain : simplifier les appels API en une interface claire et cohérente.

Améliorer la qualité du code généré avec un RAG

Si vous avez observé le code généré par notre appel d’API (un modèle GPT mini dans cet exemple), vous constaterez qu’il n’est pas tout à fait correct.

Cette configuration de base s’appuie uniquement sur les connaissances pré-entraînées du modèle. Installer LangChain n’est que le début, vous allez découvrir toute sa puissance au fil du temps !

Pour aller plus loin, il faudra mettre en place un “RAG”, c’est-à-dire intégrer automatiquement la documentation à jour de LangChain à l’appel au LLM, en plus de notre prompt. Cela sera l’objet d’un prochain article sur notre blog.

Installer LangChain permet de construire vos applications LLM sur des bases solides

Chaque fournisseur de LLM propose ses propres kits de développement (SDK) et interfaces de programmation (API), chacun avec des exigences particulières.

Sans un framework comme LangChain, vous pourriez devoir réécrire entièrement votre code lors d’un changement de modèle ou vous battre avec des problèmes techniques inintéressants comme la configuration des types de message.

Installer LangChain est le toute première étape pour concevoir des applications d’IA sophistiquées sur des bases solides.

Vous serez ensuite rapidement amené à mettre en place un RAG, ce qui est l’objet de notre formation en 1 jour à LangChain.

Pour approfondir vos compétences et apprendre le nouveau métier de “développeur LLM”, notre formation Développeur LLM avec LangChain vous permet de maîtriser l’intégration de l’IA générative dans vos applications Python avec LangChain et LangGraph.

Ressources et Lectures Complémentaires

Vous avez apprécié cette ressource ?

Découvrez toutes nos formations Next.js, Astro.js et LangChain en présentiel ou en distanciel

Voir toutes les ressources

Partager sur Bluesky Partager sur X
Flux RSS