Présentation de la formation Développement d’Applications avec les LLMs
Cette formation de 5 jours vous plonge dans le développement d’applications intelligentes reposant sur des modèles de langage de grande taille (LLMs). Vous apprendrez à exploiter les APIs d’OpenAI et Hugging Face, à concevoir des chaînes de traitement avec LangChain et llamaindex, puis à déployer vos applications via FastAPI. Au programme : prompt engineering, gestion du contexte, optimisation des performances et intégration dans des cas d’usage métiers concrets. À l’issue de la formation, vous serez capable de développer une application complète basée sur un LLM, prête à être déployée en production.
Objectifs de la formation Développement d’Applications avec les LLMs
Objectifs pédagogiques :
- Comprendre le fonctionnement d’un LLM
- Explorer ses limites et biais
- Utiliser les APIs (OpenAI, HuggingFace, etc.)
- Concevoir une application interactive
Objectifs opérationnels :
- Concevoir, développer et déployer une application complète reposant sur un modèle de langage de grande taille (LLM). Il saura exploiter les APIs d’OpenAI et Hugging Face, utiliser LangChain et llamaindex pour gérer le contexte et les chaînes de traitement, et déployer l’application via FastAPI tout en optimisant les performances et en intégrant les bonnes pratiques de développement.
Programme de la formation Développement d’Applications avec les LLMs
Jour 1 – Introduction aux LLMs
Compréhension d’un LLM
Cas d’usage métiers
Jour 2 – APIs et intégrations
OpenAI API, HuggingFace
Prompt engineering
Jour 3 – Chaînes de traitement
LangChain, llamaindex
Mémoire et contexte
Jour 4 – Déploiement
Création d’une API avec FastAPI
Gestion des coûts et performances
Jour 5 – Projet pratique
Développement d’une application complète
Démo et évaluation
Les autres formations en IA & Machine Learning
AWS – Machine Learning (SageMaker & IA Services)
Créer, entraîner et déployer des modèles ML et utiliser les services IA managés d’AWS
Azure – AI & Machine Learning (Azure ML, Cognitive Services, MLOps)
Développer des applications intelligentes sur Azure avec Machine Learning, Cognitive Services et MLOps
GCP – Vertex AI & Machine Learning
Déployer des modèles ML sur GCP avec Vertex AI, du dataset à la production
NLP avec Python – Traitement automatique du langage
Mettre en œuvre une pipeline NLP complète avec Python
Recommandations & Recherche Sémantique – Conception & déploiement
Concevoir un moteur de recherche sémantique ou de recommandation intelligente