Formation Generative AI & LLM
Cette formation s'adresse à un public souhaitant acquérir les connaissances nécessaires pour comprendre et mettre en œuvre les Large Language Models (LLM).
Les participants auront l'occasion d'approfondir leur compréhension des différents aspects des Large Language Models, tels que :
- leur fonctionnement
- les applications pratiques
- les stratégies d’amélioration et personnalisation des résultats de l’inférence
- le développement d’un service de RAG (Retrieval Augmented Generation) via LangChain
2 jours
1500€HT
Nous contacter
12 participants
Objectifs
Public cible
- Data Scientist
- Data Engineer
- ML Engineer
- Software Engineer
Prérequis
- Connaissance du langage Python
- Utilisation de Notebooks
Formateur(s)
Programme détaillé
Télécharger
Introduction aux LLMs
- L’IA Générative
- Qu’est-ce qu’un LLM ?
- Les cas d’usage principaux
Les principaux modèles du marché
- GPT
- PaLM
- LLaMa
- Claude
- Les autres
- Outils de benchmarking et comparaison
Tour d’horizon des solutions as-a-Service
- Azure OpenAI
- Google Cloud Platform Vertex AI
- HuggingFace
Exploitation
- Utilisation d’un LLM via Notebook
- Déploiement d’un LLM sur AWS SageMaker
Les fondations des LLMs
- Le Natural Language Processing
- Transformers
- Encoders et Decoders
- Architecture Decoder-Only Transformer
- Embeddings
- Tokenizers
Stratégie d’inférence
- Zero-Shot Learning
- Few-Shot Learning
- Fine Tuning
Augmentation de la base de connaissance
- RAG
- Processing de texte structuré
- Vectorisation
- Les base de données vecteurs
- Exploitation de la donnée
- Domain adaptation
Fine Tuning
- Les concepts clé
- Les techniques PEFT
- LoRa
- Prefix Tuning
- Prompt Tuning
Performances et Consommation
- Quantisation
- Knowledge distillation & Pruning
- LLM sur CPU ou GPU
Montez en compétences avec nos formations Data spécialisées
Contacter nos équipes