Formation Generative AI & LLM

Cette formation s'adresse à un public souhaitant acquérir les connaissances nécessaires pour comprendre et mettre en œuvre les Large Language Models (LLM).

Les participants auront l'occasion d'approfondir leur compréhension des différents aspects des Large Language Models, tels que :

  • leur fonctionnement
  • les applications pratiques
  • les stratégies d’amélioration et personnalisation des résultats de l’inférence
  • le développement d’un service de RAG (Retrieval Augmented Generation) via LangChain
2 jours
1500€HT
Nous contacter
12 participants
S'inscrire

Objectifs

Public cible

  • Data Scientist
  • Data Engineer
  • ML Engineer
  • Software Engineer

Prérequis

  • Connaissance du langage Python
  • Utilisation de Notebooks

Formateur(s)

Programme détaillé

Introduction aux LLMs

  • L’IA Générative
  • Qu’est-ce qu’un LLM ?
  • Les cas d’usage principaux

Les principaux modèles du marché

  • GPT
  • PaLM
  • LLaMa
  • Claude
  • Les autres
  • Outils de benchmarking et comparaison

Tour d’horizon des solutions as-a-Service

  • Azure OpenAI
  • Google Cloud Platform Vertex AI
  • HuggingFace

Exploitation

  • Utilisation d’un LLM via Notebook
  • Déploiement d’un LLM sur AWS SageMaker

Les fondations des LLMs

  • Le Natural Language Processing
  • Transformers
  • Encoders et Decoders
  • Architecture Decoder-Only Transformer
  • Embeddings
  • Tokenizers

Stratégie d’inférence

  • Zero-Shot Learning
  • Few-Shot Learning
  • Fine Tuning

Augmentation de la base de connaissance

  • RAG
  • Processing de texte structuré
  • Vectorisation
  • Les base de données vecteurs
  • Exploitation de la donnée
  • Domain adaptation

Fine Tuning

  • Les concepts clé
  • Les techniques PEFT
  • LoRa
  • Prefix Tuning
  • Prompt Tuning

Performances et Consommation

  • Quantisation
  • Knowledge distillation & Pruning
  • LLM sur CPU ou GPU
Montez en compétences avec nos formations Data spécialisées
Contacter nos équipes

Où nous trouver ?