LLM - Les bases
- Référence GK840035
- Durée 2 jour(s)
Modalité pédagogique
Aller à:
Modalité pédagogique
La formation est disponible dans les formats suivants:
-
Classe inter à distance
Depuis n'importe quelle salle équipée d'une connexion internet, rejoignez la classe de formation délivrée en inter-entreprises.
-
Classe inter en présentiel
Formation délivrée en inter-entreprises. Cette méthode d'apprentissage permet l'interactivité entre le formateur et les participants en classe.
-
Intra-entreprise
Cette formation est délivrable en groupe privé, et adaptable selon les besoins de l’entreprise. Nous consulter.
Demander cette formation dans un format différent
Résumé
Haut de pageCe cours offre une introduction complète aux modèles de langage de grande taille (LLM), en se concentrant sur ce qu'ils sont, comment les construire en utilisant PyTorch, et comment les utiliser pour l'inférence dans les tâches de traitement du langage. Les participants apprendront l'histoire des LLM, comment ils s'intègrent dans le paysage plus large de l'IA/IA générative, les modèles de langage basés sur les réseaux neuronaux, et comment utiliser les RNN, LSTM et transformers pour les tâches de traitement du langage.
Mise à jour : 9/12/2024
Prochaines dates
Haut de pagePublic
Haut de page
- Data Scientists, Data Engineers intéressés par l'utilisation des LLM pour la prédiction et le fine-tuning.
- Les développeurs de logiciels souhaitant acquérir une expérience pratique de base avec les frameworks NLP et les LLM.
Objectifs de la formation
Haut de pageEn travaillant dans un environnement d'apprentissage pratique et guidés par un expert, les étudiants apprendront les bases des modèles de langage de grande taille (LLM) et comment les utiliser pour faire des prédictions afin de créer des applications alimentées par l'IA.
- Comprendre les bases du traitement du langage naturel (NLP)
- Mettre en œuvre des techniques de prétraitement et de tokenisation du texte en utilisant NLTK
- Expliquer les embeddings de mots et l'évolution des modèles de langage
- Utiliser les RNN et LSTM pour gérer les données séquentielles
- Décrire ce que sont les transformers et utiliser des modèles clés comme BERT et GPT
- Comprendre les risques et les limitations des LLM
- Utiliser des modèles pré-entraînés de Hugging Face pour mettre en œuvre des tâches de NLP
- Comprendre les bases des systèmes de génération augmentée par la récupération (RAG)
Programme détaillé
Haut de pageIntroduction au NLP
- Qu'est-ce que le NLP ?
- Bases du NLP : Prétraitement et tokenisation du texte
- Bases du NLP : Embeddings de mots
- Introduction aux bibliothèques NLP traditionnelles
- Brève histoire de la modélisation du langage
- Introduction à PyTorch et HuggingFace pour le prétraitement du texte
- Réseaux neuronaux et données textuelles
- Construction de modèles de langage utilisant des RNN et des LSTM
Transformers et LLMs
- Introduction aux transformers
- Utilisation des transformers de Hugging Face pour la prédiction
- LLMs et IA générative
- Options actuelles de LLM
- Fine-tuning de GPT
- Alignement des LLMs avec les valeurs humaines
- Systèmes de génération augmentée par la récupération (RAG
Pré-requis
Haut de pagePour assister à cette formation, il est recommandé pour les candidats de:
- Maîtriser la programmation Python
- Maîtriser l’analyse de données à l’aide de Pandas
Afin de vous assurer que vous possédez toutes les connaissances requises pour participer à la formation, notre équipe commerciale vous proposera un QCM
Bon à savoir
Haut de pageLes participants réalisent un test d'évaluation des connaissances en amont et en aval de la formation pour valider les connaissances acquises pendant la formation.
Un support de cours électronique sera remis aux participants.
Pour profiter pleinement du support électronique dès le 1er jour, nous invitons les participants à se munir d'un PC ou d'une tablette, qu’ils pourront connecter en WiFi dans nos locaux de Rueil, Lyon ou nos agences en régions.