Nom de fichier: Udemy – Maîtriser les LLM locaux avec Ollama et Python + Réaliser des projets
Source du contenu: https://www.udemy.com/course/mastering-local-llms-with-ollama-and-python-doing-projects/
Taille du fichier: 985 Mo
Éditeur: udemie
Mis à jour et publié: 06 août 2024
Détails du produit

Ce cours complet est conçu pour donner aux développeurs, aux scientifiques des données et aux passionnés d’IA les compétences nécessaires pour exploiter la puissance des grands modèles linguistiques locaux (LLM) à l’aide d’Ollama et de Python. Grâce à une approche pratique, les étudiants apprendront à intégrer de manière transparente des capacités d’IA de pointe dans leurs projets sans recourir à des API externes.

Aperçu du cours:

En commençant par les principes fondamentaux d’Ollama, un outil puissant pour exécuter des LLM localement, les étudiants progresseront à travers une série de modules pratiques qui couvrent tout, de la configuration de base au développement d’applications avancées. Le cours est structuré pour offrir un équilibre parfait entre connaissances théoriques et mise en œuvre pratique, garantissant que les participants peuvent immédiatement appliquer leur apprentissage à des scénarios du monde réel.

Objectifs d’apprentissage clés:

1. Principes fondamentaux d’Ollama: maîtrisez l’installation et l’utilisation d’Ollama pour exécuter des LLM sur votre machine locale, en comprenant ses avantages et ses capacités.

2. Intégration Python: Apprenez à interfacer Ollama avec Python, permettant le contrôle programmatique et la personnalisation des interactions LLM.

3. Développement d’applications Web: explorez Streamlit pour créer des applications Web interactives qui exploitent la puissance des LLM locaux.

4. Intégration LLM avancée: plongez en profondeur dans l’intégration de modèles LLM avec les applications Streamlit, en créant des interfaces utilisateur réactives et intelligentes.

Vous pouvez aussi aimer  Google Bard: utiliser efficacement Google Bard (aperçu rapide)

5. Exécution de code dynamique: comprendre et implémenter la fonction «exec» pour exécuter du code stocké sous forme de chaînes, ouvrant ainsi des possibilités d’applications dynamiques et flexibles.

6. Gestion des sorties: maîtrisez les techniques pour capturer et manipuler la sortie du code exécuté dynamiquement, améliorant ainsi l’interactivité de vos applications.

7. Développement d’outils pédagogiques: appliquez tous les concepts appris pour créer un outil d’apprentissage Python, démontrant les applications pratiques des LLM en technologie éducative.

À la fin de ce cours, les participants auront acquis:

– Maîtrise de l’utilisation d’Ollama pour le déploiement local de LLM

– Compétences pour intégrer des LLM avec des applications Python

– Capacité à créer des applications Web interactives à l’aide de Streamlit

– Compréhension de l’exécution de code dynamique et de la gestion des sorties

– Expérience pratique dans le développement d’outils pédagogiques basés sur l’IA

Ce cours est idéal pour les développeurs cherchant à exploiter la puissance de l’IA sans recourir à des services basés sur le cloud, les data scientists souhaitant intégrer des LLM dans leurs flux de travail locaux et les enseignants intéressés par la création d’outils d’apprentissage avancés assistés par l’IA. En mettant l’accent sur l’apprentissage pratique, les participants quitteront le cours prêts à mettre en œuvre des solutions d’IA sophistiquées dans leurs projets et organisations.

AVvXsEiCfNbmmogaykPvC4bx7SQbB h7qIWul9cMZHMRIv3pTeggA B2HdC7cqpcADcRY9RCXLodpucgdJGrZzl1fwrkmpjKw38oTzTsePon8jQ H75XM0MWftJN5sWJMpaMuYedjGxL9j 8b2D wcoS4 nql8LXIdGKpfzrUwsP4mwArbnc5CP uDhpn 2NVXg=s16000

LIEN DE TÉLÉCHARGEMENT: Udemy – Maîtriser les LLM locaux avec Ollama et Python + Réaliser des projets