#agent conversationnel modèle linguistique fincod lama 34b streamlit intelligence artificielle coding assistant python program
Explore tagged Tumblr posts
news-ai · 1 year ago
Text
youtube
Dans cette vidéo, l'auteur explique comment construire un agent conversationnel à l'aide d'un grand modèle linguistique nommé "Code Llama 34b", en utilisant le framework Streamlit. La première étape consiste à installer Streamlit et la bibliothèque Transformers sur votre machine. Le code est écrit dans un seul fichier Python, simple et court, contenant quelques méthodes utilitaires.
L'agent conversationnel construit peut répondre à des questions de codage. Pour lancer l'application Streamlit, une commande unique est utilisée dans le répertoire contenant le fichier Python. La méthode principale `load_models` charge le modèle en utilisant une configuration standard et un tokenizer adapté. L'auteur souligne qu'il n'utilise pas les méthodes de mise en cache de Streamlit pour charger le modèle, car elles sont conçues pour des fonctions légères et sans effet de bord, alors que le chargement de grands modèles linguistiques est complexe et pourrait impacter les performances de l'application.
Le script utilise également `st.session_state` pour maintenir l'état de la conversation entre les exécutions du script. Cette fonctionnalité permet de conserver l'historique de la conversation. Les messages sont stockés dans `st.session_state.messages`, permettant à l'application de maintenir le contexte de la conversation.
Plusieurs fonctions utilitaires sont utilisées pour gérer la conversation, comme la création de paires de conversation et la construction de l'invite pour le modèle. La fonction `generate_response` construit l'invite en intégrant l'instruction de l'utilisateur avec l'historique de la conversation, en respectant les limites de tokens du modèle. Elle utilise un thread séparé pour exécuter de manière asynchrone la fonction de génération du modèle, permettant à l'application Streamlit de rester réactive.
Enfin, l'auteur explique le fonctionnement du script principal et comment il gère l'entrée utilisateur et génère des réponses. L'application Streamlit est réactive, se mettant à jour dynamiquement avec de nouveaux messages et réponses, tout en maintenant l'historique de la conversation dans `st.session_state.messages`.
Pour utiliser l'application, il suffit d'exécuter le fichier Python avec la commande Streamlit appropriée. L'auteur promet d'autres vidéos similaires dans les semaines à venir.
0 notes