12th édition – du 17 au 19 avril 2024
3 jours de conférences, 70 exposants, 4500 visiteurs par jour
Sandra Ahlgrimm
Microsoft
Sandra Ahlgrimm est développeuse cloud senior à Microsoft spécialisée en Java. Elle s'intéresse particulièrement à la fluidité de l'expérience du développeur lors du déploiement de leur charge de travail Java sur Azure, avec des machines virtuelles, App Service, AKS, Azure Spring Apps, Azure Functions ou Azure Container Apps. Sandra et son équipe, les Advocates Java, travaillent en étroite collaboration avec les équipes produit et les développeurs pour s’assurer que les services Azure sont testés et optimisés pour répondre aux besoins des développeurs. Ils sensibilisent et informent également la communauté sur les fonctionnalités de ces services.
Les technologies d'IA, et particulièrement les grand modèles de langages (LLM) poussent un peu partout comme des champignons ces derniers temps. Comment ces modèles fonctionnent-ils, et comment s'en servir dans vos applications?
Dans ce workshop, nous allons construire de zéro un chatbot basé sur GPT-4 implémentant le pattern Retrieval Augmented Generation (RAG). En utilisant une base de documents de référence, le modèle sera capable de répondre à des questions en langage naturel, et de générer des réponses complètes et sourcées dans vos documents. Pour cela, nous allons créer un service SpringBoot qui s'appuiera sur le framework open-source LangChain4J, ainsi qu'un site web pour tester notre chatbot. Enfin, nous déploierons le tout sur Azure.
   
Au programme:  
- Introduction aux modèles de langage: fonctionnement et limites
- Création d'une base de connaissances: embeddings, BDD vectorielle et recherche par similarité  
- Utilisation de LangChain4J pour implémenter le pattern RAG (Retrieval Augmented Generation)
- Introduction au prompt engineering pour améliorer les performances
- Création d'une API SpringBoot pour interagir avec le modèle
- Création d'un site web pour tester le chatbot
- Déploiement de l'API dockerisée et du site web sur Azure
   
A l'issue du workshop, vous aurez une compréhension plus claire des LLMs ainsi que des idées pour les utiliser. Vous saurez comment créer une base de connaissances et un chatbot fonctionnels, et les déployer dans le cloud.
More
Vous avez développé votre première application native GraalVM. Vous bénéficier maintenant d'un démarrage rapide et d'une faible utilisation des ressources. Mais comment être sûre que votre application fonctionne correctement, sans erreur et sans requêtes SQL lentes ?
Comment instrumenter et observer vos applications natives Spring Boot et Quarkus avec OpenTelemetry ?
Rejoignez-nous à cette session mêlant explications et live coding où nous répondrons à cette question !
More
en_USEnglish