12ème édition – du 17 au 19 avril 2024
3 jours de conférences, 70 exposants, 4500 visiteurs par jour
45 minutes pour comprendre (un peu) comment ces algorithmes arrivent à écrire des poèmes ou répondre à des questions mieux que ta grand-mère.
Tout le monde n'a que ça à la bouche : "Generative AI". Parmi les modèles les plus captivants de cette sphère se trouvent les LLM et RAG (Retrieval-Augmented Generation). Ce talk technique vise à dévoiler les mécanismes et les principes fondamentaux qui animent ces puissantes architectures d’IA.
Plongée dans les Modèles de Langage à Grande Echelle (LLM)
  • Explication des LLM et de leur fonctionnement.
  • Aperçu des architectures de réseau neuronal, telles que les Transformers, qui soutiennent les LLM.
  • Exploration de cas d’utilisation de LLM : rédaction de textes, génération de code, traduction de langues, et bien plus.
Les Approches RAG : Fondamentaux et Innovations
  • Introduction au concept de RAG et à son importance.
  • Comment RAG fusionnent la puissance des LLM avec des techniques de recherche d’informations
La génération d'images
  • Aperçu du fonctionnement de DALL-e et Midjourney
Arnaud PICHERY
Dataiku
En tant que passionné par le développement logiciel, j'ai adoré avoir pu passer ces 30 dernières années à travailler dans ce domaine. En tant que VP Engineering chez Dataiku (la plateforme d'IA et d'apprentissage automatique leader dans le monde), je dirige actuellement les équipes qui travaillent sur le cœur de Dataiku DSS.
Développeur autodidacte, j'ai commencé à programmer en langage d'assemblage et en C, en développant des jeux. J'ai commencé ma carrière professionnelle en Californie, en travaillant sur la naissance de la plateforme Microsoft .NET.
De nos jours, si je ne suis pas en réunion d'équipe, en train de peaufiner un backlog, de passer en revue une nouvelle fonctionnalité ou de rédiger des spécifications, je tape certainement frénétiquement dans IntelliJ pour développer une nouvelle fonctionnalité DSS.
Aurélien Coquard
Dataiku
TBD
fr_FRFrançais