27 Jun 2024 : RAG (Retrieval Augmented Generation) avec Java, LLMs et Apache Lucene

Lieu : Sully Group - Agence Lyon Gerland, 2 Av. Tony Garnier, Lyon

Il n'est pas possible de s'inscrire pour cet évènement.

Première partie - Introduction

Convergence des LLM et des moteurs de recherche - deux technologies qui se complètent.

L’architecture Retrieval Augmented Generation (RAG) transforme les grands modèles linguistiques (LLM) tels que ChatGPT en leur conférant une dimension supplémentaire : la capacité de puiser dans des connaissances externes pour enrichir leurs réponses. Grâce à l’émergence de technologies avancées telles que LangChain et les bases de données vectorielles, personnaliser un LLM avec des données spécifiques ou d’entreprise n’a jamais été aussi accessible. Cette personnalisation permet d’affiner considérablement la précision et la pertinence des réponses générées.

Deuxième partie - Live Coding

Implémentation d’un système RAG avec Elasticsearch, Quarkus, LangChain4J et Ollama.

Nous vous proposons de construire un chatbot sur un jeu de données d’entreprise et discuter avec lui ! Cette partie live coding vous permettra de comprendre l’architecture Retrieval Augmented Generation (RAG) et vous donnera les moyens d’implémenter un système similaire par vous mêmes.

Troisième partie - Etude de cas

Interagir avec votre documentation technique via l’intelligence artificielle générative

Nous explorerons comment l’intelligence artificielle générative révolutionne l’accès à la documentation technique. Nous démontrerons comment transformer des documents techniques standards, disponibles en ligne ou en format PDF, en systèmes conversationnels interactifs. Ces systèmes ne se contentent pas de fournir du code ; ils offrent également des explications pertinentes et adaptées aux besoins spécifiques des utilisateurs. L’objectif est de montrer comment l’IA et un système RAG peuvent non seulement simplifier la recherche d’informations, mais aussi enrichir l’expérience de développement en rendant la documentation plus interactive et personnalisée.


Lucian Precup : CTO de all.site - le moteur de recherche et copilote collaboratif développé à Station F. Avec ses collègues d’Adelean, il développe des solutions pour l’indexation, la recherche et l’analyse de données. Lucian participe régulièrement à des conférences françaises et internationales spécialisées sur les moteurs de recherche et organise le Meetup Search, Data & AI à Paris.

Benjamin Dauvissat : Curieux et passionné. Développeur depuis plus de 20 ans dont plus de 16 en java, vulgarisateur, podcasteur et parfois speaker. Chez Adelean depuis 1 an et heureux d’y être pour aider le code et les moteurs de recherche à mieux se comprendre.