L'intelligence artificielle a connu des progrès fulgurants ces dernières années, mais son accessibilité reste limitée aux machines puissantes et aux experts en informatique. Cette présentation vise à démolir ce mur en démontrant comment faire tourner des LLM (modèles de langage de grande taille, mais en fait petits, mais costauds, dans le cas qui nous intéresse) sur un simple Raspberry PI 5 (et si ça tourne sur un Pi…).

En tirant parti de la puissance d'Ollama, une plateforme de LLMs, et de LangChain, un framework de programmation d'application GenAI (Generative AI), nous ouvrons la voie à une expérimentation accessible de l'IA.

Voici ce que vous découvrirez lors de cette présentation:

  • Préparation du Raspberry PI 5: Configuration du système et installation des logiciels nécessaires.
  • Déploiement d'une stack GenAI avec Docker Compose: Mise en place d'un environnement de développement complet en quelques clics.
  • Programmation d'applications GenAI: Création de Chatbots et de documents intelligents (RAG) en Python et en JavaScript.
  • Les bases et les concepts de LangChain JS
  • Développement détaillé d'applications (mise en application des concepts): un middleware pour interroger le LLM et fournir une API, ainsi qu'un front qui utilisera ce middleware/API
  • Présentation d'applications développées en Python, avec LangChain Python et StreamLit (Disclaimer, je ne suis pas un développeur Python, mais j'ai pu préparer quelques exemples très instructifs.)

Que vous soyez débutant en IA ou expert confirmé, cette présentation vous offrira une nouvelle perspective sur l'expérimentation et le développement d'applications GenAI.

Je mettrais à disposition un projet qui permet d'installer toutes les dépendances automatiquement, ainsi qu'Ollama, les LLMs et un Web IDE pour pouvoir commencer à développer dès la fin de cette présentation.