Avec le Model Context Protocol, l'IA peut prendre le contrôle de nos machines 🙀
Le Model Context Protocol (MCP) d’Anthropic redéfinit l’interaction entre les LLMs et nos systèmes. D’un côté vous aurez un serveur MCP capable d’exécuter des commandes, programmes, fonctions, … et de l’autre une application hôte utilisant à la fois un LLM et un client MCP qui donne l’opportunité au LLM d’envoyer des commandes au serveur MCP: “ajoute une issue au projet GitLab demo dans le groupe Zeira Corp avec le titre hello world”, “dis bonjour à Bob”, …
Ce qu’il faut s’avoir, c’est que vous n’êtes pas obligés d’utiliser les modèles d’Anthropic et que vous pouvez faire ça avec des LLMs locaux (et comme ça on évite le soulèvement des machines et on consomme moins d’énergie).
Avec cette présentation, je vous expliquerai:
- MCP et ses grands principes
- Comment utiliser des serveurs MCP existants avec Docker (nous verrons comment demander à un LLM de créer des issues dans GitLab ou “s’amuser” avec SQLite)
- Comment faire votre propre serveur MCP et une application hôte pour l’utiliser avec Ollama et un LLM local (j’utiliserai le langage Go pour cela et nous ferons exécuter des fonctions WebAssembly à notre LLM)
L’objectif de cette présentation est aussi de démontrer comment nous pouvons conserver le contrôle de nos IA, utiliser des ressources locales et pas forcément avoir besoin de ressources importantes (par exemple, nous n’avons pas toujours besoin de GPU)