LM Studio - Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Publié initialement à : LM Studio – Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Face aux évolutions d’OpenAI, l’auteur explore des alternatives pour intégrer une IA similaire à ChatGPT dans ses scripts sans trop de modifications. Il teste OpenChat et d’autres outils comme llamacpp et Ollama, mais rencontre des problèmes techniques. LM Studio est présenté comme une solution prometteuse qui permet de faire fonctionner des modèles de langage en local et de les intégrer facilement via une API, bien que certains réglages soient encore nécessaires.

Ne pas confondre LLMs et M&M’s.

2 « J'aime »

Excellent pour les non-dev bidouilleurs comme moi :slight_smile:
Dans le même style, comptes-tu tester Pinokio ? Ca a l’air super, mais très peu de retours FR dessus donc j’ai peur qu’il y ait un virus dedans.

Bonjour et merci pour vos articles qui stimulent toujours la curiosité !
A propos de LM Studio, une utilisation en mode local et un choix du modèle m’intéresse beaucoup, notamment pour un usage scolaire (respect RGPD). Toutefois, une fois le mode serveur activé, je ne sais pas trop vers quel client me tourner pour appeler le modèle qui tourne en local…
Quelqu’un aurait-il réussi à faire fonctionner LM Studio en mode serveur avec un client simple à configurer ?
Merci pour votre aide !
Yann