Comment configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne ?

Découvrez comment configurer LM Studio pour exécuter des modèles de langage d'IA localement sur votre PC, assurant ainsi confidentialité et performance sans connexion Internet.

LM Studio est un outil qui vous permet de exécuter des modèles de langage de grande taille (LLMs) sur votre ordinateur. L'un des meilleurs aspects de cette utilité est qu'elle vous permet d'exécuter les modèles localement pour garantir une confidentialité maximale. Dans ce guide, nous allons configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne, donc, si cela vous intéresse, continuez à lire.

Configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne

LM Studio vous permet de télécharger et d'exécuter de grands modèles de langage sur votre ordinateur sans avoir besoin d'Internet. Il aide à garder vos données privées en traitant tout localement. Avec lui, vous pouvez utiliser plusieurs modèles d'IA pour des tâches comme la création de contenu et l'analyse de données. Si vous souhaitez configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne, suivez les étapes mentionnées ci-dessous.

  1. Installer LM Studio
  2. Installer plusieurs modèles
  3. Commencer à utiliser le modèle

Discutons-en en détail.

Installer LM Studio

Tout d'abord, nous devons obtenir l'outil LM Studio à partir de leur site Web officiel. Pour cela, vous devez aller sur lmstudio.ai. Comme j'utilise Windows, je vais sélectionner Télécharger LM Studio pour Windows, mais selon votre plateforme, vous devez télécharger la version de LM Studio appropriée. Une fois cela fait, cela déclenchera le téléchargement du fichier exe respectif.

Après avoir téléchargé le support d'installation de LM Studio, double-cliquez dessus, puis sélectionnez l'utilisateur pour lequel vous souhaitez installer l'application. Si vous voulez l'installer pour tous les utilisateurs, vous aurez besoin d'un accès administrateur car cela générera une invite UAC. Comme j'ai accès, j'ai fait cela, puis sélectionné le dossier, et enfin lancé l'application.

Installer plusieurs modèles

Une fois que vous lancez LM Studio, vous serez invité à télécharger vos premiers modèles LLM, cliquez sur Obtenir votre premier LLM, puis téléchargez le modèle suggéré. Dans le cas où vous souhaitez sélectionner votre propre modèle, cliquez sur Passer le onboarding.

Pour télécharger un modèle LLM, vous devez cliquer sur l'icône Découvrir (loupe). Maintenant, recherchez le modèle que vous souhaitez télécharger. L'un des meilleurs aspects de LM Studio est le fait qu'il vérifie les détails de votre système et vous dit si le modèle est trop volumineux pour votre machine. Par exemple, le DeepSeek Coder V2 Lite est trop volumineux pour mon appareil, tandis que le Llama 3.2 1B fonctionnera sans problème.

Une fois que vous savez quel modèle fonctionnera sur votre machine, cliquez sur l'icône Télécharger et laissez-le télécharger le modèle. Selon votre bande passante réseau, cela peut prendre un certain temps.

Cela téléchargera le modèle LLM ainsi que le Runtime. Cependant, si vous souhaitez passer à un modèle différent, dans mon cas, disons que je voulais installer CPU llama.cpp car je n'ai pas de GPU puissant et que l'accélération GPU n'est pas quelque chose que ma machine peut gérer, je suis allé dans l'onglet Runtime et j'ai cliqué sur le bouton Mettre à jour à côté du modèle Runtime.

Pour télécharger un autre modèle, vous devez retourner au bouton Découvrir, chercher le modèle que vous souhaitez télécharger. Ensuite, cliquez sur le bouton Télécharger associé à celui-ci. Attendez quelques minutes pendant qu'il télécharge votre modèle. Une fois téléchargé, vous pouvez aller au Runtime pour télécharger toutes mises à jour si disponibles, et si nécessaire, puis, tout ce que vous avez à faire est de cliquer sur Charger les modèles. Cela démarrera le serveur de ce modèle localement sur votre ordinateur.

Remarque : Si vous avez fermé l'invite Découvrir sans démarrer le modèle, allez sur l'icône Télécharger dans le coin inférieur gauche de l'écran, puis sélectionnez Charger le modèle associé à votre modèle.

Commencer à utiliser le modèle

Après avoir téléchargé les modèles, il vous suffit d'aller sur l'icône Chat. Puis, regardez en haut de la fenêtre, et vous verrez tous vos modèles, cliquez sur le modèle que vous souhaitez sélectionner.

Vous pouvez même changer les préférences du modèle avant de les utiliser. Pour cela, cliquez sur la flèche latérale à côté du modèle puis changez les paramètres tels que le déchargement GPU, la taille du pool de threads CPU, la longueur du contexte et d'autres options. Une fois fait, cliquez simplement sur Charger le modèle.

Une fois le modèle chargé, allez à Chatbot et commencez à discuter avec le modèle d'IA. Assurez-vous de noter la RAM et le compte CPU en bas à droite de la fenêtre.

J'espère qu'avec l'aide de ce guide, vous serez en mesure d'exécuter plusieurs modèles LLM dans LM Studio. Cependant, il existe d'autres outils pour exécuter des LLM localement, vous devriez les vérifier également.

bien.

LM Studio fonctionne-t-il hors ligne ?

Oui, LM Studio fonctionne hors ligne. Une fois que vous avez téléchargé les modèles et les environnements nécessaires, vous pouvez l'utiliser entièrement sans connexion Internet. Tout le traitement s'effectue localement sur votre machine, garantissant que vos données restent privées.

De combien de RAM ai-je besoin pour LM Studio ?

Chaque modèle dans LM Studio a des exigences de RAM différentes. Cependant, nous vous recommandons d'avoir au moins 16 Go de RAM si vous souhaitez exécuter un modèle sans problème. De plus, si vous avez la possibilité d'ajouter un GPU, faites-le aussi.

Maintenant que tu as fini de lire Comment configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne ?, nous t'invitons à explorer davantage la catégorie Tutoriels. Tu y trouveras d'autres articles intéressants qui élargiront tes connaissances et te tiendront informé. Ne cesse pas de lire et de découvrir plus!

Index
  1. Configurer LM Studio pour utiliser plusieurs IA sur un PC hors ligne
    1. Installer LM Studio
    2. Installer plusieurs modèles
    3. Commencer à utiliser le modèle
    4. LM Studio fonctionne-t-il hors ligne ?
    5. De combien de RAM ai-je besoin pour LM Studio ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Go up