Comment installer LLaMA 3 sur un PC Windows 11 ?

Découvrez comment installer Llama 3, le modèle de langage de Meta, sur votre PC Windows 11, et profitez d'une utilisation optimale même sans connexion Internet.

Llama 3 est le dernier modèle de langage développé par Meta. Vous pouvez l'utiliser à diverses fins, telles que la résolution de vos questions, l'aide avec vos devoirs scolaires et vos projets, etc. Déployer Llama 3 sur votre machine Windows 11 localement vous permettra de l'utiliser à tout moment, même sans accès à Internet. Cet article vous montre comment installer Llama 3 sur un PC Windows 11.

Comment installer Llama 3 sur un PC Windows 11

Installer Llama 3 sur un PC Windows 11 via Python nécessite des compétences techniques et des connaissances. Cependant, certaines méthodes alternatives vous permettent de déployer Llama 3 localement sur votre machine Windows 11. Je vais vous montrer ces méthodes.

Pour installer Llama 3 sur votre PC Windows 11, vous devez exécuter certaines commandes dans l'invite de commande. Cependant, cela ne vous permettra d'utiliser que sa version en ligne de commande. Vous devez effectuer d'autres étapes si vous souhaitez utiliser son interface web. Je vais vous montrer ces deux méthodes.

Déployer Llama 3 sur un PC Windows 11 via CMD

Pour déployer Llama 3 sur votre PC Windows 11, vous devez d'abord installer Ollama sur votre machine Windows. Les étapes sont les suivantes :

  1. Visitez le site officiel d'Ollama.
  2. Cliquez sur le bouton Télécharger, puis sélectionnez Windows.
  3. Maintenant, cliquez sur le bouton Télécharger pour Windows pour enregistrer le fichier exe sur votre PC.
  4. Exécutez le fichier exe pour installer Ollama sur votre machine.

Une fois qu'Ollama est installé sur votre appareil, redémarrez votre ordinateur. Il devrait s'exécuter en arrière-plan et vous pourrez le voir dans votre barre d'état système. Cliquez maintenant sur l'option Modèles sur le site d'Ollama pour découvrir ses différents modèles.

Le Llama 3.1 est disponible en trois paramètres :

  • 8B
  • 70B
  • 405B

Le dernier est le plus grand paramètre et ne peut évidemment pas être exécuté sur un PC bas de gamme. Le Llama 3.2 possède les deux paramètres suivants :

  • 1B
  • 3B

Cliquez sur la version de Llama que vous souhaitez installer sur votre PC. Par exemple, si vous souhaitez installer Llama 3.2, cliquez sur Llama 3.2. Dans le menu déroulant, vous pouvez sélectionner le paramètre que vous souhaitez installer. Ensuite, copiez la commande à côté et collez-la dans l'invite de commande.

Pour votre commodité, j'ai écrit les commandes pour le modèle Llama 3.2. Pour installer le modèle Llama 3.2 3B, exécutez la commande suivante :

ollama run llama3.2:3b

Pour installer le modèle Llama 3.2 1B, utilisez la commande suivante :

ollama run llama3.2:1b

Ouvrez l'invite de commande, tapez l'une des commandes mentionnées ci-dessus (en fonction de vos besoins) et appuyez sur Entrée. Il faudra un certain temps pour télécharger les fichiers nécessaires. Le temps de téléchargement dépendra également de la vitesse de votre connexion Internet. Une fois terminé, vous verrez le message succès dans l'invite de commande.

Maintenant, tapez votre message pour utiliser le modèle Llama 3.2. Si vous souhaitez installer le modèle Llama 3.1, utilisez les commandes disponibles sur le site d'Ollama.

La prochaine fois que vous lancerez l'invite de commande, utilisez la même commande pour exécuter Llama 3.1 ou 3.2 sur votre PC.

Installer Llama 3 via CMD a un inconvénient. Il ne sauvegarde pas votre historique de chat. Cependant, si vous le déployez sur l'hôte local, votre historique de chat sera sauvegardé et vous bénéficierez d'une meilleure interface utilisateur. La méthode suivante montre comment faire cela.

Déployer l'interface Web de Llama 3 sur Windows 11

Utiliser Llama 3 dans un navigateur web offre une meilleure interface utilisateur et sauvegarde également l'historique de chat par rapport à son utilisation dans la fenêtre CMD. Je vais vous montrer comment déployer Llama 3 sur votre navigateur web.

Pour utiliser Llama 3 dans votre navigateur web, il faut que Llama 3 via Ollama et Docker soit installé sur votre système. Si vous n'avez pas encore installé Llama 3, installez-le en utilisant Ollama (comme expliqué ci-dessus). Téléchargez et installez maintenant Docker depuis son site officiel.

Après avoir installé Docker, lancez-le et inscrivez-vous pour créer un compte. Docker ne fonctionnera pas tant que vous ne vous serez pas inscrit. Après vous être inscrit, connectez-vous à votre compte sur l'application Docker. Minimisez Docker dans la barre d'état système. Les applications Docker et Ollama doivent tourner en arrière-plan. Sinon, vous ne pourrez pas utiliser Llama 3 dans votre navigateur web.

Maintenant, ouvrez l'invite de commande, copiez la commande suivante et collez-la dans l'invite de commande :

docker run -d -p 3000:8080
--add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

La commande ci-dessus prendra un certain temps pour télécharger les ressources nécessaires. Par conséquent, soyez patient. Une fois la commande terminée, ouvrez Docker et sélectionnez la section Containers sur le côté gauche. Vous verrez qu'un conteneur a été créé automatiquement avec le port 3000:8080.

Cliquez sur le port 3000:8080. Cela ouvrira un nouvel onglet dans votre navigateur web par défaut. Maintenant, inscrivez-vous et connectez-vous pour utiliser Llama 3 dans votre navigateur. Si vous regardez la barre d'adresse, vous y verrez localhost:3000, ce qui signifie que Llama 3 est hébergé localement sur votre ordinateur. Vous pouvez l'utiliser sans connexion Internet.

Sélectionnez votre modèle de chat Llama dans le menu déroulant. Si vous souhaitez ajouter d'autres modèles de chat de Llama 3, vous devez l'installer via Ollama en utilisant les commandes requises. Ensuite, le modèle sera automatiquement disponible dans votre navigateur.

Toute votre historique de chat sera sauvegardé et accessible sur le côté gauche. Lorsque vous souhaitez quitter, déconnectez-vous de votre session dans votre navigateur. Ensuite, ouvrez l'application Docker et cliquez sur le bouton Stop pour arrêter Docker. Vous pouvez maintenant fermer Docker.

Lorsque vous voudrez utiliser Llama 3 dans votre navigateur la prochaine fois, lancez Ollama et Docker, attendez quelques minutes, puis cliquez sur le port dans le conteneur Docker pour ouvrir le serveur localhost dans votre navigateur. Maintenant, connectez-vous à votre compte et commencez à utiliser Llama 3.

J'espère que cela vous aide.

Est-ce que Llama 3 peut fonctionner sur Windows ?

En fonction de la configuration matérielle de votre ordinateur, vous pouvez exécuter Llama 3 sur votre système. Son modèle 1B est le plus léger. Vous pouvez l'installer et le faire fonctionner sur votre système via l'invite de commande.

De combien de RAM ai-je besoin pour Llama 3 ?

Le modèle le plus léger de Llama 3 est Llama 3.2 1B. Votre système doit avoir 16 Go de RAM pour exécuter le modèle Llama 3.2 1B. En plus de cela, votre système doit également avoir un GPU robuste. Les modèles supérieurs de Llama 3 nécessitent plus de ressources système.

Maintenant que tu as fini de lire Comment installer LLaMA 3 sur un PC Windows 11 ?, nous t'invitons à explorer davantage la catégorie Applications. Tu y trouveras d'autres articles intéressants qui élargiront tes connaissances et te tiendront informé. Ne cesse pas de lire et de découvrir plus!

Index
  1. Comment installer Llama 3 sur un PC Windows 11
    1. Déployer Llama 3 sur un PC Windows 11 via CMD
    2. Déployer l'interface Web de Llama 3 sur Windows 11
    3. Est-ce que Llama 3 peut fonctionner sur Windows ?
    4. De combien de RAM ai-je besoin pour Llama 3 ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Go up