Installer Ollama sur Linux

Aujourd’hui nous allons déployer une instance de Ollama, un modèle d’IA opensource sur Linux.

Il est recommandé d’utiliser une machine ayant des capacités importantes afin de faire tourner les modèles, ma machine de test ne dispose pas de ces ressources, les performances seront donc dégradées.

On installe tout d’abord les dépendances :

apt install curl git

On télécharge ensuite ollama :

curl -sSL https://ollama.com/install.sh | sh

On vérifie ensuite que ollama est bien installé :

ollama --version

Comme indiqué précédemment mes ressources sont limitées d’où le warning.

Avec la commande ollama list, vous pouvez voir les modèles présents (ici aucun) :

Ollama propose différents modèles. En voici quelques exemples :

ModèleTailleUsageCommande
Llama 3.22-3 GBUsage général, débutantollama pull llama3.2
Mistral4 GBCode et texteollama pull mistral
CodeLlama4 GBSpécialisé codeollama pull codellama

On va tester le modèle llama :

On va ensuite lancer le moteur d’IA :

ollama run llama3.2

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *