Sommaire
ToggleGuide complet : Comment utiliser Claude Code gratuitement (sans abonnement)
Ce guide explique comment exécuter gratuitement Claude Code sur votre ordinateur en le connectant à un modèle d’IA local à l’aide d’Ollama .
Comment fonctionne l’installation gratuite
Normalement, Claude Code fonctionne comme ceci :
Ordinateur → Code Claude → Serveurs Anthropic → Modèle Claude
Ce qui nécessite un abonnement payant .
Avec l’installation gratuite, cela fonctionne comme ceci :
Ordinateur → Code Claude → Modèle d’IA local (via Ollama)
Cela supprime le besoin d’un abonnement.
Vous exécutez le modèle d’IA directement sur votre ordinateur .
Étape 1 : Installer le code Claude
Claude Code est l’agent de codage basé sur Anthropic. Il est conçu pour les flux de travail agentique et peut gérer des tâches de codage en plusieurs étapes directement à partir de votre ligne de commande.
Lorsqu’il est associé à Ollama, Claude Code peut être facilement utilisé avec des modèles locaux tels que GLM 4.7 Flash, ce qui vous permet d’exécuter toutes les opérations localement et de conserver votre code sur votre machine.
Commencez par installer Claude Code sur votre machine.
Aller à : claude.com/product/claudecode
Vous trouverez des instructions d’installation pour différents systèmes.
Pour Mac :
Copiez la commande d’installation et exécutez-la dans le Terminal.
Pour Windows :
Utilisez la commande d’installation Windows dans PowerShell.
Exemple de structure de commande :
curl -fsSL <https://claude.ai/install.sh> | sh
Après l’installation, vous devriez pouvoir exécuter :
llm models
dans le terminal.
Cela lance Claude Code.
Étape 2 : Installer Ollama
Ensuite, il vous faut Ollama, qui permet d’exécuter des modèles d’IA en local.
Aller à : ollama.com
Téléchargez la version pour :
- Mac
- Windows
- Linux
Installez-le normalement.
curl -fsSL https://ollama.com/install.sh | sh
Une fois installé, Ollama fonctionne comme un service en arrière-plan qui charge localement les modèles d’IA.
Étape 3 : Télécharger un modèle d’IA local
Vous devez maintenant télécharger un modèle d’IA open-source .
Ouvrez votre terminal et exécutez :
ollama run model-name
Exemples de modèles que vous pouvez utiliser :
- qwen
- recherche profonde
- gemme
- gpt-oss
Exemple:
ollama run gpt-oss:20b
Cela télécharge le modèle GPT-OSS à 20 milliards de paramètres .
Le fichier modèle pèsera plusieurs gigaoctets.
Une fois téléchargé, le modèle s’exécute localement sur votre ordinateur.
Vous pouvez le tester immédiatement :
ollama run gpt-oss:20b
Saisissez ensuite :
hello
Le modèle répondra.
Même sans internet.
Étape 4 : Confirmez vos modèles installés
Pour vérifier les modèles installés, exécutez :
ollama list
Vous verrez quelque chose comme :
gpt-oss:20b
13GB
Cela confirme que le modèle est installé.
Étape 5 : Configurer le code Claude pour utiliser le modèle local
Vous devez maintenant rediriger Claude Code vers votre modèle local au lieu des serveurs Anthropic .
Exécutez la commande suivante :
export ANTHROPIC_BASE_URL=http://localhost:11434
Cela indique à Claude Code d’envoyer des requêtes à Ollama exécuté localement .
Prochaine course :
export ANTHROPIC_AUTH_TOKEN=dummy
Cela remplace l’exigence habituelle de clé API.
Le jeton peut être n’importe quel texte.
Claude Code vérifie uniquement si quelque chose existe.
Étape 6 : Démarrer le code Claude en utilisant le modèle local
Lancez maintenant Claude Code.
Commencez par accéder au dossier de votre projet :
cd your-project
Ensuite, exécutez :
code --model gpt-oss:20b
Claude Code va maintenant commencer à utiliser le modèle local .
Le nom du modèle apparaîtra dans l’interface.
Étape 7 : Tester la configuration
Essayez une commande simple :
create a todo app in HTML
Claude Code générera du code.
Le traitement sera plus long qu’avec les modèles cloud.
Mais le système fonctionne entièrement hors ligne.
Aucun abonnement requis.
Exemple de flux de travail
Vous pouvez désormais utiliser Claude Code en local pour des tâches telles que :
- écrire du code
- scripts de débogage
- automatisation des bâtiments
- génération de documentation
- création de petites applications
Exemple de requête :
build a simple task manager in python
Claude Code générera des fichiers dans le répertoire de votre projet.
Choisir le bon modèle
La configuration matérielle de votre ordinateur détermine quels modèles fonctionnent le mieux.
Petits modèles :
Paramètres 7B à 20B
Idéal pour les ordinateurs portables
Modèles moyens :
Paramètres de 30B à 70B
Il faut plus de RAM
Modèles de grande taille :
Plus de 100 milliards de paramètres
Nécessite des GPU puissants
Exemples de recommandations :
| Matériel | Modèle suggéré |
|---|---|
| 16 Go de RAM | Modèles 7B–13B |
| 24 Go de RAM | Modèles 20B |
| 32 Go de RAM ou plus | Modèles 34B |
Les attentes en matière de performance
Les modèles locaux sont plus lents.
Exemples de vitesses :
| Tâche | Modèle local |
|---|---|
| Invite simple | 10 à 30 secondes |
| génération de code | 30 à 60 secondes |
| Grandes invites | 1 à 2 minutes |
Les modèles cloud comme Claude Opus réagissent beaucoup plus rapidement.
Personnellement je trouve ces délais vraiment insupportables aussi je préfère payer afin de ne pas perdre de temps
Mais les modèles locaux vous offrent une utilisation sans frais .
Avantages de cette configuration
- Aucun abonnement requis
- Aucun coût d’API
- Fonctionne hors ligne
- Utilisation illimitée
- Idéal pour l’expérimentation
Limites
- Réponses plus lentes
- Qualité de raisonnement inférieure à celle des modèles haut de gamme
- Nécessite du matériel informatique correct
- Les modèles volumineux nécessitent une quantité importante de RAM
Meilleurs cas d’utilisation
Cette configuration est idéale pour :
- Développement de l’IA d’apprentissage
- Scripts d’automatisation de la construction
- Agents de codage de test
- Expérimentation des flux de travail d’IA
- Exécution locale de systèmes d’IA privés
Exemple de flux de travail de développement
De nombreux développeurs utilisent cette pile technologique :
- Code Claude
- Ollama
- Modèle d’IA local
Ensuite, combinez avec :
- n8n pour l’automatisation
- Scripts Python
- API locales
- environnements de développement
Cela crée un environnement de développement d’IA entièrement local .
Envie d'en apprendre plus
On vous expliquera notre mode de fonctionnement. Vous pourriez être agréablement surpris.
En apprendre plus sur l'Intelligence Artificielle avec DeepDive
André Gentit Formateur & Consultant en Stratégie Web et IA générative
Vous souhaitez bâtir une stratégie de communication efficace, booster la performance de votre site internet ou mieux comprendre les dynamiques des réseaux sociaux ?
👉 Avec DeepDive, je vous accompagne grâce à une expertise terrain (ex-dirigeant d’agence digitale depuis 2011) et une veille continue sur les nouvelles pratiques numériques.
👉 J’interviens auprès de TPE, PME et collectivités, mais aussi en écoles et organismes (CNAM, CCI, écoles de commerce) pour rendre le numérique accessible et opérationnel.
👉 Mes formations couvrent le webmarketing, l’e-commerce, l’IA générative appliquée et incluent également une sensibilisation aux risques liés aux usages du web en général, sans oublier les bonnes pratiques à mettre en œuvre avec l’intelligence artificielle.
Mon objectif : transmettre des savoirs concrets pour que chaque apprenant — étudiant, salarié, entrepreneur ou institution — puisse transformer le numérique et l’IA en véritable levier de réussite.
Découvrez mon petit robot PromptyBot qui vous propose des centaines de prompts optimisés






























Un commentaire
Le sujet est bien développé et les idées sont clairement présentées.