Continue

Continue

L'assistant de code IA open source leader

Continue est l'assistant de code IA open source leader qui fonctionne dans VS Code et les IDE JetBrains. Contrairement aux outils propriétaires, Continue vous permet d'apporter vos propres modèles (BYOK). Vous pouvez vous connecter à des LLM locaux via Ollama, ou utiliser des clés API pour GPT-4, Claude 3.5 et DeepSeek. Il vous donne un contrôle total sur la confidentialité de vos données et la pile IA que vous utilisez.

Catégorie

Extension

Note

4.7

Utilisateurs

400K+

Support de plateforme

macOSWindowsLinux

Plans tarifaires

Plan gratuit

$0

Gratuit & Open Source (Apache 2.0)

Recommandé

Plan Pro

Gratuit /pour toujours

Individuel : Fonctionnalités complètes, apportez votre propre clé API ou exécutez des modèles locaux

Recommandé

Plan Pro

Sur mesure /utilisateur

Entreprise : Hub pour la configuration centralisée, l'analyse et la gouvernance

Plan Entreprise

定制

Continue pour Équipes : SSO, journaux d'audit, configuration standardisée

Fonctionnalités principales

1 Fonctionnalités Principales

Agnostique au Modèle

Utilisez n'importe quel modèle : GPT-4o, Claude 3.5 Sonnet, DeepSeek ou Llama 3 local

Fournisseurs de Contexte

Tapez @ pour référencer des fichiers, des documents, la sortie du terminal ou des git diffs

Support IA Local

Support de premier ordre pour Ollama, LM Studio et autres serveurs d'inférence locaux

Autocomplétion Tab

Complétion de code prédictive utilisant des modèles à faible latence comme StarCoder2 ou DeepSeek-Coder

2 Flexibilité

Personnalisation

Configurez tout via config.json : invites personnalisées, commandes slash et paramètres de modèle

Multi-IDE

Expérience cohérente sur VS Code et JetBrains (IntelliJ, PyCharm, etc.)

3 Expérience Développeur

Mode Édition

Surlignez du code et appuyez sur Cmd+I pour refactoriser ou corriger des bugs en ligne

Indexation de Docs

Indexez des sites de documentation pour poser des questions sur des bibliothèques tierces

Confidentialité des Données

Votre code ne quitte jamais votre machine sauf si vous utilisez une API cloud ; contrôle total de la télémétrie

Avantages et inconvénients

Avantages

  • Entièrement open source et gratuit à utiliser
  • Flexibilité inégalée : changez de modèle instantanément (ex: DeepSeek pour le chat, StarCoder pour la complétion)
  • Meilleur support de sa catégorie pour les LLM locaux (Ollama)
  • Système de contexte puissant (@docs, @codebase, @git)
  • Pas de verrouillage fournisseur ; vous êtes propriétaire de votre configuration

Inconvénients

  • Nécessite plus de configuration initiale que Copilot
  • La latence de l'autocomplétion dépend de votre fournisseur/matériel choisi
  • L'interface est fonctionnelle mais semble moins "native" que Cursor
  • L'indexation pour @codebase peut être plus lente sur de très gros dépôts par rapport aux bases de données vectorielles spécialisées

Idéal pour

Développeurs soucieux de la confidentialité souhaitant exécuter des modèles locaux

Utilisateurs avancés souhaitant mélanger différents modèles IA

Équipes ayant besoin d'une solution de codage IA auto-hébergée

Développeurs utilisant des IDE JetBrains et souhaitant une meilleure expérience IA

Stack technique

Architecture

Extension IDE (VS Code & JetBrains)

Modèles d'IA

N'importe lequel (Ollama, OpenAI, Anthropic, DeepSeek, Mistral)

Plateformes

macOSWindowsLinux

Ressources communautaires