Continue

Continue

Der führende Open-Source-KI-Code-Assistent

Continue ist der führende Open-Source-KI-Code-Assistent, der in VS Code und JetBrains IDEs funktioniert. Im Gegensatz zu proprietären Tools können Sie bei Continue Ihre eigenen Modelle (BYOK) mitbringen. Sie können sich über Ollama mit lokalen LLMs verbinden oder API-Schlüssel für GPT-4, Claude 3.5 und DeepSeek verwenden. Es gibt Ihnen die volle Kontrolle über Ihre Daten und den von Ihnen verwendeten KI-Stack.

Kategorie

Extension

Bewertung

4.7

Benutzer

400K+

Plattform-Unterstützung

macOSWindowsLinux

Preispläne

Kostenloser Plan

$0

Kostenlos & Open Source (Apache 2.0)

Empfohlen

Pro-Plan

Kostenlos /für immer

Einzelperson: Volle Funktionen, eigener API-Schlüssel oder lokale Modelle

Empfohlen

Pro-Plan

Benutzerdefiniert /Benutzer

Enterprise: Hub für zentrale Konfiguration, Analysen und Governance

Enterprise-Plan

定制

Continue für Teams: SSO, Audit-Logs, standardisierte Konfiguration

Kernfunktionen

1 Kernfunktionen

Modellagnostisch

Verwenden Sie jedes gewünschte Modell: GPT-4o, Claude 3.5 Sonnet, DeepSeek oder lokales Llama 3

Kontext-Provider

Tippen Sie @, um Dateien, Dokumente, Terminalausgaben oder Git-Diffs zu referenzieren

Lokaler KI-Support

Erstklassige Unterstützung für Ollama, LM Studio und andere lokale Inferenzserver

Tab-Autovervollständigung

Prädiktive Codevervollständigung mit Modellen geringer Latenz wie StarCoder2 oder DeepSeek-Coder

2 Flexibilität

Anpassbarkeit

Konfigurieren Sie alles über config.json: benutzerdefinierte Prompts, Slash-Befehle und Modellparameter

Cross-IDE

Konsistente Erfahrung in VS Code und JetBrains (IntelliJ, PyCharm usw.)

3 Entwicklererfahrung

Bearbeitungsmodus

Code markieren und Cmd+I drücken, um Inline-Refactoring oder Bugfixing durchzuführen

Doku-Indexierung

Indexieren Sie Dokumentationsseiten, um Fragen zu Drittanbieter-Bibliotheken zu stellen

Datenschutz

Ihr Code verlässt Ihren Computer nicht, es sei denn, Sie verwenden eine Cloud-API; volle Telemetriekontrolle

Vor- und Nachteile

Vorteile

  • Vollständig Open Source und kostenlos nutzbar
  • Unübertroffene Flexibilität: Modelle sofort wechseln (z.B. DeepSeek für Chat, StarCoder für Autocomplete)
  • Klassenbester Support für lokale LLMs (Ollama)
  • Leistungsstarkes Kontextsystem (@docs, @codebase, @git)
  • Kein Vendor-Lock-in; Sie besitzen Ihre Konfiguration

Nachteile

  • Erfordert mehr Ersteinrichtung als Copilot
  • Latenz der Autovervollständigung hängt von Ihrem gewählten Anbieter/Hardware ab
  • UI ist funktional, fühlt sich aber weniger "nativ" an als Cursor
  • Indexierung für @codebase kann bei sehr großen Repos langsamer sein als bei spezialisierten Vektor-DBs

Ideal Für

Datenschutzbewusste Entwickler, die lokale Modelle ausführen möchten

Power-User, die verschiedene KI-Modelle mischen möchten

Teams, die eine selbst gehostete KI-Coding-Lösung benötigen

Entwickler, die JetBrains IDEs verwenden und eine bessere KI-Erfahrung wünschen

Tech-Stack

Architektur

IDE-Erweiterung (VS Code & JetBrains)

KI-Modelle

Beliebig (Ollama, OpenAI, Anthropic, DeepSeek, Mistral)

Plattformen

macOSWindowsLinux

Community-Ressourcen