Continue

Continue

선도적인 오픈 소스 AI 코드 어시스턴트

Continue는 VS Code 및 JetBrains IDE 내에서 작동하는 선도적인 오픈 소스 AI 코드 어시스턴트입니다. 독점 도구와 달리 Continue를 사용하면 자체 모델(BYOK)을 가져올 수 있습니다. Ollama를 통해 로컬 LLM에 연결하거나 GPT-4, Claude 3.5 및 DeepSeek용 API 키를 사용할 수 있습니다. 데이터 개인 정보 보호 및 사용하는 AI 스택을 완전히 제어할 수 있습니다.

카테고리

Extension

평점

4.7

사용자 수

400K+

플랫폼 지원

macOSWindowsLinux

가격 플랜

무료 플랜

$0

무료 & 오픈 소스 (Apache 2.0)

추천

Pro 플랜

무료 /영구

개인용: 전체 기능, 자체 API 키 가져오기 또는 로컬 모델 실행

추천

Pro 플랜

맞춤형 /사용자

엔터프라이즈: 중앙 집중식 구성, 분석 및 거버넌스를 위한 허브

엔터프라이즈 플랜

定制

팀용: SSO, 감사 로그, 표준화된 구성

핵심 기능

1 핵심 기능

모델 불가지론

원하는 모델 사용: GPT-4o, Claude 3.5 Sonnet, DeepSeek 또는 로컬 Llama 3

컨텍스트 제공자

@를 입력하여 파일, 문서, 터미널 출력 또는 git diff 참조

로컬 AI 지원

Ollama, LM Studio 및 기타 로컬 추론 서버에 대한 일류 지원

Tab 자동 완성

StarCoder2 또는 DeepSeek-Coder와 같은 저지연 모델을 사용한 예측 코드 완성

2 유연성

커스터마이징

config.json을 통해 모든 것을 구성: 사용자 정의 프롬프트, 슬래시 명령 및 모델 매개변수

크로스 IDE

VS Code 및 JetBrains(IntelliJ, PyCharm 등) 전반에서 일관된 경험 제공

3 개발자 경험

편집 모드

코드를 강조 표시하고 Cmd+I를 눌러 인라인으로 리팩토링하거나 버그 수정

문서 인덱싱

타사 라이브러리에 대해 질문하기 위해 문서 사이트 인덱싱

데이터 개인 정보 보호

클라우드 API를 사용하지 않는 한 코드는 컴퓨터를 떠나지 않음; 완전한 원격 측정 제어

장단점

장점

  • 완전한 오픈 소스이며 무료 사용 가능
  • 비교할 수 없는 유연성: 모델 즉시 교체(예: 채팅은 DeepSeek, 완성은 StarCoder)
  • 로컬 LLM(Ollama)에 대한 동급 최고의 지원
  • 강력한 컨텍스트 시스템(@docs, @codebase, @git)
  • 벤더 종속 없음; 구성에 대한 소유권은 사용자에게 있음

단점

  • Copilot보다 초기 설정(구성)이 더 많이 필요함
  • 자동 완성 지연 시간은 선택한 제공업체/하드웨어에 따라 다름
  • UI는 기능적이지만 Cursor만큼 "네이티브" 느낌은 아님
  • 매우 큰 저장소의 경우 @codebase 인덱싱이 전용 벡터 DB보다 느릴 수 있음

추천 사용자

로컬 모델을 실행하려는 개인 정보 보호를 중시하는 개발자

다양한 AI 모델을 혼합하여 사용하려는 파워 유저

자체 호스팅 AI 코딩 솔루션이 필요한 팀

JetBrains IDE를 사용하며 더 나은 AI 경험을 원하는 개발자

기술 스택

아키텍처

IDE 확장 (VS Code & JetBrains)

AI 모델

모두 (Ollama, OpenAI, Anthropic, DeepSeek, Mistral)

플랫폼

macOSWindowsLinux

커뮤니티 리소스