Ollama auf eigenen Servern im Rechenzentrum mit Continue in VSCode als Copilot-Alternative

Erfahre mehr darüber Ollama auf deinem eigenen Server einzusetzen und die Möglichkeiten von Continue in VSCode als Alternative zu GitHub Copilot und verbessere deinen Entwicklungsprozess mit datenschutzbewusstem Wissen.

Meta: Sven Würth · 09.10.2024 · ⏳ 5 Minuten · Alle Blogs →
Tagsollama · llm · vscode · on-premise · self-hosted · continue · copilot · datenschutz

Website Generierung

Einleitung

In der heutigen Softwareentwicklung, in der KI-gestützte Tools wie GitHub Copilot und ähnliche Assistenten unterstützen, suchen viele Entwickler nach flexibleren und datenschutzfreundlicheren Alternativen. Eine spannende Möglichkeit bietet die Kombination aus Ollama und Continue. Diese Lösung erlaubt es Entwicklern, ihre KI-gestützten Coder-Assistenten vollständig unabhängig von externen Cloud-Diensten zu betreiben.

Visual Studio Code (VSCode)

VSCode ist ein freier, quelloffener Texteditor von Microsoft, der aufgrund seiner Erweiterbarkeit und der großen Auswahl an Plugins (Extensions) besonders beliebt bei Entwicklern ist. Es bietet Unterstützung für verschiedene Programmiersprachen und Funktionen wie Debugging, Git-Integration und intelligente Codevervollständigung. Mit seiner Erweiterungsfähigkeit können KI-basierte Tools wie Continue nahtlos integriert werden, um den Codierprozess zu beschleunigen.

Ollama

Ollama ist ein Hosting-Framework für KI-Modelle, das auf lokalen Servern oder in Cloud-Umgebungen betrieben werden kann. Im Gegensatz zu Cloud-basierten Lösungen ermöglicht Ollama die vollständige Kontrolle über die KI-Modelle, die auf eigener Hardware laufen. Das Besondere ist, dass Ollama es einfach macht, verschiedene Modelle – die oft kostenlos verfügbar sind – zu integrieren, ohne auf Drittanbieter angewiesen zu sein.

Warum Ollama auf eigenen Servern?

Die Nutzung von KI-Modellen wie jenen, die bei Ollama verfügbar sind, bringt den Vorteil, dass die Rechenleistung auf einem eigenen Server mit einer verbauten GPU ausgeführt werden kann. Durch diese Architektur wird die Last der Berechnungen von dem lokalen PC, Laptop oder Endgerät genommen. Die Vorteile:

  • Performance-Optimierung: Die Modelle werden auf dedizierter Hardware im Rechenzentrum ausgeführt, die speziell für KI-Berechnungen optimiert ist. Das entlastet die lokalen Geräte der Entwickler erheblich.

  • Stabilität und Zuverlässigkeit: Server im Rechenzentrum bieten in der Regel mehr Ressourcen und stabilere Laufzeiten als herkömmliche Entwicklungsgeräte.

Continue - Eine Open-Source Copilot-Alternative für VSCode

Continue ist ein Open-Source-Plugin für Visual Studio Code (VSCode), das KI-basierte Codierunterstützung bietet und sich als leistungsstarke Alternative zu GitHub Copilot positioniert. Es kann so konfiguriert werden, dass es mit verschiedenen KI-Modellen wie denen von Ollama arbeitet und durch die Verbindung mit einem externen Server, wie einer Kubernetes-Umgebung, auf leistungsstarke GPU-Cluster zugreift. Diese Cluster sind speziell für das Training und die Ausführung von Machine-Learning-Modellen optimiert und sorgen dafür, dass die Last der Berechnungen von lokalen Entwicklergeräten ferngehalten wird. So können Entwickler ihre Geräte entlasten, während sie dennoch von der Leistung moderner KI-Modelle profitieren.

Ein großer Vorteil von Continue ist, dass es über eine API auf Ollama zugreifen kann, wodurch alle KI-Berechnungen auf lokalen Servern durchgeführt werden. Dies bietet den entscheidenden Vorteil, dass die Daten unter eigener Kontrolle bleiben und nicht an externe Cloud-Dienste gesendet werden, wie es bei GitHub Copilot der Fall ist.

Funktionen von Continue:

Code Generierung

Continue kann komplete Codezeilen oder sogar ganze Funktionen nur mit einem einzigen Befehl generieren.

Website Generierung

Autovervollständigung von Code:

Continue schlägt während des Tippens Code-Snippets vor und hilft so, den Codierprozess zu beschleunigen.

Code autovervollständigung

Vorschläge für ganze Codeblöcke:

Es bietet nicht nur einzelne Zeilen, sondern auch Vorschläge für komplexere Logik und größere Codeabschnitte.

Beantwortung von Fragen zum Code:

Entwickler können Fragen zu ihrem Code stellen, die von der KI direkt beantwortet werden.

Fragen zum Code Stellen

Anpassbare KI-Modelle:

Durch die Konfiguration mit Ollama können anpassbare KI-Modelle genutzt werden, die auf eigenen Servern laufen.


Vorteile als Copilot-Alternative:

  • Einfache Integration: Continue lässt sich mühelos in VSCode integrieren und bietet eine intuitive Benutzeroberfläche für Entwickler.

  • Leistungsfähige KI-Unterstützung: Ähnlich wie Copilot hilft Continue beim Coden und beantwortet Fragen zum Code. Der große Unterschied ist, dass es auf lokalen Servern betrieben wird, was mehr Kontrolle über die eigenen Daten ermöglicht.

Beispiel Continue Config.json:

{
  "models": [
    {
      "model": "AUTODETECT",
      "title": "Ollama über API",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    },
    {
      "title": "llama3.2 über API",
      "model": "llama3.2",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    },
    {
      "title": "DeepSeek Coder über API",
      "model": "deepseek-coder-v2",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    }
  ],
  "tabAutocompleteModel": {
    "title": "DeepSeek Code über API",
    "provider": "ollama",
    "apiBase": "http://url-der-ollama-api.com:11434",
    "model": "deepseek-coder-v2"
  }
}

Hier wird in der Configuration die Verbindung zu einer Ollama API definiert. Es ist möglich, mehrere Modelle zu definieren, die in verschiedenen Kontexten verwendet werden können. Zusätzlich wird ein Tab für das automatische Vervollständigen definiert, welches ebenfalls über die Ollama API verbunden ist.

Datenhoheit und Sicherheit

Ein großer Vorteil der Nutzung von Ollama auf eigenen Servern ist, dass sämtliche Daten nur auf der eigenen Hardware verarbeitet werden. Dies hat zwei entscheidende Auswirkungen:

  • Volle Kontrolle über die Daten: Da die Berechnungen auf den eigenen Servern durchgeführt werden, bleiben alle Daten lokal und unter der Kontrolle des Unternehmens oder der Entwickler.

  • Keine Drittanbieter-Risiken: Im Gegensatz zu cloudbasierten Lösungen wie GitHub Copilot, bei denen die Daten an externe Server geschickt werden, haben Sie bei Ollama die Gewissheit, dass keine sensiblen Informationen über Drittanbieter verarbeitet oder gespeichert werden.

Vielfalt an Modellen bei Ollama

Ein weiterer Pluspunkt von Ollama ist die große Auswahl an Modellen, die online kostenlos verfügbar sind. Je nach Bedarf können Entwickler unterschiedliche Modelle laden, sei es für allgemeine Codierungshilfen oder spezialisierte Aufgaben. Das bedeutet:

  • Anpassungsfähigkeit: Entwickler können je nach Projektanforderungen das passende Modell wählen, sei es ein einfaches Modell zur Codevervollständigung oder ein komplexeres Modell zur Fehleranalyse und Optimierung.

  • Kostenersparnis: Da viele dieser Modelle kostenlos verfügbar sind, können Unternehmen erhebliche Lizenzkosten einsparen, die sonst bei der Nutzung kommerzieller Tools wie Copilot anfallen könnten.

Fazit

Die Nutzung von Ollama auf eigenen Servern im Rechenzentrum, kombiniert mit Continue in VSCode, stellt eine hervorragende Copilot-Alternative dar. Entwickler profitieren von einer KI-basierten Codierunterstützung, ohne die Leistung der lokalen Geräte zu beeinträchtigen. Darüber hinaus gewährleistet die lokale Datenverarbeitung maximale Sicherheit und Kontrolle über die eigenen Daten. Diese Lösung ist nicht nur leistungsstark und flexibel, sondern auch ein zukunftsweisender Schritt in Richtung datenschutzfreundlicher KI-Entwicklung.

ayedo Alien Discord

Werde Teil der ayedo Community

In unserer Discord Community findest du Antworten auf deine Fragen rund um das Thema ayedo, Kubernetes und Open Source. Hier erfährst du in Realtime was es Neues bei ayedo und unseren Partnern gibt und hast die Möglichkeit mit unserem Team in direkten Kontakt zu treten.

Join the Community ↗

Ähnliche Inhalte

Alle Blogs →



Katrin Peter · 11.06.2025 · ⏳ 2 Minuten

Was bedeutet eigentlich „Digitale Souveränität" – ganz konkret?

Digitale Souveränität bezeichnet die Fähigkeit einer Organisation, ihre digitalen Systeme, Datenflüsse und technischen Abhängigkeiten so zu steuern, dass sie unabhängig, handlungsfähig und sicher …

Lesen →

Was bedeutet eigentlich „Digitale Souveränität" – ganz konkret?
Daniel Wagner · 05.06.2025 · ⏳ 3 Minuten

KI im Klassenzimmer: Chancen und Herausforderungen für die Zukunft der Bildung

KI im Klassenzimmer: Chancen und Herausforderungen für die Zukunft der Bildung Die Diskussion um den Einsatz von Künstlicher Intelligenz (KI) in der Bildung polarisiert. Während die einen große …

Lesen →

KI im Klassenzimmer: Chancen und Herausforderungen für die Zukunft der Bildung
Katrin Peter · 03.06.2025 · ⏳ 2 Minuten

KI ohne Kontrollverlust: Maschinen laufen besser auf eigenen Infrastruktur

Gerade redet jeder über KI, Large Language Models, Inference-Pipelines, Custom-LLMs und Co-Piloten für alle denkbaren Business-Prozesse. Was dabei gern vergessen wird: Die eigentliche Wertschöpfung …

Lesen →

KI ohne Kontrollverlust: Maschinen laufen besser auf eigenen Infrastruktur
Katrin Peter · 03.06.2025 · ⏳ 3 Minuten

Sichere Infrastruktur für Gesundheitsdaten — ISO27001-konform

Gesundheitsdaten sind ein Sonderfall — technisch wie regulatorisch Die Verarbeitung von Gesundheitsdaten unterscheidet sich grundlegend von klassischer Unternehmens-IT. Hier geht es nicht nur um …

Lesen →

Sichere Infrastruktur für Gesundheitsdaten — ISO27001-konform
Katrin Peter · 03.06.2025 · ⏳ 3 Minuten

Cloud Act: Das eigentliche Problem ist nicht der Speicherort, sondern das Control Plane

In den meisten Diskussionen um den Cloud Act geht es ausschließlich um den Speicherort von Daten. Rechenzentrum in Frankfurt? ISO-zertifiziert? Verschlüsselt? Klingt gut. Technisch betrachtet greift …

Lesen →

Cloud Act: Das eigentliche Problem ist nicht der Speicherort, sondern das Control Plane

Interessiert an weiteren Inhalten? Hier gehts zu allen Blogs →


Noch Fragen? Melden Sie sich!

Unsere DevOps-Experten antworten in der Regel innerhalb einer Stunde.

Zu Gen-Z für E-Mail? Einfach mal Discord versuchen. Unter +49 800 000 3706 können Sie unter Angabe Ihrer Kontaktdaten auch einen Rückruf vereinbaren. Bitte beachten Sie, dass es keine Möglichkeit gibt, uns telefonisch direkt zu erreichen. Bitte gar nicht erst versuchen. Sollten Sie dennoch Interesse an synchroner Verfügbarkeit via Telefon haben, empfehlen wir Ihnen unseren Priority Support.