Ollama auf eigenen Servern im Rechenzentrum mit Continue in VSCode als Copilot-Alternative

Erfahre mehr darüber Ollama auf deinem eigenen Server einzusetzen und die Möglichkeiten von Continue in VSCode als Alternative zu GitHub Copilot und verbessere deinen Entwicklungsprozess mit datenschutzbewusstem Wissen.

Meta: Sven Würth · 09.10.2024 · ⏳ 5 Minuten · Alle Blogs →
Tagsollama · llm · vscode · on-premise · self-hosted · continue · copilot · datenschutz

Website Generierung

Einleitung

In der heutigen Softwareentwicklung, in der KI-gestützte Tools wie GitHub Copilot und ähnliche Assistenten unterstützen, suchen viele Entwickler nach flexibleren und datenschutzfreundlicheren Alternativen. Eine spannende Möglichkeit bietet die Kombination aus Ollama und Continue. Diese Lösung erlaubt es Entwicklern, ihre KI-gestützten Coder-Assistenten vollständig unabhängig von externen Cloud-Diensten zu betreiben.

Visual Studio Code (VSCode)

VSCode ist ein freier, quelloffener Texteditor von Microsoft, der aufgrund seiner Erweiterbarkeit und der großen Auswahl an Plugins (Extensions) besonders beliebt bei Entwicklern ist. Es bietet Unterstützung für verschiedene Programmiersprachen und Funktionen wie Debugging, Git-Integration und intelligente Codevervollständigung. Mit seiner Erweiterungsfähigkeit können KI-basierte Tools wie Continue nahtlos integriert werden, um den Codierprozess zu beschleunigen.

Ollama

Ollama ist ein Hosting-Framework für KI-Modelle, das auf lokalen Servern oder in Cloud-Umgebungen betrieben werden kann. Im Gegensatz zu Cloud-basierten Lösungen ermöglicht Ollama die vollständige Kontrolle über die KI-Modelle, die auf eigener Hardware laufen. Das Besondere ist, dass Ollama es einfach macht, verschiedene Modelle – die oft kostenlos verfügbar sind – zu integrieren, ohne auf Drittanbieter angewiesen zu sein.

Warum Ollama auf eigenen Servern?

Die Nutzung von KI-Modellen wie jenen, die bei Ollama verfügbar sind, bringt den Vorteil, dass die Rechenleistung auf einem eigenen Server mit einer verbauten GPU ausgeführt werden kann. Durch diese Architektur wird die Last der Berechnungen von dem lokalen PC, Laptop oder Endgerät genommen. Die Vorteile:

  • Performance-Optimierung: Die Modelle werden auf dedizierter Hardware im Rechenzentrum ausgeführt, die speziell für KI-Berechnungen optimiert ist. Das entlastet die lokalen Geräte der Entwickler erheblich.

  • Stabilität und Zuverlässigkeit: Server im Rechenzentrum bieten in der Regel mehr Ressourcen und stabilere Laufzeiten als herkömmliche Entwicklungsgeräte.

Continue - Eine Open-Source Copilot-Alternative für VSCode

Continue ist ein Open-Source-Plugin für Visual Studio Code (VSCode), das KI-basierte Codierunterstützung bietet und sich als leistungsstarke Alternative zu GitHub Copilot positioniert. Es kann so konfiguriert werden, dass es mit verschiedenen KI-Modellen wie denen von Ollama arbeitet und durch die Verbindung mit einem externen Server, wie einer Kubernetes-Umgebung, auf leistungsstarke GPU-Cluster zugreift. Diese Cluster sind speziell für das Training und die Ausführung von Machine-Learning-Modellen optimiert und sorgen dafür, dass die Last der Berechnungen von lokalen Entwicklergeräten ferngehalten wird. So können Entwickler ihre Geräte entlasten, während sie dennoch von der Leistung moderner KI-Modelle profitieren.

Ein großer Vorteil von Continue ist, dass es über eine API auf Ollama zugreifen kann, wodurch alle KI-Berechnungen auf lokalen Servern durchgeführt werden. Dies bietet den entscheidenden Vorteil, dass die Daten unter eigener Kontrolle bleiben und nicht an externe Cloud-Dienste gesendet werden, wie es bei GitHub Copilot der Fall ist.

Funktionen von Continue:

Code Generierung

Continue kann komplete Codezeilen oder sogar ganze Funktionen nur mit einem einzigen Befehl generieren.

Website Generierung

Autovervollständigung von Code:

Continue schlägt während des Tippens Code-Snippets vor und hilft so, den Codierprozess zu beschleunigen.

Code autovervollständigung

Vorschläge für ganze Codeblöcke:

Es bietet nicht nur einzelne Zeilen, sondern auch Vorschläge für komplexere Logik und größere Codeabschnitte.

Beantwortung von Fragen zum Code:

Entwickler können Fragen zu ihrem Code stellen, die von der KI direkt beantwortet werden.

Fragen zum Code Stellen

Anpassbare KI-Modelle:

Durch die Konfiguration mit Ollama können anpassbare KI-Modelle genutzt werden, die auf eigenen Servern laufen.


Vorteile als Copilot-Alternative:

  • Einfache Integration: Continue lässt sich mühelos in VSCode integrieren und bietet eine intuitive Benutzeroberfläche für Entwickler.

  • Leistungsfähige KI-Unterstützung: Ähnlich wie Copilot hilft Continue beim Coden und beantwortet Fragen zum Code. Der große Unterschied ist, dass es auf lokalen Servern betrieben wird, was mehr Kontrolle über die eigenen Daten ermöglicht.

Beispiel Continue Config.json:

{
  "models": [
    {
      "model": "AUTODETECT",
      "title": "Ollama über API",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    },
    {
      "title": "llama3.2 über API",
      "model": "llama3.2",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    },
    {
      "title": "DeepSeek Coder über API",
      "model": "deepseek-coder-v2",
      "apiBase": "http://url-der-ollama-api.com:11434",
      "provider": "ollama"
    }
  ],
  "tabAutocompleteModel": {
    "title": "DeepSeek Code über API",
    "provider": "ollama",
    "apiBase": "http://url-der-ollama-api.com:11434",
    "model": "deepseek-coder-v2"
  }
}

Hier wird in der Configuration die Verbindung zu einer Ollama API definiert. Es ist möglich, mehrere Modelle zu definieren, die in verschiedenen Kontexten verwendet werden können. Zusätzlich wird ein Tab für das automatische Vervollständigen definiert, welches ebenfalls über die Ollama API verbunden ist.

Datenhoheit und Sicherheit

Ein großer Vorteil der Nutzung von Ollama auf eigenen Servern ist, dass sämtliche Daten nur auf der eigenen Hardware verarbeitet werden. Dies hat zwei entscheidende Auswirkungen:

  • Volle Kontrolle über die Daten: Da die Berechnungen auf den eigenen Servern durchgeführt werden, bleiben alle Daten lokal und unter der Kontrolle des Unternehmens oder der Entwickler.

  • Keine Drittanbieter-Risiken: Im Gegensatz zu cloudbasierten Lösungen wie GitHub Copilot, bei denen die Daten an externe Server geschickt werden, haben Sie bei Ollama die Gewissheit, dass keine sensiblen Informationen über Drittanbieter verarbeitet oder gespeichert werden.

Vielfalt an Modellen bei Ollama

Ein weiterer Pluspunkt von Ollama ist die große Auswahl an Modellen, die online kostenlos verfügbar sind. Je nach Bedarf können Entwickler unterschiedliche Modelle laden, sei es für allgemeine Codierungshilfen oder spezialisierte Aufgaben. Das bedeutet:

  • Anpassungsfähigkeit: Entwickler können je nach Projektanforderungen das passende Modell wählen, sei es ein einfaches Modell zur Codevervollständigung oder ein komplexeres Modell zur Fehleranalyse und Optimierung.

  • Kostenersparnis: Da viele dieser Modelle kostenlos verfügbar sind, können Unternehmen erhebliche Lizenzkosten einsparen, die sonst bei der Nutzung kommerzieller Tools wie Copilot anfallen könnten.

Fazit

Die Nutzung von Ollama auf eigenen Servern im Rechenzentrum, kombiniert mit Continue in VSCode, stellt eine hervorragende Copilot-Alternative dar. Entwickler profitieren von einer KI-basierten Codierunterstützung, ohne die Leistung der lokalen Geräte zu beeinträchtigen. Darüber hinaus gewährleistet die lokale Datenverarbeitung maximale Sicherheit und Kontrolle über die eigenen Daten. Diese Lösung ist nicht nur leistungsstark und flexibel, sondern auch ein zukunftsweisender Schritt in Richtung datenschutzfreundlicher KI-Entwicklung.

ayedo Alien Discord

Werde Teil der ayedo Community

In unserer Discord Community findest du Antworten auf deine Fragen rund um das Thema ayedo, Kubernetes und Open Source. Hier erfährst du in Realtime was es Neues bei ayedo und unseren Partnern gibt und hast die Möglichkeit mit unserem Team in direkten Kontakt zu treten.

Join the Community ↗

Ähnliche Inhalte

Alle Blogs →



Lewin Grunenberg · 09.06.2024 · ⏳ 3 Minuten

Baserow mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen

Einleitung In diesem Beitrag zeigen wir dir, wie du Baserow mithilfe von Docker Compose und Traefik bereitstellen und es über einen DNS-Eintrag wie https://data.deine-domain.org zugänglich machen …

Lesen →

Lewin Grunenberg · 09.06.2024 · ⏳ 4 Minuten

Mattermost mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen

Einleitung In diesem Beitrag zeigen wir dir, wie du Mattermost mit Docker Compose und Traefik bereitstellst und es über einen DNS-Eintrag wie https://chat.deine-domain.org erreichst. Diese …

Lesen →

Lewin Grunenberg · 09.06.2024 · ⏳ 4 Minuten

Paperless-ngx mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen

Einleitung In diesem Beitrag zeigen wir dir, wie du Paperless-ngx mit Docker Compose und Traefik bereitstellst und es über einen DNS-Eintrag wie https://docs.deine-domain.org erreichst. Diese …

Lesen →

Lewin Grunenberg · 09.06.2024 · ⏳ 3 Minuten

Portainer mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen

Einleitung: Portainer mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen In diesem Beitrag zeigen wir dir, wie du Portainer mit Docker Compose und Traefik bereitstellst und es über einen …

Lesen →

Lewin Grunenberg · 09.06.2024 · ⏳ 3 Minuten

StirlingPDF mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen

Einleitung In diesem Beitrag zeigen wir, wie du Stirling PDF mit Docker Compose und Traefik bereitstellst und es über einen DNS-Eintrag wie https://pdf.deine-domain.org erreichst. Diese Konfiguration …

Lesen →


Interessiert an weiteren Inhalten? Hier gehts zu allen Blogs →

Kontaktieren Sie uns

Unsere Cloud-Experten beraten Sie gerne und individuell.

Wir antworten in der Regel innerhalb weniger Stunden auf Ihre Nachricht.

Zu Gen-Z für E-Mail? Einfach mal Discord versuchen. Unter +49 800 000 3706 können Sie unter Angabe Ihrer Kontaktdaten auch einen Rückruf vereinbaren. Bitte beachten Sie, dass es keine Möglichkeit gibt, uns telefonisch direkt zu erreichen. Bitte gar nicht erst versuchen. Sollten Sie dennoch Interesse an synchroner Verfügbarkeit via Telefon haben, empfehlen wir Ihnen unseren Priority Support.