Baserow mit Traefik-Labels bereitstellen und unter DNS-Eintrag nutzen
Einleitung In diesem Beitrag zeigen wir dir, wie du Baserow mithilfe von Docker Compose und Traefik …
In der heutigen Softwareentwicklung, in der KI-gestützte Tools wie GitHub Copilot und ähnliche Assistenten unterstützen, suchen viele Entwickler nach flexibleren und datenschutzfreundlicheren Alternativen. Eine spannende Möglichkeit bietet die Kombination aus Ollama und Continue. Diese Lösung erlaubt es Entwicklern, ihre KI-gestützten Coder-Assistenten vollständig unabhängig von externen Cloud-Diensten zu betreiben.
VSCode ist ein freier, quelloffener Texteditor von Microsoft, der aufgrund seiner Erweiterbarkeit und der großen Auswahl an Plugins (Extensions) besonders beliebt bei Entwicklern ist. Es bietet Unterstützung für verschiedene Programmiersprachen und Funktionen wie Debugging, Git-Integration und intelligente Codevervollständigung. Mit seiner Erweiterungsfähigkeit können KI-basierte Tools wie Continue nahtlos integriert werden, um den Codierprozess zu beschleunigen.
Ollama ist ein Hosting-Framework für KI-Modelle, das auf lokalen Servern oder in Cloud-Umgebungen betrieben werden kann. Im Gegensatz zu Cloud-basierten Lösungen ermöglicht Ollama die vollständige Kontrolle über die KI-Modelle, die auf eigener Hardware laufen. Das Besondere ist, dass Ollama es einfach macht, verschiedene Modelle – die oft kostenlos verfügbar sind – zu integrieren, ohne auf Drittanbieter angewiesen zu sein.
Die Nutzung von KI-Modellen wie jenen, die bei Ollama verfügbar sind, bringt den Vorteil, dass die Rechenleistung auf einem eigenen Server mit einer verbauten GPU ausgeführt werden kann. Durch diese Architektur wird die Last der Berechnungen von dem lokalen PC, Laptop oder Endgerät genommen. Die Vorteile:
Performance-Optimierung: Die Modelle werden auf dedizierter Hardware im Rechenzentrum ausgeführt, die speziell für KI-Berechnungen optimiert ist. Das entlastet die lokalen Geräte der Entwickler erheblich.
Stabilität und Zuverlässigkeit: Server im Rechenzentrum bieten in der Regel mehr Ressourcen und stabilere Laufzeiten als herkömmliche Entwicklungsgeräte.
Continue ist ein Open-Source-Plugin für Visual Studio Code (VSCode), das KI-basierte Codierunterstützung bietet und sich als leistungsstarke Alternative zu GitHub Copilot positioniert. Es kann so konfiguriert werden, dass es mit verschiedenen KI-Modellen wie denen von Ollama arbeitet und durch die Verbindung mit einem externen Server, wie einer Kubernetes-Umgebung, auf leistungsstarke GPU-Cluster zugreift. Diese Cluster sind speziell für das Training und die Ausführung von Machine-Learning-Modellen optimiert und sorgen dafür, dass die Last der Berechnungen von lokalen Entwicklergeräten ferngehalten wird. So können Entwickler ihre Geräte entlasten, während sie dennoch von der Leistung moderner KI-Modelle profitieren.
Ein großer Vorteil von Continue ist, dass es über eine API auf Ollama zugreifen kann, wodurch alle KI-Berechnungen auf lokalen Servern durchgeführt werden. Dies bietet den entscheidenden Vorteil, dass die Daten unter eigener Kontrolle bleiben und nicht an externe Cloud-Dienste gesendet werden, wie es bei GitHub Copilot der Fall ist.
Continue kann komplete Codezeilen oder sogar ganze Funktionen nur mit einem einzigen Befehl generieren.
Continue schlägt während des Tippens Code-Snippets vor und hilft so, den Codierprozess zu beschleunigen.
Es bietet nicht nur einzelne Zeilen, sondern auch Vorschläge für komplexere Logik und größere Codeabschnitte.
Entwickler können Fragen zu ihrem Code stellen, die von der KI direkt beantwortet werden.
Durch die Konfiguration mit Ollama können anpassbare KI-Modelle genutzt werden, die auf eigenen Servern laufen.
Einfache Integration: Continue lässt sich mühelos in VSCode integrieren und bietet eine intuitive Benutzeroberfläche für Entwickler.
Leistungsfähige KI-Unterstützung: Ähnlich wie Copilot hilft Continue beim Coden und beantwortet Fragen zum Code. Der große Unterschied ist, dass es auf lokalen Servern betrieben wird, was mehr Kontrolle über die eigenen Daten ermöglicht.
{
"models": [
{
"model": "AUTODETECT",
"title": "Ollama über API",
"apiBase": "http://url-der-ollama-api.com:11434",
"provider": "ollama"
},
{
"title": "llama3.2 über API",
"model": "llama3.2",
"apiBase": "http://url-der-ollama-api.com:11434",
"provider": "ollama"
},
{
"title": "DeepSeek Coder über API",
"model": "deepseek-coder-v2",
"apiBase": "http://url-der-ollama-api.com:11434",
"provider": "ollama"
}
],
"tabAutocompleteModel": {
"title": "DeepSeek Code über API",
"provider": "ollama",
"apiBase": "http://url-der-ollama-api.com:11434",
"model": "deepseek-coder-v2"
}
}
Hier wird in der Configuration die Verbindung zu einer Ollama API definiert. Es ist möglich, mehrere Modelle zu definieren, die in verschiedenen Kontexten verwendet werden können. Zusätzlich wird ein Tab für das automatische Vervollständigen definiert, welches ebenfalls über die Ollama API verbunden ist.
Ein großer Vorteil der Nutzung von Ollama auf eigenen Servern ist, dass sämtliche Daten nur auf der eigenen Hardware verarbeitet werden. Dies hat zwei entscheidende Auswirkungen:
Volle Kontrolle über die Daten: Da die Berechnungen auf den eigenen Servern durchgeführt werden, bleiben alle Daten lokal und unter der Kontrolle des Unternehmens oder der Entwickler.
Keine Drittanbieter-Risiken: Im Gegensatz zu cloudbasierten Lösungen wie GitHub Copilot, bei denen die Daten an externe Server geschickt werden, haben Sie bei Ollama die Gewissheit, dass keine sensiblen Informationen über Drittanbieter verarbeitet oder gespeichert werden.
Ein weiterer Pluspunkt von Ollama ist die große Auswahl an Modellen, die online kostenlos verfügbar sind. Je nach Bedarf können Entwickler unterschiedliche Modelle laden, sei es für allgemeine Codierungshilfen oder spezialisierte Aufgaben. Das bedeutet:
Anpassungsfähigkeit: Entwickler können je nach Projektanforderungen das passende Modell wählen, sei es ein einfaches Modell zur Codevervollständigung oder ein komplexeres Modell zur Fehleranalyse und Optimierung.
Kostenersparnis: Da viele dieser Modelle kostenlos verfügbar sind, können Unternehmen erhebliche Lizenzkosten einsparen, die sonst bei der Nutzung kommerzieller Tools wie Copilot anfallen könnten.
Die Nutzung von Ollama auf eigenen Servern im Rechenzentrum, kombiniert mit Continue in VSCode, stellt eine hervorragende Copilot-Alternative dar. Entwickler profitieren von einer KI-basierten Codierunterstützung, ohne die Leistung der lokalen Geräte zu beeinträchtigen. Darüber hinaus gewährleistet die lokale Datenverarbeitung maximale Sicherheit und Kontrolle über die eigenen Daten. Diese Lösung ist nicht nur leistungsstark und flexibel, sondern auch ein zukunftsweisender Schritt in Richtung datenschutzfreundlicher KI-Entwicklung.
Einleitung In diesem Beitrag zeigen wir dir, wie du Baserow mithilfe von Docker Compose und Traefik …
Einleitung In diesem Beitrag zeigen wir dir, wie du Mattermost mit Docker Compose und Traefik …
Einleitung In diesem Beitrag zeigen wir dir, wie du Paperless-ngx mit Docker Compose und Traefik …