Lokale KI mit Ollama: So betreibst Du DeepSeek & Co. auf Deinem eigenen Rechner

Immer mehr Unternehmen möchten Künstliche Intelligenz (AI-kuenstliche-intelligenz/“>KI) nutzen – aber ohne ihre Daten in die Cloud zu schicken. Genau hier setzt Ollama an: Eine einfache, quelloffene Lösung, um moderne KI-Sprachmodelle wie DeepSeek, LLaMA 3, Mistral oder Gemma lokal auf dem eigenen PC zu betreiben – ganz ohne Internetverbindung.

In diesem Beitrag zeige ich Dir, wie Du Ollama installierst, ein Modell wie DeepSeek verwendest und warum das für kleine und mittlere Unternehmen (KMU) ein echter Gamechanger sein kann.

Was ist Ollama?

Ollama ist eine leichtgewichtige Plattform, mit der Du KI-Modelle lokal ausführen kannst – ähnlich wie ChatGPT, aber ohne Server oder Cloud. Es nutzt Containertechnologie für Sprachmodelle und basiert auf der quelloffenen Engine llama.cpp.

Highlights:

  • Lokale Ausführung von Sprachmodellen (z. B. LLaMA 3, Mistral, DeepSeek)
  • Funktioniert unter Windows, macOS und Linux
  • Keine Daten verlassen den eigenen Rechner
  • CLI-Interface für Entwickler, GUI über Tools wie Open WebUI möglich

Voraussetzungen

Hardware-Empfehlung für Mittelklasse-Nutzung:

  • CPU: AMD Ryzen 7 oder Intel i7 ab 10. Gen
  • RAM: Mindestens 16 GB (besser 32 GB)
  • GPU: Optional – Ollama nutzt primär CPU (GPU-Support für macOS/M1/M2 vorhanden)
  • Speicherplatz: Mindestens 10-20 GB frei (Modelle brauchen je nach Größe 4-10 GB)

Schritt-für-Schritt-Anleitung

1. Ollama installieren

Windows/macOS:

Gehe auf https://ollama.com und lade den Installer für Dein Betriebssystem herunter. Installation erfolgt wie gewohnt über Doppelklick.

Linux (z. B. Ubuntu/Debian):

curl -fsSL https://ollama.com/install.sh | sh

Danach kannst Du in CMD prüfen, ob es funktioniert:

ollama run llama3

Das lädt das LLaMA-3-Modell herunter (5 GB, dauert etwas…) und startet eine interaktive Konsole.

2. DeepSeek-Modell starten

DeepSeek ist ein leistungsfähiges Open-Source-Sprachmodell aus China – besonders geeignet für komplexere Aufgaben und Codierung.

ollama run deepseek-coder

Wichtig: Das erste Laden dauert etwas länger, da das Modell (~1-400 GB) heruntergeladen wird.

3. Modelle anzeigen und verwalten

Liste aller installierten Modelle:

ollama list

Ein Modell entfernen:

ollama remove deepseek-coder

Modelle können mit ollama pull <modell> auch manuell geladen werden:

ollama pull deepseek-coder:instruct

4. Integration in eigene Anwendungen

Du kannst Ollama-Modelle auch über eine lokale RESTAPI nutzen (und somit auch in einer Microsoft Access Datenbank):

curl http://localhost:11434/api/generate \
  -d '{
    "model": "deepseek-coder",
    "prompt": "Schreibe eine SQL-Abfrage, die alle Kunden mit offenen Rechnungen listet"
  }'

5. ChatBox AI lokal mit Ollama verbinden

Wenn Du eine grafische Benutzeroberfläche suchst, um lokal mit Deinen KI-Modellen zu sprechen, ist ChatBox AI eine hervorragende Wahl. Es ist kostenlos, Open Source und unterstützt Ollama direkt über die API.

So funktioniert’s:

1. ChatBox AI herunterladen

Gehe auf https://chatboxai.app/de und lade die Version für Windows, macOS oder Linux herunter.

2. Installieren und starten

Einfach installieren und starten. Beim ersten Start wirst Du gefragt, welchen KI-Anbieter Du nutzen möchtest.

3. Lokalen Ollama-Provider einrichten

  • Wähle „Ollama“ als Backend.
  • Gib als API-URL ein: http://localhost:11434
  • Unter „Modell“ trägst Du z. B. ein: deepseek-coder oder llama3

Fertig – Du kannst nun lokal über eine Chat-Oberfläche mit DeepSeek oder anderen Ollama-Modellen kommunizieren. Keine Anmeldung, kein Cloud-Account, keine Weitergabe von Daten.

Tipp: Du kannst mehrere „Personas“ oder „Chats“ anlegen – z. B. eine für SQL, eine für Automatisierung oder eine für allgemeinen Office-Support.

Natürlich! Hier ist Abschnitt 6 zur Installation von CodeGPT und der Verbindung zu Ollama in Visual Studio Code, ergänzt in den bestehenden Beitrag:

6. CodeGPT in Visual Studio Code mit Ollama verbinden

Wenn Du direkt in Visual Studio Code (vs Code) mit KI-Unterstützung programmieren willst (z. B. in SQL, VBA oder PowerShell) ist CodeGPT ein großartiges Plugin. Es unterstützt lokale KI-Modelle wie Ollama und integriert sich nahtlos in Deine Entwicklungsumgebung.

So geht’s:

1. CodeGPT-Erweiterung installieren

  • Öffne VS Code
  • Gehe in den Extensions Marketplace
  • Suche nach CodeGPT vom Anbieter Daniel San (Veröffentlichung: Daniel San)
  • Klicke auf Installieren

2. Ollama lokal einrichten (falls noch nicht passiert)

Siehe Schritt 1 bis 3 oben. Stelle sicher, dass Ollama läuft und z. B. das Modell deepseek-coder geladen ist:

ollama run deepseek-coder

3. CodeGPT konfigurieren für lokalen Ollama-Zugriff

  • Öffne in VS Code die Einstellungen (Strg + ,)
  • Suche nach: CodeGPT: Provider
  • Wähle: Custom Provider
  • Suche in den Einstellungen nach CodeGPT: Custom Provider Endpoint
  • Trage als Endpoint ein: http://localhost:11434/api/generate
  • Bei „Custom Provider Model“ gib z. B. ein: deepseek-coder

4. Verwendung

Du kannst nun in jeder Datei mit Strg + Shift + I oder via Rechtsklick auf eine Codezeile den Befehl „Ask CodeGPT“ verwenden, z. B.:

  • „Erkläre diesen VBA-Code“
  • „Schreibe eine SQL-Abfrage für alle Kunden ohne Bestellung im letzten Monat“
  • „Finde den Bug in diesem Skript“

💡 Tipp: Die lokale Nutzung ist blitzschnell, kostenlos und bleibt komplett offline.

Warum lohnt sich das für KMU?

Datenschutz und Compliance

Die Daten bleiben im Haus. Ideal für sensible Informationen – besonders in Branchen wie Gesundheitswesen, Produktion oder Mittelstand generell.

Kostenkontrolle

Keine laufenden Kosten für API-Zugriffe oder Cloud-Abos. Einmal installieren, dauerhaft nutzen – besonders bei häufiger Nutzung spart das enorm.

Flexibilität

Du kannst Modelle selbst wechseln, optimieren oder sogar trainieren – ohne auf externe Anbieter angewiesen zu sein.

Integration in bestehende Workflows

Ob Access VBA, SQL Server oder Power Automate – über die REST-API kannst Du lokale KI-Funktionen direkt in Deine bestehenden Tools einbauen.

Mit Ollama kannst Du leistungsfähige KI-Modelle wie DeepSeek komplett lokal betreiben – datenschutzkonform, günstig und flexibel. Gerade für KMU mit sensiblen Informationen ist das ein echter Fortschritt. Wer seine Prozesse digitalisieren will, ohne alles in die Cloud zu geben, hat mit Ollama eine hervorragende Lösung zur Hand.

Sönke Schäfer, AI & Automatisierung bei SeSoft GmbH

Neugierig geworden?
Wenn Du wissen möchtest, wie man KI lokal in bestehende Microsoft-Workflows integriert – ob mit Access, Power Automate oder SQL – dann schreib mir gern.

📈 Datenschäfer: AI & Automatisierung für KMU im Norden 🐑

PS: Wusstest Du schon? Du kannst die lokal laufenden Ollama-Modelle auch direkt aus Access, Excel oder Word ansprechen – z. B. per VBA über die REST-API (http://localhost:11434/api/generate). Damit lassen sich Texte analysieren, automatisch zusammenfassen, SQL- oder VBA-Code erzeugen, Übersetzungen liefern oder Eingaben validieren – direkt in Deinen Office-Anwendungen, ganz ohne Cloud!

✅ Beispiel: Ollama lokal via REST-API aus VBA nutzen

Function QueryOllama(prompt As String) As String
    Dim http As Object
    Dim url As String
    Dim requestBody As String
    Dim response As String
    
    Set http = CreateObject("MSXML2.XMLHTTP")
    url = "http://localhost:11434/api/generate"
    
    requestBody = "{""model"":""deepseek-coder"",""prompt"":""" & Replace(prompt, """", "\""") & """,""stream"":false}"
    
    With http
        .Open "POST", url, False
        .setRequestHeader "Content-Type", "application/json"
        .Send requestBody
        response = .responseText
    End With
    
    ' Extrahiere die Ausgabe aus dem JSON (rudimentär)
    Dim startPos As Long, endPos As Long
    startPos = InStr(response, """response"":""") + 12
    endPos = InStr(startPos, response, """}")
    
    If startPos > 0 And endPos > startPos Then
        QueryOllama = Mid(response, startPos, endPos - startPos)
    Else
        QueryOllama = "Keine Antwort oder Fehler beim Parsen."
    End If
End Function

Verwendung:

Sub TestOllama()
    Dim antwort As String
    antwort = QueryOllama("Erkläre in einfachen Worten, was ein SQL-Join ist.")
    MsgBox antwort
End Sub

Hinweise:

  • Funktioniert in Access, Excel, Word, überall dort, wo VBA läuft.
  • Voraussetzung: Das Modell (z. B. deepseek-coder) wurde bereits per ollama run oder ollama pull gestartet oder geladen.
  • Nur Textverarbeitung (kein Bildinput).
  • Für strukturierte JSON-Antworten oder „Function Calling“ kannst Du das JSON auch mit einer passenden Bibliothek (z. B. JsonConverter.bas) sauber parsen.

Aktuell verarbeiten Ollama-Modelle reinen Text (also keine Bilder oder Websuche). Funktionen wie „Agents“ oder „Function Calling“ sind in manchen Modellen wie LLaMA 3 oder DeepSeek technisch möglich, aber nur, wenn Du sie manuell mit Tools wie OpenDevin oder einem eigenen Agent-Framework kombinierst.

Für die meisten KMU-Anwendungsfälle reicht das aber völlig aus: Texte, Tabelleninhalte und Code lokal automatisieren – sicher, schnell und datenschutzkonform.

Keine Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert