Ollama

LLMs lokal mit einem einzigen Befehl ausführen

Gestartet 2023
KomplexitätMittel

Herkunft

🇺🇸Vereinigte Staaten

Ideal für

PrivatpersonenFreiberuflerStartupsKleinunternehmenMittelständische Unternehmen
Tags
Open Source

Über Ollama

Ollama hat den Zugang zu lokalen Sprachmodellen revolutioniert, indem es sie so einfach wie einen Terminalbefehl gemacht hat. Dieses 2023 entwickelte Open-Source-Tool ermöglicht es Ihnen, LLMs direkt auf Ihrer Hardware herunterzuladen, auszuführen und zu verwalten – egal ob Mac mit Apple Silicon, PC mit NVIDIA GPU oder Linux-Server.

Ollamas Ansatz ist radikal einfach: Geben Sie ollama run llama3.3 ein, und das Modell lädt sich herunter, konfiguriert sich selbst und startet automatisch. Über 40.000 Community-Integrationen verbinden sich mit Ollama, von Web-Interfaces wie Open WebUI bis hin zu Entwicklungs-IDEs.

Im Jahr 2025 hat Ollama Cloud-Pläne (Pro für 20 $/Monat, Max für 100 $/Monat) eingeführt, die den Zugang zu leistungsstärkeren Modellen auf dedizierten Servern bieten, während die lokale Ausführung kostenlos und unbegrenzt bleibt. Ihre Daten bleiben immer privat: Keine Prompts oder Antworten werden protokolliert oder zum Training verwendet.

Das Tool unterstützt GGUF-Quantisierung, GPU-Beschleunigung (CUDA, ROCm, Metal), das gleichzeitige Ausführen mehrerer Modelle und stellt eine lokale REST-API bereit, die mit OpenAI kompatibel ist. Es ist die bevorzugte Wahl für Entwickler, die lokale KI in ihre Projekte, Automatisierungspipelines oder RAG-Workflows integrieren möchten.

Stärken
  • Installation mit einem Befehl, sofortige Einrichtung
  • Bibliothek von Tausenden von Open-Source-Modellen
  • 100% privat – keine Daten werden in die Cloud gesendet
  • Lokale REST-API kompatibel mit OpenAI
  • Exzellente Apple Silicon Unterstützung (M1/M2/M3/M4)
  • Riesige Community mit über 40.000 Integrationen
  • Kostenlos und unbegrenzt für die lokale Nutzung
  • Optionale Cloud-Pläne für größere Modelle
Einschränkungen
  • Nur CLI-Oberfläche, keine native GUI
  • Erfordert leistungsstarke Hardware für große Modelle
  • GPU-Konfiguration kann unter Linux komplex sein
  • Cloud-Pläne sind neu mit begrenzten Modellen
  • Keine integrierte Mehrbenutzerverwaltung

Funktionen

Open Source
GPU Acceleration
Command Line Interface (CLI)
Model Hub
Offline-Modus
Lokaler API-Server
Modellquantisierung
OpenAI API Compatible
Docker Support
Multi-Model Support
Erweiterungen & Plugins
RAG / Dokumenten-Chat
Sprache & Audio
Multi-User
Grafische Benutzeroberfläche (GUI)
Bildgenerierung

Preise

Free
Kostenlos
  • Unlimited local models
  • CLI, API and desktop apps
  • 40,000+ community integrations
  • Cloud model access (limited)
  • +2 weitere...
Pro
19/Monat
  • Everything in Free
  • 3 collaborators per model
  • 3 private models
  • More cloud usage
  • +1 weitere...
Max
92/Monat
  • Everything in Pro
  • 5 collaborators per model
  • 5 private models
  • 5x more usage than Pro
  • +1 weitere...

Nutzerbewertungen

Bewertungen werden geladen...
Lovable
Lovable
Erstellen Sie komplette Webanwendungen, indem Sie einfach beschreiben, was Sie wollen.
5.0(2 Bewertungen)
n8n
n8n
Open-Source-Automatisierungsplattform mit integrierter KI und über 1.000 Integrationen.
Webflow
Webflow
Die professionelle No-Code-Plattform für den Bau individueller Websites.
Replit
Replit
Cloud-IDE mit KI zum Programmieren, Bereitstellen und Zusammenarbeiten direkt im Browser.

FAQ

Artikel, die Ollama erwähnen

Bereit, Ollama auszuprobieren?

Entdecken Sie alle Funktionen und starten Sie noch heute mit Ollama.

Kostenlos testen
Ist dieses Tool das Richtige für Sie?
Quiz in 30 Sekunden machen
Mehrere Lizenzen benötigt?
Unser Team verhandelt für Sie die besten Unternehmensangebote und Mehrfachlizenz-Tarife.
Briefträger-Maskottchen

Newsletter

Bleiben Sie auf dem Laufenden

Erhalten Sie wöchentlich die neuesten KI-Tools und unsere exklusiven Tipps.

Kein Spam. Abmeldung mit einem Klick.