Die lokale Installation von LLMs – So privat ist inzwischen AI

  • AI
  • März 20, 2025

Heute habe ich – obwohl schon länger vorgenommen – eine lokale Installation von Large Language-Modellen auf Basis einer Debian 12.10 Vbox, Ollama (LLM Runtime) und OpenWebUI (Docker Image) sowie Deepseek-r1:1.5b (China-LLM mit Reasoning) getestet. Bisher basierte die Nutzung oder Tests solcher Lösungen auf deren Online-Plattformen oder durch Inanspruchnahme ihrer APIs). Ziel war es einerseits die Leistungsfähigkeit lokaler Installationen zu testen, andererseits die Performance auf handelsüblicher Hardware zu spüren.

Ich muss sagen, das ist wirklich beeindruckend und es läuft mit dem kleinsten Modell (1.5b) von Deepseek-r1 bei meinem Setup mit lediglich 4 virtuellen CPUs und 8 GB Ram, auch ohne GPU Unterstützung recht akzeptabel. Allerdings ist das 1.5 Milliarden Parameter Modell von Deepseek-r1 wirklich nicht für mehr als allgemeine Anfragen zu gebrauchen. Wer mehr will, muss einen leistungsfähigeren Server einsetzen und die umfangreicher trainierten Modelle für seine Ansprüche heranziehen. Dann wären 32b oder gar 70b möglich. Modelle, die darüber hinaus gehen, sind im eigenen Betrieb womöglich teurer, da sie wesentlich höhere Hardware- und Betriebsleistungen voraussetzen.

Unternehmen, die Bedenken bezüglich Datensicherheit sowie Datenschutz haben, dennoch nicht auf die täglich sinnvolle Unterstützung durch LLMs verzichten wollen, können mithilfe lokaler Installation von LLMs wie Llama, Deepseek, Grok, Mistral oder Gemma3, die Integrität genutzter Informationen wesentlich besser kontrollieren, Multiuser Unterstützung inklusive. Auch Installationen in einer Private Cloud sind natürlich gleichermassen möglich.

Das ganze Individual-Konstrukt ist ebenso mit vorhandenen Abos per API Anbindungen kombinierbar. Selbst die Integration von lokalen „Stable Diffusion“ Modellen für die Bildgenerierung ist möglich, ohne sich über das Urheberecht streiten zu müssen.

Probiert es aus. Unternehmen, die sich bei der Einführung lokaler KI-Systeme nicht sicher sind, ob diese den eigenen technischen, organisatorischen sowie ethischen Regelwerken, Datenschutzrichtlinien sowie den Gesetzen entsprechen, biete ich gerne Unterstützung bei der Analyse, Evaluierung und Konzeption sowie Prüfung an.

Denn bei möglichen Errungenschaften im Werdegang sind Risiken und Chancen abzuwägen.

Related Posts

Stimmen-Klau in Echtzeit: Warum wir bald Codewörter brauchen

Achtung aufgepasst NVIDIA hat PersonaPlex rausgebracht! Und es ist frei verfügbar! Warum dieses Modell in Verbindung mit der neuartigen Architektur ein Durchbruch, aber zugleich extrem gefährlich ist, steht weiter unten.…

  • AI
  • Januar 18, 2026
  • 126 views
Google UCP: So lösen Agenten das Shopping-Problem

In der aktuellen Debatte um Künstliche Intelligenz dreht sich fast alles um neue Sprachmodelle und die Frage nach der „echten“ Intelligenz (AGI). Doch während die Welt über die Zukunft philosophiert,…

You Missed

Warum die US-Cloud nicht immer die schlauste Wahl ist

  • Februar 8, 2026
  • 103 views
Warum die US-Cloud nicht immer die schlauste Wahl ist

Stimmen-Klau in Echtzeit: Warum wir bald Codewörter brauchen

  • Januar 31, 2026
  • 102 views
Stimmen-Klau in Echtzeit: Warum wir bald Codewörter brauchen

Der Markt für unbemannte Systeme (UAS/UGV)

  • Januar 18, 2026
  • 124 views
Der Markt für unbemannte Systeme (UAS/UGV)

Google UCP: So lösen Agenten das Shopping-Problem

  • Januar 18, 2026
  • 126 views
Google UCP: So lösen Agenten das Shopping-Problem

Spioniert Instagram & Co.? Mein technischer Deep Dive und der Versuch eines Proof of Concept (PoC)

  • Januar 18, 2026
  • 130 views
Spioniert Instagram & Co.? Mein technischer Deep Dive und der Versuch eines Proof of Concept (PoC)

Kein AI, Keine Cloud, keine USA, keine komplizierten Tools – Klassische Massendatenauswertung mit einfachen Board-Mitteln

  • Januar 8, 2026
  • 173 views
Kein AI, Keine Cloud, keine USA, keine komplizierten Tools – Klassische Massendatenauswertung mit einfachen Board-Mitteln