Die lokale Installation von LLMs – So privat ist inzwischen AI

  • AI
  • März 20, 2025

Heute habe ich – obwohl schon länger vorgenommen – eine lokale Installation von Large Language-Modellen auf Basis einer Debian 12.10 Vbox, Ollama (LLM Runtime) und OpenWebUI (Docker Image) sowie Deepseek-r1:1.5b (China-LLM mit Reasoning) getestet. Bisher basierte die Nutzung oder Tests solcher Lösungen auf deren Online-Plattformen oder durch Inanspruchnahme ihrer APIs). Ziel war es einerseits die Leistungsfähigkeit lokaler Installationen zu testen, andererseits die Performance auf handelsüblicher Hardware zu spüren.

Ich muss sagen, das ist wirklich beeindruckend und es läuft mit dem kleinsten Modell (1.5b) von Deepseek-r1 bei meinem Setup mit lediglich 4 virtuellen CPUs und 8 GB Ram, auch ohne GPU Unterstützung recht akzeptabel. Allerdings ist das 1.5 Milliarden Parameter Modell von Deepseek-r1 wirklich nicht für mehr als allgemeine Anfragen zu gebrauchen. Wer mehr will, muss einen leistungsfähigeren Server einsetzen und die umfangreicher trainierten Modelle für seine Ansprüche heranziehen. Dann wären 32b oder gar 70b möglich. Modelle, die darüber hinaus gehen, sind im eigenen Betrieb womöglich teurer, da sie wesentlich höhere Hardware- und Betriebsleistungen voraussetzen.

Unternehmen, die Bedenken bezüglich Datensicherheit sowie Datenschutz haben, dennoch nicht auf die täglich sinnvolle Unterstützung durch LLMs verzichten wollen, können mithilfe lokaler Installation von LLMs wie Llama, Deepseek, Grok, Mistral oder Gemma3, die Integrität genutzter Informationen wesentlich besser kontrollieren, Multiuser Unterstützung inklusive. Auch Installationen in einer Private Cloud sind natürlich gleichermassen möglich.

Das ganze Individual-Konstrukt ist ebenso mit vorhandenen Abos per API Anbindungen kombinierbar. Selbst die Integration von lokalen „Stable Diffusion“ Modellen für die Bildgenerierung ist möglich, ohne sich über das Urheberecht streiten zu müssen.

Probiert es aus. Unternehmen, die sich bei der Einführung lokaler KI-Systeme nicht sicher sind, ob diese den eigenen technischen, organisatorischen sowie ethischen Regelwerken, Datenschutzrichtlinien sowie den Gesetzen entsprechen, biete ich gerne Unterstützung bei der Analyse, Evaluierung und Konzeption sowie Prüfung an.

Denn bei möglichen Errungenschaften im Werdegang sind Risiken und Chancen abzuwägen.

Related Posts

  • AI
  • Oktober 5, 2025
  • 38 views
Der Zusammenbruch von Wirtschaftssystemen in einer KI-Welt

Haben Sie sich auch gefragt, welche Jobs die KI überleben werden? Die schockierende Antwort lautet: Wir stellen die falsche Frage. Lange Zeit hieß es, die KI ersetzt Sie nicht, sondern…

  • AI , ICT
  • September 13, 2025
  • 67 views
AWS Summit 2025 Zürich – Ein super Tech Event

Als ich den AWS Summit 2025 in Zürich Oerlikon im Namen meines Arbeitgebers besucht habe, war mir schnell klar, dass es sich hier um viel mehr als nur eine Fachkonferenz…

You Missed

Das war die WoD 2025 – Basel

  • Oktober 8, 2025
  • 28 views
Das war die WoD 2025 – Basel

Der Zusammenbruch von Wirtschaftssystemen in einer KI-Welt

  • Oktober 5, 2025
  • 38 views
Der Zusammenbruch von Wirtschaftssystemen in einer KI-Welt

AWS Summit 2025 Zürich – Ein super Tech Event

  • September 13, 2025
  • 67 views
AWS Summit 2025 Zürich – Ein super Tech Event

Besuch beim Kick-off der swissICT Fachgruppe KI

  • September 13, 2025
  • 67 views
Besuch beim Kick-off der swissICT Fachgruppe KI

Ist die Ternary Foundation der Durchbruch in der Computerwissenschaft?

  • September 6, 2025
  • 92 views
Ist die Ternary Foundation der Durchbruch in der Computerwissenschaft?

KI wird den Softwareentwickler-Markt ausdünnen

  • September 2, 2025
  • 107 views
KI wird den Softwareentwickler-Markt ausdünnen