Willkommen zu allesnurgecloud.com – Ausgabe #177
Heute ist in Deutschland Bundestagswahl – daher geh bitte wählen!
Ansonsten hat es eine News von Freitag nicht mehr in den ausführlichen Teil des Newsletter geschafft – die Trump-Administration hat nun tatsächlich das Personal aus dem „Privacy und Liberties Oversight Board“ ähhh „zurückgebaut“ und somit Grundlage des aktuellen „Data Privacy Frameworks“ beendet, welches bisher die Basis für den Austausch von privaten Daten mit amerikanischen Services und Providern darstellte. Mal schauen, was die EU Kommission nun macht – nächste Woche dann mehr dazu.
Happy Bootstrapping Podcast
in der aktuellen Podcast Folge 109 habe ich mit Simon Hofmann von nutjs.dev gesprochen. NutJS ist eine JavaScript Bibliothek für Desktop-Automatisierung, mit der du automatisierte Tests von Fat Clients oder repetitive Aufgaben am Desktop automatisieren kannst. NutJS war früher Open-Source und Simon hat das mittlerweile umgebaut – im April 2024 hatte ich hier einen Artikel zum Ende von Open-Source bei NutJS, welcher auch auf HackerNews ordentlich für Furore sorgte – hier geht’s zur Podcast Folge 109.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Delos Cloud: Souveräne Cloud-Lösung kommt mit 15% Aufschlag
Die von SAP und Microsoft gemeinsam entwickelte Delos Cloud steht kurz vor dem offiziellen Start und hat nun ihre Preisgestaltung veröffentlicht. Für öffentliche Auftraggeber in Deutschland soll die souveräne Cloud-Lösung mit einem Aufschlag von 15% gegenüber den deutschen Microsoft-Listenpreisen angeboten werden.
Kernpunkte der Ankündigung:
- Technische Verfügbarkeit ist für 2025 geplant
- Die Plattform erfüllt höchste Sicherheitsanforderungen (VS-NfD-konform)
- Vollständige Datensouveränität durch Verarbeitung ausschließlich in Deutschland
- Angebot umfasst Azure Foundational und Mainstream Services sowie Office 365
Die Delos Cloud GmbH tritt dabei als vollständiger Betreiber und Lizenzgeber auf, während Microsoft nur als Technologielieferant fungiert. Neben Microsoft-Diensten werden auch Services von SAP verfügbar sein, und grundsätzlich können Drittanbieter ihre Lösungen über die Infrastruktur anbieten – sofern diese den BSI-Anforderungen entsprechen.
15% Aufpreis für Souveränität – ist das ein fairer Deal?
Für sensible Verwaltungsdaten möglicherweise ja, aber die Abhängigkeit von Microsoft-Technologie bleibt bestehen, selbst wenn der Betrieb vollständig in deutscher Hand liegt. Auf der anderen Seite benötigt der öffentliche Sektor dringend moderne Cloud-Lösungen. Jedoch stellt sich die Frage nach der echten Technologieoffenheit – wie einfach wird es für andere Anbieter und Open-Source-Lösungen, sich zu integrieren?
Bemerkenswert finde ich auch, dass die Preisankündigung vor der technischen Verfügbarkeit kommt. Immerhin möchte man Volumenrabatt-Modelle anbieten – vielleicht möchte man durch die frühe Ankündigung verhindern, dass öffentliche Kunden, die aktuell „normales“ Azure nutzen zu anderen Anbietern abwandern? Eine Azure zu „Delos Azure“ Cloud Migration könnte ja deutlich einfacher sein als zu einem anderen Anbieter.
Für den öffentlichen Sektor könnte Delos Cloud dennoch eine sinnvolle Option darstellen, wenn die versprochene Souveränität tatsächlich gegeben ist. Die enge Zusammenarbeit mit dem BSI ist hier sicherlich ein vertrauensbildender Faktor.
Pressemitteilung : Delos Cloud veröffentlicht Preisgestaltung
Railway: von Cloud zu Co-Location in 9 Monaten
Im aktuellen Blog-Artikel beschreibt das Team von Railway, wie sie innerhalb von 9 Monaten ihre erste eigene Datacenter-Infrastruktur aufgebaut haben. Die Motivation dahinter: Als GCP-Kunde zahlte Railway Millionenbeträge pro Jahr, bekam aber kaum Support und war durch die Cloud-Infrastruktur in vielen Bereichen eingeschränkt – sei es bei Features, Preisgestaltung oder Servicequalität.
Der Artikel gibt spannende Einblicke in die verschiedenen Phasen des Projekts „Railway Metal“:
- Auswahl und Setup eines Cage-Colocations im Datacenter
- Planung der Stromversorgung und Kühlung
- Aufbau der Netzwerk-Infrastruktur mit redundanten ISP-Anbindungen
- Installation der Server-Hardware und strukturierte Verkabelung
- Dokumentation und Automatisierung der Prozesse
Besonders interessant sind die „What the duck“ Momente, die das Team während der Installation hatte – von falsch montierten PDUs bis hin zu Gummihammer-Einsätzen bei störrischen Steckdosen.
Das Projekt zeigt, dass der Aufbau einer eigenen Datacenter-Infrastruktur zwar komplex ist, aber mit der richtigen Planung und dem nötigen Know-how auch für kleinere Unternehmen machbar sein kann. Mittlerweile betreibt Railway bereits mehrere Standorte und hat Tools wie „Railyard“ und „MetalCP“ entwickelt, um den Aufbau weiterer Sites zu automatisieren.
Die beschriebenen Herausforderungen erinnern stark an die Cloud-Exit Stories von Basecamp und anderen Firmen, die wir in den letzten Monaten gesehen haben. Railway geht aber noch einen Schritt weiter und baut eine komplette Multi-Region Infrastruktur auf.
Was hältst du davon? Wäre ein Cloud-Exit auch für dein Unternehmen denkbar oder überwiegen die Vorteile der Public Cloud?
So You Want to Build Your Own Data Center
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Remote Work für Berufseinsteiger ein Nachteil?
In Zeiten hitziger Diskussionen um Return-to-Office Policies liefert ein interessanter Erfahrungsbericht eine erfrischend andere Perspektive auf Remote Work – besonders für Berufseinsteiger.
Die gängigen Vorurteile vs. Realität
Während viele Führungskräfte behaupten, junge Mitarbeitende bräuchten das Büro für ihre Entwicklung, zeigt der Autor durch seine eigene Geschichte das Gegenteil: Mit 21 Jahren startete er vollständig remote und entwickelte sich in nur fünf Jahren vom Data Engineer zum Head of Product & Operations.
Warum Remote Work gerade für Ambitionierte funktioniert
Der Erfolg basiert auf drei Kernaspekten:
- Leistungsbeurteilung: Statt Büropräsenz oder Alter zählen echte Ergebnisse
- Globales Lernen: Mentoring und Weiterbildung sind nicht auf einen Standort beschränkt
- Selbstbestimmung: Mehr Autonomie führt zu schnellerer Entwicklung
Beziehungen und Netzwerke
Entgegen der verbreiteten Meinung entstehen auch remote starke berufliche Beziehungen:
- Globale Netzwerke statt lokaler Bürokontakte
- Langfristige Freundschaften über Unternehmensgrenzen hinweg
- Bessere Work-Life-Integration durch lokales Engagement
Der Artikel erklärt, dass Remote Work kein Karrierehindernis sein muss – im Gegenteil. Gerade für leistungsorientierte Berufseinsteiger kann es ein echter Wettbewerbsvorteil sein, wenn Ergebnisse mehr zählen als Büropolitik. Eine spannende Perspektive, besonders im Kontext aktueller RTO-Debatten bei Tech-Unternehmen wie Amazon oder Google.
The Case for Starting Your Career Remotely
Ubicloud: Debugging-Abenteuer bei Hetzner
Serverausfälle sind der Albtraum jedes Infrastruktur-Teams – besonders wenn sie gehäuft bei neuer Hardware auftreten. Ein faszinierender Einblick aus der Praxis zeigt, wie das Team von Ubicloud mit klassischen Linux-Tools einem mysteriösen Problem bei Hetzners AX162-Servern auf die Spur kam.
Die Ausgangslage: 16-fach höhere Ausfallrate
Ubicloud, ein Unternehmen, das Software entwickelt, um Bare-Metal-Anbieter in Cloud-Plattformen zu verwandeln, setzte früh auf Hetzners neue AX162-Serverlinie. Was zunächst nach einem Gewinn erschien – bessere Performance zu niedrigerem Preis – entpuppte sich schnell als Problemfall:
- Erste Ausfälle traten bereits drei Wochen nach der Inbetriebnahme auf
- Systemlogs zeigten NULL-Bytes, typisch für abrupte Stromausfälle
- Die jährliche Ausfallrate (AFR) lag bei erschreckenden 16,84% (gegenüber 1,06% beim Vorgängermodell AX161)
Detektiv-Arbeit mit Linux-Bordmitteln
Was folgt, ist ein lehrreiches Beispiel für systematische Fehlersuche mit Standard-Linux-Tools:
- Systemlast überprüfen: Zunächst vermutete das Team, dass die 96 vCPUs unter Volllast Probleme verursachen könnten – doch Ausfälle traten auch bei niedriger Auslastung auf
- Temperaturüberwachung: Mit dem
sensors
-Befehl wurden Temperaturdaten gesammelt:$> sensors coretemp-isa-0000 Adapter: ISA adapter Package id 0: +51.0°C (high = +100.0°C, crit = +100.0°C)
Ergebnis: Keine Korrelation zwischen Ausfällen und erhöhten Temperaturen - Hardware-Komponenten analysieren: Mit
lshw
unddmidecode
wurden Seriennummern und Komponentendaten verglichen – ohne eindeutiges Muster - Stromverbrauchsmessung: Der entscheidende Hinweis kam schließlich durch
powerstat
$> powerstat -R Time User Nice Sys Idle IO Run Ctxt/s IRQ/s Fork Exec Exit Watts 14:17:15 3.1 0.0 0.0 96.9 0.0 5 430 1593 0 0 0 166.54
Die Messungen zeigten eine auffällige Diskrepanz: Während der AX161 mit 168 Watt nahe am angegebenen Maximum von 147 Watt lief, erreichte der AX162 nur 266 Watt – deutlich unter den spezifizierten 408 Watt. Dies legte eine Stromverbrauchsbegrenzung nahe, die möglicherweise die Hardware beeinträchtigte.
Die Geschichte nahm mehrere Wendungen:
- Hetzner bestätigte schließlich einen Defekt bei einer Charge von Motherboards
- Erste Austauschlieferungen (AX162-v2) reduzierten die Ausfallrate auf 5,30% – noch immer zu hoch
- Erst die dritte Generation (AX162-v3) brachte die Lösung mit einer beeindruckenden AFR von nur 0,39%
Der Fall illustriert mehrere wichtige Prinzipien für den Umgang mit neuer Server-Hardware:
- Early Adopter zahlen Lehrgeld: Die sofortige Umstellung auf eine neue Serverlinie ohne Wartezeit kann kostspielig sein
- Systematische Fehlersuche mit Standardtools: Die Linux-Standardbefehle
sensors
,dmidecode
undpowerstat
lieferten entscheidende Hinweise - Datenbasierte Entscheidungen: Die Berechnung der Ausfallraten (AFR) half, das Problem zu quantifizieren und Fortschritte zu messen
Für mich besonders bemerkenswert ist, wie hier klassische Linux-Commandline-Tools zur Lösung eines komplexen Hardware-Problems beigetragen haben. Statt spezialisierter Diagnose-Software reichten powerstat
, sensors
und dmidecode
, um dem Problem auf die Spur zu kommen.
Ubicloud’s Lessons Learned: Das Unternehmen zieht drei konkrete Schlüsse:
- Gründlichere Prüfung neuer Servermodelle vor dem Produktiveinsatz
- Stufenweise Einführung neuer Hardware, beginnend mit unkritischen Workloads
- Risikodiversifizierung durch mehrere Bare-Metal-Provider (aktuell: Hetzner, Leaseweb, Latitude)
Wie steht ihr zu Early-Adoption bei Server-Hardware? Habt ihr ähnliche Erfahrungen gemacht? Die Diskussion in den Kommentaren würde mich freuen!
Debugging Hetzner: Uncovering failures with powerstat, sensors, and dmidecode
SQLite: 6,4 TB Codedatenbank für searchcode.com
Der Betreiber von searchcode.com hat seine Code-Suchmaschine auf eine 6,4 TB große SQLite-Datenbank migriert und beschreibt die Herausforderungen und Lösungen. Die Hauptmotivation war die Vereinfachung der Deployment-Infrastruktur durch Reduzierung von Abhängigkeiten. Durch den Umzug von MySQL zu SQLite konnte er eine Single-Binary-Lösung schaffen, die einfacher zu warten ist.
Kernpunkte:
- Die Datenbank scheint mit 6,4 TB eine der größten öffentlich bekannten SQLite-Installationen zu sein
- Zur Lösung des Speicherplatzproblems wurde BTRFS mit zstd-Komprimierung eingesetzt
- Technisch wurde auf die modernc.org/sqlite-Implementierung gesetzt, um CGO-Probleme zu vermeiden
- Gegen Locking-Probleme wurden separate Lese-/Schreib-Verbindungen implementiert
- Die Migration führte zu Performance-Verbesserungen
- Der Server wurde auf einen Intel Xeon Gold mit 256 GB RAM aufgerüstet
Die Migration zu SQLite passt in den allgemeinen Trend des Autors, Komplexität zu reduzieren und auf einfachere, wartungsarme Lösungen zu setzen.
searchcode.com’s SQLite database is probably 6 terabytes bigger than yours
DSGVO: Oracle bringt Fusion Apps in souveräne EU-Cloud
Oracle hat seine Fusion Cloud Applications Suite in die EU Sovereign Cloud integriert und reagiert damit auf die wachsenden Anforderungen an digitale Souveränität in Europa. Die Cloud-Lösung soll europäischen Unternehmen und Behörden ermöglichen, SaaS-Dienste wie ERP, HCM, SCM und CX DSGVO-konform zu nutzen.
Die EU Sovereign Cloud wird von europäischen Unternehmen betrieben, ist von Servern anderer Regionen isoliert und bietet getrennte Kundenzugänge. Mit zwei EU-Regionen und je drei Fehlerdomänen soll die Plattform eine hohe Ausfallsicherheit gewährleisten.
Oracle reiht sich damit in den Trend souveräner Cloud-Angebote ein. Auch Amazon plant mit einer Investition von 8 Milliarden Euro bis 2040 den Aufbau einer souveränen AWS-Region in Deutschland, deren Rechenzentrum in Brandenburg noch dieses Jahr in Betrieb gehen soll.
Für DSGVO-konforme Nutzung: Oracle bringt Fusion Applications in EU-Cloud
Pi-hole v6 veröffentlicht: Komplett überarbeitete DNS-Filterung
Der beliebte Open-Source Werbe- und Tracking-Blocker Pi-hole hat ein umfassendes Update auf Version 6 erhalten. Diese neue Version stellt einen bedeutenden Sprung in der Entwicklung dar und bringt zahlreiche technische Verbesserungen mit sich, die den Betrieb deutlich vereinfachen.
Die wichtigsten Neuerungen im Überblick
Integrierter Webserver statt externer Abhängigkeiten: Pi-hole v6 ersetzt die bisher benötigten Komponenten lighttpd und PHP durch einen direkt in die pihole-FTL-Binärdatei integrierten Webserver mit REST API. Dies reduziert nicht nur den Installations-Footprint, sondern steigert auch die Performance erheblich.
Vereinfachte Konfiguration: Statt verschiedener Konfigurationsdateien gibt es nun eine zentrale, kommentierte TOML-Datei unter /etc/pihole/pihole.toml
. Die Einstellungen können wahlweise über die Datei selbst, die Kommandozeile, die API oder die neu gestaltete Weboberfläche vorgenommen werden.
„Antigravity“-Feature: Neben den bekannten Blocklisten unterstützt Pi-hole v6 nun auch abonnierbare Allowlists, die bestimmte Domains gezielt vom Blocking ausnehmen.
Moderner UI-Ansatz: Die Benutzeroberfläche wurde komplett überarbeitet und bietet nun eine Aufteilung in Basic- und Expert-Modi für verschiedene Nutzertypen.
Native HTTPS-Unterstützung: Zertifikate können entweder selbst bereitgestellt oder automatisch generiert werden.
Alpine statt Debian: Das Docker-Image basiert jetzt auf Alpine Linux, was zu einer deutlich reduzierten Image-Größe führt.
Besonders für Resource-limitierte Systeme wie Raspberry Pi oder kleine Home-Server bringt das Update spürbare Performancevorteile durch den geringeren Ressourcenverbrauch – ein wichtiger Punkt für die typische Einsatzumgebung von Pi-hole.
Docker Desktop 4.38: KI-Support und Multi-Node Kubernetes
Docker hat die Version 4.38 von Docker Desktop veröffentlicht, die mehrere wichtige Neuerungen und verbesserte Enterprise-Funktionen bringt. Die aktualisierte Version fokussiert sich auf Entwicklerproduktivität und vereinfachte Unternehmensadministration.
Kernpunkte des Updates:
- Docker AI Agent (früher Project: Agent Gordon) ist jetzt in Beta verfügbar – ein kontextbezogener KI-Assistent, der in Desktop und CLI integriert ist
- Docker Bake ist jetzt allgemein verfügbar (GA) – ein Orchestrierungstool für effizientere und parallelisierte Build-Prozesse
- Multi-Node Kubernetes-Tests ermöglichen jetzt umfangreichere lokale Tests mit mehreren Knoten
- Verschiedene Enterprise-Administrationsfunktionen sind nun allgemein verfügbar
Der neue AI Agent ist in Docker Desktop und CLI eingebettet und bietet kontextbezogene Hilfestellung direkt im Workflow – von Container-Management bis zur Docker-spezifischen Fehlerbehebung. Er ist zunächst für alle angemeldeten Benutzer verfügbar, muss aber explizit aktiviert werden.
Docker Bake, das bereits als experimentelles Feature getestet wurde, vereinfacht komplexe Build-Konfigurationen durch ein deklaratives Dateiformat. Es erlaubt die Parallelisierung von Builds und unterstützt nativ Compose-Dateien, was Multi-Service-Builds effizienter macht.
Die Integration von Multi-Node Kubernetes in Docker Desktop verwendet kind (Kubernetes in Docker) und ermöglicht realistischere Produktionsumgebungstests. Entwickler können mehrere Knoten konfigurieren und verschiedene Kubernetes-Versionen testen.
Für Business-Abonnenten wurden folgende Funktionen allgemein verfügbar:
- Erzwungene Anmeldung mit macOS-Konfigurationsprofilen
- Unterstützung für Anmeldungen bei mehreren Organisationen
- Massenbereitstellung von Docker Desktop für Mac mit dem PKG-Installer
Mit diesem Update unterstreicht Docker sein Engagement, die Entwicklererfahrung zu vereinfachen und Unternehmen robuste Tools für effizientere Workflows zur Verfügung zu stellen.
Docker Desktop 4.38: New AI Agent, Multi-Node Kubernetes, and Bake in GA
GitLab 17.9: Self-Hosted KI wird allgemein verfügbar
Mit dem Release von GitLab 17.9 können sich besonders Unternehmen mit hohen Compliance-Anforderungen freuen – GitLab Duo Self-Hosted ist jetzt offiziell als GA (Generally Available) verfügbar. Das Update enthält über 110 Verbesserungen, von denen ich die wichtigsten Funktionen und weitere Highlights zusammenfasse.
GitLab Duo Self-Hosted: KI in der eigenen Infrastruktur
Die zentrale Neuerung in dieser Version ist die allgemeine Verfügbarkeit von GitLab Duo Self-Hosted. Damit können Unternehmen ausgewählte Large Language Models (LLMs) in ihrer eigenen Infrastruktur hosten und als Quelle für GitLab Duo Code Suggestions und Chat verwenden. Diese Funktion ist jetzt für selbst-gehostete GitLab-Umgebungen mit entsprechender Lizenzierung verfügbar.
GitLab Duo Self-Hosted unterstützt aktuell:
- Open-Source Mistral-Modelle auf vLLM oder AWS Bedrock
- Claude 3.5 Sonnet auf AWS Bedrock
- OpenAI-Modelle auf Azure OpenAI
Unternehmen können die Leistungsfähigkeit generativer KI nutzen und gleichzeitig vollständige Datensouveränität und Privatsphäre gewährleisten. Das ist besonders interessant für Firmen, die aus Compliance-Gründen keine externen KI-Dienste wie GitHub Copilot nutzen können.
10 weitere Verbesserungen in Stichworten
- Parallele GitLab Pages-Deployments: Mehrere Versionen einer Website gleichzeitig mit eindeutigen URLs bereitstellen
- Workspaces ohne manuelle Konfiguration: Standardmäßige devfile.yaml für schnelleren Start von Entwicklungsumgebungen
- Container-Support in Workspaces: Direktes Erstellen und Ausführen von Containern in GitLab Workspaces mit Sysbox
- Wiki-Kommentare: Interaktive Diskussionen direkt auf Wiki-Seiten
- Automatische Pipeline-Bereinigung: Einstellbare Aufbewahrungsdauer für CI/CD-Pipelines und Artefakte
- Kubernetes-Ressourcenverwaltung: Automatisierte Bereitstellung und Verwaltung von Kubernetes-Ressourcen
- Vereinfachter Zugriff auf Deployments: Übersicht von Deployments in der Umgebungsliste ohne zusätzliche Klicks
- Neue Insights für Merge Requests: Event „Merge request last approved at“ für bessere Workflow-Analyse
- DAST-Scans über UI konfigurieren: Granulare Kontrolle für DAST-Scans direkt über die Benutzeroberfläche
- Schwachstellenrisikobewertung: Unterstützung für EPSS, KEV und CVSS-Daten für bessere Priorisierung von Sicherheitsrisiken
GitLab 17.9 setzt den Trend zur integrierten DevSecOps-Plattform mit starkem Fokus auf KI-Integration fort. Besonders die Self-Hosted KI-Funktionen könnten ein echter Game-Changer für Unternehmen mit strengen Datenschutzanforderungen sein.
GitLab 17.9 released with GitLab Duo Self-Hosted available in GA
Schmunzelecke
„Stand Up Meetings be Like“ im Stil von Der Pate / The Godfather – grandios. Falls du bei Instagram bist, im account @developertimeline gibt es grundsätzlich viel zu lachen – hier zum Video und hier zum Account.
💡 Link Tipps aus der Open Source Welt
n8n AI Starter Kit: Lokales KI-Ökosystem mit einem Klick
Eine der größten Herausforderungen bei KI-Projekten ist oft die initiale Einrichtung einer funktionierenden Umgebung. Mit dem n8n AI Starter Kit wird dieser Prozess erheblich vereinfacht – und das komplett Open Source!
Was ist das AI Starter Kit?
Das n8n AI Starter Kit ist ein Docker Compose Template, das mit wenigen Befehlen eine vollständige lokale KI-Entwicklungsumgebung bereitstellt. Diese von n8n kuratierte Lösung kombiniert alle wesentlichen Komponenten für selbst-gehostete KI-Workflows:
- n8n – Low-Code-Plattform mit über 400 Integrationen und KI-Komponenten
- Ollama – Cross-Platform LLM-System zum Ausführen lokaler Sprachmodelle
- Qdrant – Hochperformante Vektordatenbank mit umfassender API
- PostgreSQL – Zuverlässige Datenbank für sichere Datenspeicherung
Anwendungsszenarien
Mit dieser Lösung lassen sich zahlreiche KI-Anwendungen lokal und datenschutzkonform umsetzen:
- KI-Agenten zur automatisierten Terminplanung
- Sichere PDF-Analyse ohne Datenlecks
- Intelligente Slack-Bots für verbesserte Unternehmenskommunikation
- Private Analyse von Finanzdokumenten zu minimalen Kosten
Über die n8n AI Template Gallery stehen bereits zahlreiche fertige Workflow-Vorlagen zur Verfügung, die sich mit dem Starter Kit sofort nutzen lassen.
Der große Vorteil dieser Lösung liegt in der vollständigen lokalen Kontrolle über alle Daten – ideal für Unternehmen und Entwickler, die Wert auf Datenschutz und Sicherheit legen, ohne auf moderne KI-Funktionen verzichten zu wollen.
https://github.com/n8n-io/self-hosted-ai-starter-kit
Pearcleaner: Der kostenlose App-Cleaner für macOS
Pearcleaner ist eine quelloffene Mac-App mit „Fair-Code“-Lizenz, die eine gründliche Deinstallation von Anwendungen und deren Überresten ermöglicht – zur Website.
Kernfunktionen
- Orphaned-File-Suche: Spürt Überbleibsel bereits deinstallierter Apps auf
- Sentinel-Monitor: Überwacht den Papierkorb automatisch (nur 2MB RAM-Verbrauch)
- Finder-Integration: Deinstallation per Rechtsklick direkt im Finder
- Flexible Nutzung: Unterstützt CLI, Drag & Drop und Mini-Modus
Die App unterscheidet intelligent zwischen normalen Apps, Safari-Webanwendungen und iOS-Apps, bietet Homebrew-Bereinigung und ermöglicht den Export von App-Bundles für Systemmigrationen.
Pearcleaner vereint die Funktionalität kommerzieller Tools mit der Transparenz eines Open-Source-Projekts – ideal für alle, die ihr macOS-System effizient aufgeräumt halten möchten.
https://github.com/alienator88/Pearcleaner
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: