Willkommen zu allesnurgecloud.com – Ausgabe #225
Auf (oder bei) LinkedIn hab ich die 2 Top Themen der heutigen Ausgabe schon vorab geteilt – die Preisanpassungen bei Hetzner und die Verfügbarkeit von Hardware beim deutschen Hoster netcup. Beides interessante Themen, die ich hier nochmal ausführlich behandle.
Und wenn ich dann die News fürs Wochenende zusammenstelle denke ich mir immer, ob das noch jemanden interessiert oder ob das nicht alle schon gelesen haben. Naja, den Druck macht man sich dann beim Kuratieren halt selbst.
Ansonsten auch bei LinkedIn gesehen – „Local AI ist ab sofort praxistauglich“. Hier zeigt Martin Brüggemann mit einem DGX Spark von Asus und dem Qwen3.5-35B Modell, wie gut lokale KI schon funktioniert. Der DGX Spark enthält übrigens eine GB10-GPU von Nvidia und kostet je nach Hersteller zwischen 3000 und 4000€. Hast du schon einen? Schreib mir gerne deine Erfahrungen als Antwort auf den Newsletter.
Ansonsten gibt es einen neuen NPM Wurm – den ich jetzt hier kurz noch reingepackt habe, damit du das nicht verpasst und deine Supply Chain checken kannst.
Happy Bootstrapping Podcast
In der aktuellen Podcast Folge 161 spreche ich mit Sven Feliks, der nach 14 Jahren Mercedes die Abfindung mitgenommen hat um sich auf sein Gastro SaaS visito.me zu konzentrieren. Seine Kumpels und er hatten während Corona damit angefangen, Restaurants bei der Digitalisierung zu helfen – davon Leben kann er heute noch nicht, daher hat er bis zum Jahresende viel vor. Wenn du Bekannte oder Verwandte in der Gastro hast – die sollen sich visito gerne mal anschauen – auch die Folge gibt es bei YouTube und bei Spotify, Apple und allen anderen Playern. bei Spotify/Apple).
Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).
Support the Newsletter
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Ende der Schnäppchen-Ära? Hetzner Cloud wird bis zu 33% teurer
Hetzner hat seine Kunden per E-Mail über eine Preisanpassung ab dem 1. April 2026 informiert – und die hat es in sich. Die Details listet Hetzner in den Docs auf. Cloud-Server werden durchweg um 30–33 % teurer, Storage-Produkte steigen um rund 30 %, und selbst die dedizierten Server kommen mit 14–17 % Erhöhung nicht ungeschoren davon. Auch alte Gurken vom Marketplace werden um 3% angepasst.
Ne 30% Erhöhung finde ich ja erstmal ordentlich – in der Vergangenheit wurden die Preise eher nach unten angepasst – und bei allem Aufschrei – ist immer noch alles günstig, meiner Meinung nacht.
Ein paar konkrete Zahlen: Ein CX23 steigt von 2,99 € auf 3,99 €, ein CCX13 mit Dedicated CPU von 11,99 € auf 15,99 €, ein CX53 von 16,99 € auf 22,49 €. Volumes verteuern sich von 0,044 € auf 0,0572 € pro GB/Monat, Snapshots von 0,011 € auf 0,0143 €. Wer viele Cloud-Server betreibt, merkt das schnell im Budget. Die dedizierten Storage-Server (SX-Linie) kommen vergleichsweise glimpflich davon: Ein SX65 steigt von 107,30 € auf 122,30 € (+14 %), ein SX135 von 207,30 € auf 242,30 € (+17 %).
Als Hauptursache nennt Hetzner die explodierenden Hardware-Kosten, insbesondere bei RAM und SSDs. Laut TrendForce seien die DRAM-Preise seit September 2025 um bis zu 500 % gestiegen – getrieben durch die globale Nachfrage nach KI-Rechenleistung. In Ausgabe #114 hatte ich 2023 noch über Hetzners damalige Preissenkung bei den Dedicated-CPU-Servern berichtet – damals ging es in die andere Richtung, mit teils 30 % günstigeren Preisen. Das Blatt hat sich jetzt offensichtlich gedreht.
Hetzner war jahrelang der Preisbrecher im europäischen Cloud-Markt und selbst mit den neuen Preisen bleibt Hetzner deutlich unter den Hyperscalern. Aber eine pauschale 30-%-Erhöhung auf Bestands- und Neuprodukte gleichzeitig ist ungewöhnlich und zeigt, wie stark der AI-bedingte Hardware-Hunger mittlerweile bis zu europäischen Hostern durchschlägt. Vielleicht hätte m an das auch mit etwas mehr Vorlauf ankündigen können. Western Digital hat seine komplette Festplatten-Kapazität für 2026 bereits ausverkauft (siehe unten), Sony erwägt den PlayStation-Launch zu verschieben – und Hetzner kann die Mehrkosten einfach nicht mehr kompensieren.
Ansonsten hatte ich auf LinkedIn dazu schon was geschrieben, nachdem ich die ganzen „souveräne Angebote jetzt auch teurer“ Beiträge nicht mehr lesen wollte. Naja, noch transparenter wird das Thema im nächsten Beitrag.
Bin gespannt auf das Apple Event am 2. bis 4. März – und ob die angekündigten günstigen Macbooks kommen und wie günstig die am Ende dann noch sein werden.
RAMpocalypse: Engpässe beim Hoster netcup
Die beiden netcup-Gründer Oliver und Alex haben in einem bemerkenswert offenen Community-Post die Lage am Speichermarkt beschrieben – und eine geplante Winter-Sale-Aktion kurzfristig abgesagt. Der Begriff „RAMpocalypse“ macht in der Hosting-Branche die Runde, und netcup bestätigt: Es trifft auch sie und nicht nur Hetzner.
netcup hatte im Oktober 2025 vorausschauend Server für das erste Halbjahr 2026 bestellt – übliche Praxis für einen Hoster, der auf gutes Preis-Leistungs-Verhältnis setzt. Doch weder die Januar- noch die Februar-Tranchen wurden bisher geliefert. Die Begründung deckt sich mit dem, was Hetzner in seiner Preisanpassung kommuniziert:
„Der Markt wird von großen AI-Factories leergekauft und das aus derzeitiger Sicht über mindestens zwei Jahre. Die Frage ist derzeit nicht wie viel man bezahlt, sondern ob man überhaupt beliefert wird.“
Die Transparenz ist vorbildlich – und der Kontrast zu Hetzners eher formeller Ankündigung bemerkenswert. Während Hetzner pauschal 30–33 % auf Bestandskunden umlegt, ringt netcup noch um eine Lösung: „Wir werden alles tun, um die Auswirkungen für euch so gering wie möglich zu halten – ganz ohne Auswirkungen wird es aber realistischerweise nicht gehen.“ Die geplante Sale-Aktion abzusagen, statt Kunden mit alten Preisen zu locken, die man nicht halten kann, ist die richtige Entscheidung.
Das größere Bild wird immer klarer: Die DRAM-Preissteigerung von bis zu 500 % seit September 2025, Western Digitals komplett ausverkaufte Festplatten-Kapazität für 2026 und jetzt europäische Hoster, die schlicht nicht mehr beliefert werden – der AI-Ressourcenhunger ist kein abstraktes Problem mehr, sondern schlägt direkt auf die europäische Hosting-Infrastruktur durch. Die Frage für kleinere Hoster wird zunehmend existenziell: Wenn die Großen den Markt leerkaufen, bleibt für den Mittelstand schlicht nichts übrig.
Und ich bin ansonsten echt gespannt, ob und wie es Auswirkungen auf die Großen haben wird. Werden die Preise erhöht? Sinkt die Marge in den Quartalsberichten in Zukunft? Das dürfte den Anlegern an der Börse nicht gefallen.
RAMpocalypse: An honest update on the hardware situation
Anzeige
„Die Braut in der Cloud mit KRUU und „We Manage“

Mit unserem Kunden KRUU und dem Cloud-Anbieter Gridscale haben wir eine ausführliche Case Study veröffentlicht (PDF Version).
Die Case Study beschreibt unseren ganzheitlichen Ansatz einer „Rundum-sorglos-Betreuung“ mit einem maßgeschneiderten Angebot und Unterstützung bei DevOps- und SRE Herausforderungen.
Benötigst du auch Hilfe im Bereich „DevOps“, individuelle Managed Server oder ein Backup für dein 1-Personen DevOps Team oder Fullstack-Developer? Dann lerne uns jetzt kennen.
Netflix migriert 400 PostgreSQL-Cluster zu Aurora
Das Netflix Engineering Team beschreibt in einem ausführlichen Blogpost die automatisierte Migration von knapp 400 PostgreSQL-Clustern von RDS zu Aurora PostgreSQL. Nach einer umfassenden Evaluierung in 2024 hat Netflix Aurora PostgreSQL als Standard-Plattform für relationale Datenbanken festgelegt – PostgreSQL deckte bereits über 95 % aller relationalen Workloads ab.
Der technische Ansatz basiert auf Aurora Read Replicas statt Snapshots, was deutlich kürzere Downtimes ermöglicht. Die Migration läuft als Self-Service-Workflow: Service-Owner führen ihre Migrationen selbst durch, die Automatisierung übernimmt Orchestrierung, Safety Checks und Korrektheitsprüfungen. Besonders clever: Netflix benötigt dank seines Data Access Layers (DAL) – einer Proxy-Schicht zwischen Applikationen und Datenbanken – weder Datenbank-Credentials noch Änderungen am Applikationscode für den Cutover. Der Envoy-basierte Data Gateway wird einfach per Konfigurations-Update auf den neuen Aurora-Cluster umgestellt.
Die Herausforderungen stecken wie üblich im Detail. Bei der Validierung zeigte sich, dass die OldestReplicationSlotLag-Metrik nie stabil bei Null bleibt, sondern zwischen 0 und 64 MB oszilliert – bedingt durch PostgreSQL’s WAL-Segment-Rotation alle fünf Minuten. Netflix musste dieses Verhalten verstehen und in die Automatisierung einbauen. Bei einem kritischen Partner-System für Device-Zertifizierung und Billing-Integrationen sorgte ein inaktiver Logical Replication Slot für unerwartet hohen Lag – ein Szenario, das in der Theorie simpel klingt, in der Praxis aber die Migration blockierte. Die durchschnittliche Write-Downtime liegt bei etwa 10 Minuten, kann aber durch manuelles pg_switch_wal() weiter reduziert werden.
In Ausgabe #197 hatte ich Atlassians Migration von 4 Millionen Jira-Datenbanken zu Aurora vorgestellt – Netflix zeigt nun den komplementären Ansatz: Statt Masse (Atlassian) steht hier die Automatisierung einer überschaubaren, aber diversen Flotte im Fokus. Beide Cases bestätigen den Trend: Aurora PostgreSQL wird zunehmend zur Default-Plattform für AWS-native Unternehmen.
Automating RDS Postgres to Aurora Postgres Migration
Das Ownership Trio: Warum Reliability bei Verantwortung anfängt
Spiros Economakis beschreibt in seinem Substack-Artikel ein Framework, das jeder kennen sollte, der sich mit Reliability und On-Call-Kultur beschäftigt: das Ownership Trio aus Mandate, Knowledge und Accountability. Die These: Wenn auch nur eines der drei Elemente fehlt, ist Ownership kaputt – und damit die Zuverlässigkeit.
Die drei Bruchstellen sind in der Praxis allgegenwärtig. Verantwortung ohne Kontrolle: Ein Team soll Uptime-Ziele einhalten, hat aber keinen Einfluss auf Deployment-Pipelines oder Infrastruktur – und wird trotzdem um 3 Uhr nachts geweckt. Kontrolle ohne Wissen: Ein neues Produktteam verwaltet seine eigene Infrastruktur, hat aber keine Ahnung von sinnvollem Alerting oder Capacity Planning. Handeln ohne Konsequenz: Entwickler bauen Features im Eiltempo, aber wenn es knallt, räumt das SRE-Team auf. Das Ergebnis ist immer das gleiche – fragile Systeme, Blame-Shifting und Burnout.
Die Lösung klingt einfach, ist in der Umsetzung aber anspruchsvoll: Teams brauchen echte Entscheidungsgewalt über ihre Services (Mandate), müssen in Observability, Incident Response und Capacity Planning geschult sein (Knowledge) und die Konsequenzen ihrer Entscheidungen selbst spüren (Accountability) – idealerweise durch eigenes On-Call. SRE-Teams werden dabei zum Enabler statt zum Gatekeeper, Platform Engineering liefert Self-Service-Tooling, und Postmortems fokussieren auf systemische Verbesserungen statt auf Schuldzuweisung.
Wer das Thema vertiefen will: In Ausgabe #187 hatte ich Googles sechs verschiedene SRE-Implementierungsvarianten vorgestellt – von „Kitchen Sink“ bis Consulting-Team. Economakis‘ Framework ergänzt das gut, weil es unabhängig vom gewählten Modell die Grundvoraussetzung definiert: Ohne alle drei Elemente des Trios ist jedes SRE-Modell zum Scheitern verurteilt.
Why Reliability Starts with Responsibility
Hund baut Videospiele mit Claude Code
Caleb Leak, ehemaliger Research Engineer bei Meta (im Januar durch Layoffs freigesetzt), hat seinem 9-Pfund-Cavapoo „Momo“ beigebracht, mit Claude Code Videospiele zu entwickeln. Angefangen hat alles, als der Hund während einer Godot-Session über die Tastatur lief – daraus wurde ein durchdachtes Engineering-Projekt, das einiges über AI-gestützte Entwicklung verrät.
Momo tippt auf einer Bluetooth-Tastatur, die über einen Raspberry Pi 5 per UDP an eine Rust-App namens „DogKeyboard“ weitergeleitet wird. Diese filtert gefährliche Tasten, injiziert die Eingaben in Claude Code und steuert nach genügend Tastendrücken einen Zigbee-Futterautomaten als Belohnung. Ein typisches Spiel entsteht in 1–2 Stunden von Momos ersten Tastendrücken bis zum spielbaren Build in Godot 4.6 mit C#.
Im Prompt wird Claude gesagt, es arbeite mit einem „exzentrischen Gamedesigner, der in kryptischen Rätseln kommuniziert.“ Aus y7u8888888ftrg34BC interpretiert Claude dann: y7u = „you“, 8888888 = eine lange Zunge, ftrg = FROG, BC = Bug Catcher – und baut ein 3D-Frosch-Insektenfang-Spiel.
Das interessanteste Learning betrifft Feedback-Loops. Leak gab Claude die Fähigkeit, eigene Screenshots zu machen und seine Spiele selbst zu spielen – inklusive Eingabesequenzen wie „links für 3 Sekunden, Pause, rechts, Schuss“. In einem Fall spielte Claude alle 6 Level durch, fand einen kaputten Health-Bar, fixte den Bug und verifizierte erneut. Leaks Fazit:
„The games got dramatically better not when I improved the prompt, but when I gave Claude the ability to screenshot its own work, play-test its own levels, and lint its own scene files.“
Die entstandenen Spiele reichen von einem Rhythmusspiel mit Oktopus-Schlagzeuger über ein Schafe-Hüte-Spiel bis zu einem 6-Level-Action-Game mit Bosskampf – alles spielbar, alles Open Source. Wenn die Toolchain stimmt – automatisierte Tests, visuelle Verifikation, Linting – kann selbst buchstäblicher Nonsense zu funktionierender Software werden. Die Implikation für menschliche Entwickler mit echten Absichten liegt auf der Hand oder dem Hund.
I Taught My Dog to Vibe Code Games
Mitchell Hashimoto über Terraform, AI-Agents und warum die besten Engineers unsichtbar sind
Mitchell Hashimoto, Mitgründer von HashiCorp und Schöpfer von Ghostty, war zu Gast im Pragmatic Engineer Podcast bei Gergely Orosz. Das fast zweistündige Gespräch deckt die Geschichte von HashiCorp, den Umgang mit den großen Cloud-Providern und vor allem Mitchells aktuelle Arbeitsweise mit AI-Tools ab.
Ein paar der interessantesten Punkte aus dem Gespräch:
Terraform war nicht first-to-market – entgegen der gängigen Erzählung. Mitchell stellt klar: „We were seventh to market… no one was a clear winner. It was a warring market.“ Terraform habe durch Community-Building und bessere Developer Experience gewonnen, nicht durch Timing. Und fast wäre es nie dazu gekommen: VMware wollte HashiCorp kaufen, als die Firma erst 3 Leute hatte. Mitchell und Co-Founder Armon nannten $100 Millionen – VMwares Board lehnte mit einer einzigen Stimme ab.
Mitchells neue Arbeitsregel mit AI: „Always have an agent running in the background doing something.“ Wenn er selbst codet, soll ein Agent planen. Wenn Agents coden, reviewt er. Vor dem Verlassen des Hauses startet er Research-Tasks – Library-Vergleiche, Edge-Case-Analysen – damit Arbeit passiert, während er unterwegs ist.
Zum Thema Open Source und AI hat Mitchell eine klare Position: „Open source has always been a system of trust. Before, we’ve had default trust. Now it’s just default deny.“ AI mache es trivial, plausibel aussehende aber fehlerhafte Contributions zu erstellen. Und auch Git und GitHub in ihrer jetzigen Form könnten die Agentic-Ära möglicherweise nicht überleben – zu viel Churn, zu viele Branches, aufgeblähte Repos.
Beim Thema Hiring überrascht Mitchell mit einer kontraintuitiven Beobachtung: Die besten Engineers, die er je eingestellt hat, hatten unsichtbare Hintergründe – „They don’t have social media profiles… they’re honestly nine-to-five engineers.“ Keine GitHub-Contributions, keine öffentlichen Profile, Firmen, von denen man noch nie gehört hat.
Sein Rat an AI-skeptische Engineers: Nicht gleich Code generieren lassen, sondern mit Research anfangen. „There’s a lot of people like, ‚I don’t want it to write code for me.‘ But just delegate some of the research part.“
Interessante Folge, die mit 1:57 Stunden aber doch recht lange ist – daher der kleine Auszug hier als Service.
Mitchell Hashimoto’s new way of writing code
PS5-Controller deckt auf: 7.000 DJI-Saugroboter offen im Netz
Ein Mann wollte seinen DJI Romo Saugroboter mit einem PS5-Controller steuern – und entdeckte dabei eine massive Sicherheitslücke. The Verge berichtet ausführlich über den Fall.
Sammy Azdoufal extrahierte den privaten Token seines DJI Romo und die Server antworteten nicht nur mit seinen Daten, sondern mit denen von rund 7.000 Saugrobotern weltweit. Er konnte Roboter fernsteuern, durch Kameras schauen, Mikrofone abhören und komplette Grundrisse abrufen. In einer Live-Demo katalogisierte sein mit Claude Code gebautes Tool in neun Minuten 6.700 Geräte in 24 Ländern und sammelte über 100.000 MQTT-Nachrichten.
Das technische Problem ist ein Klassiker: fehlende Topic-Level Access Controls auf dem MQTT-Broker. Azdoufal bringt es auf den Punkt: „TLS does nothing to prevent this — it only protects the pipe, not what’s inside the pipe.“ Wer sich als authentifizierter Client verbindet, konnte per Wildcard-Subscribe alle Nachrichten aller Geräte mitlesen. DJI hat das Problem inzwischen in zwei Patches behoben – allerdings erst, nachdem die erste Entwarnung sich als falsch herausstellte: Eine halbe Stunde nach DJIs „ist gefixt“-Statement demonstrierte Azdoufal in der Live-Demo weiterhin tausende Roboter.
Der Fall reiht sich ein in eine lange Liste von IoT-Security-Desastern: Ecovacs-Roboter, die 2024 gehackt wurden, Dreame-Kameras mit Live-Feed-Zugriff, Wyze mit verschwiegenen Schwachstellen. Die Frage ist nicht mehr, ob ein Saugroboter mit Kamera ein Sicherheitsrisiko ist – sondern warum Hersteller immer wieder an denselben Grundlagen scheitern.
The DJI Romo robovac had security so poor, this man remotely accessed thousands of them
Western Digital für 2026 ausverkauft
Western Digital hat auf dem jüngsten Earnings Call eine bemerkenswerte Ansage gemacht: Die gesamte Festplatten-Kapazität für 2026 ist bereits ausverkauft – und das Mitte Februar, wie Mashable berichtet. CEO Irving Tan sagte wörtlich: „We’re pretty much sold out for calendar 2026.“ Die Kapazität geht an die Top-7-Kunden, von denen drei bereits Verträge für 2027 und 2028 abgeschlossen haben.
Die Verschiebung der Machtverhältnisse zeigt sich in einer Zahl besonders deutlich: Der Consumer-Markt macht bei Western Digital nur noch 5 % des Umsatzes aus. Der Rest geht an Enterprise-Kunden – und die heißen größtenteils AI-Unternehmen, die Speicher in Mengen verschlingen, die den klassischen Markt an den Rand drängen.
Die Kollateralschäden reichen über Festplatten hinaus. RAM-Preise steigen regelmäßig wegen KI-bedingter Engpässe, Sony erwägt angeblich, den nächsten PlayStation-Launch über 2027 hinaus zu verschieben, und GPU-Preise sind ohnehin seit Jahren im AI-induzierten Höhenflug. Jeff Geerling hatte in seinem Video „The RAM Shortage Comes for Us All“ Ende 2025 genau davor gewarnt – jetzt materialisiert sich die nächste Welle.
Die Frage, die sich aufdrängt: Wenn AI-Unternehmen die gesamte Storage-Kapazität eines der weltgrößten Hersteller auf Jahre vorwärts aufkaufen, Consumer nur noch 5 % des Geschäfts ausmachen und sich das Muster bei RAM, GPUs und Festplatten wiederholt – wann wird der AI-Ressourcenhunger zum echten Problem für den Rest der IT-Branche? Solange die Investoren zahlen, ist das Antwort klar. Die spannendere Frage ist, was passiert, wenn sie es nicht mehr tun
Thanks a lot, AI: Hard drives are already sold out for the entire year, says Western Digital
Docker Lazy Loading: 4x schnellere Image-Pulls mit SOCI
Grab, die südostasiatische Super-App, hat einen detaillierten Erfahrungsbericht zu Docker Image Lazy Loading veröffentlicht. Das Problem: Große Container-Images für Services wie Airflow und Spark Connect brauchten Minuten zum Download – mit entsprechend langsamen Cold Starts und schlechter Auto-Scaling-Performance.
Statt das komplette Image vor dem Container-Start herunterzuladen, werden Dateien nun erst bei Bedarf geladen. Grab testete zwei Technologien: eStargz und SOCI (Seekable OCI) von AWS.
Die Ergebnisse sind sehr interessant: 4x schnellere Image-Pull-Zeiten auf frischen Nodes, 30-40% Verbesserung der P95-Startup-Zeiten in Produktion. Mit optimierter SOCI-Konfiguration erreichten sie sogar 60% schnellere Image-Downloads – von 60 auf 24 Sekunden.
Technisch funktioniert Lazy Loading über einen „Remote Snapshotter“: Statt alle Layer herunterzuladen, wird ein virtuelles Dateisystem via FUSE erstellt, das auf die Remote-Registry zeigt. Dateien werden erst beim ersten Lesezugriff geholt.
Der entscheidende Unterschied zwischen den Technologien: eStargz erfordert Image-Konvertierung, SOCI nicht. SOCI generiert einen separaten Index als OCI Artifact – Image-Digests und Signaturen bleiben unverändert. Zudem ist SOCI nativ in Bottlerocket OS integriert.
Grab entschied sich für SOCI in Produktion – primär wegen der nativen Bottlerocket-Unterstützung und einfacheren Wartung. Wichtige Erkenntnis: Lazy Loading eliminiert nicht die Download-Zeit, es verteilt sie nur um – von Startup zu Runtime. Die Default-Konfiguration ist selten optimal; Tuning der Parameter max_concurrent_downloads und concurrent_download_chunk_size brachte erhebliche Verbesserungen.
Docker lazy loading at Grab: Accelerating container startup times
Schmunzelecke
Passend zur DGX Spark und Hardware Knappheit hier das Instagram Reel einer türkischen Hochzeit, bei der es als Geschenk RAM und eine Grafikkarte gab. Ich hatte mal eine 3dfx Voodoo 2 Karte noch irgendwo, ich geh die mal suchen. Mal schauen wieviele Tokens die schafft.
💡 Link Tipps aus der Open Source Welt
Infisical – Open Source Secrets Management Plattform
Infisical ist die Open-Source-Plattform für zentrales Secret Management, Zertifikatsverwaltung und Privileged Access. Teams können damit API Keys, Datenbank-Credentials und Konfigurationen zentral verwalten und über die gesamte Infrastruktur synchronisieren.
Key Features:
- Secret Management: Dashboard für Projekte und Environments, Versionierung mit Point-in-Time Recovery, automatische Rotation (PostgreSQL, MySQL, AWS IAM), Dynamic Secrets on-demand, Secret Scanning gegen Leaks
- Certificate Management: Interne CA-Hierarchie, externe CAs (Let’s Encrypt, DigiCert, MS AD CS), Lifecycle Management mit ACME/EST, Sync zu AWS Certificate Manager und Azure Key Vault
- KMS: Zentrale Verwaltung kryptographischer Keys, Encrypt/Decrypt über API
- SSH: Ephemere signierte SSH-Zertifikate für kurzlebigen Infrastruktur-Zugang
- Integrationen: Kubernetes Operator, Agent für codeless Secret Injection, Syncs zu GitHub/Vercel/AWS, SDKs (Node, Python, Go, Ruby, Java, .NET), CLI und API
Plattform: RBAC, temporärer Zugang, Approval Workflows, Audit Logs, diverse Auth-Methoden (K8s, GCP, Azure, AWS, OIDC). Self-Hosting via Docker oder Cloud-Variante verfügbar.
Geschrieben in TypeScript. MIT-Lizenz (Enterprise-Features separat lizenziert).
Infisical ist eine ernstzunehmende Open-Source-Alternative zu HashiCorp Vault – mit deutlich niedrigerer Einstiegshürde und modernem Developer Experience. Die Kombination aus Secrets, PKI und SSH in einer Plattform ist überzeugend. Wer bisher Secrets in .env-Files oder 1Password verwaltet, sollte hier mal reinschauen.
https://github.com/Infisical/infisical
llmfit – Welches LLM läuft auf deiner Hardware?
llmfit ist ein Terminal-Tool, das lokale LLM-Modelle auf deine Hardware abstimmt. Es erkennt RAM, CPU und GPU, bewertet 206 Modelle von 57 Providern nach Quality, Speed, Fit und Context – und zeigt dir, was auf deinem System tatsächlich performant läuft – passt ja voll zur aktuellen Debatte.
Key Features:
- Hardware-Erkennung: NVIDIA (Multi-GPU), AMD, Intel Arc, Apple Silicon – automatische Backend-Erkennung (CUDA, Metal, ROCm, CPU)
- Dynamische Quantisierung: Wählt automatisch die beste Quantisierungsstufe (Q8_0 bis Q2_K), die in deinen Speicher passt
- MoE-Support: Mixture-of-Experts-Modelle wie Mixtral oder DeepSeek werden korrekt bewertet – nur aktive Parameter zählen
- Ollama-Integration: Installierte Modelle erkennen, neue direkt aus der TUI herunterladen
- TUI + CLI: Interaktive Oberfläche mit Filtern, Suche und Themes oder klassischer CLI-Output mit JSON-Export
Scoring: Jedes Modell wird auf vier Dimensionen (0–100) bewertet, gewichtet nach Use Case – Chat priorisiert Speed, Reasoning priorisiert Quality. Modelle werden als Perfect/Good/Marginal/Too Tight klassifiziert.
Geschrieben in Rust mit ratatui. Verfügbar via Cargo, Homebrew oder Installer-Script für Linux, macOS und Windows. Extrem praktisch, wenn man lokal mit LLMs arbeiten will und nicht raten möchte, welches Modell in welcher Quantisierung auf die eigene GPU passt. Mit 5.4k GitHub Stars und 206 Modellen bereits gut etabliert.
https://github.com/AlexsJones/llmfit
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: