Willkommen zu allesnurgecloud.com – Ausgabe #202
und damit willkommen zurück nach einer kleinen Sommerpause – in der Zwischenzeit ist viel passiert, ich versuche mich bei den News auf aktuelle Themen zu beschränken.
Mein Highlight der Woche ist die programmier.bar Podcast Folge 190, in der ich zum Thema „Cloud Exit“ zu Gast war. Wir haben viele aktuellen Cases und meine persönlichen Erfahrungen zum Thema besprochen – einige der Cases kennst du bestimmt schon, andere vielleicht nicht – hör doch gerne mal rein und schick mir Feedback zur Folge per Mail. Dass das Ganze dann sogar bei heise landet, wusste ich nicht – sehr cool und ein klein wenig stolz bin ich ja schon. Schreib mir gerne, wie du das Gespräch fandest.
Willkommen auch an alle neuen Abonnenten, die dank Programmier.bar und Heise ihren Weg zum Newsletter gefunden haben. Schreibt mir gerne, wie ihr die Inhalte findet oder schickt mir gerne News und Inhalte für die nächste Ausgabe zu!
Und an der Stelle noch ein kleines Dankeschön an meinen Studienkollegen und Kollegen Robin, der mir hier einen kleinen Shoutout zu Ausgabe 200 auf Linkedin gewidmet hat – das gab auch einige neue Abos bei LinkedIn – danke Robin!
Der cringe Moment der Woche ist dann das Hofieren der Tech-CEOs bei Donald Trump – da fällt einem echt nichts mehr zu ein.
Happy Bootstrapping Podcast
Im Podcast gab es keine Sommerpause, das hab ich alles schön für den Urlaub vorproduziert – hier eine Übersicht der hier verpassten Folgen:
- In Folge 135 spreche ich mit Patrik Inzinger über sein SaaS appointmed.com – eine Praxisverwaltungssoftware, die von über 2500 Therapeuten in Deutschland und Österreich verwendet wird. Das Spannende – 70 % der Bestandskunden empfehlen die Software weiter, das erleichtert Marketing und Vertrieb doch ungemein – zur Folge 135.
- In Folge 136 sind Paola und Patrik von Sapori Sardi zu Gast – hier kannst du sardische Feinkost online kaufen und die beiden boostrappen ihr E-Commerce Baby neben den Vollzeit Jobs. Falls du mal etwas probieren möchtest – am Ende der Folge gibt es einen kleinen Gutschein Code – zu Folge 136.
- Und in der aktuellen Folge 137 geht es um den KI Telefonassistenten fonio.ai – Daniel und sein Team haben das Startup innerhalb von 10 Monaten auf 3 Millionen € ARR und über 1700 gebootstrapped. Beeindruckendes Wachstum – wie das Ganze funktioniert und das Geschäft so schnell wachsen konnte erfährst du natürlich in Folge 137.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Bitnami-Update: Image EoL wird verschoben – mit Brownouts
Das Bitnami seinen kostenlosen Image Service einstellt, weisst du spätestens seit Newsletter Ausgabe #198 – nun gibt es ein paar neue Entwicklungen. Ein Entwickler dokumentiert detailliert, was die Umstellung für Teams weltweit bedeutet – und warum Broadcoms Strategie aufgehen könnte.
Broadcom schuldet nach der 69 Milliarden Dollar VMware-Übernahme erhebliche Summen. CEO Hock Tan hat seit 2006 den Unternehmenswert von 3 Milliarden auf über 1 Billion Dollar gesteigert – durch konsequente Übernahmen und Preisanpassungen. Die Infrastruktur-Software-Sparte wuchs von 7,6 auf 21,5 Milliarden Dollar Jahresumsatz.
VMware-Kunden kennen das Muster bereits
Die Preisanpassungen bei VMware zeigen, was Bitnami-Nutzern bevorsteht:
- Eine britische Universität: Steigerung von 40.000 auf 500.000 Pfund
- AT&T reichte Klage wegen zehnfacher Preiserhöhung ein
- Niederländische Behörde erwirkte Gerichtsurteil nach 85% Aufschlag
- CloudBolt-Umfrage: 73% der VMware-Kunden berichten von erheblichen Störungen
Geplante Service-Unterbrechungen als Druckmittel
Ursprünglich hätten die Images ab dem 28. August nicht mehr erreichbar sein sollen. Man hat die Deadline nun auf Ende September verschoben – plant aber drei „Brownout“-Termine, an denen jeweils 10 Container-Images für 24 Stunden offline gehen:
- 28.-29. August
- 2.-3. September
- 17.-18. September
Diese kontrollierten Ausfälle sollen laut Ankündigung „Awareness schaffen“ – praktisch erhöhen sie den Migrationsdruck.
Der Entwickler bei fastcode.io rechnet vor: Die Migration weg von Bitnami würde 3-6 Monate Engineering-Zeit kosten. Die Alternative sind 72.000 Dollar jährlich für Bitnami Secure Images. Trotz Tausender Proteste in den GitHub-Issues #83267 und #35164 bei den Charts zeigen Broadcoms Quartalszahlen: Weniger als 5% der Kunden migrieren tatsächlich – die meisten zahlen am Ende.
Die Entscheidung ist geschäftlich irgendwie nachvollziehbar, die Zeitleiste auch mit dem neuen „Ultimatum“ über den Sommer geht gar nicht und der Vertrauensverlust in der Community wiegt schwer.
Hast du die Images im Einsatz und bist nun zur Migration gezwungen?
Bei solchen Geschäftsgebaren müssen manche vielleicht erstmal die Pille schlucken und bezahlen – mittel bis langfristig wird das für Broadcom aber nicht gut ausgehen – hoffe ich zumindest.
The $69 Billion Domino Effect: How VMware’s Debt-Fueled Acquisition Is Killing Open Source, One Repository at a Time
Cloudflare-CEO will das Web vor KI-Oligarchen retten
Fred Vogelstein interviewt bei CrazyStupidTech Cloudflare CEO Matthew Prince über seinen Plan zur Rettung des Webs. Mit 70 Milliarden Dollar Marktkapitalisierung kontrolliert Cloudflare 20% der Web-Infrastruktur – genug Macht, um KI-Crawler zu blockieren und die Tech-Giganten an den Verhandlungstisch zu zwingen. Das hatte ich an anderer Stelle hier ja schon beleuchtet.
Das Problem: KI-Chatbots zerstören die Web-Ökonomie
Der 30 Jahre alte Deal zwischen Suchmaschinen und Websites bricht zusammen. Statt zehn blaue Links mit Werbung liefern KI-Chatbots direkt Antworten – ohne Ads, ohne Klicks, ohne Einnahmen. Publishers berichten von 750x weniger Referral-Traffic von KI-Bots als von Google. Wikipedia meldet 50% höhere Bandbreitenkosten durch aggressive Crawler.
Prince sieht drei Szenarien:
- Das nihilistische Ende: Journalisten und Creators verhungern, während KI ihre Inhalte klaut
- Black Mirror: Die fünf großen KI-Firmen beschäftigen alle Journalisten direkt – Wissen in Silos statt freiem Web
- Netflix-Modell: KI-Firmen konkurrieren um exklusive Inhalte wie Streaming-Dienste über Content Marktplätze – wie den von Cloudflare
Pay-per-Crawl als Lösung
Seit Juli blockiert Cloudflare auf Kundenwunsch KI-Crawler. Die Strategie: Knappheit schaffen. „Wir stoppen täglich chinesische Hacker, wir können auch Nerds aus Palo Alto stoppen“, sagt Prince. Perplexity wurde bereits als „bad actor“ identifiziert – sie umgehen Blocks, ignorieren robots.txt Anweisungen und publizieren unter fremden Namen.
„Google müsse sich bewegen, dann folgt der Rest“, erklärt Prince. Mit 16 Regulierungsbehörden im Nacken könnte Google gezwungen werden, für Inhalte zu zahlen. Ein Publisher sagte Prince: „Googles Umsatzanteil ist mittlerweile so klein, wir könnten sie blockieren.“
Irgendwie finde ich alle 3 Optionen nicht besonders berauschend. Wer soll den „neuen Content“ schreiben, wenn keiner mehr damit Geld verdienen kann – ob nun über Werbung, Affiliate und Co. Dass die KI Firmen selber Content produzieren ist irgendwie auch unwahrscheinlich – also brauchen wir den Content Marktplatz? Wie siehst du das?
Cloudflare’s CEO wants to save the web from AI’s oligarchs. Here’s why his plan isn’t crazy.
Anzeige
Cloud Exit mit „We Manage“ – 80 % Kosten gespart bei Everysize.com
Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.
„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.
Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.
Brauchst du Hilfe bei Cloud-Optimierung oder IT-Operations?
Lies die vollständige Case Study und erfahre, wie auch dein Unternehmen von We Manage profitieren kann – buch dir jetzt einen Termin zum Kennenlernen.
zur Case Study: Warum everysize die AWS Public Cloud hinter sich lässt
Airbnb betreibt verteilte Datenbank über drei Kubernetes-Cluster
Artem Danilov berichtet im Airbnb Engineering Blog über Airbnbs ungewöhnliche Strategie für Hochverfügbarkeit: Eine verteilte SQL-Datenbank läuft parallel über drei unabhängige Kubernetes-Cluster in verschiedenen AWS Availability Zones. Das größte Cluster bewältigt 3 Millionen QPS mit 150 Storage-Nodes und speichert über 300 TB Daten.
Das Problem mit Kubernetes und Datenbanken
Kubernetes ist für stateful Services wie Datenbanken problematisch – es versteht nicht, wie Daten über Nodes verteilt sind. Bei Node-Replacements droht Datenverlust durch Quorum-Probleme. Airbnbs Lösung: AWS EBS-Volumes, die bei Node-Austausch automatisch an neue VMs angehängt werden. Ein Custom K8s-Operator koordiniert die sichere Serialisierung aller Replacements.
Multi-Cluster für maximale Verfügbarkeit
Die Architektur über drei K8s-Cluster (je einer pro AZ) begrenzt den Blast-Radius:
- AWS rollt Updates AZ für AZ aus
- Fehlerhafte Deployments betreffen maximal ein Drittel der Infrastruktur
- Bei einem Config-Fehler, der alle VMs eines Typs löschte, blieben zwei Drittel operational
EBS: Segen und Fluch
AWS EBS bietet schnelle Volume-Reattachments und bessere Durabilität als lokale Disks – nur drei Replicas reichen für Hochverfügbarkeit. Der Haken: p99-Latency-Spikes bis zu 1 Sekunde. Die Lösung für Airbnb: Storage-Read-Timeouts mit transparenten Retries auf andere Nodes plus Stale-Reads für unkritische Queries.
Vermutlich könnte Airbnb auch mal bei Planetscale Metal vorbeischauen – das könnte diese Probleme ebenfalls beheben, vermutlich aber zu einem anderen Pricing, wie wenn man das selbst baut. Man erreiche mit der Strategie bei Airbnb jedenfalls 99,95% Verfügbarkeit bei massiver Skalierung und Verfügbarkeit. Die Overprovisioning stellt sicher: Selbst bei komplettem AZ-Ausfall läuft alles weiter.
Achieving High Availability with distributed database on Kubernetes at Airbnb
n8n wird zum KI-Einhorn mit 2,4 Milliarden Dollar Bewertung
Das Berliner Workflow-Automatisierungs-Startup n8n hat seine Bewertung seit März 2025 verachtfacht und ist nun 2,4 Milliarden US-Dollar wert. Laut Handelsblatt sammelt das Unternehmen einen niedrigen dreistelligen Millionenbetrag ein und reiht sich damit neben DeepL und Parloa als drittes deutsches KI-Einhorn ein.
n8n ist eine Open-Source-Plattform für Workflow-Automatisierung – vergleichbar mit Zapier, aber selbst hostbar. Mit über 230.000 aktiven Nutzern und Kunden wie Delivery Hero und Stepstone erwirtschaftet n8n jährlich wiederkehrende Einnahmen von 40 Millionen Dollar – eine Verfünffachung innerhalb eines Jahres. Trotzdem eine spannende Bewertung finde ich – aber gut, der Markt heizt sich hier gerade ordentlich ein.
In Newsletter #177 hatte ich schon über coole das n8n AI Starter Kit zum einfachen self-hosting berichtet berichtet: n8n bietet mit Docker-Compose eine vollständige lokale KI-Entwicklungsumgebung. Der umfangreiche Workflow Template Marktplatz umfasst nun über 3400 Templates.
Die Message hinter der Finanzierung ist klar: Kontrolle über eigene Daten wird zum Multi-Milliarden-Markt und man braucht nicht unbedingt Snowflake, Salesforce und Co. um seine Business-Prozesse mit eigenen Daten in einem KI System zu verarbeiten. Mit Sequoia, HV Capital und Highland Europe wetten Top-Investoren darauf, dass der Trend zur digitalen Souveränität anhält.
Bei all der depressiven Stimmung im Lande ist das ein echter Lichtblick, wie ich finde. n8n ist noch eine „normale“ deutsche GmbH und hat keinen Flip auf eine US Inc. oder so gemacht – das finde ich super!
Berliner KI-Firma N8n ist 2,4 Milliarden US-Dollar wert
AWS 2025: Was du über AWS zu wissen glaubst, ist veraltet
Corey Quinn räumt bei lastweekinaws.com mit veralteten AWS-Mythen auf. Nach fast 20 Jahren AWS haben sich viele Grundlagen geändert – alte Blog-Posts führen regelmäßig in die Irre – und bieten damit vielleicht auch eine falsche Grundlage für die ein oder andere Antwort in ChatGPT und Gemini. Die wichtigsten Updates, die selbst erfahrene AWS-Nutzer überraschen könnten:
EC2: Mehr Flexibilität als gedacht
Security Groups und IAM-Rollen lassen sich ohne Neustart ändern. EBS-Volumes können im laufenden Betrieb angepasst werden. Instances lassen sich live auf andere Hosts migrieren – Instance-Degradation-Meldungen sind selten geworden. Die Zuverlässigkeit stieg von „erwarte jederzeit Ausfall“ auf „praktisch nie“. Spot-Instances sind keine Bidding-Wars mehr, sondern relativ stabil bepreist.
S3: Die stillen Revolutionen
S3 ist read-after-write konsistent – keine Eventually Consistency mehr. Object-Keys müssen nicht mehr randomisiert werden gegen Hotspots. ACLs sind deprecated, Block Public Access ist Standard. Neue Buckets sind automatisch verschlüsselt. Glacier-Restores sind weder teuer noch langsam – alte Horrorgeschichten stimmen nicht mehr – nun gut, Public S3 gibt es dennoch hier und da, auch wenn man mittlerweile 42 rote Schranken manuell aktivieren muss, gibt es die Fälle noch – aber sie sind deutlich seltener geworden.
Networking & Lambda: Die großen Verbesserungen
IPv4-Adressen kosten jetzt Geld – wie Elastic IPs. CloudFront-Updates dauern 5 statt 45 Minuten. Lambda läuft bis zu 15 Minuten mit 10GB RAM und Docker-Images. VPC-Lambda-Invocations sind nicht mehr quälend langsam. Cold-Starts sind kaum noch ein Problem.
Anmerkung der Redaktion: Der Traffic kostet aber immernoch ordentlich Geld 🙂
Cost-Optimierung: Reserved Instances sterben aus
Savings Plans ersetzen RIs, bieten aber weniger Rabatt bei mehr Flexibilität. EC2 rechnet sekundengenau ab. Der Cost Anomaly Detector funktioniert tatsächlich gut – im Gegensatz zum „Trusted“ Advisor.
Und die kleine Überraschung zum Ende: us-east-1 brennt nicht mehr – AWS ist insgesamt stabiler geworden, auch die für AWS zentrale Region us-east-1. Oder AWS hat die Abhängigkeiten abgebaut und wir bekommen sie deshalb nicht mehr mit. Ausfälle sind die Ausnahme, nicht mehr die Regel. Wobei man hier auch sagen muss, dass AWS mit die wenigsten Public Postmortems schreibt, darüber hatte ich mal in Ausgabe 125 berichtet. Vielleicht ist einfach auch die schiere Größe schuld daran, dass wir Ausfälle nicht immer gleich mitbekommen.
AWS in 2025: The Stuff You Think You Know That’s Now Wrong
Alles lokal: Der Offline-AI-Arbeitsplatz wird Realität?
Ein Entwickler dokumentiert im instavm Blog seinen Weg zum komplett lokalen AI-Setup: Keine Cloud, keine Remote-Ausführung. Das Ergebnis ist ein System mit lokalem LLM, isolierter Code-Ausführung und Browser-Automatisierung – alles auf Apple Silicon.
Die Motivation: Privatsphäre first
Der Auslöser war ein Freund mit klarer Ansage: „Ich will alles lokal“. Kein Vertrauen in OpenAI, Google oder Anthropic – selbst wenn diese Sicherheit ernst nehmen. Die Erinnerung an ChatGPTs frühe Tage, als fremde Chats sichtbar wurden, sitze tief. Die Lösung: Foto- und Videobearbeitung komplett offline, von der Planung bis zur Ausführung.
Der Tech-Stack im Detail
- Ollama für lokale LLMs (mit Tool-Calling-Support)
- Assistant-UI als Frontend (NextJS-basiert)
- Apple Container für isolierte VM-Umgebung
- Coderunner als Orchestrierung (Jupyter-Server mit MCP-Protocol)
- Playwright für Headless-Browser-Automatisierung
Die gescheiterten Mac-App-Versuche
Der Plan war eine native Mac-App. a0.dev stellte sich als iOS-fokussiert heraus. Der Electron-Wrapper für NextJS? Nach endlosen Stunden aufgegeben. Die Web-Version von Assistant-UI reichte völlig aus – simpel und konfigurierbar.
Das Setup erledigte erfolgreich Videobearbeitung via ffmpeg („schneide zwischen 0:10 und 1:00“), generierte Charts aus CSV-Daten und installierte Tools von GitHub – alles in der isolierten Umgebung. Der Volume-Mount von ~/.coderunner/assets
zu /app/uploads
hält Dateien sicher, während Code niemals den Host berührt.
Die Limitierungen
Ollamas Tool-Support hinkt hinterher – deepseek-r1:8b wird als tool-fähig gelistet, funktioniert aber nicht. Apple Container ist noch instabil mit mysteriösen „Trap errors“. Aktuell läuft alles nur auf Apple Silicon.
Spannend, wie weit das Thema schon ist – die modernen Laptop Chips, vor allem in den Macs, werden immer potenter und sind eher in der Lage, auch komplexere KI-Inferenz-Tasks auszuführen.
I Want Everything Local — Building My Offline AI Workspace
Atlassian kauft Browser-Startup Arc für 610 Millionen Dollar
Trendingtopics berichtet, dass Atlassian (bekannt für Jira und Confluence) „The Browser Company“ für 610 Millionen Dollar in bar übernimmt. Das 2019 gegründete Startup entwickelte die Browser Arc und Dia als KI-gestützte Alternativen zu Chrome und Safari.
Arc startete 2022 mit innovativen Features wie integrierten Whiteboards und teilbaren Tab-Gruppen. Doch CEO Josh Miller gibt zu: „Unsere Metriken ähnelten eher einem hochspezialisierten Profi-Tool“ – nur ein kleiner Prozentsatz nutzte die speziellen Funktionen wirklich. Die schlanke Variante Dia mit KI-Assistenten für Multi-Tab-Interaktion kam im Juni als Beta.
Atlassians Vision: Der Arbeitsbrowser
Mike Cannon-Brookes, Atlassian-CEO, sieht eine Marktlücke: „Browser sind zum Browsen gebaut, nicht fürs Arbeiten„. Mit 85% aller Unternehmens-Workflows in Browsern, aber nur 10% der Firmen mit sicheren Browser-Lösungen, wittert Atlassian seine Chance. Der Plan: Arc’s Power-User-Features mit Dias KI-Eleganz und Atlassians Enterprise-Know-how verschmelzen.
The Browser Company war heiß begehrt: Perplexity (das Google kürzlich 34,5 Milliarden für Chrome bot) und OpenAI führten ebenfalls Gespräche. Die Bewertung lag 2024 bei 550 Millionen Dollar – da hatte man im März 2024 noch 50 Millionen Dollar Funding eingesammelt – 1,5 Jahre später zahlt Atlassian nun 610 Millionen für die komplette Firma.
The Browser Company: Atlassian übernimmt Startup für AI-Browser um 610 Millionen Dollar
Gmail verlassen: Ein Entwickler zieht nach 18 Jahren den Stecker
Giulio Magnifico dokumentiert seinen Wechsel von Gmail zu Mailbox.org. Der Auslöser: Googles Gemini-KI scannt standardmäßig alle E-Mails. Nach 18 Jahren zog er die Reißleine.
Der Umzug von 65.000 E-Mails (8GB) verlief überraschend glatt:
- IMAP-Import direkt in Mailbox.org eingerichtet
- Automatischer Abruf aller Gmail-Ordner und Labels
- Dauer: 3-4 Stunden für den kompletten Import
- Weiterleitungsregel in Gmail für Übergangsphase aktiviert
- Alte Newsletter und Dienste schrittweise umgestellt
Für 3 Euro/Monat gibt’s bei Mailbox 10GB Speicher (erweiterbar: 0,25€/GB). Server in Deutschland, PGP-Verschlüsselung integriert, anonyme Registrierung möglich. Die Weboberfläche wirkt altbacken, funktioniert aber tadellos.
User Mikael E. meldet in den Kommentaren ein kleines Problem: Kalender-Benachrichtigungen kommen sporadisch nicht an – selbst der Support empfahl Google Calendar. Ein weiterer Haken: „90% deiner Kontakte nutzen Gmail“ – Google speichere die Kommunikation trotzdem, nur eben dann halt auf Seiten des Empfängers. Ich glaube die 90 % stimmen für Deutschland auf keinen Fall, selbst weltweit kann ich mir das nicht vorstellen.
Mehrere Kommentatoren raten zur eigenen Domain – bei Provider-Wechsel bleiben die E-Mail-Adressen erhalten. Alternativ: Posteo (ohne Custom Domain) oder Forward Email (mit Zustellungsproblemen) – oder halt das gute, alte self-hosting, da gibt es mittlerweile ja auch einige coole Lösungen für.
Away from Gmail Leaving Gmail for Mailbox.org
WiFi-Rekord in der Allianz Arena: 8 TB beim CL-Finale
Die Allianz Arena in München meldete neue Höchstwerte bei der WiFi-Nutzung. Beim Champions-League-Finale zwischen Inter Mailand und Paris Saint-Germain übertrugen 12.000 aktive Geräte satte 8 TB Daten – ein neuer Stadion-Rekord.
Die Zahlen im Vergleich
Das von Cisco installierte WiFi-6-Netz bewältigte verschiedene Großevents:
- CL-Finale (31.05.): 65.000 Zuschauer, 8 TB, 12.000 Geräte
- Nations-League-Halbfinale (04.06.): 66.000 Zuschauer, 2,5 TB, 8.500 Geräte
- Nations-League-Finale (08.06.): 66.000 Zuschauer, 4 TB, 9.000 Geräte
- Guns N‘ Roses Konzert (20.06.): 55.000 Besucher, 1,5 TB, 4.500 Geräte
Was bedeuten 8 TB?
Cisco rechnet vor: Das entspricht 2,6 Millionen Smartphone-Fotos (je 3 MB) oder 4.000 Stunden HD-Video. FC-Bayern-CIO Michael Fichtner vermutet: Internationale Gäste nutzen WiFi verstärkt, um Roaming-Gebühren zu vermeiden – vielleicht ist aber auch einfach das deutsche Handynetz zu schlecht oder eben zu sehr konzentriert überlastet. Im Stadion hab ich eigentlich nie Empfang.
Das WLAN ist auch Backbone für kritische Infrastruktur vor Ort: Kassensysteme, Einlasssysteme und mobile Verkaufseinheiten laufen darüber. Beim Nations-League-Halbfinale wurden 78.004 Kassenbelege über WiFi abgewickelt.
Fichtner erwartet für die neue Bundesliga-Saison weiteren Anstieg: „Ohne modernstes WLAN geht nichts mehr“ – egal ob Fußball oder die kommenden Konzerte von Helene Fischer und Linkin Park 2026.
WiFi Hotspot Allianz Arena: 8 TB während Champions League
„Die Kochen auch nur mit Wasser“
Am 14. März (Pi-Day) 2023 fiel Reddit für 314 Minuten aus, was ein Zufall, dass dies eben auch die ersten Zahlen von Pi selbst sind. Den Stein ins Rollen brachte ein scheinbar harmloses Kubernetes-Upgrade von 1.23 auf 1.24. Die Ursache: Kubernetes hatte das Label „master“ in „control-plane“ umbenannt und in Version 1.24 alle alten Referenzen entfernt.
Reddits Calico Route Reflectors waren seit Jahren auf das „master“-Label konfiguriert – niemand im aktuellen Team wusste davon. Als das Label verschwand, brach das gesamte Netzwerk zusammen. DNS funktionierte nicht mehr, Pods starteten minutenlang, die Monitoring-Metriken verschwanden komplett.
Nach zwei Stunden erfolgloser Fehlersuche entschied sich das Team für den gefürchteten Rollback via Backup-Restore – ein Prozess, der seit Jahren nicht aktualisiert worden war. Weitere Komplikationen: falsche Control-Plane-Node für Restore gewählt, AWS-Kapazität erschöpft, TLS-Zertifikate passten nicht.
Man sieht, die kochen auch nur mit Wasser, wenn gleich auch in einer großen Küche. Verrückt, was für eine Kaskade so ein scheinbar einfaches Update auslösen kann.
Schmunzelecke
Bei e-mail.wtf kannst du dein E-Mail Wissen testen und im Quizz raten, ob die genannten E-Mail Adressen RFC konform sind oder nicht – gar nicht mal so leicht – wieviel hast du gewusst?
💡 Link Tipps aus der Open Source Welt
HolmesGPT – KI-Agent für Cloud-Troubleshooting
HolmesGPT ist ein Open-Source AI-Agent, der Probleme in Cloud-Umgebungen untersucht, Root-Causes identifiziert und Lösungen vorschlägt. Als CNCF Sandbox-Projekt (eingereicht) nutzt es einen agentischen Loop zur Analyse von Daten aus verschiedenen Quellen.
Features:
- 20+ Built-in Integrationen (AWS, K8s, Prometheus, etc.)
- Automatische Alert-Korrelation und Investigation
- Agentic Loop für Multi-Source-Analyse
- Integration mit On-Call-Systemen (PagerDuty, OpsGenie)
- Slack-Bot für direkte Interaktion
- Zugriff auf Runbooks (Confluence, Slab)
- GitHub PR-Erstellung für Fixes
- PromQL-Query-Generierung
- Trace-Analyse mit Tempo
- Custom Toolset-Erweiterung möglich
Ein kleines Demo Video gibt es hier – da kannst du mal schauen, wie das Ganze funktioniert.
Der intelligente SRE-Assistent, der nachts für dich auf Fehlersuche geht und endlich den On-call überflüssig macht?
Vermutlich noch nicht ganz, aber ist doch echt ne coole Sache, wer hat schon Spaß daran, nachts aufzustehen?
So lange am Ende nicht „I accidentally deleted your production database“ rauskommt, oder?
https://github.com/omnara-ai/omnara
Zedless – Privacy-fokussierter Zed-Fork
Zedless ist ein Work-in-Progress Fork des Zed-Editors, der Privatsphäre und lokale Kontrolle priorisiert.
Features:
- Keine proprietären Cloud-Services
- Telemetrie und Crash-Reports entfernt
- Bring-your-own-Infrastructure für alle Netzwerk-Features
- Selbst konfigurierbare API-Endpoints
- Keine Default-Provider voreingestellt
- Netzwerk-Features standardmäßig deaktiviert
- Keine CLA – Contributors behalten Copyright
Der Anti-Cloud Editor für Datenschutz-Bewusste! Perfekt für alle, die volle Kontrolle über ihre Entwicklungsumgebung behalten wollen – das Projekt steht aber noch ziemlich am Anfang und es gibt eigentlich keine Releases.
https://github.com/zedless-editor/zedless
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: