Willkommen zu allesnurgecloud.com – Ausgabe #203
und damit einen schönen guten Morgen!
Auch in dieser Woche ist wieder viel passiert in der Cloud und Open Source Welt. Allen voran das NPM Thema, das mich zuerst über LinkedIn (danke auch an Katrin) und dann auf diversen anderen Wegen erreicht hat. Früher hätte man es vermutlich direkt auf Twitter gesehen, aber das ist in meiner Usage so de-priorisiert – die News finden einen schon.
Natürlich muss ich auch in dieser Woche nochmal auf meinen Gastauftritt im Programmier.bar Podcast Podcast zum Thema „Cloud Exit“ hinweisen 🙂
Happy Bootstrapping Podcast
Im eigenen Podcast ist in dieser Woche schon Weihnachten – bei Adventsome kannst du einen nachhaltigen Startup-Adventskalender bestellen – 20 Türchen mit Startup Produkten – 4 Spenden. Lea und Josias bootstrappen Adventsome seit 2018 zu zweit und im ersten Jahr haben die beiden die Geschenke für die 500 Kalender noch von Hand verpackt. Seit dem ist viel passiert – die ganze Story in Folge 138 von Happy Bootstrapping.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
18 NPM Pakete nach Phishing Attacke kompromittiert
Am 8. September wurden 18 extrem populäre NPM-Pakete mit Malware infiziert, darunter debug (357 Mio. Downloads/Woche), chalk (300 Mio.) und ansi-styles (371 Mio.). Zusammen erreichen diese Pakete über 2 Milliarden wöchentliche Downloads.
Maintainer Josh Junon (@bad-at-computer) wurde Opfer einer perfiden Phishing-Mail von support @npmjs.help – eine Domain, die erst drei Tage zuvor registriert wurde. Die Mail forderte eine 2FA-Authentifizierung und sah täuschend echt aus.
„Yep, I’ve been pwned. 2FA reset email, looked very legitimate. Sorry everyone, I should have paid more attention. Not like me; have had a stressful week.“ — Josh Junon auf Bluesky
Die Malware im Detail
Der injizierte Code ist hochkomplex: Er manipuliert Krypto-Transaktionen direkt im Browser, indem er:
- fetch() und XMLHttpRequest überschreibt
- Wallet-Interaktionen (Ethereum, Solana, Bitcoin) abfängt
- Zahlungsziele durch Angreifer-Adressen ersetzt
- „Lookalike“-Adressen verwendet, um Manipulation zu verschleiern
Besonders perfide: Die UI zeigt weiterhin die korrekten Adressen, während im Hintergrund bereits die manipulierten Transaktionen signiert werden.
Timeline des Chaos
- 13:16 UTC: Aikido Intel erkennt erste kompromittierte Pakete
- 15:15 UTC: Junon bestätigt Kompromittierung, beginnt Cleanup
- 16:58 UTC: Weitere Pakete betroffen (proto-tinker-wc)
- 20:00 UTC: NPM zieht erste Pakete zurück
„NPM doesn’t show audit logs so unfortunately it’s on them to release any information I haven’t already given myself.“ — Josh Junon über fehlende Transparenz
Betroffenen Versionen
Kritische Updates: debug@4.4.2, chalk@5.6.1, ansi-styles@6.2.2 und 15 weitere. Junon konnte die meisten Pakete löschen, bevor er den Account-Zugriff verlor – nur simple-swizzle blieb kompromittiert.
Schutzmaßnahmen
- NPM-Cache leeren (
npm cache clean --force
) - Alle Dependencies neu installieren
- Auf Aikido SafeChain umsteigen – prüft Pakete vor Installation auf Malware
- Package-Lock-Files verwenden mit gepinnten Versionen
Die größere Bedeutung
Dieser Angriff zeigt die Verwundbarkeit des NPM-Ökosystems. Ein einziger Phishing-Erfolg kann Millionen von Projekten kompromittieren. NPMs fehlende Audit-Logs und langsame Reaktion verschärften das Problem.
„Time for bed. Thank you to everyone for the kind words of support, it really did help “ — Josh Junon nach 8 Stunden Krisenbewältigung
Die Attacke war vermutlich nicht gezielt – die Angreifer filterten nach Download-Zahlen. Weitere Maintainer könnten betroffen sein.
Josh wollte noch ein Postmortem schreiben, war die Woche aber schwer beschäftigt, verständlich – bis Freitag Abend hab ich jedenfalls noch kein PM gesehen – falls du auf BlueSky bist, folge ihm einfach da.
npm debug and chalk packages compromised
SAP pumpt Milliarden in souveräne Cloud-Lösungen
SAP hat seine Cloud-Investitionen dramatisch erhöht: Statt der in Ausgabe #158 berichteten 2 Milliarden Euro fließen nun 20 Milliarden Euro in souveräne Cloud-Lösungen. Die neue Ankündigung vom 2. September 2025 zeigt eine Verzehnfachung der ursprünglichen Pläne vom September 2024.
Wie ich damals schrieb: „Frei nach ‚Eine Cloud ist nicht genug'“ – mittlerweile sind es drei:
- SAP Cloud Infrastructure: Die IaaS-Plattform auf Open-Source-Basis (vermutlich mit dem hauseigenen Gardener-Projekt). Die VS-NfD-Zertifizierung sollte Ende 2024 kommen – Status unklar.
- SAP Sovereign Cloud On-Site: Betrieb direkt im Kundendatenzentrum. Die DSAG hatte das gefordert, jetzt gibt’s das Feature.
- Delos Cloud: Die SAP-Microsoft-Kooperation mit Arvato als Betreiber. In Newsletter #177 berichtete ich über 15% Aufschlag auf Microsoft-Listenpreise. Die Frage „Ob das so funktioniert, mit mehreren Beteiligten?“ aus #158 bleibt aktuell.
Die Investitions-Explosion
September 2024: „2 Milliarden Investment ist für die SAP ja nicht so viel“ September 2025: 20 Milliarden Euro – das ist selbst für SAP ordentlich Geld. Thomas Saueressig spricht jetzt von „digitaler Widerstandsfähigkeit Europas“. Martin Merz wurde zum President SAP Sovereign Cloud ernannt – bei solchen Summen braucht’s wohl eigene Führungsstrukturen.
DSAG-Bedenken bleiben bestehen
Die Anwendervereinigung mahnt weiter Transparenz bei hybriden Lizenzmodellen an. Bei 20 Milliarden Investment wird die Refinanzierung spannend – dreifache Cloud, dreifache Lizenzen?
Souverän verzettelt?
Erst zwei Clouds, dann drei. Erst 2 Milliarden, dann 20. Eine Cloud mit Microsoft (aber ohne deren Zugriff), eine ohne Hyperscaler, eine beim Kunden. Verschiedene Zertifizierungsstufen, unklare Verfügbarkeiten. SAP scheint die Definition von „digitaler Souveränität“ parallel zum Investment zu entwickeln. Bei 20 Milliarden Euro Einsatz hofft man wohl, dass für jeden Souveränitätsgeschmack etwas dabei ist – und dass sich irgendwann klärt, was das Ganze eigentlich bedeuten soll.
Bin ich der einzige, der etwas verwirrt ist?
Eine EU-Cloud als Basis für Künstliche Intelligenz
Anzeige
Cloud Exit mit „We Manage“ – 80 % Kosten gespart bei Everysize.com
Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.
„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.
Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.
Brauchst du Hilfe bei Cloud-Optimierung oder IT-Operations?
Lies die vollständige Case Study und erfahre, wie auch dein Unternehmen von We Manage profitieren kann – buch dir jetzt einen Termin zum Kennenlernen.
zur Case Study: Warum everysize die AWS Public Cloud hinter sich lässt
Remote Work Extrem: 77 Meetings zwischen 1 und 6 Uhr
Brendan Gregg, bekannt für seine Performance-Analysen und Flame Graphs, dokumentiert seine Erfahrungen als Remote-Worker von Australien aus für Intel USA. In drei Jahren nahm er an 77 Meetings zwischen 1:00 und 6:00 Uhr morgens teil – etwa alle zwei Wochen eines, gefolgt vom regulären 7-Uhr-Start.
Die harte Realität der Zeitverschiebung
Greggs Statistik zeigt 102 Stunden nächtliche Meeting-Zeit. Das Problem: Nach einem 2-Uhr-Meeting klingelt der Wecker wieder um 6:30 Uhr. „It’s not easy working this timezone difference“, schreibt er – und vermutet, dass andere es noch schwerer haben.
Sein Setup: Samson Meteor Mikrofon auf Schwenkarm, Logitech BRIO Kamera auf separatem Boom (damit sie beim Tippen nicht wackelt), dediziertes Home Office mit verschließbarer Tür.
Greggs Tipps für extreme Remote-Arbeit:
- Niemals über die Stunden beschweren – könnte gegen Remote Work verwendet werden
- Out-of-hours Meetings zählen – „Es wird mein 77. Meeting sein“ ist einfacher als lange Diskussionen
- Tägliche Logs führen – für Motivation und wöchentliche Manager-Updates
- Kalender mit Arbeitszeiten markieren – Daylight Savings macht es kompliziert (3-5 Stunden Überlappung je nach Jahreszeit)
Die versteckten Kosten
Gesundheit: Nächtliche Meetings können tagelange Magenprobleme verursachen. Gregg weiß nicht warum, vermutet den Extra-Kaffee.
Karriere: „Out of sight, out of mind“ ist real. Lokale Mitarbeiter bekommen Opportunities, obwohl der Remote-Worker qualifizierter ist. Der Remote-Worker darf dann in wöchentlichen Meetings den lokalen Kollegen trainieren – mit Power-Imbalance und zu wenig Zeit.
Missverständnisse: Kollegen nehmen an, er schläft, wenn er ein 2-Uhr-Meeting ablehnt. Tatsächlich hat er einen Konflikt mit einem anderen 2-Uhr-Meeting – haha!
Die positive Seite
- Weniger Krankheitstage: 0,33 pro Jahr remote vs. 1,5 im Büro
- Linux-Development als Erfolgsmodell für globale Remote-Arbeit
- Seine Bücher entstanden komplett remote mit Reviewern, die er nie traf
Die Realität vs. Wahrnehmung
Als Gregg seine „77 Meetings“-Statistik in einem US-Meeting erwähnte, sah er Schock in den Gesichtern. Nahmen sie an, er arbeite gemütlich 9-to-5?
„When some people hear I’m working from Australia, they may think of beaches and surfboards and sunny vacations, but my reality is a full time job across weird hours, lots of coffee, and being overlooked for opportunities.“
Gregg betont: Er beschwert sich nicht. Er ist dankbar für die Option. Aber Entscheider sollten verstehen, wie accommodating Remote-Worker wirklich sind, bevor sie Remote-Work-Policies ändern.
Update: Nach Kritik an den ungesunden Arbeitszeiten ergänzt Gregg, dass er selbst weniger Early-Meetings anstrebt. Der Post soll nur zeigen, dass Remote-Worker oft mehr leisten als angenommen wird.
3 Years of Extremely Remote Work
Atlassian zwingt alle in die Cloud – „Ascend“ oder Abstieg?
Atlassian macht ernst: Nach dem Server-Aus kommt jetzt das Ende für alle Datacenter-Produkte. Tim Anderson berichtet bei The Register, dass Jira, Confluence und Co. bis März 2029 komplett auf Cloud umgestellt werden müssen. Der Name der Initiative: „Atlassian Ascend“ – ob’s wirklich bergauf geht, ist fraglich.
Der Zeitplan des Zwangsumzugs
- 30. März 2026: Keine neuen Datacenter-Lizenzen für Neukunden
- 30. März 2028: Bestandskunden können letztmalig erweitern
- 28. März 2029: End of Life – alle Lizenzen werden read-only
Einzige Ausnahme: Bitbucket bekommt eine Hybrid-Lizenz, weil „source code particularly sensitive“ ist. Für „unique circumstances“ gibt’s Extended Maintenance – welche das sind, bleibt geheim.
Atlassian verspricht 36% Ersparnis, doch Consultant Rodney Nissen rechnet vor: 28% Mehrkosten im Schnitt, oft noch mehr durch Zusatz-Features wie Atlassian Guard. Nur Kunden mit unter 10.000 Usern könnten sparen.
Kundenreaktionen: Von frustriert bis verzweifelt
Im Community Forum hagelt’s Kritik. Ein Nutzer: „Deep integrations to legacy systems – we tested cloud, it doesn’t work. Bye bye Atlassian.“ Besonders bitter: Noch im März versicherte ein Atlassian-Mitarbeiter, es gebe keine Pläne für ein Datacenter-Ende.
Die OpsGenie-Parallele
Wie ich in Newsletter #145 berichtete, hatte Atlassian bereits OpsGenie Server EOL verkündet – mit ähnlich kurzen Fristen. Das Muster wiederholt sich: Erst Server weg, dann Datacenter, immer Richtung Cloud.
Der Name hinter der Aktion, „Atlassian Ascend“, ist Programm – oder Ironie. „Ascend“ bedeutet aufsteigen, doch für viele Kunden fühlt es sich eher nach Absturz an. 99% der Kunden seien bereits in der Cloud, behauptet Atlassian. Die verbliebenen 1% haben meist gute Gründe: Compliance, Legacy-Integrationen, Datenschutz.
Außerdem kann ich mir gut vorstellen, dass diese 1 % der Kunden einen deutlichen größeren Anteil am Userstamm haben, da es zumeist Enterprise Lizenzen sind.
Atlassian folgt dem Branchentrend: Cloud-only, ob’s den Kunden passt oder nicht. Zeit, die Exit-Strategien zu prüfen. Falls du dich nach Open Source Alternativen umschauen magst – zumindest für Jira scheint Plane ein heißer Kandidat zu sein – Über Plane hatte ich vor fast 2 Jahren mal in Ausgabe 129 berichtet – wie schnell doch die Zeit vergeht.
Atlassian’s move to cloud-only means customers face integration issues and more
Expert Generalists: Die unterschätzte Spezies der Tech-Branche
Martin Fowler, Unmesh Joshi und Gitanjali Venkatraman plädieren in einem ausführlichen Essay für eine neue Sichtweise auf Karrierewege in der IT. Statt immer tieferer Spezialisierung brauche die Branche Expert Generalists – Menschen, die breites Wissen mit mehreren Spezialisierungen verbinden und vor allem eines können: schnell lernen.
Die Kernmerkmale eines Expert Generalist
Die Autoren identifizieren sechs zentrale Eigenschaften:
- Neugier: Verstehen wollen statt Copy-Paste von Stack Overflow (oder Claude und ChatGPT)
- Kollaboration: Wissen, dass man nie alles wissen kann
- Kundenfokus: Technologie als Mittel zum Zweck
- Fundamentales Wissen: Patterns statt Tools
- T-Shape mit mehreren Beinen: Breites Wissen plus mehrere Vertiefungen
- Mechanical Sympathy: Intuition für angrenzende Domänen
Warum „T-shaped“ nicht reicht
Die Metapher vom T-shaped Professional greife zu kurz – Expert Generalists haben meist mehrere tiefe Spezialisierungen, nicht nur eine. Ein Python-Entwickler, der in ein Java-Team kommt, stellt anfangs viele „How do you do this here?“-Fragen, wird aber schnell produktiv, weil die fundamentalen Patterns dieselben sind.
Konkrete Trainingsansätze
Besonders spannend: Die Autoren beschreiben konkrete Workshops, in denen Miniatur-Versionen bekannter Systeme gebaut werden:
- Build Your Own Kafka in wenigen hundert Zeilen Java
- Kubernetes from the Inside Out mit Docker und etcd
- ACID on Object Storage als Mini-Delta-Lake
Diese Miniatur-Implementierungen vermitteln die fundamentalen Patterns hinter den Tools – Append-Only-Logs, Reconciliation-Loops, Optimistic Concurrency.
Die 3 Autoren sehen LLMs als Verstärker für Expert Generalists. Wer die Fundamentals versteht, kann LLMs gezielter befragen, Antworten kritisch bewerten und sie gegen etablierte Patterns prüfen. Statt „the answer“ zu suchen, nutzen Expert Generalists LLMs für Fragen, Erklärungen und Exploration.
Teams brauchen mindestens einen Spezialisten pro Kerntechnologie, aber nicht mehr. Expert Generalists können:
- Blockaden zwischen Teams auflösen
- Die richtigen Tools für den Job wählen
- Systemweite Probleme erkennen
- Natürlich in Führungsrollen wachsen
Die Herausforderungen
- Schwer zu bewerten: Zertifikate und Jahre Erfahrung sagen wenig aus
- Initial langsamer: Teams ohne Spezialisten brauchen Zeit zum Lernen
- Hiring ist komplex: Traditionelle Interviews filtern Expert Generalists oft aus
Die Autoren fordern, Expert Generalist als „first-class skill“ anzuerkennen – mit eigenen Trainings, Bewertungskriterien und Karrierepfaden. In einer Branche, die zu immer engerer Spezialisierung tendiert, ist das ein wichtiger Gegenentwurf. Gerade in Zeiten von Microservices, Cloud und KI braucht es Menschen, die über Silo-Grenzen hinweg denken und arbeiten können.
Der Artikel spricht mir aus der Seele und viele meiner eigenen Erfahrungen spiegeln sich darin wieder. Ich hatte vor 2 Jahren auch mal einen Artikel zu „Glue Work“ im Newsletter, der in eine ähnliche Richtung ging. Man braucht Leute, die sich auf breiter Front mit Themen auskennen, gerade um die in größeren Firmen entstandenen Silos zu überwinden.
Vermutlich finden aber nur Leute das Thema gut, die sich selbst als „Expert Generalist“ sehen, oder wie ist deine Erfahrung?
Oracle-OpenAI-Deal: 300 Milliarden Dollar und Larry vor Elon
OpenAI und Oracle verkünden einen Mega-Deal: 300 Milliarden Dollar über fünf Jahre für Cloud-Rechenkapazitäten. Heise berichtet, dass der Vertrag Teil des Project Stargate ist. Die Oracle-Aktie explodierte mit 36% Plus – der größte Tagesgewinn seit 30 Jahren.
Larry Ellison überholt Elon Musk
Der Kurssprung katapultierte Oracle-Gründer Larry Ellison an die Spitze der Reichsten-Liste, noch vor Elon Musk. Der Deal ist ab 2027 gültig und bringt Oracle 60 Milliarden Dollar jährlich – bei einem OpenAI-Umsatz von nur 12,7 Milliarden Dollar bleiben Finanzierungsfragen offen.
Oracle steigt zu den Hyperscalern auf
Oracle Cloud Infrastructure (OCI) wird zur ernsthaften Alternative zu AWS, Azure und Google Cloud. CEO Safra Catz verkündete beeindruckende Zahlen:
- 77% Umsatzsteigerung auf 317 Milliarden Dollar aus Zukunftsverträgen
- 500 Milliarden Dollar an langfristigen Vertragsabschlüssen insgesamt
- 16-faches Umsatzwachstum aus Partnerschaften mit Amazon, Google und Microsoft
Die strategischen Allianzen ermöglichen Kunden, Oracle-Dienste parallel zu anderen Hyperscalern zu nutzen. Oracle positioniert sich geschickt als neutraler Cloud-Anbieter, der mit allen großen Playern kooperiert statt konkurriert.
Nvidia-Partnerschaft& Project Stargate
Als offizieller Nvidia-Reseller profitiert Oracle doppelt vom KI-Boom: Höhere Margen im Hardware-Geschäft plus Stärkung der eigenen Cloud-Position. Die Kombination aus leistungsstarken Nvidia-Chips und Oracle Cloud Infrastructure macht OCI zur ersten Wahl für KI-Workloads.
Das gemeinsame Rechenzentrum soll 4,5 Gigawatt leisten – Strom für vier Millionen Haushalte. Beteiligt sind neben Oracle und OpenAI auch Softbank, Nvidia und der Emirate-Fonds MGX. Gesamtinvestition: 500 Milliarden Dollar.
Wenn alles klappt, kann Larry sich noch eine große Yacht kaufen oder in den Space-Battle mit Elon und Bezos einsteigen, das nötige Kleingeld hat er nun, zumindest auf dem Papier.
Mehr Details zu den Oracle Earnings und eine Experten Bewertungen kannst du dir in der aktuellen Doppelgänger Podcast Folge #492 anhören – ab Minute 24:30.
Oracle Aktie explodiert nach OpenAI-Megadeal: Größter Kurssprung seit 30 Jahren
BigQuery-Schock: 7.000 Dollar für 50GB Daten
Ein Solo-Founder testet BigQuery mit einer 50GB Datenbank und kassiert eine 6.907 Dollar Rechnung nach zwei Tagen. Der Fall zeigt mal wieder schön, wie BigQuery-Pricing zur Kostenfalle werden kann.
Der Entwickler wollte von AWS Redshift (400$/Monat) zu BigQuery wechseln. Die Performance begeisterte: 5 Minuten statt 4 Stunden. Dann der Schock: 1.562 Tebibyte verarbeitete Daten, was etwa 5,5 Petabyte entspricht – ein Faktor von 100.000x seiner 50GB Datenbank.
„How did a 50GB DBT project generate 433.72 tebibytes in two days?!“
Community-Diagnose
Die Reddit-Community identifizierte schnell die Probleme:
- Keine Partitionierung oder Clustering
- DBT mit SELECT * auf ungefilterten Joins
- Wiederholte Full-Table-Scans
User KunalKishorInCloud kommentiert hart:
„No product is bad, it’s the USERS or the WAY OF USING“
Was prompt Kontra bekommt:
„Serious Apple fanboy ‚you are holding it wrong‘ energy“ – littlemetal
Der fundamentale Unterschied der beiden Services wurde dabei irgendwie vergessen:
Redshift: Feste Kosten, unbegrenzte Queries BigQuery: Jeder gescannte Byte kostet
DBT-Projekte scannen bei jedem Test-Run alle Tabellen – ohne Optimierung explodieren die Kosten – früher war ein Select * halt einfach nur langsam, nun ist er zwar schneller, aber dafür arschteuer. Naja, ich bin mit der OpenSource Variante mit ClickHouse, Airbyte und Metabase dann doch ganz zufrieden.
$6,907 BigQuery Bill After 2 Days of Testing a 50GB DBT Project – How?!
DigitalOcean macht SSO kostenlos verfügbar
DigitalOcean bietet ab sofort Enterprise-Grade Single Sign-On für alle Kunden ohne Zusatzkosten an. Während AWS, Google Cloud und Azure SSO weiterhin hinter teuren Enterprise-Tiers verstecken, geht DigitalOcean einen anderen Weg.
Die Kostenlos-Features:
- Universal Identity Provider Integration (Start mit Okta)
- Automated User Provisioning via SCIM
- Role-Based Access Control
- Real-Time Deprovisioning
- MFA und IP-Restrictions
Die technische Basis bildet OpenID Connect (OIDC) – ein bewährter Industriestandard. Chief Product Officer Bratin Saha erklärt: „Unlike other cloud providers that gate SSO behind premium tiers, DigitalOcean includes these capabilities for every customer.“
SSO-Preise in der Branche
Die Website sso.tax dokumentiert die aktuelle Preisgestaltung:
- GitHub: 425% Aufschlag
- Docker: 167% teurer
- Notion: 88% Mehrkosten
- Slack: 72% Aufpreis
Für Unternehmen ab fünf Mitarbeitern ist zentrale Authentifizierung essentiell – beim Offboarding müssen IT-Teams Zugänge sofort deaktivieren können, statt sich in dutzende Portale einzuloggen.
Der Markttrend
SSO entwickelt sich vom Enterprise-Feature zur Basis-Anforderung. Entwickler-Tools integrieren es zunehmend standardmäßig, Compliance-Vorgaben fordern zentrale Identity-Management-Lösungen.
Die technischen Herausforderungen (SAML/OIDC-Support, Session-Management, Compliance) sind real, rechtfertigen aber kaum dreistellige Prozent-Aufschläge. DigitalOcean beweist: SSO als Standard ist wirtschaftlich machbar.
DigitalOcean Just Changed the Enterprise SSO Game Forever – And Every B2B Company Should Take Notice
„Die Kochen auch nur mit Wasser“
Am 21. August 2025 verursachte ein einzelner Cloudflare-Kunde durch massiven Cache-Traffic eine vollständige Überlastung aller Peering-Verbindungen zwischen Cloudflare und AWS us-east-1, was zu stundenlangen Ausfällen und Latenzproblemen führte. Die Situation verschlimmerte sich, als AWS zur Entlastung BGP-Prefixes zurückzog und der Traffic auf bereits überlastete alternative Routen umgeleitet wurde – erst nach 4 Stunden konnte durch Rate-Limiting des verursachenden Kunden und koordinierte Maßnahmen mit AWS die Situation bereinigt werden – „die kochen halt auch nur mit Wasser!“
Cloudflare plant nun per-Customer Traffic Budgets und beschleunigte Netzwerk-Upgrades, um zu verhindern, dass ein einzelner Kunde das gesamte Netzwerk lahmlegen kann.
Schmunzelecke
Ach und am Donnerstag war ja Warntag und du bist bestimmt auch vom Handy erschreckt worden – das Ganze geht auch noch auf einem Nokia 6210 – Danke an Andre fürs einsenden.
Was mit dem Bug „Claude says you’re absolutely right about everything“ began, ist nun ein eigenes Open-Source Projekt mitsamt Website zum Tracking der Anzahl der Claude typischen Antworten bei einer Fehlerkorrektur. Es gibt übrigens bei HackerNews 533 Kommentare zum erwähnten Bug – verrückt.
💡 Link Tipps aus der Open Source Welt
Kluctl – „The missing glue“ für große K8s-Deployments
Kluctl löst ein echtes Problem im Kubernetes-Ökosystem: Wie manage ich große Deployments, die aus vielen kleineren Teilen (Helm Charts, Kustomize, etc.) bestehen? Die Antwort: Ein einheitliches CLI-Tool, das dies alles zusammenhält.
Features:
- Vereint Helm, Kustomize und andere Tools unter einem Dach
- Target-basiertes Deployment (dev, test, prod)
- Einheitliche CLI-Operationen: deploy, diff, prune, delete
- Controller-unabhängig – läuft lokal, in CI/CD oder beliebigen Systemen
- GitOps-Support via Kluctl Controller
- WebUI für Visualisierung und Kontrolle
- Deklarative Projekt-Struktur
- Wiederverwendung von Third-Party-Deployments
Endlich Ordnung im Kubernetes-Chaos!?
Kluctl versucht aus dem Flickenteppich verschiedener Deployment-Tools eine einheitliche, manageable Lösung zu machen. Besonders clever: Die Flexibilität ohne Controller-Zwang.
https://github.com/kluctl/kluctl
Ice – Der ultimative Menu Bar Manager für macOS
Ice bringt endlich Ordnung in die überladene macOS-Menüleiste!
Dieses Open-Source-Tool löst ein Problem, das jeder Mac-Nutzer kennt: zu viele Icons, zu wenig Platz. Und das mit einem Funktionsumfang, der weit über simples Ein- und Ausblenden hinausgeht.
Ich hatte hier früher „Bartender“ verwendet, aber das schon länger nicht mehr kostenlos.
Features:
- Intelligentes Verstecken/Zeigen von Menu Bar Items
- „Always-hidden“ Bereich für selten genutzte Icons
- Hover, Klick oder Scroll zum Einblenden
- Drag-and-Drop Interface für Icon-Anordnung
- Separate Bar für versteckte Items (MacBook Notch-Support!)
- Menu Bar Suche für schnellen Zugriff
- Custom Spacing zwischen Icons (Beta)
- Profile für verschiedene Layouts
- Menu Bar Styling: Tints, Schatten, Borders
- Rounded Screen Corners
- Hotkey-Support für alle Funktionen
- Light/Dark Mode spezifische Settings
Ice macht aus der chaotischen Menu Bar endlich ein aufgeräumtes Werkzeug! Screenshots findest du in der GitHub Gallery.
Besonders cool: Die Option für eine separate Bar bei MacBooks mit Notch.
https://github.com/jordanbaird/Ice
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: