Willkommen zu allesnurgecloud.com – Ausgabe #170
passend zu Weihnachten kannst du ChatGPT nun anrufen oder per WhatsApp anschreiben – ok, bisher geht es nur in den USA oder Kanada, falls du also über Weihnachten dort bist: 1-800-ChatGPT.
Ansonsten bleibt mir nur Danke zu sagen – Danke, für deine Treue und dafür, dass du den Newsletter liest!
Zu Weihnachten kannst du den Newsletter gerne „verschenken“ – also einfach weiterempfehlen, das würde mir sehr helfen – egal ob einfach per Mail weiterleiten, über LinkedIn empfehlen oder per 1-800-ChatGPT über WhatsApp verschicken. Danke!
Frohe Weihnachten und einen guten Rutsch – die nächste Ausgabe gibt es am 12. Januar 2025!
Happy Bootstrapping Podcast
Im Podcast hatte ich in dieser Woche den Wolfi und Matthias von OpenPodcast.dev zu Gast. Open Podcast ist eine Podcast Analytics Software, die es sowohl Open Source als auch als SaaS Modell gibt. Im Pod sprechen wir über die Herausforderungen beim gemischten Modell und wie sie neue Kunden für ihre Software gewinnen. Beide haben übrigens einen eigenen Podcast – Wolfi ist Co-Host des EngineeringKiosk und Matthias ist Host von „Rust in Production“. Zur Folge 101 bei Happy Bootstrapping geht es hier.
Shopify Black Friday: 45 Millionen DB Queries pro Sekunde
Shopify hat beeindruckende Zahlen zum diesjährigen Black Friday / Cyber Monday (BFCM) Wochenende veröffentlicht.
Die Plattform hat in der Spitze $4,6 Millionen Umsatz pro Minute verarbeitet und kam auf ein Gesamtvolumen von $11,5 Milliarden über die vier Tage – ein Plus von 24% zum Vorjahr.
Die technischen Zahlen sind ebenfalls beeindruckend:
- 2,4 Millionen CPU Cores wurden in der Google Cloud für die Lastspitzen benötigt
- 45 Millionen Datenbank Queries pro Sekunde (QPS) in MySQL 8
- 3 Millionen Datenbank Writes pro Sekunde bei einem Read/Write Verhältnis von 10:1
- 4,7 Millionen Requests pro Sekunde am Edge (284 Millionen pro Minute)
- 2,1 Millionen CDN Requests pro Sekunde mit einer Cache Hit Rate von 97%
- 1,3 Millionen App Server Requests pro Sekunde
- 66 Millionen Kafka Messages pro Sekunde in der Spitze
- 200 GB/s Daten-Push an Clients (12 TB pro Minute)
- 108 GB/s Logs wurden geschrieben (6 TB pro Minute)
Shopify hat die Zahlen dieses Jahr in einem interaktiven „Live Globe“ Dashboard präsentiert, das in einem virtuellen Raumschiff-Cockpit angesiedelt war. Das Dashboard wurde von einem 6-köpfigen Team in nur 2 Monaten entwickelt und nutzt Technologien wie React Three Fiber, Server-Sent Events und Go. Interessant: Die Dashboard-Visualisierung wurde sogar auf der gigantischen LED-Sphere in Las Vegas übertragen – auf BlueSky hatte ich das passende Video dazu veröffentlicht (geht hier auch ohne Account).
Die Business-Zahlen zeigen die Dimension des BFCM Wochenendes: 76 Millionen Kunden haben bei Shopify-Händlern eingekauft, der durchschnittliche Warenkorb lag bei $108. Insgesamt wurden 91 Millionen Pakete versendet und in der Shopify App getrackt.
Die technische Infrastruktur basiert auf MySQL 8 als Datenbank und der Google Cloud als Cloud Provider. Ansonsten nutzt man viel Ruby on Rails und die oben genannten Services wie Kafka und Flink. Shopify hat viele der Zahlen selbst über Twitter veröffentlicht und Pragmatic Engineer Gergely Orosz hat diese in seinem Artikel verarbeitet.
Die Shopify Website zum Black Friday ist noch online – spielt aber nicht mehr den „Live View“ ab sondern den absoluten Peak des Tages am Freitag, 29.11.2024 um 17:01 GMT mit 40.083 Queries per Second und $4.646.713 Millionen Dollar Peak Sales pro Minute.
How Shopify Built Its Live Globe for Black Friday
Microsoft dominiert Nvidia KI-Chip Einkäufe 2024
Microsoft hat sich 2024 als größter Abnehmer von Nvidias KI-Chips etabliert und kaufte mit 485.000 Stück doppelt so viele wie die Konkurrenz. Diese Menge macht rund 20% des Nvidia Umsatzes aus und zeigt deutlich den Kampf um KI-Rechenkapazitäten zwischen den Tech-Giganten.
Die Verteilung der „Hopper“ KI-Chips im Detail:
- Microsoft: 485.000 Stück
- ByteDance/TikTok: 230.000 Stück
- Meta/Facebook: 224.000 Stück
- Elon Musk (xAI/Tesla): 200.000 Stück
- Amazon: 196.000 Stück
- Google: 169.000 Stück
Interessant: Die chinesischen Tech-Konzerne wie ByteDance und Tencent erhalten aufgrund von US-Exportbeschränkungen nur noch ältere Chip-Varianten (H800/H20) statt der High-End Modelle H100/H200.
Microsoft nutzt die Chips vor allem für:
- Eigene KI-Entwicklung
- Azure Cloud-Dienste
- OpenAI/ChatGPT Infrastruktur
Laut dem Marktforschungsunternehmen Omdia wird Nvidia 2024 etwa 43% der globalen Serverausgaben (229 Mrd $) auf sich vereinen. Microsoft ist hier mit Ausgaben von 31 Mrd $ führend, gefolgt von Amazon mit 26 Mrd $.
Nvidia KI-Chips: Microsoft kaufte doppelt so viel wie Tech-Konkurrenz
Sponsored
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Amazon ohne Platz für „Return to Office“
Wer hätte das gedacht? Amazon fehlen die Büroflächen für die ab Januar 2025 geplante vollständige Rückkehr ins Büro. An mehreren Standorten wie Atlanta, Houston, Nashville und New York gibt es nicht genügend Arbeitsplätze für alle Mitarbeitenden, die laut neuem Mandat 5 Tage pro Woche vor Ort sein sollen.
Die Situation ist besonders pikant, da:
- 91% der Mitarbeitenden in einer Umfrage bereits gegen die RTO-Politik sind
- Amazon das flexible Desk-Sharing System durch fixe Arbeitsplätze ersetzen will
- Die neuen Regeln strenger sind als vor der Pandemie
- Erst im Mai 2023 eine 3-Tage Büropflicht eingeführt wurde
Amazon erklärt, dass die Bürokapazitäten für die Mehrheit der Mitarbeitenden bis zum 2. Januar 2025 fertig sein sollen. Für einige Standorte könnte es aber bis Mai 2025 dauern. Genaue Zahlen zu betroffenen Mitarbeitenden nennt das Unternehmen nicht.
Interessant: Bereits bei der 3-Tage Regelung überwachte Amazon die Anwesenheit und verschickte Warnungen per E-Mail an Mitarbeitende, die sich nicht daran hielten. Während CEO Andy Jassy die Maßnahmen mit verbesserter Zusammenarbeit begründet, vermuten Beobachter eine versteckte Strategie zum Personalabbau.
Amazon will, dass alle Mitarbeiter zurück ins Büro kommen – aber es gibt gar nicht genug Platz
GitHub Copilot nun in kostenloser Variante verfügbar
Der GitHub Copilot ist seit Mittwoch Abend kostenlos innerhalb von GitHub und der VS Code Extension für alle GitHub User frei verfügbar.
Aktuell ist das Azure OpenAI MOdel GPT4o verfügbar sowie die Preview von Claude 3.5 Sonnet (Anthropic). Für Google Gemini 1.5 Pro, o1-preview und o1-mini benötigt man dann einen kostenpflichtigen Copilot Account (ab 10$/Monat).
Die Einschränkungen der Free Variante:
- 50 Copilot Chat Messages pro Monat
- 2000 Code Suggestions pro Monat (innerhalb deines Workspaces oder VS Code Projekts)
- Modelle: OpenAI GPT 4o und Anthropic Claude 3.5
- GitHub Login benötigt
Alle weiteren Features findest du auf der Copilot Pricing Page – ab dem 10$/Monat Pro account sind die Messages und Code Suggestions dann „unlimited“ verfügbar- Im Free Account fehlen außerdem Dinge wie „Summaries for Pull requests, Issues and discussions“ oder auch „Code Reviews“ oder „Copilot Workspace“. Im User Management ist die Free Version dann ebenfalls stark eingeschränkt.
Schon ausprobiert oder bist du eh regelmäßiger Copilot Nutzer?
State of Email Deliverability 2025: Neue Anforderungen verbessern Zustellbarkeit
Eine aktuelle Studie mit über 1.100 Teilnehmenden zeigt, dass sich die E-Mail Zustellung durch neue Anforderungen von Gmail und Yahoo deutlich verbessert hat. Für 78,5% der Befragten hat eine gute Zustellbarkeit höchste Priorität (8-10 von 10 Punkten).
Die Ende 2023 von Google und Yahoo eingeführten Anforderungen für Massenversender zeigen erste positive Auswirkungen:
- One-Click Unsubscribe nach RFC 8058 ist nun Pflicht
- Spam-Beschwerden müssen unter 0,1% bleiben (max. Spitze 0,3%)
- Authentifizierung via SPF, DKIM und DMARC (mind. p=none) wird vorausgesetzt
Erfreuliche Entwicklungen:
- DMARC-Nutzung stieg um 11% auf 53,8% im Vergleich zu 2023
- 63% der Befragten sehen die neuen Regeln als notwendig oder gut für die E-Mail-Zukunft
- 60% der Versender führen regelmäßige Listen-Hygiene durch
Herausforderungen bleiben:
- 47,9% kämpfen damit, nicht im Spam zu landen
- 88% verwechseln noch immer Zustellrate mit Zustellbarkeit
- Fast 10% der Versender nutzen gekaufte Listen oder gescrapte E-Mails
- Über 60% der DMARC Nutzer bleiben beim schwachen „p=none“ Policy
Die Experten empfehlen:
- E-Mail Authentifizierung via SPF, DKIM und DMARC implementieren
- Inbox Placement Testing nutzen (aktuell nur von 13% genutzt)
- Sender Reputation überwachen (70% nutzen nicht mal kostenlose Tools)
- Regelmäßige Listen-Hygiene mit Double Opt-in und Sunset Policies
Die neuen Anforderungen von Google und Yahoo haben zwar für mehr Aufwand gesorgt, führen aber zu einer Verbesserung der E-Mail Qualität und Zustellbarkeit für alle Beteiligten.
Key takeaways from Mailgun’s State of email deliverability 2025
Boomerang Mitarbeitende als Qualitätsmerkmal für Remote Manager
In einem Artikel analysiert Marissa Goldberg, warum „Boomerang Employees“ – also Mitarbeitende, die zu einem früheren Manager zurückkehren – ein besserer Indikator für die Qualität einer Führungskraft sind als klassische Metriken wie Mitarbeiterbindung oder Referenzen.
Der springende Punkt dabei: Kehrt ein Mitarbeitender zu einem Manager in einer neuen Firma zurück, tut er dies ohne das Umfeld zu kennen – einzig aufgrund des Vertrauens in die Führungskraft. Das sagt deutlich mehr aus als eine hohe Verbleibquote, denn Menschen verlassen Firmen aus vielen Gründen:
- Weiterbildung/Studium
- Wechsel in eine neue Branche
- Zu wenig Herausforderung
- Fehlende Aufstiegsmöglichkeiten
- Sabbatical/persönliche Ziele
Ein guter Manager unterstützt seine Mitarbeitenden auch beim Weggang und hält die Tür für eine spätere Rückkehr offen. Das zahlt sich mehrfach aus:
- Schnellere und kostengünstigere Einstellung
- Zugang zu Talenten, die nicht aktiv suchen
- Bewährte Zusammenarbeit
- Vertrauen und Respekt auf beiden Seiten
Allerdings warnt der Artikel auch davor, zu stark auf „Boomerang Employees“ zu setzen. Eine gesunde Mischung aus bekannten und neuen Mitarbeitenden bringt frische Perspektiven und Innovation. Für Firmen lohnt es sich, bei der Managersuche gezielt nach Führungskräften zu schauen, die nachweislich ehemalige Mitarbeitende wieder einstellen konnten.
Boomerang Employees – der Begriff war mir bisher nicht geläufig – aber macht Sinn, oder?
The Secret to Spotting a Great Remote Manager
Von Heroku zu Kubernetes: WorkOS erreicht 99,999% Uptime
Ein spannender Erfahrungsbericht von WorkOS zur Migration ihrer User Management Plattform von Heroku zu Kubernetes auf AWS EKS. Nachdem man 1 Million kostenlose monatlich aktive User (MAU) angeboten hatte, stieß man mit Heroku an diverse Grenzen.
Die größten Herausforderungen mit Heroku waren:
- Fehlendes Service Level Agreement (SLA)
- Eingeschränkte Deployment-Funktionalität
- Begrenzte Security-Optionen
- Limitierte Daten-Lokalität in verschiedenen Regionen
Als Lösung entwickelte das Team eine eigene Plattform namens „Terrace“ auf Basis von Kubernetes/EKS. Die wichtigsten Features:
- Secret Management über External Secrets Operator
- Automatisiertes Load Balancing mit AWS ALB Controller
- DNS & TLS Automation mit ExternalDNS
- Application Management via ArgoCD
- Infrastructure as Code mit TypeScript/cdk8s
- Self-Service für Entwickler
Die Ergebnisse der Migration sind beeindruckend:
- Verbesserung der Uptime von 99,99% auf 99,999% über 7 und 30 Tage
- Deployment-Zeit von 12 Minuten auf 2-3 Minuten reduziert
- Deutlich bessere Observability und Kontrolle über die Infrastruktur
In Zukunft plant das Team weitere Verbesserungen wie Blue/Green Deployments und einen eigenen Terrace Operator für bessere ArgoCD Integration.
Was mir besonders gefällt: Der pragmatische Ansatz, bewährte Open Source Tools zu kombinieren und nur dort eigene Lösungen zu entwickeln, wo es wirklich nötig ist. Die Migration hat sich definitiv gelohnt – nicht nur wegen der verbesserten Uptime, sondern auch durch die gewonnene Kontrolle und Flexibilität.
From four to five 9s of uptime by migrating to Kubernetes
Databricks sammelt 10 Milliarden Dollar in Series J ein
In einer der größten Finanzierungsrunden aller Zeiten hat das Daten- und AI-Unternehmen Databricks 10 Milliarden Dollar eingesammelt. Die Series J Runde wurde von Thrive Capital angeführt, weitere namhafte Investoren wie Andreessen Horowitz, DST Global und GIC sind ebenfalls beteiligt. Die Bewertung des Unternehmens steigt damit auf beeindruckende 62 Milliarden Dollar.
Ein paar spannende Zahlen zum Wachstum:
- Das KI-gestützte Data-Warehousing-Segment Databricks SQL wächst um 150% auf 600 Millionen Dollar Jahresumsatz
- Über 500 Kunden generieren mehr als 1 Million Dollar Jahresumsatz
- Das Gesamtwachstum liegt bei über 60% im Jahresvergleich
Databricks setzt stark auf Enterprise AI und hat 2023 bereits das AI-Startup MosaicML für 1,3 Milliarden Dollar übernommen. Zusätzlich ist man bei dem französischen KI-Startup Mistral AI investiert und hat ein eigenes Open Source Large Language Model namens DBRX veröffentlicht.
Die frischen Mittel sollen in die Weiterentwicklung der KI-Technologien und globale Expansion fließen. Mit regionalen Hubs in Europa und Asien will man die wachsende internationale Nachfrage nach KI-Lösungen bedienen.
Die Finanzierungsrunde reiht sich ein in aktuelle Mega-Investments im KI-Bereich wie OpenAI (6,6 Mrd $), xAI (12 Mrd $) und Waymo (5,6 Mrd $). Mit nun insgesamt 14 Milliarden Dollar an Investitionen positioniert sich Databricks als eines der führenden Unternehmen im Enterprise AI Markt.
Databricks: Finanzierungsrunde mit 10 Mrd. Dollar stellt alle anderen 2024 in den Schatten
Von Redis zu SQLite: Eine Migration mit Überraschungen
Wafris, ein Open-Source Web Application Firewall Anbieter, beschreibt in einem spannenden Erfahrungsbericht die Migration ihrer Rails Middleware von Redis zu SQLite. Die Motivation: Redis als Requirement hatte sich als Hürde für viele Nutzer erwiesen.
Die wichtigsten Erkenntnisse:
- SQLite erwies sich in Tests als 3x schneller als Redis – vor allem durch den Wegfall der Netzwerk-Latenz
- Die neue Architektur reduziert die Komplexität für Nutzer erheblich – keine Redis-Administration mehr nötig
- SQLite skaliert in Cloud-Umgebungen besser, da jede Compute-Instanz ihre eigene lokale DB hat
- Async/Batch Reporting ersetzt die Schreibzugriffe auf die Datenbank
Besonders interessant ist der pragmatische Ansatz bei den Benchmarks:
- Fokus auf den „Hot Path“ – die kritischste Query mit 1,2 Mio IP-Range Lookups
- Bewusst naive Settings, die die reale Nutzung widerspiegeln
- Netzwerk-Latenz als entscheidender Faktor nicht im Benchmark aber in der Praxis
Die neue v2 Architektur synchronisiert SQLite DBs auf die Compute-Instanzen statt wie bisher Redis-Updates zu pushen. Das hat zu einer Verdreifachung der erfolgreichen Installationen geführt.
Ein hervorragendes Beispiel dafür, wie eine scheinbar unkonventionelle Technologie-Entscheidung (SQLite statt Redis) zu deutlichen Verbesserungen führen kann, wenn man sich auf die wirklichen Anforderungen fokussiert: Einfache Deployment und maximale Performance.
Rearchitecting: Redis to SQLite
Elasticsearch führt neuen „logsdb“ Index Mode ein
Die kommende Version 8.17 von Elasticsearch bietet mit dem neuen „logsdb“ Index Mode eine interessante Neuerung für Log Management. Die neue Funktionalität soll bis zu 65% des benötigten Speicherplatzes für Logs einsparen und damit vor allem Observability und Security Teams bei ihrer Arbeit unterstützen.
Wie schafft man das? Elasticsearch setzt hier auf mehrere Technologien:
- „Smart Index Sorting“ verbessert durch intelligente Sortierung nach Host und Timestamp die Storage Effizienz um bis zu 30%
- „Advanced Compression“ nutzt Zstandard Kompression (Zstd) und weitere Codecs für Text-lastige Daten
- „Synthetic source“ ermöglicht zusätzliche 20-40% Einsparung durch partielle Rekonstruktion des source Fields
Die neue Funktionalität ist ab Version 8.17 für Cloud und Self-Managed Kunden verfügbar. In der Elastic Cloud Serverless Edition ist logsdb bereits standardmäßig für Logs aktiviert. Die Basic Funktionalität steht ab der Standard Subscription zur Verfügung, die kompletten Features wie synthetic _source benötigen eine Enterprise Lizenz.
Mit dieser Neuerung möchte Elasticsearch den wachsenden Log-Datenmengen und damit verbundenen Kosten entgegenwirken. Zwar benötigt der neue Index Mode mehr CPU während der Indexierung, die Einsparungen beim Storage sollen aber bei den meisten Kunden zu einer Gesamtkostenreduzierung von bis zu 50% führen.
Das klingt schon sehr cool – Zstd hatte ich ja sowieso schon mal hier vorgestellt und wenn man Elasticsearch „eh schon da hat“, sollte man sich das unbedingt anschauen, bevor man neue Technologien evaluiert.
Live log and prosper: Elasticsearch newly specialized logsdb index mode
Schmunzelecke
Robots.txt in „kreativ“ gibt es bei Breuninger – in den HTTP Headern der Seite findet sich auch noch ein netter Header: x-clacks-overhead: GNU Terry Pratchett
.
Man hat übrigens 500kb für die Robots.txt zur Verfügung, alles, was danach kommt, wird zumindest von Google ignoriert.
💡 Link Tipps aus der Open Source Welt
Nullboard: Minimalistische Kanban Board Alternative
Nullboard ist ein schlankes, lokal laufendes Kanban Board, das sich durch seine Einfachheit und Offline-Funktionalität auszeichnet. Die Webanwendung besteht aus einer einzelnen HTML Datei, jQuery und einem Webfont.
Ein paar Features im Überblick:
- Lokale Datenspeicherung im Browser via localStorage
- Export/Import via JSON Format
- Automatische Backups über Agents für Windows, Express.js oder Unix
- In-Place Editing mit Auto-Save und Undo/Redo
- Drag & Drop für Karten und Listen
- Dark Mode und anpassbare Schriftarten
- Multi-Board Support mit schnellem Wechsel
Besonders clever ist das UI Design – sämtliche Kontrollelemente sind standardmäßig ausgeblendet und erscheinen nur bei Bedarf. URLs werden erkannt und können per Rechtsklick oder bei gedrückter CapsLock-Taste geöffnet werden.
Das Projekt ist noch im Beta Stadium und primär für Desktop optimiert. Als Browser werden Firefox und Chrome offiziell unterstützt, Safari und Edge sollten aber auch funktionieren.
https://github.com/apankrat/nullboard
GraphHopper: Open Source Routing Engine auf Basis von OpenStreetMap
GraphHopper kannte ich noch nicht – aber ein baldiger Podcast Gast ist Heavy User & Contributor bei GrapHhopper – daher wollte ich es mir mal anschauen:
GraphHopper ist eine schlanke und performante Routing Engine, die unter der Apache 2.0 Lizenz verfügbar ist. Die Engine kann als Java Library oder als eigenständiger Web Server genutzt werden.
Neben der klassischen Routenberechnung von A nach B bietet GraphHopper weitere Features:
- Berechnung von Distanz, Zeit und detaillierten Wegbeschreibungen
- „Snap to Road“ Funktionalität zum Ausrichten von Punkten auf Straßen
- Berechnung von Isochronen (Erreichbarkeitsanalysen)
- Mobile Navigation
- Import von OpenStreetMap und GTFS Daten (aber auch andere Datenquellen möglich)
Durch die effiziente Implementierung und gute Performance eignet sich GraphHopper besonders für den produktiven Einsatz in eigenen Routing-Anwendungen. Der Podcast Gast ist die erste Podcast Folge im Januar und Robin von kurviger.de – bin schon gespannt.
https://github.com/graphhopper/graphhopper
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: