Pragmatic Engineer Umfrage, OpenAI Insider, Remote Retreats, Linux Desktop, Atlassian migriert 4 Mio Datenbanken und mehr – #197

Willkommen zu allesnurgecloud.com – Ausgabe #197

„So much talk about AI and Big-Tech today“ – ist nicht etwa eine News – sondern ein Zitat aus dem am Freitag frisch erschienenen „Tron:Ares“ Trailer – schon gesehen? Unbedingt nachholen falls nicht.

Ansonsten hat Basecamp nun eine Cloud Exit Landingpage mit allen eigenen Artikeln und diversen Presseartikeln zum Thema Cloud-Exit – beeindruckend, dass es nun geklappt hat – nicht weniger überraschend, wenn man sich mal damit beschäftigt.
Zum Thema Cloud Exit bin ich am Freitag im „Programmier.bar“ Podcast zu Gast und bin schon sehr gespannt, wie ein „Podcast Interview“ von der anderen Seite so abläuft. Ich weiß noch nicht, wann die Folge veröffentlicht wird, verlinke sie hier aber auf jeden Fall.

Happy Bootstrapping Podcast

In dieser Woche hatte ich in Folge 130 den Sebastian Terhorst von everHome zu Gast. Bei everHome gibt es neben diversen SmartHome Lösungen das Top Produkt Ecotracker zum fairen Einmalpreis inklusive Cloud und App. Das fand ich spannend und ich habe mehrfacht hinterfragt, wie sich solch ein Angebot ohne SaaS Fees rechnet – interessanter Podcast für alle Energie, SmartHome und SaaS interessierte – Folge 130 jetzt anhören (Spotify/Apple).

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

587 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Pragmatic Engineer Umfrage 2025 mit 3000 Devs

Gergely Orosz und sein Team haben wieder zugeschlagen: Die größte Tech-Stack-Umfrage des Pragmatic Engineer Newsletters ist ausgewertet. 2.997 Tech-Profis haben ihre Tool-Präferenzen offengelegt – und die Ergebnisse sind teilweise überraschend.

Die AI-Revolution ist in vollem Gange

Wer noch Zweifel hatte, ob AI-Tools wirklich im Mainstream angekommen sind: 85% aller Befragten nutzen mindestens ein AI-Tool. Nur 4% verzichten explizit darauf – aus Datenschutzgründen, Firmenrichtlinien oder ethischen Bedenken.

Die Top 9 AI-Tools nach Erwähnungen:

  • GitHub Copilot: 1.508 Nennungen (50% aller Befragten!)
  • Cursor: 1.137 (38%) – der Shooting Star
  • ChatGPT: 803 (27%) – vom Thron gestoßen
  • Claude: 533 (18%) – massives Wachstum
  • Perplexity: 121 (4%)
  • Zed: 95 (3%)
  • Windsurf: 87 (3%)
  • Claude Code: 77 (3%) – beachtlich für ein Tool im Beta
  • Gemini: 71 (2%)

Firmengröße bestimmt die Tool-Wahl

Besonders spannend: Die Unternehmensgröße hat massiven Einfluss auf die AI-Tool-Nutzung:

  • Je größer die Firma, desto mehr GitHub Copilot – Microsoft kann halt Enterprise-Verträge
  • Je kleiner die Firma, desto mehr Cursor, ChatGPT und Claude – vermutlich wegen „use whatever you want“-Policies
  • Gemini ist die Ausnahme: Konstant 8% über alle Firmengrößen – wahrscheinlich durch Google Workspace-Bundles

In Großkonzernen (10.000+ Mitarbeiter) nutzen Entwickler meist nur ein AI-Tool – strikte Policies lassen grüßen. Bei Amazon sind ChatGPT & Co. verboten, nur Amazon Q und intern gehostete LLMs sind erlaubt.

„Vibe Coding“ Tools: Nicht für Entwickler

Die gehypten Tools wie Vercel v0, Bolt.new und Lovable? Zwei Drittel der Nutzer sind Founder, Directors oder Engineering Leads – keine hands-on Entwickler. Die Vermutung: Diese Tools sind perfekt für schnelle Prototypen, die man dem Engineering-Team zeigen kann.

Fun Fact: Bolt.new ging in 5 Monaten von 0 auf 40 Millionen Dollar ARR und 6 Millionen User – hauptsächlich Nicht-Entwickler!

Programmiersprachen: TypeScript regiert, Python boomt

Die meistgenutzten Sprachen (Mehrfachnennungen möglich):

  • TypeScript: 1.785 Erwähnungen
  • Python: 1.512 – AI/ML sei Dank
  • JavaScript: 1.148
  • Java: 777
  • Go: 628
  • C#: 485
  • Ruby: 301
  • Swift: 295 (6x mehr als Objective-C!)

Meistgeliebt (Positive minus negative Erwähnungen):

  1. Rust (+339) – keine Überraschung
  2. Go (+315)
  3. Ruby (on Rails) (+179) – das überrascht!
  4. TypeScript (+174)
  5. Swift (+106)

Interessant: Keine Sprache hat überwiegend negative Bewertungen. Die populären Sprachen sind alle „pretty good“ – schlechte Designs setzen sich nicht durch.

JIRA: Der meistgehasste Tool-Klassiker

Die Hassliebe der Entwickler zu ihren Tools:

Top 5 meistgeliebt:

  • VS Code: 353 positive Erwähnungen
  • JetBrains: 334 – hält Microsoft erfolgreich Paroli!
  • Cursor: 283 – nach nur 2 Jahren auf Platz 3
  • Linear: 175 – meist als JIRA-Alternative genannt
  • Docker: 145

Top 5 meistgehasst:

  • JIRA: -297 (!) – mehr negative Nennungen als die nächsten vier zusammen
  • Jenkins: -43
  • Confluence: -36
  • MS Teams: -29
  • Slack: -23

Warum der Hass? Langsam, komplex, buggy, schlechte UX-Redesigns. Ein Entwickler über MS Teams: „Keine Custom Emojis, buggy, crasht ständig, geteilte Chats und Teams, die Liste geht weiter und weiter.“

Cloud-Provider: AWS dominiert, Azure unterrepräsentiert

Die Big 3 unter den Cloud-Nennungen:

  • AWS: 68% (1.784 Nennungen)
  • GCP: 19% (502)
  • Azure: 13% (345)

Die Diskrepanz zu Marktanteilen (AWS 44%, Azure 30%, GCP 19%) zeigt: Pragmatic Engineer-Leser arbeiten eher bei Startups und Big Tech als bei „traditionellen“ Unternehmen.

Bei alternativen Providern führt Vercel mit 100 Nennungen, gefolgt von Heroku (67), Hetzner (54) und Render (35).

CI/CD: GitHub Actions übernimmt

Die meistgenutzten CI/CD-Tools:

  • GitHub Actions: 568 Nennungen – erst 2019 gestartet!
  • Jenkins: 323 – der Open-Source-Klassiker
  • GitLab CI: 305
  • Azure DevOps: 152
  • CircleCI: 127

Der Trend: Viele nutzen CI/CD vom gleichen Anbieter wie ihre Versionskontrolle.

Was lernen wir daraus?

  1. Entwickler sind experimentierfreudig – aber nur bei innovativen Kategorien wie AI. Bei etablierten Tools (Sprachen, CI/CD) ändert sich wenig.
  2. AI-Tools können in 2-3 Jahren Marktführer werden – siehe Cursor. Das erklärt die massiven VC-Investments.
  3. JetBrains vs. Microsoft ist bemerkenswert – ein kleinerer Player hält dem 50-Jahre-Developer-Tools-Giganten erfolgreich die Stirn.
  4. Hassen Entwickler wirklich JIRA? Oder hassen sie es, mikrogemanagt zu werden? Jedes PM-geliebte Tool würde vermutlich ähnlich abschneiden.

Die Umfrage zeigt: 2025 ist das Jahr der AI-Dev-Tools. In nur 12 Monaten hat sich die Landschaft dramatisch verschoben – und das ist erst der Anfang.

The Pragmatic Engineer 2025 Survey: What’s in your tech stack?


OpenAI Insider-Bericht über Slack, Tempo und AGI-Ambitionen

Der ehemalige OpenAI-Mitarbeiter Calvin French-Owen hat einen interessanten Einblick in die Arbeitskultur des KI-Giganten veröffentlicht. Nach einem Jahr im Unternehmen teilt er seine Beobachtungen – und die sind teilweise überraschend.

Die Highlights der OpenAI-Arbeitskultur:

  • Alles läuft über Slack – keine E-Mails! Calvin erhielt in seinem gesamten Jahr nur 10 E-Mails. Ohne gute Slack-Organisation wird’s schnell chaotisch
  • Extremes Wachstum: Von 1.000 auf 3.000 Mitarbeiter in einem Jahr – Calvin war nach 12 Monaten bereits im oberen 30% nach Betriebszugehörigkeit
  • Keine Roadmaps: Auf die Frage nach Quartals-Plänen kam nur: „Das gibt es nicht“. Fortschritt entsteht bottom-up durch Experimente
  • „Mini-CEOs“: Forscher agieren autonom, starten eigene Projekte ohne Erlaubnis. 3-4 Teams arbeiteten parallel an Codex-Prototypen
  • Blitzschnelle Richtungswechsel: Im Gegensatz zu Google kann OpenAI „on a dime“ die Strategie ändern
  • GPU-Kosten dominieren alles: Ein Nischen-Feature von Codex verbrauchte so viele GPUs wie die gesamte Infrastruktur von Segment (hier war Calvin Co-Founder, er muss es also wissen)

Der Codex-Sprint: 7 Wochen vom Konzept zum Launch

Die Entwicklung von Codex (dem KI-Coding-Tool): 8 Engineers, 4 Forscher, 2 Designer schufen in nur 7 Wochen ein komplett neues Produkt – inklusive Container-Runtime, Repo-Optimierungen und Custom-Model-Training. Der Autor arbeitete bis Mitternacht, wurde um 5:30 vom Neugeborenen geweckt, war um 7 Uhr wieder im Büro.

Was OpenAI anders macht:

  • Meritokratie pur: Die besten Ideen gewinnen, politisches Geschick ist zweitrangig
  • Twitter als Kompass: „Diese Firma läuft auf Twitter-Vibes“ – viraler Content wird intern diskutiert
  • Fluid Teams: Zwei ChatGPT-Engineers wechselten innerhalb eines Tages zum Codex-Team
  • Azure-only: Läuft komplett auf Microsoft Azure, aber nur 3 Services gelten als vertrauenswürdig – Azure Kubernetes Service, CosmosDB (Azure’s document storage), and BlobStore – mal schauen wie lange das mit Azure noch so bleibt.

Calvin sieht den AGI-Wettlauf als Drei-Pferde-Rennen: OpenAI (Consumer-Fokus), Anthropic (Business) und Google (Infrastruktur). Seine Empfehlung an Founder: Entweder radikal umdenken oder zu einem der großen Labs wechseln – „jetzt ist eine unglaubliche Zeit, um zu bauen, aber auch um zu sehen, wohin die Zukunft führt.“

Reflections on OpenAI


Anzeige

Cloud Exit mit „We Manage“ – 80 % Kosten gespart bei Everysize.com

Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.

„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.

Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.

Brauchst du Hilfe bei Cloud-Optimierung oder IT-Operations?
Lies die vollständige Case Study und erfahre, wie auch dein Unternehmen von We Manage profitieren kann – buch dir jetzt einen Termin zum Kennenlernen.

zur Case Study: Warum everysize die AWS Public Cloud hinter sich lässt


14 Jahre Remote Retreats bei Buffer – Das ultimative Playbook

Das Team der Social Media Scheduling App Buffer ist ein „Full Remote“ Pionier. Damit die Mitarbeiter sich trotzdem regelmäßig sehen, hat buffer jedes Jahr „Retreats“ organisiert. Nun hat man nach 14 Jahren und ebenso vielen Retreats das komplettes Planungs-Playbook veröffentlicht. Für 21 Länder und 49 Städte kommen die Remote-Mitarbeiter einmal jährlich für eine Arbeitswoche zusammen – und die Learnings sind Gold wert.

Die wichtigsten Planungsschritte

Buffer hat einen 10-Schritte-Prozess entwickelt, der sich über die Jahre bewährt hat. Besonders spannend: Sie starten 3 Monate vorher mit der Programmplanung und setzen auf einen Mix aus strukturierten Sessions und spontanen Begegnungen.

Das Budget? Mit $4.000-4.500 pro Person (bei 70 Mitarbeitern also $280.000-315.000) keine Kleinigkeit. Buffer sieht es trotzdem als „beste Investition des Jahres“ – nachvollziehbar bei nur einem persönlichen Treffen pro Jahr.

Was macht Buffer anders?

  • Eigene Schlafzimmer für alle – kein Zimmersharing
  • Farbige Lanyards signalisieren Umarmungs-Präferenzen (grün = ja, orange = lieber nicht)
  • „Retreats“ Tradition: Mitarbeiter bringen lokale Snacks mit – wird zum 24-Fuß-Buffet
  • Personal Story Dinners in Kleingruppen – oft das Highlight der Woche

Praktische Tipps für Remote Teams

  • Site Visit 75-90 Tage vorher – nicht früher (Hotel noch nicht bereit) und nicht später (keine Zeit für Änderungen)
  • AirTags in Gepäck empfohlen – nach mehreren Lost-Luggage-Erfahrungen
  • Transparente Slack-Kanäle für Planung, Support, Fotos und spontane Pool-Meetups
  • Zentrale Notion-Ressource mit allen Details – vom Packliste bis zu Grenz-Dokumenten

Buffer’s Ansatz zeigt: Remote-First bedeutet nicht weniger Teamkultur – sondern bewusstere Investition in gemeinsame Zeit. Die Balance zwischen Struktur und Spontanität macht den Unterschied.

Gibt es bei euch Retreats? Wie laufen die ab?
Es gibt mittlerweile sogar Firmen, die die Organisation von sowas komplett übernehmen – auch hier gibt es neue Geschätsmodelle.

Das komplette „Buffer Retreat Planning Playbook“ gibt es hier bei Notion – viel Spaß und Erfolg beim nächsten Retreat!

How We Plan Retreats, After Hosting 14 over 12+ Years (+ Get Our Retreat Planning Playbook!)


Schwedisches AI-Startup Lovable wird Unicorn

as Stockholmer Startup Lovable hat in einer von Accel angeführten Finanzierungsrunde 200 Millionen Dollar eingesammelt und wird nun mit 1,8 Milliarden Dollar bewertet – Schwedens größte Series-A-Runde aller Zeiten.

Lovable richtet sich nicht an Entwickler, sondern an die 99% der Menschen ohne Programmierkenntnisse. Das AI-Tool verwandelt einfache Textanweisungen in funktionsfähige Websites und Apps – CEO Anton Osika nennt es „Vibe Coding“. Der Markt ist heiß umkämpft: Diese Woche kaufte Google für 2,4 Milliarden Dollar Schlüsselpersonal von Windsurf ab.

Lovable konkurriert mit US-Rivalen wie Replit und StackBlitz um Nutzer ohne Coding-Skills. Auch etablierte Player mischen mit: Figma und Squarespace bauen eigene Tools, Wix kaufte für 80 Millionen das Startup Base44. Mit der neuen Finanzierung überholt Lovable seine Konkurrenten deutlich – Replit sammelte 97 Millionen, StackBlitz verhandelt über 80 Millionen.

Enterprise-Kunden im Visier

  • Deals mit Klarna, Hubspot und Photoroom bereits abgeschlossen
  • 45-köpfiges Team soll wachsen für komplexere Projekte
  • Nach Sicherheitslücken-Vorwürfen: verstärkte Security-Checks implementiert

Schwedens AI-Cluster wächst

Stockholm entwickelt sich zum AI-Hotspot: Legora (Legal-AI) sammelte 80 Millionen, Sana (AI-Agents) 55 Millionen ein. Tech-Milliardäre wie Revoluts Nik Storonsky und Klarnas Sebastian Siemiatkowski investieren mit.

Osika sieht Europa im „Hard Mode“, aber mit Potenzial: „Die durchschnittliche Ambition ist niedriger als in den USA – aber wenn wir zünden, haben wir mehr Rohstoff für ein Generationen-Unternehmen.“

AI ‘Vibe Coder’ Lovable Is Sweden’s Latest Unicorn


Linux knackt erstmals 5% Desktop-Marktanteil in den USA

Ein historischer Meilenstein für Open Source: Linux erreicht laut StatCounter im Juni 2025 einen Desktop-Marktanteil von 5,03% in den USA. Die Entwicklung zeigt eine exponentielle Beschleunigung: Von 1% auf 2% dauerte es 8 Jahre, von 4% auf 5% nur noch 0,7 Jahre.

Die aktuellen Zahlen

  • Windows: 63,2% (13% Verlust in 10 Jahren)
  • macOS/OS X: ~24% kombiniert
  • Linux: 5,03%
  • Chrome OS: 2,71%
  • Unknown: 4,76%

Warum wechseln immer mehr zu Linux?

Windows-Probleme treiben Nutzer weg: Das nahende Ende von Windows 10 zwingt viele zum Handeln. Statt neue Hardware für Windows 11 zu kaufen, wechseln sie zu Linux. Dazu kommen Privacy-Bedenken und der Frust über erzwungene Updates.

Der Steam Deck als Game-Changer: Das beliebte Gaming-Handheld läuft auf Linux und zeigt Gamern, dass Linux durchaus alltagstauglich ist.

Die wahren Zahlen könnten höher sein

Viele Linux-Nutzer verwenden Privacy-Tools, die ihre OS-Erkennung verschleiern. Der hohe „Unknown“-Anteil (4,76%) könnte teilweise Linux-Systeme enthalten. Zählt man Chrome OS (Linux-basiert) dazu, liegt der „Linux-Familie“-Anteil bereits bei 7,74%.

Was denkst du? „It is finally the year of Linux on the Desktop“ und die ganzen Memes können einpacken?

Omakub (auch von DHH/Basecamp) sieht jedenfalls sehr cool und interessant aus.

Linux Reaches 5% Desktop Market Share In USA


OpenAI Security Lücke – Private ChatGPT-Chats in Gefahr

Der Sicherheitsforscher requilence hat eine kritische Schwachstelle an OpenAI gemeldet, die anderen Nutzern Einblick in private Chat-Verläufe ermöglicht. Die Sicherheitslücke wurde am 29. Mai 2025 verschlüsselt an OpenAI übermittelt – nach über 45 Tagen ohne menschliche Reaktion und ohne Patch macht der Forscher den Fall nun öffentlich.

Die in ChatGPT geleakten Antworten zeigen klare Anzeichen echter Konversationen: kontextbezogene Antworten, Referenzen auf Nutzerfragen und konsistente Gesprächsverläufe in verschiedenen Sprachen. Der Forscher konnte sogar präzise Finanzanalysen eines obskuren Unternehmens einsehen – Informationen, die ChatGPT ohne Web-Tools nicht generieren könnte.

Problematisches Bug-Bounty-Programm

Der Forscher nutzte bewusst nicht die Bugcrowd-Plattform, da deren Nutzungsbedingungen eine pauschale Verschwiegenheitspflicht verlangen. Dies steht im krassen Gegensatz zu Unternehmen wie Google, die verantwortungsvolle Offenlegung fördern.

Was Nutzer tun sollten

  • Keine sensiblen Daten mit OpenAI-Modellen teilen
  • Prompts von persönlichen Identifikatoren bereinigen
  • OpenAIs Security-Seite für Updates beobachten

Der Forscher folgte dem branchenüblichen 45-Tage-Disclosure-Fenster und bleibt für Tests eines möglichen Patches bereit. Bis dahin: Vorsicht bei vertraulichen ChatGPT-Konversationen.

OpenAI – vulnerability responsible disclosure


Kostenoptimierung bei AWS Aurora inklusive Performance Boost

AWS-Experte Cristian Măgherușan-Stanciu hat bei einem seiner Kunden eine beeindruckende Optimierung durchgeführt: Der Wechsel von Aurora Serverless zu normal provisionierten Instanzen senkte die Datenbankkosten von $450 auf $100 pro Tag – eine jährliche Ersparnis von $125.000.

Die Deep-Dive-Analyse zeigte, dass die Aurora-Kapazität über 15 Monate konstant blieb – mit nur minimalen Tagesschwankungen. Ein klassischer Fall, wo Serverless völlig überdimensioniert ist. Die Grafiken im LinkedIn Artikel zeigen den dramatischen Kostenabfall ab Juli 2013.

Doppelter Gewinn: Kosten runter, Performance rauf

Der Clou: Nicht nur die Kosten sanken um 78%, auch die Performance verbesserte sich deutlich. Die Query-Latenz und Jitter (siehe zweite Grafik) zeigen nach der Migration eine viel stabilere und niedrigere Baseline. Der Grund: Die neuen R7g-Instanzen mit Graviton 3 sind leistungsfähiger als die veraltete Hardware unter der Serverless-Haube.

Was noch kommt

  • Upgrade auf R8g mit Graviton 4 geplant (sobald in London verfügbar)
  • Weitere Optimierungen in der Pipeline
  • Gesamte annualisierte Einsparungen bereits bei über $680.000

Serverless ist nicht immer die pauschale Antwort – besonders nicht bei konstanten Workloads. Wenn man einen Container in einen Container steckt, der in einem Container steckt – gewinnst häufig nur der Cloud Provider. Eine gründliche Analyse der tatsächlichen Nutzungsmuster kann zig tausend Euro sparen und gleichzeitig die Performance verbessern.

LinkedIn: „A few days ago I did another interesting optimization for one of my clients“


Atlassian migriert 4 Millionen Jira-Datenbanken zu AWS Aurora

Nach dem vorherigen Fall, wo ein Wechsel von Aurora Serverless weg 350.000 Dollar sparte, zeigt Atlassians monumentale Migration zu Aurora eine andere Perspektive: Manchmal ist Aurora scheinbar die richtige Wahl – zumindest für Atlassian mit 4 Millionen Datenbanken.

Atlassian betreibt eine Datenbank pro Jira-Tenant – bei Millionen von Kunden bedeutet das 4 Millionen PostgreSQL-Datenbanken auf 3.000 RDS-Instanzen weltweit. Täglich migrieren sie routinemäßig 1.000 Datenbanken für Load Balancing, ohne dass Kunden es merken.

Warum Aurora hier Sinn machte

  • Bessere SLA: 99,99% statt 99,95% bei RDS
  • Auto-Scaling: Bis zu 15 Reader-Instanzen bei Peaks
  • Effizienz-Paradox: Instanzgröße halbiert (von m5.4xlarge auf r6.2xlarge), aber gleiche Performance durch parallele Nutzung von Writer und Reader

Die Millionen-Files-Herausforderung

Der Clou: Jede Jira-Datenbank benötigt 5.000 Files auf der Disk. Bei 4.000 Datenbanken pro Instanz ergaben sich Millionen von Files – mehr als AWS je gesehen hatte. Die Aurora-Startprozesse liefen in Timeouts, weil sie beim File-Enumeration-Check hängen blieben.

Migration im Rekordtempo

  • Peak: 90.000 Datenbank-Migrationen pro Tag (normal: 1.000)
  • Drain-Convert-Refill: Instanzen leeren, zu Aurora konvertieren, wieder befüllen
  • Downtime: Unter 3 Minuten pro Cutover dank Feature Flags

Während unser vorheriger Fall zeigte, dass der Wechsel weg von Aurora Serverless Kosten spart, erreichte Atlassian mit Aurora ihre ambitionierten Kostenziele bei verbesserter Performance. Der Unterschied? Workload-Charakteristik:

  • Konstante Last → Provisioned Instances gewinnen
  • Massive Skalierung mit Peaks → Aurora zeigt seine Stärken

Es gibt halt keine One-Size-Fits-All-Lösung. Analyse der eigenen Workload-Muster entscheidet, ob Aurora oder klassische Instanzen die bessere Wahl sind. Ich hätte hier ja gerne das PlanetScale Metal (siehe Ausgabe #195) im Vergleich gesehen – vermutlich wäre das die deutlich performantere Wahl gewesen.

Migrating the Jira Database Platform to AWS Aurora


Schmunzelecke

„20 Jahre unbemerkt: Programmierfehler sorgt für fehlende Lehrer“ – Schlagzeilen, die man eigentlich nicht lesen möchte:

Die Zahl der so rein virtuell besetzten Stellen wuchs immer weiter an. Bis zuletzt über 1400 Vollzeitstellen real unbesetzt waren, im System aber weiterhin als belegt markiert. Was genau zu diesen Datenbankfehlern geführt hat, soll eine Projektgruppe nun versuchen herauszufinden – und diese für die Zukunft abstellen.

OMG – mehr bei heise.de


💡 Link Tipps aus der Open Source Welt

Nightingale – Open Source Alerting Engine

Das chinesische Ride-Hailing-Unternehmen DiDi hat mit Nightingale ein spannendes Open-Source-Monitoring-Tool entwickelt, das sich auf Alerting statt Visualisierung fokussiert. Während Grafana für schicke Dashboards bekannt ist, geht Nightingale einen anderen Weg.

Was macht Nightingale besonders?

  • Alerting-First-Ansatz: 20 eingebaute Notification-Kanäle (Telefon, SMS, Email, DingTalk, Slack)
  • Flexible Datenquellen: Verbindet sich mit VictoriaMetrics, ElasticSearch & Co.
  • Edge-Computing-tauglich: Distributed Alerting Engine für schlechte Netzwerkverbindungen
  • Prometheus Remote Write: Nahtlose Integration mit Categraf als Collector
  • Keine eigene Datensammlung: Fokus liegt rein auf Alert-Processing

Der Clou für Edge-Szenarien

Besonders interessant: Bei schlechter Netzwerkverbindung zum zentralen Server läuft die Alerting-Engine autonom weiter. Perfekt für verteilte Infrastrukturen oder Edge-Datacenter mit wackliger Anbindung.

Wann Nightingale NICHT passt

Die Entwickler sind erfrischend ehrlich: Für Alert-Eskalation, On-Call-Scheduling oder Multi-System-Konsolidierung empfehlen sie explizit PagerDuty & Alternativen. Nightingale bleibt bewusst schlank und fokussiert.

Endlich mal ein Tool, das nicht alles kann, sondern eine Sache richtig gut macht?
Für Teams, die bereits Monitoring-Daten sammeln und primär besseres Alerting brauchen, könnte Nightingale die perfekte Ergänzung sein. Die Donation an die China Computer Federation zeigt zudem Commitment für langfristige Open-Source-Entwicklung.

https://github.com/ccfos/nightingale

VictoriaTraces – Open Source Tracing auf Basis von VictoriaLogs

VictoriaMetrics entwickelt mit VictoriaTraces eine neue Tracing-Datenbank für Terabyte-große Trace-Daten. Das Tool baut auf VictoriaLogs auf und befindet sich noch in aktiver Entwicklung – Production-Einsatz wird daher noch nicht empfohlen.
Bin mittlerweile Fan von VictoriaMetrics aufgrund von Preis/Leistung und daher werde ich mir Traces auch anschauen

Features und Besonderheiten:

  • Automatische Indizierung aller Felder für Volltextsuche
  • Stream-basierte Optimierung nach service.name und span name
  • Spezielle Feldertime (aus EndTimeUnixNano), stream, streamid
  • Effiziente Kompression durch Stream-Gruppierung
  • OTLP-kompatibel mit speziellen Attribut-Mappings (resource_attr, scope_attr, span_attr)
  • Performance-Metriken zur Überwachung von High-Cardinality-Problemen

Achtung: APIs und Datenstrukturen können sich noch ändern.

VictoriaTraces zeigt aber bereits, wie moderne Observability-Tools mit effizienter Datenspeicherung umgehen – besonders relevant bei explodierenden Trace-Volumina. Die Dokumentation zu VictoriaTraces findest du hier – probierst du es mal aus?

https://github.com/VictoriaMetrics/VictoriaTraces

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

587 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x