Willkommen zu allesnurgecloud.com – Ausgabe #182
Heute ist Freitag und ich schreib den Newsletter schon fertig, da wir übers Wochenende weg sind. Meist schaffe ich das gar nicht, oder packe noch aktuelle Nachrichten mit rein.
Die Sicherheitsforscherin Lilith Wittmann hat nun nach den Casinos die Bauligs entdeckt („Coaches“ mit Rolex und so), und ich bin schon gespannt, was da in den nächsten Wochen noch passiert.
Happy Bootstrapping Podcast
In der aktuellen Folge 114 geht es um Sprachduschen mit der App Jicki – man lernt neue Sprachen durch Audio – sehr cool. Das Team um Stefan Graf aus Freiburg erwirtschaftet 1,2 Millionen Euro Jahresumsatz mit 14 FTE – das ist schon echt beeindruckend und hätte ich von außen nun nicht gedacht. Hier kannst du mal in die Hörprobe für Spanisch reinhören – ansonsten gerne den Podcast anhören, ist auch technisch interessant und der Stefan hat am Ende der Folge einen 50 % Code im Gepäck, der auch für das Jahresabo gilt – jetzt gleich direkt anhören.
Wie immer gibt es auch was zum Lachen und ein paar Open-Source Tipps!
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Cloud-Exit: Die große Ernüchterung nach der Cloud-Euphorie?
Wer allesnurgecloud schon länger liest der kennt das Thema „Cloud-Exit“ natürlich schon – bei Golem gibt es nun eine ausführliche Analyse mit dem Titel „Ernüchterung nach der Euphorie“ von Fabian Deitelhoff zum Thema: Nach Jahren der Cloud-Euphorie kehre nun bei vielen Unternehmen Ernüchterung ein. Statt weiter blind auf „Cloud-first“ zu setzen, findet ein differenzierteres Umdenken statt. Einige Unternehmen ziehen sogar ihre Workloads zurück in selbstbetriebene Infrastrukturen – ein Phänomen, das als „Cloud Repatriation“ bezeichnet wird.
Die Highlights aus dem Artikel:
Kostenfalle Cloud
Was einst als Sparmaßnahme angepriesen wurde, entpuppt sich für viele als Kostentreiber. Eine Studie von Vanson Bourne zeigt erschreckende Zahlen:
- 92% der befragten Unternehmen verzeichnen höhere Cloudkosten als geplant
- Im Durchschnitt werden die Budgets um satte 47% überschritten
- Die Kosten sind 2024 um 30% höher als im Vorjahr
Besonders KI-Anwendungen stellen sich als finanzielle Zeitbomben heraus. 50% der Befragten nennen KI als größten Kostentreiber, dicht gefolgt von generativer KI (49%) und Automatisierungen (36%). Hinzu kommen versteckte Gebühren für Support, erhöhten Datenverkehr oder ungenutzte Ressourcen.
Workloads zurück ins eigene RZ?
Als prominentes Beispiel für erfolgreiche Cloud-Rückführung wird das hier schon längst bekannte US-Softwareunternehmen 37signals (die Macher hinter Basecamp) genannt, das durch den Umzug zurück ins eigene Rechenzentrum knapp zwei Millionen US-Dollar einsparen konnte.
Persönlich finde ich Cases wie bei Sofascore, ahrefs oder BlueSky hier fast noch besser geeignet – aber DHH ist halt auch sehr laut.
Laut einer Barclays CIO Umfrage planen 2024 etwa 83% der befragten Enterprise-Unternehmen eine „Cloud Repatriation“.
Dabei geht es meist um ausgewählte Workloads:
- Produktionsdaten mit hohen Performance-Anforderungen
- Sicherheitskritische Anwendungen
- Backup- und Disaster-Recovery-Prozesse
- Datenbanken und Storage-Lösungen
Hybride Ansätze dominieren die Strategie
Allerdings kehrt die Mehrheit der Unternehmen nicht vollständig zur On-Premise-Infrastruktur zurück. Laut IDC-Studie planen nur etwa 10% einen kompletten Cloud-Exit. Stattdessen setzen die meisten auf hybride Modelle: Kritische oder sensible Workloads werden zurückgeführt, während andere in der Cloud verbleiben. Gut, ich hoffe, damit ist nicht das eigene DataCenter gemeint, sondern zumindest eine Co-Location, oder ein IaaS Dienst – gewisse Teile auszulagern macht ja schon Sinn.
Der Kostenvergleich zwischen Cloud und On-Premise hängt stark von der Nutzungsintensität ab:
- Bei geringer Nutzung (ca. 120 Testausführungen/Jahr): Cloud-ROI 12%, On-Premise-ROI -58%
- Bei 600 jährlichen Lasttests: vergleichbarer ROI
- Bei mehr als 600 Tests: On-Premise-Lösungen wirtschaftlicher
Sicherheitsbedenken gibt es ebenfalls
Neben Kosten spielen auch Sicherheitsbedenken eine wichtige Rolle. Erschreckend: 52% der Unternehmen haben bereits Datenverluste in der Cloud erlitten, weil sie sich zu stark auf die Sicherheitslösungen der Provider verlassen haben.
Hinzu kommen regulatorische Anforderungen und ein zunehmender Vertrauensverlust in US-amerikanische Cloud-Anbieter, was viele Unternehmen zum Umdenken zwingt.
Die Cloud ist sicherlich nicht tot, aber die blinde Euphorie weicht einer realistischeren Einschätzung. Für Unternehmen wird es immer wichtiger, die TCO (Total Cost of Ownership) genau zu analysieren und flexibel zu entscheiden, welche Workloads wo am sinnvollsten betrieben werden.
Grundsätzlich finde ich den Begriff „Hyperscaler-Exit“ fast besser, denn ganz raus aus einem „Pay-as-you-Go“ Modell sollte man ja nicht, aber man muss sich schon hinterfragen, ob man die Marge, die ein AWS, Google und Azure mit einem verdienen nicht besser woanders aufgehoben ist – im eigenen Produkt, im Investment in die Zukunft oder einfach als Wachstumskapital für das eigene Unternehmen.
Passend zum Thema findest du übrigens bei den Open-Source Teams ein Tool, welches Risiken deiner Cloud-Infrastruktur aufzeigt (beispielsweise Abhängigkeiten von Services, die es nur bei bestimmten Anbietern gibt und eine Migration schwierig machen).
Ernüchterung nach der Euphorie
European Alternatives: Zuwachs für Tech-Alternativen
Die Website „European Alternatives“, die unabhängige, datenschutzfreundliche digitale Tools aus Europa vorstellt, erlebt einen beeindruckenden Traffic-Boom mit über 8,5 Millionen Seitenaufrufen. Allein in 2025 (erst drei Monate alt!) verzeichnete die Plattform einen Anstieg von 1100% mit 1,3 Millionen Besuchern. Der souveräne und privacy-friendly Analytics Service Plausible hat die Daten des öffentlich verfügbaren Plausible Dashboards von european-alternatives.eu in einem Blog Artikel analysiert.
Besonders interessant: Reddit überholt Google als Traffic-Quelle mit 311.000 vs. 193.000 Besuchern! Datenschutzfreundliche Suchmaschinen wie DuckDuckGo (33.800 Besucher), Ecosia (13.500) und Qwant (10.800) gewinnen ebenfalls deutlich an Bedeutung.
Die beliebtesten Kategorien sind:
- E-Mail-Anbieter
- Suchmaschinen
- Cloud-Computing-Plattformen
- Navigations-Apps
- Web-Analytics-Dienste
Während Deutschland mit 379.000 Besuchern (20,5% des Gesamttraffics) die Liste anführt, gefolgt von den Niederlanden und Frankreich, ist der Trend nicht auf Europa beschränkt – die USA belegen Platz 4 mit über 100.000 Besuchern.
Zu den meistgeklickten europäischen Tools gehören Mailbox.org, ProtonMail und Soverin (E-Mail), Startpage und Qwant (Suchmaschinen) sowie Scaleway (Cloud-Anbieter). Die Kategorie der datenschutzfreundlichen Web-Analytics-Tools verzeichnet einen besonders starken Anstieg von 2.700% in 2025.
Der durchschnittliche Besucher verbringt fast 3 Minuten auf der Seite – ein deutliches Zeichen für das wachsende Interesse an europäischen, datenschutzfreundlichen Alternativen zu den Tech-Giganten.
Auch interessant – Plausible selbst schreibt auf der Startseite:
Plausible is intuitive, lightweight and open source web analytics. No cookies and fully compliant with GDPR, CCPA and PECR. Made and hosted in the EU, powered by European-owned cloud infrastructure
„European-owned cloud infrastructure“ – es sind die Details, die die Seitenhiebe ausmachen.
Millions are visiting the European Alternatives site––what trends are we seeing?
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Homeoffice bleibt stabil: Fast ein Viertel arbeitet von zu Hause
Die flexiblen Arbeitsmodelle, die während der Pandemie entstanden, haben sich dauerhaft in der deutschen Arbeitswelt etabliert. Aktuelle Ifo-Institut-Zahlen zeigen: Im Februar 2025 arbeiteten 24,5 Prozent aller Beschäftigten zumindest teilweise im Homeoffice – ein leichter Anstieg gegenüber August 2024. Der Business Punk fasst im verlinkten Artikel verschiedene Studien und Berichte von BR, ZDF und heise zusammen.
Die „Return-to-Office“-Bewegung aus den USA findet in Deutschland kaum statt. „Wir sehen keinerlei Hinweise darauf, dass das Homeoffice auf dem Rückzug ist“, bestätigt Ifo-Forscher Jean-Victor Alipour.
Deutliche Branchenunterschiede zeigen die digitale Kluft:
- IT-Dienstleistungen: Spitzenreiter mit fast 75% Homeoffice-Anteil
- Dienstleistungssektor allgemein: 34,3%
- Verarbeitendes Gewerbe: 16,9%
- Handel: 12,5% (Großhandel 17,3%, Einzelhandel nur 5%)
- Baubranche: Schlusslicht mit 4,6%
Der vermeintliche Produktivitätsverlust durch Heimarbeit entpuppt sich zunehmend als Mythos. Gut koordinierte hybride Modelle wirken sich nicht negativ auf die Produktivität aus – im Gegenteil können sie durch gezielte Präsenztage sogar Vorteile bringen.
Warum beordern dann manche Firmen ihre Mitarbeitenden zurück? Alipour vermutet einen versteckten Personalabbau: „Solche Maßnahmen können auch freiwillige Kündigungen fördern.“
Interessant: Heimarbeiter nehmen längere potenzielle Pendelzeiten in Kauf (40 statt 25 Minuten), da sie seltener ins Büro müssen. Das IAB bestätigt: Die Flexibilität ermöglicht es, Wohnortwünsche und Karriereambitionen besser zu vereinbaren.
Für Unternehmen wird klar: Wer auf strikte Präsenzpflicht setzt, riskiert im Wettbewerb um Fachkräfte ins Hintertreffen zu geraten. Die Flexibilität ist für viele Beschäftigte mittlerweile ein entscheidender Faktor bei der Jobwahl.
Ich glaub, ich könnte auf Basis der vielen Remote Artikel hier im Newsletter so langsam ein Best-Practice Buch schreiben.
Work hard from Home: Jeder Vierte arbeitet von zu Hause – und will es nicht mehr missen
IO-Geräte und Latenz: Von Speicherbändern zu NVMe-Festplatten
PlanetScale hat in einem sehr ausführlichen Artikel die Geschichte und Entwicklung von Speichermedien beleuchtet – von alten Magnetbändern über Festplatten bis hin zu modernen SSD-Lösungen. Der Beitrag erklärt anschaulich mit interaktiven Visualisierungen, wie sich Latenz und Performance über die Jahrzehnte verbessert haben und warum dies für Datenbanken besonders relevant ist.
Die Visualisierungen sind echt cool gemacht und teilweise auch interaktiv / steuerbar – probier es gerne mal hier für Hard Drives aus.
Die Evolution der Speichermedien:
- Magnetbänder: Erste digitale Speichermedien aus den 1950ern mit langsamen Zugriffszeiten (mehrere Sekunden), heute noch für Archivierungszwecke genutzt
- Festplatten (HDDs): Reduzierung der Zugriffszeit auf 1-3 Millisekunden dank rotierender Platten und mechanischer Leseköpfe
- SSD-Speicher: Elektronischer Zugriff ohne mechanische Komponenten mit drastisch verbesserten Zugriffszeiten (bis zu 16 Mikrosekunden)
Performance-Faktoren bei SSDs: Auch bei SSDs spielen physikalische Organisationsprinzipien eine wichtige Rolle. Der Artikel erklärt zwei entscheidende Faktoren:
- Parallelismus: Gleichzeitige Nutzung mehrerer Datenlinien zu verschiedenen Targets
- Garbage Collection: Notwendige Aufräumprozesse, da SSDs Daten nur blockweise löschen können
Herausforderungen in der Cloud-Ära: Die Trennung von Speicher und Rechenleistung in Cloud-Infrastrukturen führt oft zu Leistungseinbußen durch netzwerkbasierte Speicherlösungen (EBS, Cloud SQL). Während diese Trennung Vorteile wie Datensicherheit und flexible Skalierung bietet, erhöht sie die Latenz erheblich – von 50 Mikrosekunden bei lokalem NVMe-Speicher auf 250 Mikrosekunden bei Netzwerkspeicher. Zusätzlich limitieren viele Cloud-Anbieter die IOPS (IO-Operationen pro Sekunde) künstlich.
Natürlich hat Planetscale mit dem hauseigenen „Metal“ Service das passende Angebote mit lokal verbunden SSDs (in AWS oder Google Cloud) im Gepäck – hatte ich in der letzten Ausgabe aber schon vorgestellt.
Abkehr von US-Cloud-Diensten: Ein Migrationsbericht
In einem ausführlichen Blog-Artikel beschreibt Martijn Hols seine Erfahrungen bei der Migration von US-amerikanischen Cloud-Diensten zu europäischen Alternativen. Angesichts wachsender Bedenken bezüglich Datenschutz und der zunehmenden Nutzung von Tech-Unternehmen als „Waffe“ durch die US-Regierung entschied er sich für diesen Schritt.
Seine wichtigsten Migrationen:
- Microsoft 365: Wechsel zu Proton Business Suite (12,99 €/Monat) mit 1 TB Speicher für Mail, Kalender und Dateien
- Bitwarden: Ersatz durch Proton Pass mit verbesserter Benutzerfreundlichkeit
- Cloudflare/Google DNS: Umstellung auf das Schweizer Quad9
- Docker Hub: Migration zu Scaleway Container Registry (ca. 1 €/Monat)
Noch ausstehend:
- GitHub (komplex wegen tiefer Integration)
- Google Search (verwendet aktuell Startpage als Proxy)
- NPM (sucht nach europäischen Alternativen)
Der Autor war überrascht, wie einfach die Migration seiner wichtigsten Dienste war – Microsoft 365 zu ersetzen dauerte nur einen Nachmittag. Er empfiehlt, mindestens zweimal nachzudenken, bevor man neue US-Dienste nutzt, und stattdessen europäische Alternativen in Betracht zu ziehen.
Die Services von Proton werden scheinbar immer beliebter – hab ich mir auch mal genauer angeschaut.
Nutzt du Services von Proton?
Falls ja welche – und wie zufrieden bist du damit? Freu mich über einen kurzen Austausch
Soweit ich das von außen sehen kann, hosten die bei Hetzner Online – das ist ja zumindest mal charmant.
Moving away from US cloud services
n8n sammelt 60 Millionen Dollar für Workflow-Automation ein
Das Berliner Startup n8n hat eine Serie-B-Finanzierung in Höhe von 60 Millionen Dollar abgeschlossen (Quelle: TechCrunch), angeführt von Highland Europe. Die Bewertung liegt bei etwa 270 Millionen Dollar. Auch frühere Investoren wie Sequoia, Felicis und Harpoon haben sich an der Runde beteiligt.
n8n, ein Pionier im Bereich „Fair-Code“ (eine Weiterentwicklung von Open Source), hat seine Workflow-Automation-Plattform 2022 KI-freundlich umgestaltet, was zu einem 5-fachen Umsatzanstieg führte. Die Lösung ermöglicht es, Anwendungen über natürliche Sprache zu verbinden – „ein Prompt, um Workflows zu erstellen“, wie CEO Jan Oberhauser erklärt.
Mit über 3.000 Unternehmenskunden und rund 200.000 aktiven Nutzern plant n8n, die neuen Mittel für technologische Weiterentwicklung und Expansion in neue Märkte, insbesondere die USA, zu verwenden. Laut Oberhauser nutzen etwa 75% der Kunden bereits die KI-Funktionen der Plattform.
Das Open-Source-Tool ist besonders bei Entwicklerteams beliebt, die Low-Code- und No-Code-Automatisierungslösungen suchen, und verfügt über eine aktive Community mit mehr als 70.000 „Stars“ auf GitHub. Wie manch aufmerksamer Leser sicherlich bemerkt hat, habe ich n8n bereits mehrfach im Newsletter erwähnt – die intuitive Plattform bleibt definitiv ein interessanter Player im Bereich der Workflow-Automatisierung.
Fair-code pioneer n8n raises $60M for AI-powered workflow automation
Das Serverless-Trilemma: Kosten, Performance und Komplexität
In der Welt der Cloud-Architektur stoßen wir ständig auf Trade-offs – das ist weder neu noch überraschend. Doch bei Serverless Computing verschieben sich die klassischen Entscheidungskriterien erheblich, wie der spannende Beitrag von Sander Knape aufzeigt.
Das klassische Cloud-Trilemma betrachtet Kosten, Performance und Zuverlässigkeit als konkurrierende Faktoren. Bei Serverless ist Zuverlässigkeit jedoch durch das inhärent verteilte Berechnungsmodell quasi eingebaut – horizontale Skalierung mit Queuing- und Retry-Mechanismen macht Systemausfälle nahezu unmöglich.
Daher schlägt Knape ein neues Trilemma vor: Kosten, Performance und Komplexität. Dieses Modell ermöglicht praxisnahere Architekturentscheidungen bei Serverless-Anwendungen:
- Kosten – Was zahlen wir pro Ausführung oder Speicherung?
- Performance – Wie schnell reagiert das System auf Anfragen?
- Komplexität – Wie aufwändig ist Entwicklung und Wartung?
Ein anschauliches Beispiel: DynamoDB vs. Aurora Serverless.
DynamoDB bietet oft bessere und vorhersehbarere Performance bei höherer Kosteneffizienz, aber mit erhöhter Komplexität (komplexe Datenmodellierung, vorab definierte Zugriffsmuster). Ein relationales Datenbanksystem ist dagegen einfacher zu nutzen und weiterzuentwickeln, kann aber teurer sein und langsamer arbeiten.
Das eigene Projekt des Autors – aws-news.com – zeigt, wie diese Abwägungen in der Praxis aussehen können. Um Aurora Serverless effektiv herunterfahren zu können (und damit Kosten zu sparen), implementierte er eine zusätzliche DynamoDB-Tracking-Tabelle – ein klassischer Trade-off zwischen Kosten und Komplexität.
Mit veränderten Kontextbedingungen (Teamgröße, Nutzerbasis, Budgets) verschieben sich auch die optimalen Entscheidungspunkte im Trilemma. Gerade für uns, die wir in der Cloud-Welt täglich Architekturentscheidungen treffen müssen, liefert dieser Denkansatz ein wertvolles Werkzeug für fundierte und nachvollziehbare Design-Entscheidungen.
Und meiner Meinung nach spielt noch etwas eine Rolle – je „verschachtelter“ der Service des Cloud-Anbieters ist, desto höher sind die Kosten bei gleichbleibend hoher Auslastung. Natürlich gibt es ganz viele Use-Cases, wo sich der Trade-off zu Serverless lohnt – man muss aber immer die Kipppunkte beachten.
The Serverless Trilemma: Cost, Performance, and Complexity
Geschirrspüler mit der Cloud verbinden?
Jeff Geerling – bekannt für seine pragmatischen Tech-Reviews – teilt in seinem neuesten Blog-Beitrag seine Frustration über den zunehmenden Cloud-Zwang bei Haushaltsgeräten, speziell bei seinem neuen Bosch 500 Geschirrspüler.
Die Situation ist absurd: Nach Installation des neuen Geräts (sein alter GE-Spüler war nach 8 Jahren defekt) musste Geerling feststellen, dass grundlegende Funktionen wie Spülgang, ECO-Modus und verzögerter Start nur über die Cloud-App „Home Connect“ zugänglich sind. Ohne WLAN-Verbindung, Cloud-Konto und App bleiben diese Features blockiert!
Was besonders ärgerlich ist: Bei älteren Modellen waren diese Funktionen über einfache physische Tasten erreichbar. Beim teureren 800er-Modell (+400$) gibt es immerhin ein eigenes Display – aber beim 500er-Modell versteckt Bosch diese Features hinter einer Cloud-Paywall.
Geerlings Kritik bringt drei wichtige Punkte auf den Punkt:
- Faule Produktgestaltung: Warum kein einfaches Display für alle Modelle?
- Geplante Obsoleszenz 2.0: Was passiert, wenn der Cloud-Service eingestellt wird oder plötzlich kostenpflichtig wird?
- Sicherheitsrisiko: Jedes mit dem Internet verbundene Gerät ist ein potenzielles Einfallstor
Er fordert einen kundenfreundlichen Ansatz: „First local, then cloud“ – Cloud-Funktionen sollten immer nur eine optionale Erweiterung sein, nicht die einzige Möglichkeit, grundlegende Funktionen zu nutzen.
Besonders frustrierend für Geerling: Nach vier Stunden Installation ist eine Rückgabe kaum noch eine Option. Und selbst die existierende Python-Bibliothek „HCPY“, die das Home-Connect-Protokoll reverse-engineered, erfordert zunächst trotzdem die Cloud-Verbindung.
Diese Entwicklung beobachte ich mit wachsender Sorge. Während Cloud-Integration bei vielen Geräten sinnvolle Zusatzfunktionen bieten kann, sollte sie nie zur Voraussetzung für Basisfunktionalität werden.
Was meinst du? – würdest du ein solches Gerät zurückgeben oder dich widerwillig mit der Cloud verbinden?
I won’t connect my dishwasher to your stupid cloud
Elasticsearch in Hochlast-Umgebungen optimieren
Die Skalierung von Elasticsearch erfordert ein tiefes Verständnis seiner verteilten Architektur und gezielten Optimierungsmaßnahmen, um in datenintensiven Umgebungen zuverlässig zu funktionieren. Der verlinkte Artikel beleuchtet praktische Erfahrungen bei Swoo, einer Gaming-App, die bei über 150.000 parallelen Nutzern Leistungsprobleme erlebte.
Kernaspekte für erfolgreiche Elasticsearch-Skalierung:
- Sharding-Management: Die richtige Balance ist entscheidend – zu viele oder zu wenige Shards beeinträchtigen die Performance erheblich
- Dateneinspeisung optimieren: Durch Batch-Verarbeitung (Bulk API) und angepasste Refresh-Intervalle kann die Indexierungsgeschwindigkeit deutlich verbessert werden
- Speicherverwaltung: JVM-Heap-Größe, Field-Data-Cache und Query-Cache müssen optimal konfiguriert werden
Bei Swoo wurden mehrere Optimierungen vorgenommen:
- Anpassung der JVM-Parameter (Xms und Xmx auf 8 GB)
- Verteilung großer Indizes auf kleinere Shards zur Vermeidung von Hotspots
- Einführung eines kurzfristigen Cachings (1 Sekunde TTL) für wiederkehrende Anfragen
- Kontinuierliches Monitoring über Kibana mit benutzerdefinierten Dashboards
Ein interessanter theoretischer Aspekt: Verteilte Elasticsearch-Cluster skalieren zwar horizontal besser, erzeugen aber durch die notwendige Aggregation von Teilabfragen über mehrere Knoten hinweg zusätzlichen Overhead, was zu höheren Latenzen führen kann als bei Einzelknoten-Architekturen.
Bei der Skalierung von Elasticsearch gilt es, die richtige Balance zwischen Datendurchsatz, Abfragelatenz und Ressourcennutzung zu finden. Die Autoren empfehlen eine Hot-Warm-Cold-Architektur für das Index Lifecycle Management, um ältere Daten auf kostengünstigeren Speicher zu verlagern und die Performance für aktuelle Daten zu optimieren.
How to Scale Elasticsearch to Solve Your Scalability Issues
Schmunzelecke
Vermutlich hast du den Tweet von @leojr94_ schon gesehen, in dem er erst begeistert über AI ist („Vibe Coding“) und damit ein neues SaaS Tool baut – 2 Tage später ist er dann „under attack“ und „I’m not so technical, so this is taking me longer to figure out“.
Auch wenn wir hier in der Schumuzelecke sind, zeigt das gut die Gefahren von AI Nutzung beim „Ich bau mal schnell etwas“. In den Kommentaren schreibt ein User dann:
He was using all hardcoded API keys and only now learned what environment variables are.
AI ist halt ein Hilfsmittel, aber die Basics muss man schon noch selber kennen oder dem Prompt auch sagen, dass es erklärt, was es da so tut.
💡 Link Tipps aus der Open Source Welt
EscapeCloud: Open-Source-Tool für Cloud-Exit-Strategien
EscapeCloud stellt mit „CloudExit“ ein neues Open-Source-Tool vor, das Unternehmen bei der Bewertung und Planung eines möglichen Cloud-Ausstiegs unterstützt. Das im November 2024 veröffentlichte Tool ermöglicht Cloud-Engineers eine strukturierte Analyse ihrer Cloud-Umgebung, um Risiken und Herausforderungen eines Wechsels zu identifizieren.
Der CloudExit-Prozess umfasst mehrere Schritte:
- Definieren des Bewertungsumfangs (z.B. Azure Resource Groups oder AWS-Accounts)
- Erstellung eines Ressourcen-Inventars
- Kostenanalyse der genutzten Dienste
- Risikobewertung mittels vordefinierter Regelwerke
- Evaluierung alternativer Technologien
- Entwicklung einer umfassenden Exit-Strategie
EscapeCloud bietet drei Lösungsvarianten an:
- CloudExit: Die kostenlose Open-Source-Variante für jedermann
- ExitCloud.io: On-Demand-Assessments für schnelle Einblicke
- Platform: Enterprise-Lösung speziell für regulierte Branchen wie den Finanzsektor
Aktuell läuft es nur für Azure und AWS – Ein Beispiel Screenshot eines Reports findest du hier.
Passt gut zum aktuellen Trend, oder?
Interessanterweise hatte mir der Entwickler das Tool im Dezember gepitched und wir ein bisschen hin und hergeschrieben – hab es dann verpasst, den Fortschritt zu verfolgen. Nun war es im Last Week in AWS Newsletter erwähnt worden und dann hatte ich mir es erneut angeschaut.
https://github.com/escapecloud
GPT-Engineer: KI-gestützte Codegenerierung als CLI-Tool
GPT-Engineer ist eine Open-Source-CLI-Plattform für KI-gestützte Codegenerierung, die als Grundstein für das VC-finanzierte Startup lovable.dev diente.
Kernfunktionen
Das Tool ermöglicht:
- Softwarespezifikation in natürlicher Sprache
- Automatische Codegenerierung und -ausführung
- KI-gestützte Implementierung von Verbesserungen
Über „Pre-Prompts“ lässt sich die KI-„Identität“ anpassen, indem der preprompts
-Ordner mit eigenen Versionen überschrieben wird.
Besonderheiten
Neben Texteingaben unterstützt GPT-Engineer auch Bilder als Kontext (nützlich für UX/Architekturdiagramme) mit Vision-fähigen Modellen. Es arbeitet mit OpenAI/Anthropic-Modellen und kann auch Open-Source-Modelle nutzen.
Community
Die Community fokussiert sich auf die Entwicklung von Tools für Coding-Agenten und die Förderung von Open-Source-Zusammenarbeit. Während GPT-Engineer als experimentelles Tool weiterlebt, hat es den Weg für lovable.dev als kommerzielle Weiterentwicklung geebnet.
Loveable hat übrigens 15 Millionen Funding eingesammelt und man teilt die Roadmap und aktuelle Entwicklungen sehr aktuell im Blog.
https://github.com/AntonOsika/gpt-engineer
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: