Willkommen zu allesnurgecloud.com – Ausgabe #168
So, die Black Week / Cyber Monday und alles was dazu gehört ist vorbei und Weihnachten steht vor der Türe. Das ging nun wieder viel schneller vorbei, als gedacht – was soll man tun, um sich von den Strapazen der stressigen IT Arbeit zu erholen?
Bei uns in Heilbronn wird nun Axtwerfen als der neue Freizeitspaß beworben – sogar im Kino lief eine Werbung dafür. Lust hätte ich ja schon mal. Was machst du zur Erholung?
Hier findest du übrigens das OnlyFans für Allesnurgecloud Supporter 😉
Happy Bootstrapping Podcast
In dieser Woche hatte ich das zweite Mal den Indie Hacker Florian Mielke zu Gast. Er vertreibt seit 2009 Apps die beiden Apps WorkTimes und MinuteTaker. Beide hat er seit einiger Zeit auf ein Subscription Modell umgebaut und hat damit einen Umsatz von über 10.000€ im Monat. „Nebenbei“ ist er noch am freelancen – beeindruckend, wie ruhig er das alles macht. In der Folge waren auch für mich einige Überraschungen drin – hier kannst du Folge 99 direkt anhören. Nächsten Donnerstag kommt dann Folge 100 im Podcast und die wird in vielerlei Hinsicht spannend.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
KI-Offensive bei AWS: Nova, Trainium und Project Rainier
Amazon hat auf der AWS re:Invent 2024 eine umfassende KI-Offensive vorgestellt, mit der der Konzern gegen die Marktführer Microsoft und Google aufholen will. Die wichtigsten Neuerungen kommen in vier Bereichen:
Neue „Nova“ KI-Modelle:
- Nova Micro für schnelle Textverarbeitung
- Nova Lite als kostengünstiges multimodales Modell
- Nova Pro als leistungsstarkes multimodales Modell
- Nova Premier (Anfang 2025) für komplexe Aufgaben
- Nova Canvas und Nova Reel für Bild- und Videogenerierung
Die Nova-Modelle sollen 75% günstiger sein als die Konkurrenz und bereits 1.000 Amazon-Anwendungen unterstützen. Ein Alleinstellungsmerkmal ist die Unterstützung von über 200 Sprachen.
Neue KI-Chips „Trainium“:
- Trainium2 wird öffentlich verfügbar und verspricht 4x mehr Leistung bei 50% niedrigeren Kosten als Nvidia
- Trainium3 wurde angekündigt und soll Ende 2025 nochmals 4x schneller sein
- Apple konnte bereits als Großkunde gewonnen werden
Project Rainier als Supercomputer-Initiative:
- Cluster aus über 100.000 Trainium2-Chips
- Entwickelt für Partner wie Anthropic
- Soll 5x schneller bei der Ausbildung von Sprachmodellen sein
Investment in Anthropic:
- 4 Milliarden Dollar Investment in den Claude-Entwickler
- Soll AWS-Kunden exklusiven Zugang zu künftigen Claude-Modellen sichern
Mit dieser breit angelegten Offensive versucht Amazon nun, seine Position im KI-Markt deutlich zu stärken und den Rückstand auf OpenAI, Microsoft und Google aufzuholen. Ob es gelingt, werden wir sehen, oder?
Neben der reinen Rechenpower kann eine solch deutliche Kostenersparnis ein entscheidender Vorteil sein. Die neuen Chips sollen zudem in wassergekühlten DCs betrieben werden, was wiederum Kosten einspart und Effizienzen erhöht.
Das beinhaltet der große Amazon-Angriff auf die AI-Konkurrenz
Kubernetes Migration zu Hetzner: 75% Kosteneinsparung
In einem ausführlichen Blog-Artikel beschreibt ein Entwickler die Migration eines produktiven Kubernetes Clusters von DigitalOcean zu Hetzner Cloud. Neben einer beeindruckenden Kosteneinsparung von über 75% gibt es viele technische Details und Learnings zu entdecken.
Der Autor setzt auf Self-managed Kubernetes statt eines managed Service und nutzt moderne DevOps Tools wie Terraform für die Infrastructure as Code und Puppet für die Node-Konfiguration. Für die Netzwerk-Konnektivität kommt Calico als CNI zum Einsatz, administrative Zugriffe werden über Tailscale VPN abgesichert.
Besonders interessant sind die ehrlich beschriebenen Herausforderungen:
- Die Performance der Hetzner Volumes reiche für Datenbanken nicht aus – als Lösung kommen Local Persistent Volumes zum Einsatz
- Etwa 10% der Hetzner IPs sind von Google/GCP geblockt, was zu Problemen mit diversen Services führen kann
- Die Latenzen zwischen den Rechenzentren seien teilweise hoch (25ms zwischen Nürnberg und Helsinki finde ich nun aber voll ok)
- Der Support sei „sehr deutsch“ – technisch kompetent aber langsamer als bei US-Providern – kann ich so auch nicht bestätigen
- Weniger Features als bei AWS & Co, aber ausreichend für die meisten Use-Cases
Die Migration selbst dauerte etwa eine Woche, gefolgt von vier Wochen intensiver Tests vor dem finalen Produktiv-Switch. Das Fazit des Autors ist durchweg positiv – die technischen Limitierungen ließen sich durch gutes Engineering lösen und die enormen Kosteneinsparungen rechtfertigen den Aufwand.
Für Teams, die über eine Migration zu einem kostengünstigeren Cloud-Provider nachdenken, bietet der Artikel wertvolle Einblicke und praktische Lösungsansätze. Auch die ehrliche Darstellung der Herausforderungen hilft bei der Entscheidungsfindung.
Geblockte Hetzner IPs hatte ich auch schon an diversen Stellen – nicht nur beim E-Mail Versand, sondern auch beim Paket Download von diversen Repository Mirrors.
Sponsored
Kundenzentrisches Monitoring mit Checkly
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Mythos „Ghost Employees“: Remote Work ist nicht das Problem
In ihrem aktuellen Artikel beschäftigt sich Marissa Goldberg sich mit dem Phänomen der sogenannten „Ghost Employees“ – Mitarbeitende, die im Remote Work trotz Bezahlung ihren Aufgaben nicht nachkommen. Sie argumentiert, dass dies ein stark übertriebenes Problem sei und die weitaus größere Herausforderung das Gegenteil ist: Überarbeitung und Burnout bei Remote-Mitarbeitenden.
Wenn es tatsächlich „Ghost Employees“ in einer Organisation gibt, liegt das Problem laut Marissa nicht bei den Mitarbeitenden, sondern beim Unternehmen selbst.
Ihre vier konkreten Handlungsempfehlungen:
- Anpassung der Einstellungsprozesse – Remote Work erfordert andere Fähigkeiten, die durch bezahlte Probearbeiten oder Testphasen geprüft werden sollten
- Klare Erwartungen setzen – Jedes Teammitglied braucht ein detailliertes Roles & Responsibilities Dokument sowie klar definierte Erfolgskriterien
- Remote-Leadership Training für Führungskräfte – Das Führen verteilter Teams erfordert spezifische Fähigkeiten und Strategien
- Eliminierung von „Verstecken“ – Statt mehr Meetings einzuführen, sollten diese regelmäßig evaluiert und wo möglich durch asynchrone Kommunikation ersetzt werden
Die oft vorgeschlagenen Lösungen wie Überwachung oder erzwungene Rückkehr ins Büro (RTO) verschlimmern das Problem nur, da sie Vertrauen zerstören und den Fokus auf Anwesenheit statt Performance legen. Stattdessen sollten Unternehmen eine Kultur der Autonomie und Verantwortlichkeit aufbauen, die Leistung fördert ohne die hart arbeitenden Mitarbeitenden zu bestrafen.
The Truth About Ghost Employees
Observability 2.0 vs. 1.0 – Ein Paradigmenwechsel
Charity Majors, bekannt durch ihre Arbeit als CTO bei Honeycomb, beschreibt in einem interessanten Artikel den fundamentalen Unterschied zwischen Observability 1.0 und 2.0.
Dieser liegt nicht in einer Liste von Features oder Marketing-Buzzwords, sondern in einem einzigen technischen Aspekt: Während Observability 1.0 auf den „drei Säulen“ (Metriken, Logs und Traces) basiert und Daten in verschiedenen Tools und Formaten speichert, verfügt Observability 2.0 über eine einzige Datenquelle in Form von strukturierten Log-Events.
Diese Vereinheitlichung hat weitreichende Konsequenzen:
- Man kann Metriken aus den Log-Events ableiten
- Visualisierung über Zeit als Trace ist möglich
- Einfaches Zoomen zwischen einzelnen Requests und langfristigen Trends
- SLOs und Aggregationen können abgeleitet werden
- System-, Applikations- und Business-Telemetrie sind zusammen verfügbar
Die Kosten für Observability 1.0 werden zunehmend untragbar, da Daten mehrfach in verschiedenen Systemen gespeichert werden müssen. Mit steigender Kardinalität der Daten explodieren die Kosten regelrecht – ein $150k Datadog-Bill kann über Nacht zu einer Million-Dollar-Rechnung werden.
Charity sieht drei Hauptgründe für den unvermeidlichen Aufstieg von Observability 2.0:
- Die steigende Komplexität moderner Systeme macht es unmöglich, Entwicklung und Betrieb zu trennen
- Das Kostenmodell von Observability 1.0 ist nicht mehr zeitgemäß
- Eine kritische Masse von Entwicklern hat die Vorteile von 2.0 erkannt und will nicht mehr zurück
Es entstehen bereits erste Start-ups und Open-Source-Projekte in diesem Bereich. Allerdings warnt Charity vor Marketing-Claims – viele 1.0 Anbieter werben mit „unified observability“, meinen damit aber nur eine einheitliche Visualisierung verschiedener Datenquellen.
Das ganze Thema erinnert mich an eine meiner früheren Missionen – „Wir nehmen deine Logs nur als strukturiertes JSON in unser Log Management System auf“ – war ein harter Kampf, der sich aber gelohnt hat.
There Is Only One Key Difference Between Observability 1.0 and 2.0
7 Datenbanken, die du 2025 kennen solltest
Matt Blewitt, Senior Engineering Manager bei Heroku, empfiehlt im verlinkten Artikel sieben Datenbanktechnologien, die es sich 2025 anzuschauen lohnt. Dabei geht es nicht um ein „Best of“, sondern um interessante Technologien, die verschiedene Ansätze verfolgen:
- PostgreSQL – Die „langweilige“ aber zuverlässige Default-Datenbank, die durch ihr reichhaltiges Ökosystem an Erweiterungen glänzt. Der Postgres Wire-Protokoll wird zunehmend auch von anderen Diensten als Standard-Protokoll verwendet.
- SQLite – Die „Local-First“ Datenbank, die direkt in Anwendungen eingebettet wird. Durch Tools wie Litestream und LiteFS ergeben sich neue interessante Einsatzmöglichkeiten. WhatsApp und Signal setzen SQLite für lokale Datenspeicherung ein.
- DuckDB – Eine eingebettete analytische Datenbank (OLAP), die sich besonders durch ihre Fähigkeit auszeichnet, verschiedenste Datenquellen über SQL abzufragen – von CSV bis Parquet.
- ClickHouse – Die analytische Columnar-Datenbank, die sich durch hohe Ingest-Raten und horizontale Skalierung auszeichnet. Besonders interessant für „Real-Time“ Analytics auf großen Datensätzen.
- FoundationDB – Ein faszinierender Key-Value Store mit ACID-Transaktionen, der von Apple und Snowflake eingesetzt wird. Durch selbst auferlegte Limitierungen erreicht die DB extreme Skalierbarkeit.
- TigerBeetle – Eine hochspezialisierte Datenbank für Finanztransaktionen, die durch obsessive Korrektheit und Sicherheit besticht. In Zig geschrieben und mit NASA-Level Sicherheitsstandards.
- CockroachDB – Eine global verteilte Datenbank basierend auf Google Spanner, die Postgres-kompatibel ist und interessante Lösungen für verteilte Konsistenz bietet.
Bemerkenswert ist die Vielfalt der Ansätze – von embedded über analytisch bis hin zu global verteilt. Der Artikel empfiehlt, jeder Datenbank eine Woche zu widmen und hands-on Erfahrung zu sammeln. Die Liste zeigt auch den Trend zu spezialisierten Datenbanken für bestimmte Anwendungsfälle, statt einer „One size fits all“ Lösung.
Bei PostgreSQL kennen wir die Trends ja schon länger, SQLite wird immer beliebter (siehe weiterer Artikel im NL), ClickHouse hab ich schon häufiger erwähnt – TigerBeetle und FoundationDB sind mir bisher noch gar nicht begegnet, dir?
7 Databases in 7 Weeks for 2025
Incident Review: Learning oder Action Items?
Im verlinkten Artikel diskutiert Incident.io Gründer Chris Evans die häufig gestellte Frage, ob Post-Incident Reviews primär dem Lernen oder der Identifikation von Maßnahmen dienen sollen. Seine These: Beides gehöre untrennbar zusammen und sollte nicht künstlich getrennt werden.
Chris beschreibt einen pragmatischen Ansatz für effektive Incident Reviews:
- Kleine Runde mit direkt Beteiligten und relevanten Experten
- Offene Diskussion der Ereignisse und des Gelernten
- Action Items dort besprechen, wo sie im Kontext auftauchen
- Kein separater „Action Item Block“ am Ende
- Fokus auf realistische, umsetzbare Verbesserungen
Besonders spannend ist seine Antwort auf häufige Kritikpunkte:
- „Lernen und Actions widersprechen sich“ – Im Gegenteil, sie ergänzen sich
- „Actions machen Systeme nicht sicherer“ – Sorgfältig abgewogene Verbesserungen sind wichtig
- „Actions dienen nur der Beruhigung“ – Gute Actions entstehen aus echtem Verbesserungswillen
Chris sieht Incident Reviews als ganzheitlichen Prozess, bei dem Lernen und konkrete Verbesserungen Hand in Hand gehen. Das Ziel ist nicht die Anzahl der Action Items, sondern ein tieferes Verständnis der Systeme und sinnvolle Verbesserungen wo nötig.
Ein lesenswerter Artikel für alle, die ihre Incident Review Prozesse verbessern möchten. Die vorgeschlagene Balance zwischen Lernen und konkreten Maßnahmen erscheint sehr praxistauglich.
Why I like discussing actions items in incident reviews
SQLite als Storage für Web Server: ungewöhnlich, aber effizient?
Das Open Source Projekt Clace geht bei der Speicherung von statischen Web-Inhalten einen ungewöhnlichen Weg: Statt wie üblich das Filesystem zu nutzen, werden alle Files in einer SQLite Datenbank abgelegt. Die Entwickler berichten von überraschend vielen Vorteilen dieser Architektur:
Die wichtigsten Benefits:
- Atomare Updates durch Transaktionen – keine „broken websites“ während Deployments
- Einfache Rollbacks bei Fehlern
- Automatische Deduplizierung von Files über alle App-Versionen hinweg
- Einfachere Backups da alles in einer Datei
- Performance auf Filesystem-Niveau dank SQLite Optimierungen
Technische Details: Die Files werden mit SHA256 Hash als Primary Key und Brotli-komprimiert in der SQLite DB gespeichert. Ein simples aber effektives Schema:
CREATE TABLE files (
sha text,
compression_type text,
content blob,
create_time datetime,
PRIMARY KEY(sha)
);
Für Multi-Node Setups plant das Team später auf PostgreSQL zu wechseln, mit lokalem SQLite als Cache.
Warum nutzen nicht mehr Projekte diesen Ansatz? Die Entwickler vermuten historische Gründe – Filesysteme waren einfach schon immer der Standard. Zudem erfordert eine DB-basierte Lösung spezielle APIs für File-Uploads, während mit dem Filesystem beliebige Tools wie rsync oder tar genutzt werden können.
Klingt eigentlich recht interessant, oder? SQLIte erfreut sich immer mehr Beliebtheit für diverse Use-cases. An einen Filesystem Ersatz hab ich dabei jetzt auch noch nicht gedacht.
Using SQLite as Storage for Web Server Static Content
Ex-Google Manager bauen „Android für KI-Agenten“ – $56M Investment bei $500M Bewertung
Das Startup /dev/agents hat in einer Seed-Runde beeindruckende $56 Millionen bei einer Bewertung von $500 Millionen eingesammelt. Das Besondere: Das Team besteht aus ehemaligen Google-Executives, die bereits Android mit aufgebaut haben.
Die Vision des Teams:
- Entwicklung eines Cloud-basierten Betriebssystems für KI-Agenten
- Standardisierte Tools für die Entwicklung von KI-Agenten
- Plattform für die Zusammenarbeit verschiedener KI-Agenten
- Personalisierte UI durch generative KI
Das Gründerteam bringt beeindruckende Expertise mit:
- David Singleton (CEO): Ex-CTO von Stripe, ehem. AndroidWear-Lead bei Google
- Hugo Barra (CPO): Ex-VP Android Product Management, Ex-Meta Oculus
- Ficus Kirkpatrick (CTO): Früher Android Engineer, Ex-VP AR/VR bei Meta
Die erste Version des Produkts soll Anfang/Mitte 2025 verfügbar sein. Das Geschäftsmodell orientiert sich an Android – geplant sind Umsatzbeteiligungen oder Subscriptions.
Why AI agent startup /dev/agents commanded a massive $56M seed round at a $500M valuation
Meta plant $10 Milliarden Seekabel rund um die Welt
Meta, verantwortlich für 10% des Fixed- und 22% des mobilen Internet-Traffics weltweit, plant den Bau eines eigenen Seekabels. Das ambitionierte Projekt soll:
- Über 40.000 Kilometer lang werden
- Geschätzte Kosten von $10+ Milliarden haben
- Meta als ersten alleinigen Betreiber eines solchen Kabels etablieren
- Eine „W“-Form um den Globus bilden: US-Ostküste -> Südafrika -> Indien -> Australien -> US-Westküste
Besonders interessant:
- Start mit $2 Mrd Budget, Skalierung auf $10+ Mrd über die Jahre
- Vermeidung geopolitischer Spannungsgebiete wie Rotes Meer und Südchinesisches Meer
- Öffentliche Ankündigung für Anfang 2025 geplant
- Umsetzung wird Jahre dauern aufgrund begrenzter Ressourcen für Seekabelverlegung
Die Initiative zeigt den Trend, dass Tech-Giganten zunehmend ihre eigene Netzwerk-Infrastruktur aufbauen, statt sich auf Telekommunikationsanbieter zu verlassen. Ein spannendes Projekt, das Meta mehr Kontrolle über seine globale Dateninfrastruktur geben soll.
Meta plans to build a $10B subsea cable spanning the world, sources say
Schmunzelecke
Auf everyuuid.com findest du alle UUID V4 IDs – du kannst die IDs kopieren, faven und durchsuchen.
Das Ganze klingt erstmal nach einem Witz, ist aber ein Lernprojekt von Nolan (Du erinnerst dich an „One Million Checkboxes„?) und er wollte diesmal wissen, wie man alle IDs performant rendern, sortieren und durchsuchen kann. Eine ausführliche Beschreibung zum Projekt findest du in seinem Blog.
💡 Link Tipps aus der Open Source Welt
Autobase – Open Source DBaaS
Autobase hieß früher „Postgres-Cluster“ und ist eine automatisierte Plattform für die Bereitstellung von PostgreSQL Clustern bei AWS, Azure, Google, Digital Ocean und Hetzner.
Autobase minimiert den üblicherweise happigen finanziellen Overhead, den man sonst an die Cloud Provider bezahlt. Selbst bei Digital Ocean ist der nicht gerade klein – mit Autobase benötigt man nur einen IaaS Layer, installiert die Autobase Console und kann loslegen.
In der Console kann man dann Cluster anlegen, die wahlweise über HaProxy
oder Consul
HA und Loadbalanced werden. Die „HA-only“ Option gibt es ebenfalls, hier ist dan Patroni
, etcd
. PgBouncer
und der vip-manager
im Spiel Als OS hat man die Wahl zwischen Debian, Ubuntu, CentOS Stream Oracle, Linux, Rocky Linux und Alma Linux.
Das Projekt selbst ist schon 5 Jahre alt und nun eben „rebranded“ mit der Möglichkeit, Support einzukaufen.
Die Dokumentation ist hier und auf der Homepage findest du einen Kostenvergleich der verschiedenen Angebote – schon interessant, oder?
https://github.com/vitabaks/autobase
Outerbase Studio – Leichtgewichtiger SQL Client im Browser
Outerbase Studio ist eine Open Source GUI für gängige Datenbanken, die direkt im Browser läuft.
Aktuell supported:
- SQLite basierte Datenbanken wie SQLIte selbst, Turso, Cloudflare D1, ec.
- MySQL (beta)
- PostgreSQL (beta)
Neben der browserbasierten Variante gibt es noch eine Electron Desktop app. Der Client ist schick, modern und enthält sinnvolle Features wie das Speichern von Queries oder einer auto-completion von SQL Queries.
Screenshots bzw. animierte Gifs findest du auf der Website von Outerbase – eine Online Demo zum ausprobieren dann hier.
Finanziert wird das Projekt wie von anderen Projekten bereits bekannt über ein SaaS Angebot inkl. Enterprise Offering.
https://github.com/outerbase/studio
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: