Willkommen zu allesnurgecloud.com – Ausgabe #192
Bei Elon und Trump ging es die Woche drunter und drüber und da haben sicherlich genug darüber berichtet – der Postillon hat das Thema ganz gut beschrieben. Was mir das zeigt, ist wie volatil und unberechenbar solche Beziehungen sind oder aktuell mit den USA sein können – auch geschäftlich. Daher ist das Thema Souveränität gerade überall präsent und jeder versteht, was damit gemeint ist. In dieser Ausgabe gibt es deshalb ein paar Themen dazu.
Hier ist nun eine Woche Pause – da ich mit Familie in den Bergen eine kleine Auszeit mache. Dafür ist die heutige Ausgabe dann doch sehr ausführlich – Ausgabe 193 kommt dann am 22. Juni – bis dahin aber erstmal schöne Pfingsten und viel Spaß mit dieser Ausgabe.
Happy Bootstrapping Podcast
In Folge 124 von Happy Bootstrapping habe ich mit Leon Jungfleisch vom E-Commerce AI Chatbot „Vennie“ gesprochen. Vennie integiert sich in vorhandene Lösungen wie Shopify und Zendesk und hilft dann als „Chatbot auf Steroiden“, der Zugriff auf die Daten hat – und damit auch wirklich helfen kann. Bestellungen ändern, Lieferzeiten Abfrage, Adressänderungen – all das kann Vennie machen – 24/7. Interessante Sache, auch wie Leon und Co-Founder Janis arbeiten und wie sie das Unternehmen dahinter bootstrappen – jetzt in Folge 124 reinhören.
Wie immer gibt es auch was zum Lachen und ein paar Open-Source Tipps!
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
AWS European Sovereign Cloud
AWS macht ernst in Europa und kündigt seine bisher ambitionierteste Initiative an: die AWS European Sovereign Cloud. Mit einer gigantischen Investition von 7,8 Milliarden Euro bis 2040 will man ab Ende 2025 von Brandenburg aus den Markt für digitale Souveränität aufmischen. Das ist eine klare Kampfansage an Microsoft und Google, die in diesem Bereich schon aktiv sind. Aber was steckt wirklich hinter der Ankündigung und ist das die Lösung, auf die Europas regulierte Industrien gewartet haben?
Was die AWS-Lösung so besonders macht
AWS verspricht hier nicht einfach nur eine weitere Region, sondern einen radikal anderen Ansatz. Der entscheidende Unterschied zu den Angeboten der Konkurrenz liegt in der versprochenen Vollständigkeit des Konzepts:
- Komplette Kapselung: Die Infrastruktur wird nicht nur logisch, sondern auch physisch vollständig von der globalen AWS-Welt getrennt. Stell dir vor, selbst wenn die Verbindung zur restlichen AWS-Welt gekappt wird, läuft der Laden in Europa autark weiter. Technisch wird das unter anderem durch eine eigene DNS-Infrastruktur und eine eigene Zertifizierungsstelle untermauert.
- Alles in EU-Hand: Vom 24/7-Support bis zur physischen Wartung im Rechenzentrum – alle operativen Aufgaben werden ausschließlich von Personal mit Sitz in der EU übernommen. Dafür wird extra eine neue deutsche Unternehmensstruktur mit eigener deutscher Geschäftsführung hochgezogen.
- Keine halben Sachen: Anders als bei manchen Partner-Modellen der Konkurrenz verspricht AWS die volle Service-Landschaft mit identischen APIs. Du bekommst also die gleiche Power und die gleichen Werkzeuge wie in der Public Cloud, nur eben unter einer souveränen Haube.
Der Kampf mit der Konkurrenz und die offenen Fragen
Klar ist aber auch: AWS ist hier ein Späteinsteiger. Microsoft mit seiner „Cloud for Sovereignty“ und Google mit seinen lokalen Partner-Modellen (denk an T-Systems in Deutschland) haben bereits Lösungen am Start. Oracle hat eine „Souvereign Cloud“ Lösung in der EU, die dem AWS Angebot rein regulatorisch (nur EU Bürger arbeiten, daran, etc.) am nähesten kommt. Daneben gibt es viele komplett souveräne Angebote – beispielsweise von STACKIT, Ionos, Gridscale und vielen mehr.
Die größte Herausforderung für AWS wird die Glaubwürdigkeit sein. Denn trotz aller Trennung bleibt die Muttergesellschaft ein US-Unternehmen. Was bedeutet das im Hinblick auf den US CLOUD Act? Das ist die Gretchenfrage, die sich viele Kunden stellen werden. Zudem steht die finale Zertifizierung nach EUCS noch aus, ein entscheidender Meilenstein für das Vertrauen von Behörden und Co.
Luckycloud CEO Luc Mader schreibt dazu auf LinkedIn:
Denn solange ein US-Konzern Herr über Infrastruktur und Updates bleibt, sind technische Sicherheitsversprechen nur so viel wert wie die nächste Executive Order in Washington.
Interessant finde ich dennoch, dass man sich im Hause AWS diese Umstände macht, Investitionen in der Höhe tätigt und Stolpersteine in den Weg legt – die ansonsten global skalierende Infrastruktur, die überall gleich gebaut wird – da ist das hier ja Manufaktur Arbeit dagegen. Das zeigt ja eigentlich nur, dass es noch viel Potenzial auf dem Markt auch für Wettbewerber geben muss.
AWS legt ein technisch beeindruckendes und umfassendes Paket auf den Tisch, das die Konkurrenz unter Druck setzt. Ob es dann die erste Region wird, die wirklich nicht irgendwie von us-east-1
abhängt? Man weiß es nicht.
Für europäische Unternehmen, die auf maximale Datensouveränität angewiesen sind, ohne auf das gewohnte AWS-Ökosystem verzichten zu wollen, könnte das der Game-Changer sein. Die nächsten Jahre werden zeigen, ob das Konzept auch die rechtlichen und regulatorischen Hürden meistert.
Technisch und rechtlich unabhängig: So funktioniert Amazons EU-Cloud
Cloud Repatriation wird komplizierter
Corey Quinn von „Last Week in AWS“ analysiert in seinem aktuellen Artikel Cloud Repatriation is Getting Complicated die veränderte Diskussion um Cloud-Exits. Seine Einschätzung: Die Story hat sich seit 2020 durchaus gewandelt.
Innovation vs. Kostenrealität
Quinn bleibt bei seiner ursprünglichen These: Cloud ist primär ein Innovation-Play, kein Kostensparer. Die Cloud ermöglicht schnelle Iteration und Skalierung gegen einen deutlichen Aufpreis. Unternehmen haben diese Rechnung bewusst gemacht, solange Geld praktisch kostenlos war.
Doch seit dem Ende der Nullzinspolitik ändert sich die Perspektive: CFOs schauen kritischer auf die monatlichen AWS-Rechnungen und fragen sich, ob wirklich alle Workloads diese teure Flexibilität benötigen. Gleichzeitig verstärken sich Datensouveränitäts-Bedenken bei internationalen Kunden gegenüber US-basierten Cloud-Anbietern.
Wer treibt die Diskussion und warum?
Die bekannten Verdächtigen sind zurück:
- Legacy-Infrastruktur-Anbieter stauben ihre alten Anti-Cloud-Pitches ab
- Analyst-Firmen erzählen Unternehmen genau das, was sie hören wollen
- Die Dropbox-Erfolgsgeschichte wird religiös zitiert
- Zynga’s spektakulärer Fehlschlag beim Cloud-Exit wird konsequent ignoriert
Besonders lautstark sind dabei Unternehmen, die seit Jahren nicht mehr wirklich innoviert haben – für sie sei das Repatriation-Theater oft die einzige Aufmerksamkeit, die sie noch bekommen.
Echte „Repatriation“ ist deutlich seltener als behauptet: Die meisten Unternehmen haben nie ihre Rechenzentren komplett geschlossen oder sind vollständig in die Cloud migriert. Stattdessen verschieben sie selektiv Workloads zwischen Cloud und On-Premise hin und her.
Das Ergebnis: Unternehmen landen in der „Hybrid-Hölle“ – sie müssen nun zwei Umgebungen parallel verwalten, was die Komplexität erhöht statt sie zu reduzieren. Quinns nüchterne Prognose: In fünf Jahren werden smarte Unternehmen weiterhin smarte, workload-spezifische Entscheidungen treffen, während die üblichen Cloud-Kritiker weiterhin versuchen werden, Repatriation als großen Trend zu verkaufen.
Cloud Repatriation is Getting Complicated
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Menschenzentrierte KI-Einführung: Jenseits des Hypes
Der KI-Hype hat mittlerweile fast religiöse Züge angenommen. „Ersetzen Sie Ihr ganzes Team mit einem einzigen Prompt!“ – solche Aussagen kennt vermutlich jeder in Tech-Kreisen. Doch diese Tool-zentrierte Herangehensweise greift zu kurz und kann mehr Schaden anrichten als nutzen.
Der verlinkte Artikel im Blog von Marissa Goldberg beschreibt einen alternativen Ansatz: KI gezielt einsetzen, um zu verstärken, was Menschen besonders gut können.
Was Menschen einzigartig macht
Menschen bringen Eigenschaften mit, die KI nicht replizieren kann:
- Neugier und Empathie – echtes Verständnis für Kontext
- Urteilsvermögen – die richtigen Fragen in unklaren Situationen
- Kreativität – das Gespür für das, was wirklich funktioniert
- Intuition – das Erkennen, wenn etwas „nicht stimmt“
Diese „weichen“ Fähigkeiten sind der Motor für Innovation. KI kann zusammenfassen und skalieren – aber sie entwickelt keine Vision.
KI als Verstärker, nicht als Ersatz
Ein menschenzentrierter Ansatz dreht die üblichen Fragen um. Statt „Welche Rollen kann KI ersetzen?“ sollten Teams fragen:
- Was wollen wir schützen?
- Wovon wollen wir Menschen befreien?
- Wie kann KI unserem Team Superkräfte verleihen?
Vier Prinzipien für menschenzentrierte KI
- Aufgabenorientiert: Beginnen Sie mit konkreten Schmerzpunkten
- Human-in-the-Loop: Menschen bleiben für kritische Entscheidungen verantwortlich
- Transparent: KI sollte erklären können, wie sie zu Ergebnissen kommt
- Iterativ: Systeme verbessern sich durch kontinuierliche Rückmeldungen
Praktische Umsetzung
- Mit Reibung beginnen: Wiederkehrende, frustrierende Aufgaben identifizieren
- Öffentlich experimentieren: Sichere Räume zum Ausprobieren schaffen
- Menschen mit KI paaren: Zeigen, wie KI bestehende Rollen erweitert
- Fokuszeit schützen: KI für konzentrierte Arbeit nutzen
Diese Herangehensweise ist besonders für europäische Teams relevant, die traditionell mehr Wert auf Arbeitsqualität legen. Während der Silicon Valley-Ansatz oft auf maximale Effizienz abzielt, berücksichtigt der menschenzentrierte Ansatz die langfristige Nachhaltigkeit von Teams.
KI wird die Arbeitswelt verändern – aber wie diese Veränderung aussieht, liegt dann am Ende doch an uns selbst.
A People-First Approach to AI Adoption
Nextcloud und Ionos: Deutsche M365 Alternative?
Die Ankündigung einer deutschen Alternative zu Microsoft 365 von Ionos und Nextcloud hat in der Tech-Welt für Aufsehen gesorgt. Nun werden mehr Details zum geplanten „Nextcloud Workspace“ bekannt, der noch 2025 an den Start gehen soll.
Ein Blick unter die Haube: Die Komponenten
Das Angebot ist als Komplettpaket konzipiert, das eine souveräne Arbeitsumgebung aus einer Hand ermöglichen soll. Nextcloud liefert mit seiner bewährten Plattform das Fundament für die Zusammenarbeit. Dazu gehören klassische Funktionen wie Nextcloud Files für die Synchronisation von Dateien, Nextcloud Talk für integrierten Chat und Videokonferenzen sowie Nextcloud Groupware für Kalender und Kontakte.
Für die Bearbeitung von Dokumenten, Tabellen und Präsentationen direkt im Browser wird die bekannte Open-Source-Lösung Collabora integriert, die für den Einsatz in Unternehmen um spezielle Enterprise-Funktionen erweitert wird. Ein entscheidender Baustein ist die E-Mail-Funktionalität. Als großer Hosting-Anbieter wird Ionos hier die Infrastruktur für einen integrierten und souveränen Mail-Service bereitstellen und das Paket damit vervollständigen.
Souveränität als schlagendes Argument
Der entscheidende Unterschied zu den US-Hyperscalern soll die digitale Souveränität sein. Die Partner betonen, dass es ihnen um „echte Wahlfreiheit“ und „offene Standards“ geht. Der gesamte Betrieb der Plattform findet ausschließlich in den Rechenzentren von Ionos in Deutschland statt, wodurch volle DSGVO-Konformität und Datenhoheit für die Nutzer gewährleistet werden sollen.
In einer Zeit, in der der rechtskonforme Einsatz von US-Diensten hitzig diskutiert wird, könnte dieses „Made in Germany“-Paket für viele Unternehmen und Behörden eine willkommene Option sein. Es bleibt abzuwarten, ob das zu wettbewerbsfähigen Preisen angekündigte Angebot genug Durchschlagskraft entwickelt, um sich als echte Alternative zu etablieren. Das Paket soll jedenfalls noch 2025 zu Preisen starten, die mit Microsoft konkurrieren können.
Souverän aus Deutschland: Ionos und Nextcloud entwickeln M365-Alternative
VictoriaLogs: Beeindruckende Performance bei Log-Management
In einem bzw. 2 interessanten Mastodon Beiträgen (1, 2) berichtet der User „fukawi2“ von spektakulären Ergebnissen beim Einsatz von VictoriaLogs – die Zahlen vom Vergleich mit der vorherigen Elasticsearch Installation sind wirklich beeindruckend:
Vorher: ElasticSearch Cluster
- 27 Nodes
- ~588 CPU Cores
- 4.656 GB RAM
Nachher: VictoriaLogs Single Node
- 8 CPU Cores
- 64 GB RAM
- Box läuft praktisch im Idle-Modus
Performance-Benchmarks aus der Praxis
Die gemessenen Werte sind beeindruckend:
- 100 Millionen Logs pro Stunde verarbeitet
- 14,9 Milliarden Log-Zeilen insgesamt indexiert
- Zählung aller Logs: 0,456 Sekunden
- Suche in 24h-Logs (8,8 Milliarden Einträge): 2,042 Sekunden
- Volltextsuche über 352 Millionen Logs der letzten Stunde: 4,985 Sekunden
„fukawi2“ arbeitet übrigens beim SaaS Anbieter expensify, falls ich richtig recherchiert habe.
Mein früherer Vergleich aus Ausgabe 181 stammt zwar vom VictoriaMetrics Gründer, zeigt aber klare Unterschiede: Während Loki mit komplexer Konfiguration und S3-Abhängigkeiten kämpft, punktet VictoriaLogs mit Zero-Config-Ansatz und schnellerer Volltextsuche durch spaltenorientierte Speicherung. Für Teams mit großen Logmengen könnte VictoriaLogs eine interessante Alternative sein – besonders wenn man die Loki-Komplexitäten satt hat.
„Seriously impressed with Victoria Logs. „
ClickStack: Open-Source Datadog Alternative startet durch
Über HyperDX hatte ich in Ausgabe 117 schon berichtet – das Team von HyperDX, einer Firma, die mittlerweile von ClickHouse übernommen wurde, hat auf Hacker News ihr neues Open-Source-Projekt ClickStack vorgestellt. ClickStack vereint Logs, Metriken, Traces und Session Replays in einer einheitlichen Plattform, die auf ClickHouse und OpenTelemetry basiert.
Die Vision dahinter
Bisher konnten nur Teams mit entsprechenden Ressourcen vollständig von ClickHouse für Observability profitieren. ClickStack möchte diese Hürde nun beseitigen und eine Out-of-the-Box-Lösung bereitstellen:
- Schneller Start: Single-Container-Deployment mit nur einem Befehl
- OpenTelemetry-nativ: Standards-basierte Datensammlung
- Performance-optimiert: Terabytes an Daten in Sekunden durchsuchbar
- Lucene-Style Search: Intuitive Volltext-Suche ohne SQL-Kenntnisse erforderlich
ClickStack ist als Docker-Image verfügbar und bringt einen OpenTelemetry Collector sowie ClickHouse Server bereits vorkonfiguriert mit.
ClickHouse hatte intern von Datadog auf eine eigene ClickHouse-basierte Lösung gewechselt und dabei 200x Kosteneinsparungen erreicht. Diese Erfahrung führte zur Entdeckung von HyperDX und schließlich zur Übernahme – irgendwie hab ich die verpasst – ClickHouse scheint für viele Use-Cases eine super interessante Alternative zu sein.
Die Kombination verspricht eine ernst zu nehmende Alternative zu proprietären Observability-Lösungen zu werden, die nicht nur von großen Playern wie Cloudflare eingesetzt werden kann. Falls dich das Thema interessiert, hier gibt es eine Demo mit Live Daten und UI, mit der du das ganze mal direkt ausprobieren kannst.
Show HN: ClickStack – Open-source Datadog alternative by ClickHouse and HyperDX
Azure SRE Agent für AI-gestützte Incident Response
Microsoft hat den Azure SRE Agent vorgestellt – ein AI-Tool, das Site Reliability Engineers bei der Incident Response und Root Cause Analysis unterstützen soll.
Azure SRE Agent soll mehrere Kernbereiche abdecken:
- Kontinuierliche Überwachung und Performance-Analyse von Azure-Ressourcen
- Proaktive Erkennung von Security-Vulnerabilities (aktuell TLS-Versionen und Managed Identity)
- Automatisierte Incident Response bei Azure Monitor Alerts
- Integration mit Tools wie PagerDuty für erweiterte Alert-Behandlung
- Automatisierte Mitigation-Maßnahmen (Skalierung, Restarts, Rollbacks)
- GitHub-Integration für Developer-Feedback nach Incidents
Beispiel-Prompts zeigen das Potenzial: „Was hat sich an meiner App im letzten Tag geändert?“ oder „Welche Alerts sollte ich für meine Web App einrichten?“
Lex Neva vom sreweekly Newsletter hat sich das Demo-Video genauer angeschaut und mehrere Probleme identifiziert:
Fehlerhafte Dateninterpretation: Der Agent beschreibt einen Request-Drop als „gefolgt von Recovery“, obwohl das Diagramm zeigt, dass die Requests dauerhaft unten blieben. Diese grundlegende Fehlinterpretation der eigenen Daten ist besorgniserregend.
Fragwürdige Problemlösung: Der Agent springt ohne erkennbare Logik zu Network Security Group Rules und findet dort eine Redis-blockierende Regel. Wie konnte er wissen, dass er dort suchen muss? Die Regel scheint für die Demo platziert worden zu sein.
Besonders problematisch ist, dass der Agent sofort Lösungsmaßnahmen vorschlägt und zur Ausführung drängt – obwohl nur nach Connectivity-Problemen gefragt wurde, nicht nach Fixes.
Lex warnt vor der psychologischen Komponente: Auch wenn der Agent um Bestätigung bittet, ist der „Approve“-Button schnell geklickt. Unerfahrene Operatoren könnten der AI-Logik vertrauen und gefährliche Operationen freigeben – besonders wenn das Reasoning bereits fehlerhaft ist.
Der Azure SRE Agent zeigt durchaus Potenzial für Informationsabfragen und grundlegende Infrastruktur-Analyse. Die Möglichkeit, schnell detaillierte Antworten mit Graphiken zu erhalten, könnte Operatoren Zeit sparen.
Die Demo zeigt jedoch kritische Schwächen in der Dateninterpretation und Entscheidungsfindung. Wenn Microsoft diese Beispiele als Referenz wählt, stellt sich die Frage nach der tatsächlichen Zuverlässigkeit des Systems.
Würdest du einen AI SRE Agenten, den du selbst nicht trainiert hast, auf deine Umgebung loslassen? Solche Systeme benötigen ja weitreichende Berechtigungen…
Die verschiedenen Ebenen der Slack-Zeit
Pawel Brodzinski untersucht in seinem Artikel „Levels of Slack Time“ die unterschiedlichen Wirkungsebenen von Slack-Zeit – jenen bewusst eingeplanten Phasen ohne direkte produktive Arbeit.
Der Autor, der das Konzept durch Kanban kennenlernte, identifiziert vier hierarchische Ebenen, auf denen Slack-Zeit wirken kann:
- Individuelle Ebene: Zeit zur persönlichen Weiterbildung, zum Erlernen neuer Technologien oder zum „Schärfen der eigenen Säge“
- Team-Ebene: Unterstützung von Kollegen, Übernahme unbeliebter Aufgaben (wie Code-Reviews) oder Abbau technischer Schulden
- Team-übergreifende Ebene: Koordination zwischen Teams, Bearbeitung von Abhängigkeiten und Engpässen im größeren Kontext (z.B. Security-Acceptance)
- Organisationsebene: Verbesserung der Unternehmensstruktur, Start neuer Initiativen oder Experimente mit Potenzial für unternehmensweite Wirkung
Die entscheidende Erkenntnis: Je höher die Ebene, desto größer die potenzielle Wirkung – aber auch desto mehr Autonomie wird benötigt. Brodzinski stellt fest, dass in den meisten Organisationen die Autonomie nach der Team-Ebene drastisch abnimmt.
In seinen Workshops und Universitätskursen beobachtet er ein konsistentes Muster: Teams genießen zwar erhebliche Autonomie (dank agiler Methoden), aber diese schwindet auf team-übergreifender Ebene und ist auf Organisationsebene praktisch nicht vorhanden.
Die logische Schlussfolgerung: Um das volle Potenzial von Slack-Zeit auszuschöpfen, müssen Unternehmen mehr Autonomie auf allen Ebenen gewähren.
Coding ohne Laptop mit AR-Brille und Linux auf Android
Ein Entwickler wagte ein interessantes Experiment: Zwei Wochen lang komplett ohne Laptop arbeiten – nur mit Smartphone, AR-Brille und faltbarer Tastatur – siehe Bild.
Das Setup: Linux nativ auf Android
Die Basis war ein vollwertiges Desktop-Linux auf dem Smartphone – native arm64-Binaries in einem chroot-Container. Ergebnis: i3 Window Manager, Firefox und alle Entwicklungstools starten in unter einer Sekunde.
Hardware-Kombination für unter 640$:
- Gebrauchtes Pixel 8 Pro (350$)
- Gebrauchte Xreal Air 2 Pro AR-Brille (260$)
- Faltbare Bluetooth-Tastatur (18$)
Überraschende Vorteile
Das komplette Setup passt in die Hosentaschen. Anders als Laptops funktionieren AR-Brillen perfekt bei Sonnenlicht – der Großteil des Blogposts entstand im Park. Performance liegt zwischen altem ThinkPad und modernem Framework Laptop.
Die Schwachstellen
Linux-Setup erforderte Root-Zugriff und viel Experimentieren. Die Tastatur bleibt frustrierend – „Can someone please make a good folding keyboard?“ Die AR-Brille hat ein zu großes Sichtfeld. Nach der Novelty-Phase will der Autor weiternutzen. Nicht als Laptop-Ersatz, sondern für Szenarien, wo Laptops versagen. Ein 640$-Setup aus gebrauchter Hardware ermöglicht bereits heute vollwertige Entwicklung an unmöglichen Orten.
Die Zukunft des ultra-mobilen Vibe-Codings hat begonnen – ab in den Pool!
Coding Without a Laptop – Two Weeks with AR Glasses and Linux on Android
SRE Zukunft bei Google: STAMP-Framework
Die Google-SRE-Experten Tim Falzone und Ben Treynor Sloss beschreiben in ihrem Artikel „The Evolution of SRE at Google“ Googles Weiterentwicklung in der Site Reliability Engineering (SRE) und die Einführung des STAMP-Frameworks für komplexere Systemarchitekturen.
Von traditionellen SRE-Methoden zu Systems Theory
Bisherige Grenzen: SLOs und Error-Budgets funktionierten gut für stateless Web-Services, versagen aber bei komplexeren Systemen mit Zero-Error-Budget-Anforderungen wie Datenschutz und Compliance.
Das STAMP-Framework: Google übernimmt das System-Theoretic Accident Model von MIT-Professorin Nancy Leveson, welches Unfälle als Kontrollproblem und nicht als lineare Fehlerketten betrachtet.
Vier Kernbedingungen für Systemkontrolle:
- Goal Condition: Controller muss Ziele haben
- Action Condition: Controller muss System beeinflussen können
- Model Condition: Controller benötigt Systemmodell
- Observability Condition: Controller muss Systemzustand erkennen
Vier Kernbedingungen für Systemkontrolle:
2021 führte fehlerhaftes Feedback zur automatischen Quota-Reduktion bei einem kritischen Service. Das System war wochenlang im Gefahrenzustand, bevor der Ausfall eintrat. STPA-Analyse (System-Theoretic Process Analysis zur präventiven Gefahrenanalyse) hätte dieses Szenario vorab identifiziert.
Hazard States als Game-Changer
Statt abrupter Übergänge von Normal- zu Ausfall-Zuständen definiert STAMP Gefahrenzustände, die längere Reaktionszeiten ermöglichen. Google analysiert bereits komplexeste Systeme mit STPA und findet hunderte potenzielle Szenarien präventiv – ein Paradigmenwechsel von reaktivem zu proaktivem System-Design.
The Evolution of SRE at Google
Schmunzelecke
Cyber Gangsta’s Paradise. auf YouTube – über 30k Views, gar nicht mal schlecht
Nun gut, das Tool nenne ich jetzt nicht namentlich, sonst lande ich in deiner Spambox (ggf. nicht safe-for-work) – aber was es nicht alles gibt, immer, wenn man denkt, man hätte schön alles gesehen. Es gibt sogar ein komplettes Ökosystem dahinter.
💡 Link Tipps aus der Open Source Welt
Kan.bn: Open-Source Trello Alternative
Trello war 2011 revolutionär einfach – bis Atlassian daraus „Jira Lite“ machte. Kan.bn will die ursprüngliche Magie von Trello zurückbringen: durchdachte Einfachheit statt Feature-Überladung.
Folgende Features kann die Trello Alternative bereits jetzt:
- Board-Sichtbarkeit: Kontrolle über Zugriff und Bearbeitung
- Team-Kollaboration: Mitglieder einladen und zusammenarbeiten
- Trello-Import: Bestehende Boards einfach migrieren
- Labels & Filter: Karten schnell organisieren und finden
- Kommentare: Diskussion direkt an den Karten
- Activity Log: Detaillierte Änderungshistorie
- Templates (geplant): Wiederverwendbare Board-Vorlagen
- Integrationen (geplant): Anbindung an externe Tools
Interessanter Ansatz in einer Zeit, wo viele Tools überkomplex werden. Gerade für Teams, die einfache Kanban-Boards ohne Enterprise-Overhead brauchen, könnte das eine echte Alternative sein.
Finanziert wird die Open Source Version über eine Saas/Cloud Variante – Free Accounts für einen User mit unlimited Boards, ansonsten ab 8$/Monat.
ripgrep: Der schnellste Code-Suche für Entwickler
ripgrep ist eine line-orientierte Suche, die rekursiv Verzeichnisse nach Regex-Pattern durchsucht. Das Tool respektiert automatisch gitignore-Regeln und überspringt versteckte sowie Binary-Dateien.
Kernfeatures:
- Git-aware: Automatische Berücksichtigung von
.gitignore
,.ignore
und.rgignore
- Dateityp-Filter:
rg -tpy foo
sucht nur Python-Dateien,rg -Tjs foo
schließt JavaScript aus - Performance: Übertrifft grep, ack und The Silver Searcher deutlich
- Cross-Platform: Native Binaries für Windows, macOS und Linux
- Smart Defaults: Rekursive Suche und automatisches Filtering standardmäßig aktiv
Warum ripgrep nutzen?
Während grep überall verfügbar ist, bringt ripgrep moderne Entwickler-Features mit. Die automatische Git-Integration verhindert versehentliche Treffer in node_modules
oder generierten Dateien. Besonders in großen Codebases macht sich die Performance-Verbesserung deutlich bemerkbar.
ripgrep ist eines jener Tools, die man einmal installiert und nie wieder missen möchte. Die Kombination aus Speed und intelligenten Defaults macht es zum idealen grep-Ersatz für Entwickler, die viel im Terminal arbeiten.
https://github.com/BurntSushi/ripgrep
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: