Cloud Sicherheit, AWS Sovereign Cloud, Blameless Postmortems, Linux Kernel Hänger, Ecosia, Observability bei monday und vieles mehr – allesnurgecloud #178

Willkommen zu allesnurgecloud.com – Ausgabe #178

3 Nächte später sind wir also schon im März angekommen – verrückt, wie die Zeit doch vergeht. Gehörst du neben ICQ auch zu den Early Adoptern von Skype? Tja, auch hier zieht Microsoft nun den Stecker – im Mai diesen Jahres soll Skype abgeschaltet werden. Ob skypen dann auch aus dem Duden entfernt wird?
Diese Woche gab es aber auch wieder viel IT News – aber der Reihe nach.

Happy Bootstrapping Podcast

Viele Gäste kommen in den Podcast ja, da es für sie selbst PR ist – nun hatte ich mit Julian Gottke das erste mal einen PR-Menschen im Podcast zu Gast. In der aktuellen Folge sprechen wir über „zielsichere PR“ und wie sein SaaS Tool Blinq helfen kann, die Trefferquote zu erhöhen. Blinq hilft dir dabei, die passenden Journalisten für dein spezifisches Thema zu finden und mit KI-Unterstützung personalisierte Pitch-Mails zu erstellen.
Die Zusammenfassung der Folge findest du auf der Happy Bootstrapping Website – die Folge anhören kannst du bei SpotifyApple Podcasts und in allen anderen Playern.

Die News der Woche in der Übersicht:

  • EU-Cloud-Sicherheit: Die USA ist kein sicherer Datenhafen
  • AWS European Sovereign Cloud Region Brandenburg kommt 2025
  • Blameless Postmortems: Schuldzuweisung nicht das Kernproblem
  • Cloudflare: Hung Task Warnings Analyse im Linux Kernel
  • Ecosia: Die Suchmaschine, die mit Klicks Bäume pflanzt
  • DuckTyped: AWS-VPCs und Subnets illustriert
  • Observability Herausforderungen bei monday.com
  • Microsoft stellt Majorana Quantenchip vor
  • IBM schließt Übernahme von HashiCorp ab
  • Docker Hub aktualisiert Pull Rate Limits ab 1. April 2025

Wie immer gibt es auch was zum Lachen und ein paar Open-Source Tipps!

Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchenkannst du das auf passionfroot machen.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

563 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

EU-Cloud-Sicherheit: Die USA ist kein sicherer Datenhafen

Im aktuellen Blogbeitrag „It is no longer safe to move our governments and societies to US clouds“ wird eine kritische Frage aufgeworfen: Sollten europäische Regierungen und Gesellschaften weiterhin ihre Daten und Prozesse in US-amerikanische Clouds verlagern? Der Autor argumentiert entschieden dagegen und warnt vor den Risiken dieser Praxis angesichts der aktuellen politischen Entwicklungen in den USA unter Donald Trump.
Spätestens seit den Entwicklungen am Wochenende muss man hier jedenfalls nochmals deutlicher seine eigene Strategie hinterfragen – was ist alles zusätzlich zu bedenken?

Politische Bedenken: Mit der Neuausrichtung der US-Politik unter Trump und dessen Einfluss auf die Geschäftswelt werden US-Cloud-Anbieter als zunehmend unzuverlässige Partner für europäische Daten gesehen.

Rechtliche Grundlagen bröckeln: Trump hat das spezielle Gericht, das für den EU-US-Datenschutzrahmen zuständig war, geschwächt. Damit ist die rechtliche Basis für Datentransfers in die USA praktisch hinfällig.

Abhängigkeit als Risiko: Die Verlagerung von Regierungsdaten und -prozessen in US-Clouds macht europäische Länder erpressbar. Der Autor warnt: „Alle unsere Geschäftsprozesse können mit einem Knopfdruck in den USA zum Stillstand gebracht werden.“

Fragwürdige Begründungen: Die Rechtfertigungen für Cloud-Migrationen (wie DPIAs und DTIAs) werden als „magische Rechtszauber“ bezeichnet, die die wahren Risiken verschleiern.

Der wahre Grund – Bequemlichkeit: Laut dem Autor werden diese Risiken nur aufgrund der Gewöhnung an US-Software und dem Unwillen, auf andere Lösungen umzusteigen, in Kauf genommen.

Der Autor plädiert für ein Umdenken: Europäische Regierungen sollten den Mut haben, Alternativen zu fördern und zu nutzen, auch wenn dies eine Umgewöhnung bedeutet. Selbst wenn nur ein kleiner Prozentsatz der IT-Budgets für europäische Alternativen ausgegeben würde, entstünden Milliarden an Investitionen, die Innovation fördern könnten.

Der Artikel trifft einen wunden Punkt in der europäischen Digitalpolitik. Die Argumentation ist angesichts der jüngsten politischen Entwicklungen durchaus nachvollziehbar. Besonders bemerkenswert ist der Hinweis auf die niederländische Regierung, die trotz offensichtlicher Bedenken weiterhin Google-Produkte für sensible Daten nutzt.

Die Frage der digitalen Souveränität ist für Europa längst keine theoretische mehr – sie ist zu einer praktischen Notwendigkeit geworden. Ob der politische Wille zur Umsetzung echter Alternativen vorhanden ist, bleibt allerdings abzuwarten.

Was meint ihr? Sollten wir in Europa mehr für unsere digitale Unabhängigkeit tun? Schreibt mir eure Gedanken!

It is no longer safe to move our governments and societies to US clouds


AWS European Sovereign Cloud Region kommt noch 2025

Und auch AWS spielt mit im „Game of Souvereign Clouds“ – man treibt den Aufbau seiner European Sovereign Cloud voran, wobei die erste Region in Brandenburg wie geplant im Dezember 2025 starten soll. Max Peterson, VP Sovereign Cloud bei AWS, bestätigt, dass die Arbeiten nach Zeitplan verlaufen und der Personalaufbau bereits begonnen hat.

Das Besondere an der AWS European Sovereign Cloud: Sie wird ausschließlich in der EU betrieben, von EU-Bürgern verwaltet und unterliegt vollständig den EU-Gesetzen. Sowohl Kundendaten als auch Metadaten bleiben innerhalb der Region, um höchste Datenschutzanforderungen zu erfüllen.

Kernpunkte des Projekts:

  • Investitionsvolumen: 7,8 Milliarden Euro
  • Startangebot: Über 90 AWS-Services inklusive KI- und ML-Dienste wie AWS SageMaker und Amazon Bedrock
  • Marktplatz-Integration: AWS Marketplace wird vollständig in die neue Cloud-Region integriert
  • Partnerprogramm: „AWS Digital Sovereignty Competency“ für spezialisierte Partner (u.a. T-Systems)

AWS arbeitet eng mit lokalen Partnern zusammen und fördert Start-ups durch spezielle Programme zur Entwicklung innovativer Lösungen für digitale Souveränität. Die European Sovereign Cloud richtet sich besonders an Unternehmen in regulierten Branchen und Behörden, die hohe Anforderungen an Compliance und Souveränität stellen.

Peterson sieht in diesem Projekt ein potenzielles Modell für andere Regionen weltweit: „Sollte die Nachfrage steigen, sind wir bereit, weitere Regionen aufzubauen.“ Mit der US GovCloud hat AWS bereits Erfahrung mit ähnlichen Modellen gesammelt und zeigt sich zuversichtlich, dass die European Sovereign Cloud ebenso erfolgreich sein wird.

Die ersten Kunden sollen bereits Ende 2025 Zugriff auf die neue Region erhalten.

Die „Region Brandenburg“ nimmt weiter Gestalt an


Sponsored

Monitoring as Code für LinkedIn, Crowdstrike und 1Password

Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.

Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?

Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.

Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.

Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.

Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!


Blameless Postmortems: Schuldzuweisung nicht Kernproblem

Ein spannender Reddit-Thread beleuchtet die oft missverstandene Problematik von Schuldzuweisungen in Postmortems nach Incidents. Der Autor zeigt auf, dass wir möglicherweise zu oberflächlich denken, wenn wir nur das „Blaming“ bekämpfen.

Das eigentliche Problem liegt tiefer: Die irrtümliche Annahme, dass bestimmte Entscheidungen losgelöst vom Kontext als „inhärent unsicher“ bewertet werden können. Diese Sichtweise führt zu problematischen Lösungsansätzen:

  • Strikte Regeln gegen bestimmte Aktionen
  • Beschränkung von Berechtigungen auf wenige „vertrauenswürdige“ Personen
  • Automatisierte Blockaden für bestimmte Operationen

All diese Maßnahmen entziehen den Ingenieuren wichtige Entscheidungskompetenzen – ausgerechnet jenen Personen, die maßgeblich zur Systemresilienz beitragen!

Eine besonders aufschlussreiche Antwort im Thread vertieft diesen Gedanken und erklärt den grundlegenden Unterschied zwischen kompetenten und inkompetenten Führungskräften:

Kompetente Manager fragen bei Fehlentscheidungen nach den Umständen:

  • Welche Monitoring-Daten standen zur Verfügung?
  • War das Training für die Situation angemessen?
  • Welche Eingriffsmöglichkeiten hatte die Person?
  • War das System überhaupt sicher bedienbar?

Inkompetente Manager hingegen stempeln die Person einfach als „schlecht“ ab, was unweigerlich zu einer Kultur des Vertuschens führt.

Der Kommentator teilt eine persönliche Erfahrung: Er verursachte einen Ausfall durch Neustart von Diensten in falscher Reihenfolge. Die wichtigsten Erkenntnisse daraus:

  1. Er wusste nicht, dass es eine „falsche“ Reihenfolge gab
  2. Es hätte eigentlich keine falsche Reihenfolge geben sollen
  3. Die Tools hätten die richtige Reihenfolge erzwingen müssen

Diese wertvollen Einsichten wären in einem schuldzuweisenden Umfeld nie ans Licht gekommen.

Der Thread zeigt: Bei „Blameless Postmortems“ geht es nicht nur um ein angenehmes Arbeitsklima, sondern um die Möglichkeit, die tatsächlichen systemischen Probleme zu erkennen und zu beheben.

Blame is not the root cause of bad postmortems


Cloudflare: Hung Task Warnings Analyse im Linux Kernel

Wenn Du jemals die Meldung „task XXX blocked for more than YYY seconds“ in Deinen Linux-Logs gesehen hast, weißt Du vermutlich, dass es sich um einen Hung Task handelt. Aber was bedeutet das eigentlich und wie findet man die Ursache?

In einem aufschlussreichen Cloudflare Blog-Artikel erklären Oxana Kharitonova und Jesper Brouer, wie diese Warnungen funktionieren und was sie bedeuten. Ein Hung Task tritt auf, wenn ein Prozess im ununterbrechbaren Zustand (TASK_UNINTERRUPTIBLE oder „D state“) steckenbleibt und für längere Zeit nicht auf der CPU ausgeführt wird.

Der Linux-Kernel verfügt über einen speziellen Thread namens khungtaskd, der regelmäßig läuft und alle Prozesse im D-Zustand überprüft. Wenn ein Prozess länger als die konfigurierte Zeit (Standard: 120 Sekunden) in diesem Zustand verbleibt, wird eine Warnung ausgegeben.

Die Autoren zeigen anhand von drei Beispielen, wie man solche Warnungen analysieren kann:

  1. XFS-Dateisystem unter Druck: Ein Kernel-Worker im XFS-Sync-Prozess war blockiert, was auf Performance-Probleme im Dateisystem hindeutete.
  2. Coredump-Verzögerung: Wenn ein Prozess abstürzt und ein großes Core-Dump-File erzeugt werden muss, kann dies zu Hung Task Warnungen führen, da der Prozess während des Dumps im D-Zustand gehalten wird.
  3. RTNL-Mutex-Blockade: Mehrere unabhängige Prozesse wurden blockiert, weil sie auf den globalen RTNL-Lock warteten, der vom calico-node-Prozess gehalten wurde. Diese komplexe Situation konnte durch Analyse der Stack-Traces und BPF-Tracing gelöst werden.

Praktische Tipps für die Fehlersuche:

  • Stack-Traces der blockierten Prozesse analysieren
  • Beachten, dass die Warnung möglicherweise nicht den Verursacher, sondern nur das „Opfer“ zeigt
  • Externe Tools wie BPF verwenden, um tiefer zu graben

Bei Cloudflare wurde der Timeout-Wert von 120 auf nur 10 Sekunden reduziert, um Probleme früher zu erkennen. Solche Anpassungen können je nach Systemkonfiguration und Kritikalität sinnvoll sein.

Die Hung Task Warnungen sind ein wichtiges Diagnosewerkzeug, das auf Systemprobleme hinweisen kann, die sonst möglicherweise unbemerkt bleiben würden

Searching for the cause of hung tasks in the Linux kernel


Ecosia: Die Suchmaschine, die mit Klicks Bäume pflanzt

Die 2009 vom deutschen Unternehmer Christian Kroll gegründete Ecosia hat sich als weltweit erste gemeinnützige Suchmaschine etabliert. Mit über 20 Millionen aktiven Nutzern verfolgt sie einen bemerkenswerten Ansatz: Suchanfragen in Umweltschutz umwandeln.

Beeindruckende Umweltbilanz

Von 10 Millionen gepflanzten Bäumen im Jahr 2017 ist Ecosia auf 160 Millionen Bäume im Jahr 2022 gewachsen – eine beeindruckende Skalierung für ein Non-Profit-Unternehmen.

Ein revolutionäres Geschäftsmodell

Was Ecosia besonders macht ist seine rechtlich verankerte „Steward-Ownership“-Struktur:

  • Keine Gewinnentnahme aus dem Unternehmen möglich
  • Keine externen Aktionäre
  • Keine gewinnorientierte Veräußerung von Anteilen

Krolls Leitgedanke: „Uns interessiert nicht die Gewinnmaximierung, sondern die Maximierung gepflanzter Bäume.“

Wie funktioniert die Finanzierung?

Anders als viele Tech-Unternehmen verzichtet Ecosia auf das Sammeln und Verkaufen von Nutzerdaten. Die Einnahmequellen:

  • Werbeanzeigen neben den Suchergebnissen
  • Durchschnittlich 3 Millionen Dollar monatlich (Dezember 2024: über 4 Millionen)

Die Verwendung dieser Einnahmen ist transparent dokumentiert: 80% fließen in weltweite Aufforstungs- und Waldschutzprojekte, 20% in erneuerbare Energien, regenerative Landwirtschaft und Aktivismus.

Ecosia zeigt eindrucksvoll, wie Technologieunternehmen nachhaltig agieren können. Während viele Tech-Giganten mit Datenschutzbedenken kämpfen, beweist diese Berliner Initiative, dass digitale Dienste auch ohne umfangreiche Datensammlung erfolgreich sein können – und gleichzeitig einen positiven Beitrag für unseren Planeten leisten.

Ecosia: Who owns the non-profit search engine & how do they make money


DuckTyped: AWS-VPCs und Subnets illustriert

In seiner DuckTyped-Blogreihe erklärt Autor Aditya Bhargava komplexe AWS-Netzwerkkonzepte mit humorvollen Illustrationen und einer zugänglichen Erzählweise.

Was sind VPCs und warum brauchen wir sie?

Eine Virtual Private Cloud (VPC) ist ein privates Netzwerk innerhalb von AWS. Sie wurden aus zwei Hauptgründen entwickelt:

  1. Vermeidung von IP-Adresskonflikten: Wenn verschiedene Kunden Server mit identischen IP-Adressen haben, würde es in einem gemeinsamen Netzwerk zu Konflikten kommen. VPCs ermöglichen, dass jeder Kunde sein eigenes isoliertes Netzwerk hat.
  2. Sicherheit: Ohne separate Netzwerke könnten Nutzer theoretisch auf die Instances anderer Kunden zugreifen.

VPCs werden durch einen Mapping-Service implementiert, der dafür sorgt, dass alle Instances eines Kunden miteinander verbunden sind, aber von anderen Kunden isoliert bleiben. Eine VPC kann Instances in verschiedenen Availability Zones innerhalb einer Region verbinden.

Subnets und Internet-Konnektivität

Um eine Instance mit dem Internet zu verbinden, sind mehrere Komponenten erforderlich:

  • Internet Gateway (IGW): Eine Art „Loch“ in der VPC, das Kommunikation mit dem Internet ermöglicht.
  • Subnets: Gruppierungen von Instances innerhalb einer VPC, die an eine bestimmte Availability Zone gebunden sind.
  • Public Subnets: Subnets mit Verbindung zum Internet (über ein IGW).
  • Private Subnets: Subnets ohne Internetverbindung.
  • Routes: Verbindungen zwischen Subnets und dem Internet Gateway.

Eine Instance kann nicht direkt mit einem Internet Gateway verbunden werden. Sie muss in einem Subnet platziert werden, das dann mit dem Internet Gateway verbunden wird.

Bhargavas illustrierter Ansatz macht diese komplexen Konzepte leicht verständlich und bietet einen guten Ausgangspunkt für alle, die ihre Anwendungen in der AWS-Cloud bereitstellen möchten.

QuelleAn illustrated guide to Amazon VPCs und Old man yells at subnets


Observability Herausforderungen bei monday.com

Eine spannende Case Study von monday.com zeigt, wie das Unternehmen die Herausforderungen beim Handling großer Mengen von Trace-Daten meistert. Das Entwicklerteam verarbeitet täglich Millionen von Requests – die dabei anfallenden Diagnosedaten müssen effizient gesammelt und ausgewertet werden.

Die initiale Herausforderung: Der klassische Ansatz des Samplings (also nur einen Teil der Traces zu speichern) führte dazu, dass seltene Probleme schwieriger zu debuggen waren. Die Lösung? Ein eigenes Tool namens „Ocean“.

Die technischen Highlights:

  • Basiert auf OpenTelemetry für die Instrumentierung der Node.js Microservices
  • Nutzt ClickHouse als Datenbank wegen der guten Kompression und schnellen Abfragen
  • Ermöglicht das „Replay“ von ausgewählten Traces in bestehende APM Tools
  • Speichert 100% der Spans für einige Tage (statt nur einem Sample für 30 Tage)

Besonders clever: Statt komplett auf Open Source Visualisierung umzusteigen, werden die Daten bei Bedarf in das existierende APM Tool eingespielt. Das ermöglicht den Entwicklern die Nutzung gewohnter Tools, während gleichzeitig die volle Kontrolle über die Daten behalten wird.

Der Ansatz von monday.com zeigt exemplarisch, wie wichtig die Investition in offene Standards wie OpenTelemetry ist. Sie ermöglicht es, flexibel eigene Lösungen zu entwickeln und dabei nicht in Vendor Lock-in zu geraten. Die Kombination aus eigenem Storage und existierenden Tools ist dabei ein pragmatischer Weg, der sich auch für andere Unternehmen anbieten könnte.

Für die Zukunft plant monday.com bereits den Umstieg auf kostengünstigere Storage-Lösungen wie Quickwit mit AWS S3 als Backend. Auch die Integration in das Incident-Management soll weiter ausgebaut werden.

Managing Trace Volume at monday.com


Microsoft stellt Majorana Quantenchip vor

Microsoft hat mit dem Majorana 1 den weltweit ersten Quantenchip mit einer neuartigen Topological Core-Architektur vorgestellt. Der Chip basiert auf einem bahnbrechenden Topoleiter-Material, das Majorana-Teilchen kontrollieren kann, um stabilere und skalierbare Qubits zu erzeugen – die Grundbausteine für Quantencomputer.

Der Weg zu einer Million Qubits

Die neue Architektur bietet einen klaren Pfad, um eine Million Qubits auf einem einzigen handtellergroßen Chip unterzubringen. Dies ist ein entscheidender Schwellenwert, damit Quantencomputer transformative Lösungen liefern können – wie etwa:

  • Abbau von Mikroplastik in harmlose Nebenprodukte
  • Entwicklung selbstheilender Materialien für Bau, Fertigung oder Gesundheitswesen

„Was auch immer man im Quantenbereich tut, muss einen Weg zu einer Million Qubits haben. Wenn nicht, stößt man an eine Wand, bevor man den Maßstab erreicht, bei dem man die wirklich wichtigen Probleme lösen kann“, erklärt Chetan Nayak, Microsoft Technical Fellow.

Durchbruch in der Quanten-Architektur

Der Topoleiter erzeugt einen völlig neuen Materiezustand – weder fest, flüssig noch gasförmig, sondern einen topologischen Zustand. Dies ermöglicht stabilere Qubits, die schnell und klein sind und digital gesteuert werden können, ohne die Kompromisse aktueller Alternativen.

Die Vorteile des Microsoft-Ansatzes:

  • Zuverlässigkeit durch Design: Fehlerresistenz auf Hardware-Ebene
  • Digitale Steuerung: Vereinfachung des Quantencomputings ohne feinabgestimmte analoge Kontrolle jedes Qubits
  • Praktische Größe: Der Chip passt in eine Hand und kann einfach in Azure-Rechenzentren eingesetzt werden

Microsoft hat bereits acht topologische Qubits auf einem Chip platziert, der für eine Million konzipiert ist. Dies bestätigt den vor Jahren eingeschlagenen Weg, auf ein topologisches Qubit-Design zu setzen – eine risikoreiche wissenschaftliche Herausforderung, die sich jetzt auszahlt.

Anwendungspotenzial in der Praxis?

Mit dieser Technologie könnten Unternehmen und Wissenschaftler praktisch „beim ersten Mal“ perfekte Lösungen entwerfen: „Der Quantencomputer lehrt der KI die Sprache der Natur, sodass die KI einem einfach das Rezept für das geben kann, was man herstellen möchte“, sagt Matthias Troyer, Microsoft Technical Fellow.

Microsoft’s Majorana 1 chip carves new path for quantum computing


IBM schließt Übernahme von HashiCorp ab

IBM hat die Übernahme von HashiCorp für 6,4 Milliarden Dollar (35$ pro Aktie) erfolgreich abgeschlossen und verstärkt damit sein Portfolio im Bereich Infrastrukturautomatisierung und Cloud-Management. Diese strategische Akquisition kommt zu einem Zeitpunkt, an dem etwa 75% der Unternehmen auf Hybrid-Cloud-Lösungen setzen und bis 2028 voraussichtlich eine Milliarde neuer Cloud-native Anwendungen durch generative KI entstehen werden.

HashiCorp, bekannt für Produkte wie Terraform und Vault, ermöglicht Unternehmen die Automatisierung ihrer Infrastruktur- und Sicherheitslebenszyklen in Multi-Cloud-Umgebungen. Die Integration in IBMs Produktfamilie verspricht Synergien in mehreren strategischen Wachstumsbereichen:

Wichtige Synergien:

  • Integration mit Red Hat: Terraform und Red Hat Ansible ergänzen sich, indem Terraform die grundlegende Infrastruktur automatisiert, während Ansible Anwendungskonfigurationen verwaltet – ob die beiden Tools näher integriert werden?
  • Verstärkung der Sicherheit: HashiCorp Vault bietet in Kombination mit Red Hat OpenShift robuste Funktionen für Secrets Management
  • KI-Infrastruktur: Unterstützung für watsonx und andere KI-Initiativen
  • Hybrid-Umgebungen: Förderung von IBM Z-Anwendungen in hybriden Cloud-Umgebungen

Die Übernahme stärkt IBMs Position im wachsenden Markt für AI-gestützte IT-Automatisierung und hilft Unternehmen, ihre IT-Ausgaben zu optimieren und Kosten zu senken. Zudem unterstreicht IBM sein Engagement für Branchenzusammenarbeit, Developer Communities und Open-Source-Innovation.

IBM Completes Acquisition of HashiCorp, Creates Comprehensive, End-to-End Hybrid Cloud Platform


Docker Hub aktualisiert Pull Rate Limits ab 1. April 2025

Docker hat eine wesentliche Änderung seiner Pull Rate Limits angekündigt, die am 1. April 2025 in Kraft tritt. Die monatlichen Pull-Kontingente werden komplett abgeschafft, stattdessen gelten ausschließlich stündliche Begrenzungen.

Bisherige Limits:

  • Business (authentifiziert): 1M Pulls/Monat, Unbegrenzt/Stunde
  • Team (authentifiziert): 100K Pulls/Monat, Unbegrenzt/Stunde
  • Pro (authentifiziert): 25K Pulls/Monat, Unbegrenzt/Stunde
  • Personal (authentifiziert): 40/Stunde
  • Unauthentifizierte Nutzer: 10/Stunde pro IP-Adresse

Neue Limits (ab 1. April 2025):

  • Business (authentifiziert): Unbegrenzt/Stunde
  • Team (authentifiziert): Unbegrenzt/Stunde
  • Pro (authentifiziert): Unbegrenzt/Stunde
  • Personal (authentifiziert): 100/Stunde
  • Unauthentifizierte Nutzer: 10/Stunde pro IPv4-Adresse oder IPv6 /64-Subnetz

Wichtigste Änderungen:

  • Monatliche Limits werden vollständig entfernt
  • Personal-Nutzer erhalten 100 Pulls pro Stunde (vorher 40)
  • Unauthentifizierte Nutzer bleiben bei 10 Pulls pro Stunde, nun aber pro IPv4-Adresse oder IPv6 /64-Subnetz (vorher nur pro IP)
  • Business-, Team- und Pro-Konten behalten unbegrenzte stündliche Pulls

Für Teams, die über eine Caching-Registry nachdenken, könnte Docker Pro (11$ pro Benutzer/Monat) mit unbegrenzten Pull-Raten eine kostengünstige Alternative sein im Vergleich zu den Speicher- und Wartungskosten einer eigenen Cache-Lösung.

Diese Änderungen sind ein guter Anlass, CI/CD-Pipelines und Pull-Strategien zu überprüfen.

Docker Hub usage and limits


Schmunzelecke

Gut, der Joke mit den beiden AI Agents, die sich unterhalten und dann zu einer effizienteren Sprache umschalten – der ist dank Linkedin und Co. bestimmt bei dir angekommen, oder? Ich glaube bei pr0gramm war er zu erst – Danke Eugen!

Ansonsten hat Electronic Arts ne Menge Games Open Source veröffentlicht – Command & Conquer Red Alert, Tiberian Dawn, Renegade und vieles mehr – alles hier bei GitHub.


💡 Link Tipps aus der Open Source Welt

Postiz – Open Source Social Media Management Tool

Postiz ist eine umfassende Open Source Alternative zu gängigen Social Media Management Tools wie Buffer, Hypefury oder Twitter Hunter. Die Plattform bietet alles, was du für die Verwaltung deiner Social-Media-Präsenz benötigst – von der Planung und Erstellung von Beiträgen bis hin zur Lead-Generierung.

Was Postiz besonders macht, ist die breite Unterstützung verschiedener Plattformen: LinkedIn, Bluesky, Threads, Twitter, TikTok, YouTube, LinkedIn Pages, Mastodon, Dribbble, Discord, Telegram, Slack, Reddit, Pinterest und viele weitere werden abgedeckt.

Hauptfunktionen:

  • Nahtloses Scheduling: Plane Beiträge auf mehreren Plattformen gleichzeitig
  • KI-Content-Assistent: Nutze KI zur Erstellung und Optimierung deiner Inhalte
  • AI-Design-Tool: Canva-ähnliches Tool zur Erstellung ansprechender Visuals
  • Team-Kollaboration: Delegiere Aufgaben und verwalte mehrere Kanäle zentral
  • Content-Marketplace: Tausche oder kaufe Beiträge von anderen Nutzern
  • Umfassende Analytik: Gewinne Einblicke in deine Social-Media-Performance

Besonders praktisch für Entwickler und Teams, die ihre Social-Media-Strategie selbst in die Hand nehmen wollen, ohne auf proprietäre Lösungen angewiesen zu sein. Die Open-Source-Natur ermöglicht außerdem individuelle Anpassungen und bietet mehr Flexibilität als geschlossene Systeme.

GitHub-Repositorygithub.com/gitroomhq/postiz-app
Websitepostiz.com

Wenn du nach einer selbstgehosteten, anpassbaren Alternative zu kommerziellen Social-Media-Management-Tools suchst, ist Postiz definitiv einen Blick wert.

https://github.com/gitroomhq/postiz-app

Was passiert, wenn wir Google.com in die Adresszeile eingeben?

Die scheinbar simple Aktion, „google.com“ in die Adressleiste einzutippen und Enter zu drücken, setzt eine beeindruckende Kette technischer Prozesse in Gang. Das GitHub-Projekt „What happens when“ dokumentiert diesen Prozess in 26 einzelnen Schritten – von der Tasteneingabe bis zur fertigen Webseite.

Alles beginnt mit elektrischen Signalen der Tastatur, die das Betriebssystem als Befehle interpretiert. Der Browser überprüft dann, ob eine URL oder ein Suchbegriff eingegeben wurde.

Ein interessanter Teil ist die DNS-Auflösung – hier wird „google.com“ in eine IP-Adresse übersetzt:

  • Der Browser prüft seinen Cache
  • Lokale hosts-Datei und Systemfunktionen werden abgefragt
  • DNS-Server werden kontaktiert, oft über mehrere Zwischenstationen

Nach erfolgreicher Adressauflösung baut der Browser eine TCP-Verbindung auf, führt bei HTTPS einen TLS-Handshake durch und sendet schließlich die HTTP-Anfrage. Der Server antwortet mit HTML-Code, den der Browser parsed, rendert und darstellt.

Was für uns nur Sekunden dauert, ist ein faszinierendes Zusammenspiel aus Betriebssystem, Netzwerkprotokollen und Browserarchitektur – moderne Technik, die nahtlos funktioniert, ohne dass wir die Komplexität dahinter bemerken. Das Repo ist ziemlich abgehangen und wurde vor 11 Jahren das erste mal befüllt.

https://github.com/alex/what-happens-when

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

563 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x