Digitale Souveränität, CISPE vs. Broadcom, MXmap, 20 Jahre S3 Käfig, netcup Preiserhöhung, mehr Geburten im Home Office und mehr – #228

Willkommen zu allesnurgecloud.com – Ausgabe #228

Irgendwie habe ich für diese Woche echt gut aussortieren müssen, was die News Lage betrifft.
Ich überlege daher immer, lieber mehr News zu liefern und dafür kürzer, oder halt nicht so zeit kritische Themen in die nächste Woche zu verschieben. Ein paar Dinge packe ich dafür hier direkt in den Teaser und ich denke, das passt dann auch, wenn die zu kurzfristig sind oder sich ein ganzer Artikel nicht lohnt.

Für alle die sich wundern – die AWS Region in den UAE (me-central-1) ist noch immer down und die AWS Service Health Page hat seit dem 3. März kein Update mehr erhalten. Das ist – sehr ungewöhnlich, selbst für AWS – die Empfehlung ist, die Workload in andere Regionen umzuziehen. Na, hoffentlich kommen die Kunden noch an die Daten ran.

Ansonsten hat Google die Übernahme von Wiz offiziell abgeschlossen und damit den größten Deal der Firmengeschichte erfolgreich durchgeführt. Nicht so gut läuft es aktuell beim Wettbewerber Trivy – den der Build-Prozess des populären Vulnerability-Scanners von Aqua Security wurde kompromittiert – die betroffene Version v0.69.4 enthält einen Infostealer („TeamPCP Cloud stealer“), der über kompromittierte GitHub Actions und eine Typosquatting-Domain SSH-Keys, Cloud-Credentials (AWS, GCP, Azure), Kubernetes-Tokens und Krypto-Wallets abgreift und per AES-256/RSA-4096-Verschlüsselung an einen C2-Server exfiltriert – unbedingt checken, welche Version du im Einsatz hast.

Und wer sich für RAM Preise interessiert- findet bei ramtrack.eu einen Preis-Tracker für Module sämtlicher Bauart und Größe. Beim Einkaufen von RAM sollte man aktuell wohl aufpassen – scheinbar werden teilweise Kits mit einem funktionalen und einem Dummy Riegel verschickt – so kann man auch die Marge erhöhen!

Jetzt aber viel Spaß mit der Ausgabe.

Happy Bootstrapping Podcast

In der aktuellen Podcast Folge 164 habe ich den Ben von Kaffeemacher zu Gast. In Summe machen die beiden Firmen in der Schweiz und Deutschland 10 Millionen € Umsatz im Jahr – mit Online Shops, Kafferösterei, eigenen Cafes, Kaffeschulen und Online Kursen. Befeuert wird das ganze vom eigenen YouTube Kanal mit 132.000 Subscribern, wo nicht nur Kaffeemaschinen getestet werden. Meine bisher längste Folge – hör oder schau unbedingt mal rein – ach selbst wenn du nicht hörst, hilf mir noch mit einem Abo des YouTube Kanals – danke! – gerne kannst du die Folge auf YouTube schauen oder wie immer bei SpotifyApple und allen anderen Playern anhören.

Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).

Support the Newsletter

Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchenkannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Digitale Souveränität: Viel Problembewusstsein, wenig Strategie

Eine aktuelle Studie von Lünendonk & Hossenfelder zur digitalen Souveränität liefert bemerkenswerte Zahlen. Moritz Förster fasst die Kernergebnisse bei heise online zusammen83 Prozent der befragten DACH-Unternehmen halten ein sogenanntes Kill-Switch-Szenario – also die einseitige Abschaltung oder Einschränkung von Cloud-Services durch den Provider – für realistisch. Gleichzeitig haben nur 57 Prozent eine Exit-Strategie. Fast die Hälfte steht ohne Plan B da.

Die wichtigsten Zahlen aus der Studie (155 befragte IT-Verantwortliche, Dezember 2025 bis Januar 2026):

  • 96% erwarten, dass digitale Souveränität auch bei geopolitischer Entspannung ein zentrales Thema bleibt
  • 95% sehen die Reduktion von IT-Lieferketten-Abhängigkeiten als Haupttreiber
  • 93% der Unternehmen nutzen überwiegend proprietäre Software ohne Quellcode-Einsicht
  • 90% sind Kunde mindestens eines Hyperscalers
  • 87% der IT-Landschaften basieren auf proprietären Anwendungen
  • 86% halten höhere Investitionen in souveräne Angebote für sinnvoll
  • 80% erhöhen ihr IT-Budget für souveräne Lösungen
  • 66% misstrauen den souveränen Hyperscaler-Angeboten trotz grundsätzlicher Zustimmung
  • 47% halten einen politisch motivierten Kill Switch in den nächsten zwei Jahren für realistisch
  • Nur 3% halten europäische Cloud-Anbieter bei Plattform- und KI-Leistungen für gleichwertig mit den Hyperscalern
  • Nur 2% erwarten bis 2030 einen funktionalen Gleichstand

Die Studie zeigt ein doppeltes Spannungsfeld: Einerseits wächst der Druck – Vendor Lock-ins, Broadcom-Preissteigerungen bei VMware, der CLOUD Act und FISA, Microsofts E-Mail-Sperrung beim Internationalen Strafgerichtshof auf Dekret des US-Präsidenten. Andererseits stehen dem komplexe Legacy-Landschaften, hohe Wechselkosten und der funktionale Rückstand europäischer Anbieter entgegen. „Made in Europe“ mag politisch gewollt sein – die Marktgegebenheiten sprechen eine andere Sprache.

Beim Thema Open Source ist die Lücke zwischen Anspruch und Realität besonders deutlich: 90% wollen künftig stärker auf Open Source setzen, aber nur 8% verfügen über ausreichende interne Kompetenzen dafür. Nur jedes zweite Unternehmen hat überhaupt eine Open-Source-Strategie. Ohne gezielten Kompetenzaufbau bleibt Open Source strategisch gewollt, führt aber de facto zu neuen Abhängigkeiten – von Dienstleistern, Communities oder Herstellern.

Die Studie steht kostenlos zum Download bereit auf der Website von Lünendonk & Hossenfelder – 63 Seiten, die sich lohnen, wenn man das Thema digitale Souveränität mit belastbaren Zahlen statt Bauchgefühl diskutieren möchte.

Lünendonk-Studie: Digitale Souveränität – Vom Risiko zur Resilienz


CISPE-Beschwerde gegen Broadcom: Vendor Lock-in als Geschäftsmodell

Der europäische Cloud-Verband CISPE hat am 19. März eine Wettbewerbsbeschwerde gegen Broadcom bei der EU-Kommission eingereicht (heise) Der Vorwurf: Missbrauch der marktbeherrschenden Stellung durch kumulative Kostensteigerungen von über 1.000 Prozent für europäische Cloud-Dienstleister – durch Preiserhöhungen, erzwungene Produktbündelung und Mindestabnahmen. Besonders brisant: Im Januar 2026 kündigte Broadcom das VMware Cloud Service Provider-Programm (VCSP) in Europa – nur in Europa, wohlgemerkt, ohne Erklärung.

Niederländische Anbieter berichten von „exponentiell gestiegenen“ Kosten und „Drohungen bei Widerspruch“, die dänische Cloud-Community spricht von einer „äußerst kritischen Hochdrucksituation“. CISPE fordert sofortige Aussetzung der VCSP-Kündigung und warnt, Broadcoms Vorgehen zerstöre die Autonomie europäischer Anbieter und verstärke die Abhängigkeit von US-Hyperscalern.

Die unbequeme Gegenperspektive liefert ein vieldiskutierter Kommentar aus dem heise-Forum, der es verdient, in voller Schärfe zitiert zu werden:

„Broadcom hat nicht euch erpresst. Broadcom hat euch den Spiegel vorgehalten. Die haben gesehen, dass ihr zu faul seid zu migrieren. Dass ihr zu bequem seid, Linux-Grundlagen zu lernen. Dass ihr lieber zahlt als denkt. Und sie haben den Preis entsprechend angesetzt. Der 1.000% Aufschlag ist keine Erpressung, das ist der Marktpreis für eure Inkompetenz.“

Hart formuliert, aber der Kern trifft. Denn die Alternativen standen die ganze Zeit bereit:

„KVM seit 2006. Proxmox existiert seit 2008. Ceph seit 2012. Die Alternativen standen die ganze Zeit direkt neben euch im Regal. Kostenlos. Quelloffen. Dokumentiert. Und ihr habt sie ignoriert, weil die Oberfläche nicht hübsch genug war.“

Und für alle, die jetzt reflexhaft nach der nächsten proprietären Lösung greifen:

„’Wir wechseln zu Nutanix als Alternative!‘ – IHR HABT NICHTS GELERNT. Vom einen proprietären Vendor-Lock-in in den nächsten. Nutanix ist jetzt nett, weil die Marktanteile brauchen. Gebt denen drei Jahre.“

Die CISPE-Beschwerde ist berechtigt – Broadcoms Vorgehen ist aggressiv und schadet dem europäischen Markt. Aber sie lenkt auch davon ab, dass die Branche ein strukturelles Problem hat, das keine EU-Kommission lösen kann: die jahrelange, wissentliche Abhängigkeit von einem einzigen proprietären Stack ohne Exit-Strategie. Proxmox, Ceph und KVM können nicht aufgekauft, nicht lizenziert, nicht abgeschaltet werden.

Die GPL garantiert, dass dieser Code frei bleibt. Es gibt keinen Hock Tan für Open Source. Wer jetzt immer noch keinen Plan B hat, sollte sich nicht bei Broadcom beschweren – sondern bei sich selbst. Natürlich verliert man mit Open Source die Möglichkeit, den Finger auf einen Schuldigen zu zeigen – und man muss die gesparten Lizenzen in Open Source und in Menschen investieren, damit das Ganze dann auch mittel bis langfristig funktioniert.

E-Mail-Provider deutscher Gemeinden


Anzeige

Rack & Stack Cloud Exit Vortrag – 80 % Kosten gespart bei Everysize.com

Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.

„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.

Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.

Eugen Falkenstein (CEO von Everysize) und ich machen bei der diesjährigen Rack & Stack Konferenz einen Vortrag zum Thema „Cloud Exit“ und wie man das Ganze macht oder einfach mal damit anfängt. Die „Rack & Stack“ ist „die Konferenz für souveräne IT-Infrastrukturen“ und findet am 21-22. April 2026 in Nürnberg statt – sehen wir uns da?

Die vollständige Case Study findest du hier als PDF Download – bei Fragen – antworte einfach auf den Newsletter.

Das Konferenzprogramm der Rack & Stack Konferenz 2026


MXmap: E-Mail-Hosting Übersicht deutscher und Schweizer Gemeinden

Christian Berendt hat auf LinkedIn angekündigt, dass er das Schweizer Open-Source-Projekt MXmap von David Huser kurzerhand für Deutschland geforkt hat – und die Ergebnisse sind überraschend positiv. Das Projekt prüft die offiziellen Domains aller Gemeinden via MX- und SPF-DNS-Einträge und klassifiziert die E-Mail-Provider nach Jurisdiktion. Der Hintergrund: US-basierte Anbieter unterliegen dem CLOUD Act, der US-Behörden Datenzugriff unabhängig vom Speicherort ermöglicht.

Die deutschen Zahlen zeichnen ein deutlich besseres Bild als erwartet: Von rund 10.700 klassifizierten Gemeinden landen nur 1.334 bei Microsoft 365 und nur 65 bei Google Workspace. Der Löwenanteil liegt bei kommerziellen Hostern wie IONOS, Hetzner und Mittwald (5.576) sowie bei kommunaler IT wie Komm.ONE oder Dataport (2.075). Dazu kommen 1.012 bei deutschen ISPs. Amazon Web Services taucht mit exakt 0 auf (zur deutschen Karte).

Im Vergleich zur Schweiz sieht es dort etwas anders aus: Von rund 2.100 Gemeinden nutzen 1.108 Microsoft 365 – anteilig deutlich mehr als in Deutschland. Dafür setzen 604 Schweizer Gemeinden auf unabhängige Lösungen und 251 auf Schweizer ISPs. Der Schweizer Hoster Infomaniak kommt auf 120 (zur Live View für die Schwiz).

Technisch basiert die Pipeline auf drei Schritten: Zuerst werden alle Gemeinden via Wikidata gesammelt und deren DNS-Einträge abgefragt. Dann folgen manuelle Korrekturen, SMTP-Banner-Checks und Website-Scraping für unklare Fälle. Abschließend wird jeder Eintrag mit einem Confidence Score von 0-100 validiert. Die Anbieter-Erkennung für den deutschen Fork wurde laut Berendt mit Claude Code optimiert. Wichtiger Hinweis: DNS-Einträge zeigen Mail-Routing an, nicht zwingend den Speicherort der Daten. Manchmal kann eine Spam Protection Suite die Mails annehmen (den MX Eintrag stellen) und die Mails dann weiterleiten.

Beide Projekte sind Open Source unter MIT-Lizenz, die Daten frei verfügbar. Wer Fehlklassifizierungen findet, kann direkt ein Issue auf GitHub erstellen. Berendt bringt es auf den Punkt: Vielleicht sollten wir öfter darüber reden, was in Sachen digitaler Souveränität bereits funktioniert – nicht nur über das, was nicht klappt.

E-Mail-Provider deutscher Gemeinden


20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära

Moritz Förster analysiert im iX Magazin bei heise online zum 20-jährigen Jubiläum von Amazon S3 die strategische Kalkulation hinter der Erfolgsgeschichte. Am 14. März 2006 mit PUT und GET gestartet, speichert der Dienst heute über 500 Billionen Objekte und verarbeitet 200 Millionen Requests pro Sekunde in 39 Regionen.

Die Preispolitik verdient einen genaueren Blick: AWS bewirbt den 85-prozentigen Preisrückgang pro Gigabyte. Was unerwähnt bleibt: Die Hardwarekosten sind im selben Zeitraum um deutlich mehr gefallen. Die Senkungen folgen der Hardware-Kurve, nicht großzügigem Margenverzicht – AWS operiert laut Analysten mit über 30 Prozent Betriebsmarge.

Das eigentliche Lock-in steckt im API: Die S3-Schnittstelle ist De-facto-Standard – MinIO, Ceph, Cloudflare R2 implementieren sie alle. Aber das S3-API ist kein offener Standard – kein RFC, kein Governance-Modell. AWS definiert und kontrolliert die Spezifikation allein. Proprietäre Erweiterungen wie S3 TablesS3 Vectors oder Object Lambda lassen sich nicht replizieren. Portabilität wird suggeriert, aber nur für einfache Workloads eingelöst.

Die Egress-Gebühren bleiben der Klassiker: Daten fließen günstig rein und teuer raus. Bei Hunderten Terabyte in S3 können allein die Transferkosten einer Migration sechsstellige Beträge erreichen. Seit 2024 gibt es kostenlosen Egress für den Anbieterwechsel – aber nur einmalig und nur für den vollständigen Abzug. Das ist kein Bug, das ist ein Geschäftsmodell.

Die jüngsten Erweiterungen machen die Strategie vollends transparent: S3 Tables für Apache-Iceberg-Tabellen, S3 Vectors für RAG-Anwendungen – Daten sollen in S3 gespeichert, abgefragt, analysiert und für KI-Modelle bereitgestellt werden. Ohne Umwege, ohne Grund, die Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist vertikale Integration, die den Wettbewerb systematisch untergräbt.

Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, bucht nicht nur einen Speicherdienst – sondern eine Beziehung, aus der man nicht ohne Weiteres herauskommt. Rational? Oft ja. Alternativlos? Nein.

20 Jahre Amazon S3: Technisch brillant, strategisch ein goldener Käfig


netcup erhöht Preise: RAMpocalypse wird konkret

Vor wenigen Wochen hatte netcup seine Community noch im Forum über die sogenannte „RAMpocalypse“ informiert (Ausgabe 225)– damals mit der Hoffnung, die Krise ohne Preiserhöhung durchzustehen. Diese Hoffnung ist jetzt geplatzt: Bestandskunden zahlen ab Mai +18,5%, Neuverträge +24,3%, Storage +21,5%.

netcup hatte die Server-Bestellungen für 2026 bereits im Oktober vertraglich abgesichert. Im Februar teilten die Lieferanten dann mit, dass die zugesagten Lieferungen nicht stattfinden – es sei denn, netcup zahlt einen dreistelligen Prozentbetrag mehr. Vertragsbruch, klar formuliert. Nach Verhandlungen konnte ein Lieferant auf einen reduzierten Aufschlag heruntergehandelt werden, aber die Marge reicht schlicht nicht, um das komplett aufzufangen.

Die Verteilung auf Bestandskunden begründet netcup mit der Mischkalkulation: Ersatzteile für laufende Server kosten heute ein Vielfaches des Ursprungspreises. Hätte man die Kosten nur auf Neukunden umgelegt, wären identische Produkte dort 40-50% teurer gewesen. In konkreten Zahlen: Ein VPS 1000 G12 steigt für Bestandskunden von 7,10€ auf 8,41€ netto.

Bemerkenswert transparent ist, was netcup nicht gemacht hat: Man hätte stillschweigend die Überbuchungsfaktoren hochdrehen und den Preis belassen können. Stattdessen stellt sich die Geschäftsführung persönlich ins Forum und legt die Kalkulation offen. In konkreten Zahlen: Ein VPS 1000 G12 steigt für Bestandskunden von 7,10€ auf 8,41€ netto – kein Weltuntergang, aber in der Summe spürbar.

Im netcup-Forum wurde der Thread intensiv diskutiert – mit über 80 Beiträgen in wenigen Stunden. Der Grundtenor: Verständnis, aber auch Frust. Ein Nutzer ist hier eher frustriert: „Es ist bereits das zweite Mal, dass einfach Verträge bewusst nicht eingehalten werden, weil der Gewinn durch Vertragsbruch höher als eventuelle Folgen ist.“ Ein anderer merkt trocken an: „Wenn mir noch ein Politiker was von der Ansiedlung von KI-Rechenzentren erzählt, werde ich… unhöflich.“ Und ein Geschäftsführer lobt die Kommunikation: „Andere Anbieter erhöhen Setupgebühren auf über 1.000€ mit dem Kommentar ‚ist halt so‘. Das Statement hier wirkt ohne Marketingfilter und ehrlich – das trauen sich wenige.“

RAMpocalypse: We need to talk about pricing


14 Prozent mehr Geburten durch Homeoffice

Eine Studie des Ifo-Instituts zeigt einen bemerkenswerten Zusammenhang: In Haushalten mit mindestens einem Tag Homeoffice pro Woche liegt die Geburtenziffer im Schnitt 14 Prozent höher als ohne – ausgewertet über 38 Länder.

In den USA ist der Effekt mit 18 Prozent besonders stark. Laut Ifo-Forscher Mathias Dolls könnte eine breitere Homeoffice-Quote in Deutschland 13.500 zusätzliche Geburten pro Jahr bedeuten. Löst das demografische Problem nicht, aber die Richtung stimmt – und es ist vermutlich das überzeugendste Argument für Remote Work, das man einem skeptischen Management vorlegen kann 😉

Homeoffice steigert die Geburtenrate


SRLabs hackt Enterprise KI-Agenten

Das Berliner Sicherheitsteam SRLabs um Linus Neumann hat in einem Blogpost demonstriert, wie sie einen Enterprise-KI-Assistenten eines großen Unternehmens komplett übernommen haben – und zwar ohne eine einzige Prompt Injection, ohne adversariale Inputs, ohne jede KI-spezifische Angriffstechnik. Anlass war der kürzliche Medienrummel um den in zwei Stunden gehackten McKinsey-KI-Agenten.

Die Angriffskette ist fast schon peinlich simpel: Im Frontend-JavaScript fanden sie die Backend-URL, dahinter lief Django im Debug-Modus – öffentlich erreichbar, im Produktivsystem. Ein einziger fehlerhafter GET-Request reichte, um die Debug-Seite mit sämtlichen Umgebungsvariablen zu triggern. Darin: Admin-Credentials, das vollständige System-Prompt der KI, und die komplette API-Routenliste. Authentifizierung? Nicht nötig. Spezielles Tooling? Auch nicht. Das Admin-Passwort hätte man laut SRLabs übrigens auch über Wikipedias Liste der häufigsten Passwörter erraten können.

Der eigentliche Schaden ging dann weit über die KI-Anwendung hinaus. Im Django-Admin-Panel lagen OAuth-Tokens im Klartext – ausgestellt von Microsoft Entra ID, mit Berechtigungen für User.Read.All. Über die Microsoft Graph API konnten die Forscher damit auf Millionen von Mitarbeiter-Profilen zugreifen. Vom JavaScript-Asset eines Chatbots bis zum kompletten Personalverzeichnis – in einer Kette aus Anfängerfehlern, die keinerlei Spezialwissen erforderte.

Die unbequeme Wahrheit dahinter: KI-Deployments sammeln systembedingt privilegierte Credentials – Dokumentenzugriff, Kalender, Identity Tokens. Der Management-Druck, schnell etwas Vorzeigbares zu liefern, konzentriert die Aufmerksamkeit auf das Modell, während die umgebende Infrastruktur als Nebensache behandelt wird. Beispielsweise ist es gar nicht so einfach, Claude für den Zugriff auf .env Files zu sperren. SRLabs bringt es trocken auf den Punkt: Der arme KI-Agent konnte vermutlich nicht mal beobachten, was um ihn herum passierte.

We don’t need to hack your AI Agent to hack your AI Agent


Deploy Freezes: Ein Hack, keine Tugend

Charity Majors, Gründerin von Honeycomb und bekannt für ihre pointierten Meinungen zu Operations-Themen, nimmt sich auf ihrem Substack erneut das Thema Deploy Freezes vor – passend zur Weihnachtszeit, wenn die ewige Debatte um eingefrorene Deployments wieder hochkocht.

Ihre Position ist dabei weniger radikal, als man angesichts ihres berühmten Artikels „Friday Deploy Freezes are Exactly Like Murdering Puppies“ erwarten würde. Wer nicht die Fähigkeit hat, Probleme in neuem Code vor den eigenen Kunden zu finden – und das betrifft laut Majors die meisten Teams – für den sind Deploy Freezes ein vernünftiger Workaround. Was sie allerdings auf die Palme bringt: Wenn Leute ihre Freezes als moralische Tugend verkaufen, statt ehrlich zuzugeben, dass es ein Hack ist.

Der praktische Kern ihres Arguments: Nicht Deploys einfrieren, sondern Merges. Wer wochenlang Code mergen lässt, aber nicht deployt, baut einen Schneehaufen über einem Haufen Granaten – und findet die am 5. Januar mit dem Gesicht. Stattdessen empfiehlt sie, den Deploy-Prozess auch über die Feiertage alle ein bis zwei Tage laufen zu lassen, nur eben ohne neuen Code auszuliefern. Denn wer es gewohnt ist, täglich zu deployen, wird nach zwei Wochen Stillstand fast garantiert ein Problem haben – Memory Leaks und andere schleichende Systemprobleme machen keine Ferien.

Ein Kommentator auf LinkedIn beschreibt seinen Ansatz als „Code Slushie“ – nicht eingefroren, aber die Hürde für Risiko steigt, je näher der Feiertag rückt. Pragmatisch und ehrlich, genau wie Majors es sich wünscht.

On Friday Deploys: Sometimes that Puppy Needs Murdering


Österreichs Wirtschaftsministerium ersetzt Skype for Business durch Nextcloud

Nach dem Lebensende von Skype for Business hat das österreichische Bundesministerium für Wirtschaft, Energie und Tourismus (BMWET) eine selbstbetriebene Nextcloud mit Nextcloud Talk als Kollaborationsplattform eingeführt. Golem berichtet über die Migration, bei der rund 1.200 Mitarbeiter in nur vier Monaten nach einer Testphase umgestellt wurden.

Der Wechsel verlief offenbar überraschend glatt – CIO Martin Ollrom beschreibt die technische Implementierung als „reibungsloser als erwartet“. Allerdings gab es anfangs durchaus Widerstand: Es zeigte sich ein gewisses Unverständnis, warum subjektiv funktionierende Lösungen ersetzt werden müssen. Dem begegnete man pragmatisch: Zwei Monate vor dem Go-Live startete eine Informationskampagne mit Kurzvideos und regelmäßigen Updates für die Belegschaft.

Der Fall ist bemerkenswert, weil er zeigt, dass Open-Source-Migration in Behörden nicht immer das Schleswig-Holstein-Niveau an Radikalität braucht. Manchmal reicht ein konkreter Anlass – wie das Abschalten eines Microsoft-Produkts – um den Stein ins Rollen zu bringen. Dass ausgerechnet ein österreichisches Ministerium bei einer deutschen Open-Source-Lösung landet, dürfte Frank Karlitschek und sein Team freuen. Wer den Praxisbericht zu OpenCloud als Nextcloud-Alternative aus dem vorherigen Artikel gelesen hat, kennt allerdings auch die andere Seite der Medaille – im Enterprise-Kontext mit professionellem Betrieb sieht die Nextcloud-Welt offenbar anders aus als im Homelab.

„Die Implementierung lief reibungsloser als erwartet“


Von Nextcloud zu OpenCloud: Praxisbericht aus dem Homelab

Axel von pandolin.io beschreibt im verlinkten Blogartikel, warum er 2026 nach Jahren als Nextcloud-Nutzer den Wechsel zu OpenCloud auf seinem K3s-Cluster vollzogen hat. Der Kernfrustration dürften viele Self-Hoster nachfühlen: Nextcloud-Updates, die sich anfühlen wie russisches Roulette – nur trifft es meistens den Desktop-Client, die PHP-Performance oder die Datenbank-Indizes.

Die Ressourcen-Zahlen sprechen eine deutliche Sprache: Wo Nextcloud im Leerlauf 800 MB bis 1,2 GB RAM belegt und permanent mit Cronjobs beschäftigt ist, kommt OpenCloud mit unter 200 MB aus und liegt bei nahezu 0% CPU-Last. Der Grund: OpenCloud ist in Go geschrieben und braucht keine Datenbank – Metadaten liegen direkt im Dateisystem. Kein PostgreSQL, kein MariaDB, kein kaputter Index am Sonntagabend.

Die Architekturentscheidung ist bewusst minimalistisch: Kein separater Cache-Layer, keine Datenbank, keine überflüssige Komplexität. Das hat auch praktische Konsequenzen fürs Backup – ein einfacher ZFS-Snapshot ist atomar konsistent, statt wie früher Datenbank-Dump und Dateien getrennt sichern zu müssen und zu hoffen, dass beide zeitlich zusammenpassen.

Hinter OpenCloud steht die Heinlein Gruppe (mailbox.org), die den Fork von ownCloud Infinite Scale (oCIS) vorantreibt – nachdem über ein Dutzend oCIS-Entwickler nach der Kiteworks-Übernahme dorthin gewechselt waren. Wer die Vorgeschichte nachlesen möchte: In Ausgabe 174 hatte ich das Drama um die Entwickler-Abwanderung und die Klagedrohungen von Kiteworks ausführlich behandelt.

Netter Bonus: Axel nutzt OpenCloud nebenbei als souveräne Ebook-Bibliothek mit einem Boox E-Ink-Reader – DRM-freie EPUBs, selbst gehostet, ohne dass Amazon mitlesen kann. Die bittere Ironie dabei: Ausgerechnet Zuboffs „Zeitalter des Überwachungskapitalismus“ bekommt man kaum ohne Überwachungs-DRM.

Ein neues Icon auf meinem Bildschirm oder warum ich 2026 von Nextcloud zu OpenCloud gezogen bin


Schmunzelecke

Bei oscgameclones.com findest du diverse Games „von früher“ – von „Day of the Tentacle“ über „Indiana Jones and the Fate of Atlantis“ findest du sämtliche andere „ScummVM“ basierten Games aber auch sämtliche Arkanoid und Asteroids Varianten wie auch „Bubble Bobble„, ein absolutes Highlight. Es gibt auch Spiele, die ich nicht kenne – wie „1½ Ritter: Auf der Suche nach der hinreißenden Herzelinde“ oder sämtliche Teile von „Leisure Suite Larry“ oder Lemmings.


💡 Link Tipps aus der Open Source Welt

SereneDB – Verteilte Echtzeit Search & Analytics Datenbank

SereneDB vereint Elasticsearch-artige Volltextsuche und ClickHouse-artige Analytics in einer einzigen, PostgreSQL-kompatiblen Datenbank. Statt zwei Systeme zu betreiben und Daten zwischen Search Engine und Analytics-DB zu synchronisieren, liefert SereneDB beides in einem.

Key Features:

  • Unified Search & Analytics: Volltext-Suche und analytische Queries in einer Datenbank, abfragbar per Standard-SQL
  • Postgres-kompatibel: Bestehende Postgres-Tools, Treiber und Know-how funktionieren direkt
  • IResearch Engine: Search wird von IResearch angetrieben, einer C++ Information Retrieval Library, die das Team seit 2016 entwickelt – laut Search Benchmark Game schneller als Lucene (Elasticsearch)
  • Vector & Hybrid Search: Eingebaute Vektorsuche und hybrides Ranking für AI-Anwendungen
  • Echtzeit-Updates: Column-wise Updates ohne Performance-Einbußen
  • UI Client: Mitgeliefertes Web-UI (SereneUI) für Queries und Datenmanagement

Geschrieben in C++ (83%), mit TypeScript-basiertem UI. Die Single-Node-Version ist laut GitHub für immer Apache-2.0 lizenziert, bei der verteilten HA Variante ist das aktuell aktuell auch Apache 2.0 – aber vermutlich nicht für immer.

Ein ambitioniertes Projekt, das an der Schnittstelle von Elasticsearch und ClickHouse ansetzt – ein Pain Point, den viele Teams kennen. Dass die Search Engine auf der eigenen, seit 2016 entwickelten IResearch-Library basiert, gibt technische Glaubwürdigkeit.

Im „Search Benchmark, the Game“ – dem von Tantivy initiierten und mittlerweile auch von Lucene genutzten Industrie-Benchmark auf Basis des Wikipedia-Korpus – schlägt IResearch sowohl Lucene als auch Tantivy über alle Query-Typen hinweg, im Durchschnitt mit 441 μs vs. 749 μs (Lucene) bzw. 899 μs (Tantivy). Die Benchmark-Ergebnisse findet ihr unter https://serenedb.com/searchbenchmark. Die Firma hinter SereneDB kommt übrigens aus Berlin.

https://github.com/serenedb/serenedb

mdvi – Markdown Viewer im Terminal mit Vim-Navigation

mdvi ist ein Terminal-basierter Markdown Viewer, der Markdown-Dateien als formatierte Vollbild-TUI rendert – mit Vim-Style Navigation und sauberem Rendering auch für große Dateien.

Key Features:

  • Markdown Rendering: Headings, Listen, Task Lists, Blockquotes, Tabellen, Fußnoten, Emphasis, Strikethrough – via pulldown-cmark
  • Bilder im Terminal: Lokale, file:// und remote HTTP(S)-Bilder mit Lazy Loading. Konfigurierbare Protokolle: Halfblocks, Sixel, Kitty, iTerm2 oder Auto-Erkennung
  • Syntax Highlighting: Fenced Code Blocks mit Sprachkennung werden farbig dargestellt
  • Vim-Navigation: j/k, Ctrl-d/u, g/G, Suche mit /, nächster Treffer mit n/N
  • Live Reload: Datei auf Disk geändert? r drücken, fertig
  • Visual Block Selection: Text auswählen und in die Zwischenablage kopieren

Geschrieben in Rust mit crossterm und ratatui. Einzelnes statisches Binary, verfügbar via Homebrew Tap oder cargo install.

Ein schlankes, schnelles Tool für einen konkreten Use Case – Markdown im Terminal lesen, ohne Browser oder Editor öffnen zu müssen. Die Bildunterstützung mit mehreren Terminal-Protokollen hebt mdvi von einfacheren Markdown-Renderern wie glow ab. Noch früh (v0.6.6), aber für den Zweck bereits sehr brauchbar.

https://github.com/taf2/mdvi

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtigen bei
    guest

    0 Comments
    Älteste
    Neueste Meistbewertet
    Inline-Feedbacks
    Alle Kommentare anzeigen

    allesnurgecloud.com

    © 2026 allesnurgecloud.com
    0
    Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x