Willkommen zu allesnurgecloud.com – Ausgabe #172
Und auch in dieser Woche ist wieder einiges passiert – die nächste Woche könnte für DSGVO bzw. den Austausch von Daten europäischer User mit Firmen aus den USA interessant werden. Ob Trump den aktuellen Angemessenheitsbeschluss per Executiv Order kippen wird?
Oder hat er erstmal andere Dinge zu tun? Wir werden sehen.
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
Happy Bootstrapping Podcast
Im Podcast hatte ich in dieser Woche David von TREAZY zu Gast. TREAZY verkauft nachhaltige Socken aus Portugal und mittlerweile auch Sneaker aus Apfel-Leder. Die beiden Gründer David und Denis hab ich vor 1,5 Jahren schon mal gesprochen – damals war TREAZY noch ihr Side Hustle – mittlerweile sind sie Vollzeit am Start – im Podcast sprechen wir darüber, wie sie das erreicht haben – Folge 104 mit TREAZY findest du hier.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Anexia migriert 12.000 VMs von VMware zu KVM Platform
Der österreichische Cloud Provider Anexia hat sich aufgrund massiver Lizenzkosten-Steigerungen durch Broadcom/VMware dazu entschieden, 12.000 VMs von VMware auf eine eigene KVM-basierte Plattform zu migrieren.
Anexia CEO Alexander Windbichler berichtet im Interview mit The Register, dass die Preiserhöhungen von VMware über 500% betragen hätten. Zusätzlich hätte man die Lizenzen nun für 2 Jahre im Voraus bezahlen müssen, anstatt wie bisher monatlich. Diese Änderungen wären für Anexia „existenzbedrohend“ gewesen.
Die Migration wurde durch einige glückliche Umstände erleichtert:
- Anexia besitzt bereits einen Hosting-Anbieter (Netcup) mit KVM Erfahrung
- Die eigene „Anexia Engine“ Abstraktionsschicht versteckte VMware bereits vor den Kunden
- KVM kann mit VMware VMDK Disk-Images umgehen
- Die Storage-Infrastruktur basierte auf NetApp und war unabhängig von VMware
Interessanterweise unterstützten die Kunden die Migration, auch weil Anexia diese als „Kampf für eine gute Sache“ präsentierte. Die Migration selbst wurde durch ein eigens entwickeltes Tool stark vereinfacht – mit einem Klick und einem kurzen Reboot war eine VM migriert.
Windbichler glaubt nicht an den Erfolg von Broadcom/VMware:
„I do not believe Broadcom will be successful. They lost all the trust. I have talked to so many VMware customers and they say they cannot work with a company like that.“
Für Anexia hat sich der Aufwand gelohnt – das eingesparte Budget kann nun in die Weiterentwicklung der Open Source Lösung investiert werden. Auch die EU-Wettbewerbshüter scheinen ein Auge auf die Praktiken von Broadcom zu haben.
Euro-cloud Anexia moves 12,000 VMs off VMware to homebrew KVM platform
OSMC 2024 Talks nun auf YouTube Online
Das Netways Team hat in der letzten Woche alle OSMC 2024 Talks auf YouTube freigeschaltet. Bisher waren die Talks versteckt und erstmal nur für die Konferenzbesucher verfügbar. Folgende Talks hab ich selber besucht und kann sie auch ans Herz legen:
- Scaling: from 0 to 25 million users by Josip Stuhli – der Sofascore CTO zeigt, warum und wiese die Fußball Statistik Plattform aus der Public Cloud in eine eigene Umgebung migriert hat und was dies in Zahlen bedeutet – 0,6 % ihres Umsatzes kostet ihre eigene Infrastruktur – ob viele diesen Wert überhaupt kennen? 0,6 % ist wirklich super
- The Subtle Art of Lying with Statistics by Dave McAllister – Dave ist von NGINX/F5 und zeigt in diesem Talk, wie wir uns nicht nur mit IT Statistiken selbst belügen, sondern auch mit Zahlen und Umfragen aus dem Alltag – sehr interessant.
- Bow for me for I am Coroot by Kris Buytaert – Kris erklärt das eBFP basierte Open-Source Monitoring Tool Coroot, welches ich hier und da schon im Newsletter erwähnt hatte
- O11y@DATEV – 10% luck, 50% skill and 40% concentrated power of will by Gunter Geib – Ja, die Datev – viele Selbstständige und Unternehmer verbindet eine kleine Hass-Liebe mit dem Standard-Tool der Steuerberater. Im Talk gibt Gunter einen super interessanten Einblick in die Größe der Datev und wie man ein neues Observability Tooling firmenweit eingeführt hat und warum Kultur dafür auch wichtig ist.
- Customer Centric Monitoring by Andreas Lehr – mein eigener Talk zum Thema „Customer Centric Monitoring“ und mit welchen Tools man seine Digitale Wertschöpfungskette sinnvoll überwachen kann. Hierzu würde ich mich sehr über Feedback oder Ergänzungen von dir freuen – Danke!
Für die anstehende stackconf am 29/30.4. in München habe ich mehrere Talks eingereicht – mal schauen, ob es was wird. Ich mag die Konferenzen sehr, da man einen breiten Überblick über verschiedene Themen bekommt und es eben keine reine Herstellerkonferenz mit Fokus auf das eigene Produkt ist. Zusätzlich ist das Umfeld und die Leute sehr entspannt und es gibt ein tolles Abend-Event.
Für die stackconf findest du einen Gutschein Code für die Anmeldung in der letzten Ausgabe – schreib mir gerne, falls du auch kommst, dann gebe ich ein Bier aus.
33 Talks in der OSMC 2024 YouTube Playlist
Anzeige
„Die Braut in der Cloud mit KRUU und „We Manage“
Mit unserem Kunden KRUU und dem Cloud-Anbieter Gridscale haben wir eine ausführliche Case Study veröffentlicht (PDF Version).
Die Case Study beschreibt unseren ganzheitlichen Ansatz einer „Rundum-sorglos-Betreuung“ mit einem maßgeschneiderten Angebot und Unterstützung bei DevOps- und SRE Herausforderungen.
Benötigst du auch Hilfe im Bereich „DevOps“, individuelle Managed Server oder ein Backup für dein 1-Personen DevOps Team, dann lerne uns jetzt kennen.
1 Billion SQLite Installationen: Eine ungewöhnlicher Erfolgsgeschichte
SQLite ist vermutlich die am häufigsten eingesetzte Software der Welt – mit über einer Billion (1.000.000.000.000) aktiver Installationen. Dabei wird die Datenbank von nur drei Entwicklern maintained, die keine externen Beiträge akzeptieren. Zeit für einen Blick hinter die Kulissen dieser bemerkenswerten Software.
Die spannendsten Facts zu SQLite:
Militärischer Ursprung: SQLite entstand aus einem US-Navy Projekt. Entwickler Richard Hipp suchte eine Datenbank-Lösung, die auch bei Server-Ausfällen auf einem Kriegsschiff weiterlaufen würde. Die Entwicklung begann während einer Haushaltssperre unter Clinton/Gingrich im Jahr 2000.
Extreme Qualitätssicherung:
- 600 Zeilen Testcode pro Zeile Produktivcode
- 100% Branch Coverage
- Proprietäre Testsuite „TH3“ (Zugang nur für Consortium-Mitglieder für 120k$/Jahr)
- Simulation von Systemabstürzen, Stromausfällen und I/O-Fehlern
Ungewöhnliche Lizenzierung:
- Komplett Public Domain statt klassischer Open Source Lizenz
- Jede Quellcode-Datei beginnt mit einem „Segen“ statt rechtlichem Hinweis
- Keine externe Contributions möglich – nur auf Einladung
Technische Besonderheiten:
- Performt in manchen Szenarien schneller als Redis
- Single-Writer Modell
- „Schwache“ Typisierung (INSERT „Text“ in INTEGER Spalte möglich)
- Rückwärtskompatibilität seit 2004 garantiert
Fun Fact: Der ursprüngliche Präfix „sqlite_“ wurde zu „etilqs_“ geändert, weil Entwickler nachts angerufen wurden, wenn dieser String in Logs auftauchte
SQLite zeigt eindrucksvoll, dass weniger manchmal mehr ist. Die strikte Fokussierung auf Qualität und Stabilität statt Feature-Überfluss hat die Datenbank zum De-facto-Standard für eingebettete Systeme gemacht.
Besonders interessant finde ich das Geschäftsmodell: Während der Code Public Domain ist, wird mit Support, proprietären Tests und dem Consortium-Modell Geld verdient. Ein spannendes Beispiel, wie sich Open Source auch ohne Venture Capital nachhaltig finanzieren lässt.
Was ist deine Erfahrung mit SQLite? Nutzt du es auch produktiv oder nur für Entwicklung und Tests?
Collection of insane and fun facts about SQLite
Produktivität im digitalen Zeitalter: iPad und Apple Pencil als CTO-Werkzeuge
Ein spannender Einblick in die digitale Arbeitsweise eines CTOs, der analoge Notizen mit digitaler Organisation verbindet. Mike Jones teilt seine Erfahrungen, wie er mit iPad Pro und Apple Pencil seine tägliche Informationsflut bewältigt.
Die wichtigsten Komponenten seines Systems:
Hardware & Apps:
- 13″ iPad Pro mit Apple Pencil
- Standard Apple Apps: Notes und Reminders
- Bewusster Verzicht auf komplexere Produktivitäts-Tools
Strukturierte Organisation:
- Hierarchische Ordnerstruktur nach Jahren/Monaten
- Tägliche Notizen im Format „04.12.WED“
- Pinned Calendar-Files pro Monat
- GTD-inspiriertes Task Management in Reminders
Methodik der Notizen:
- Rapid Logging mit eigener Symbol-Syntax
- Cornell-Methode für tiefergehende Meetings
- Handschriftliche Notizen für bessere Informationsverarbeitung
Besonders interessant finde ich den bewussten Verzicht auf spezialisierte Apps. Jones‘ Erfahrung zeigt: Die Integration ins Ökosystem und konsequente Nutzung sind wichtiger als Features. Seine täglichen Review-Routinen (5 Min morgens, 10 Min abends) sorgen für Nachhaltigkeit des Systems.
Praktische Tipps für die Umsetzung:
- Work-Focus-Profil mit reduzierten Notifications
- Widgets für schnellen Zugriff auf relevante Infos
- Rapid Logging Syntax (•○△★→) für effiziente Meetingnotizen
Meine Einschätzung: Der Ansatz zeigt exemplarisch, wie moderne Führungskräfte digitale Tools nutzen können, ohne sich in Feature-Überfluss zu verlieren. Die Kombination aus analoger Notiz-Methodik und digitaler Organisation scheint den sweet spot zwischen Effizienz und kognitiver Verarbeitung zu treffen.
Wie organisierst du deine täglichen Notizen? Nutzt du auch iPad/Tablet oder bevorzugst du klassische Notizbücher?
How I Stay Organised: My iPad Note-Taking System
Mercari migriert von Fastly zu Cloudflare: Lessons Learned
Ein CDN-Provider-Wechsel ist eine der komplexeren Infrastruktur-Aufgaben – entsprechend interessant ist der Erfahrungsbericht des Mercari Network Teams, die ihre Migration von Fastly zu Cloudflare erfolgreich abgeschlossen haben.
Die wichtigsten Learnings aus dem Projekt:
- Scope klein halten: Das Team hat bewusst darauf verzichtet, während der Migration neue Features einzuführen oder Verbesserungen vorzunehmen. Eine Entscheidung, die sich bei hunderten zu migrierenden Services als goldrichtig erwies.
- Automatisierung ist der Schlüssel: Während die ersten Service-Migrationen noch über 30 Minuten manuelle Arbeit erforderten, konnte das Team durch Automatisierung und ein eigenes Go-Tool die Zeit auf wenige Minuten reduzieren.
- Vorsichtiger Traffic-Shift: Die Migration erfolgte über DNS Weighted Routing (Route 53/Google Cloud DNS), was ein graduelles Verschieben des Traffics und ein schnelles Rollback ermöglichte.
Besonders spannend finde ich den Ansatz „CDN as a Service“, den Mercari im Anschluss implementiert hat:
- Ein selbstentwickeltes „CDN Kit“ Terraform Modul ermöglicht Entwicklern die einfache Konfiguration ohne tiefes CDN-Know-how
- Automatische BigQuery Logging Integration
- Self-Service Zugriff auf das Cloudflare Dashboard durch SSO-Integration mit Okta
Die Permission-Verwaltung läuft dabei komplett automatisiert über GitHub Actions Workflows. Änderungen werden in Manifest-Files versioniert – ein eleganter Ansatz für Infrastructure as Code.
Der strukturierte Migrations-Ansatz und besonders die anschließende Self-Service Transformation können als Blueprint für ähnliche Projekte dienen. Die Kombination aus vorsichtiger Migration und anschließender Developer Empowerment zeigt, wie moderne Infrastruktur-Teams arbeiten sollten.
A smooth CDN provider migration and future initiatives
18 Jahre Linux-Konsole: Eine technische Zeitreise durch die Terminal-Evolution
Ein langjähriger Linux-Entwickler teilt seine spannende Reise von den frühen 2000ern bis heute – von der ersten Slackware-Installation bis zum aktuellen Gentoo-Setup. Seine Geschichte zeigt eindrucksvoll die Evolution der Linux-Desktop-Nutzung und welche Learnings sich daraus für moderne Entwickler ergeben.
Die wichtigsten Meilensteine:
Der Einstieg (2000-2007):
- Erste Linux-Installation via Slackware/MOPSLinux
- Lernen der Grundlagen nur mit man-pages und Büchern
- Kein Internet – dadurch tiefes System-Verständnis erzwungen
Die Experimentierphase (2007-2011):
- Zugang zum Internet ermöglicht Distribution-Hopping
- Intensive Auseinandersetzung mit LaTeX und Systemtools
- Entwicklung erster eigener Tools wie jabsh (Jabber Remote Shell)
Die Professionalisierung (2011-heute):
- Fokus auf Embedded Development
- Migration zu Arch Linux und später Gentoo
- Konsequente Nutzung von Terminal-Tools statt GUI
Besonders interessante Learnings:
- Die fehlende Internet-Verbindung in den frühen Jahren zwang zu tieferem Systemverständnis
- Reguläre Ausdrücke als fundamentales Skill für effiziente Entwicklung
- Einfache Tools sind oft langlebiger und stabiler als komplexe GUI-Anwendungen
- Dotfiles in Git ermöglichen portable Konfigurationen über Jahrzehnte
Seine aktuelle Gentoo-Installation läuft seit 5 Jahren stabil mit minimaler Wartung. Der Autor sieht dies als Bestätigung seines „Keep it simple“-Ansatzes: Bewährte Konsolentools statt moderner GUI-Anwendungen, die sich ständig ändern.
Die Geschichte zeigt eindrucksvoll, wie wichtig fundamentales System-Verständnis auch im Zeitalter moderner Entwicklungstools bleibt. Gleichzeitig mahnt sie zur Vorsicht bei der blinden Adoption neuer Tools – manchmal ist das bewährte Terminal-Tool die bessere Wahl.
Wie sieht dein Setup aus? Nutzt du auch noch klassische Terminal-Tools oder bist du komplett auf moderne GUIs umgestiegen?
I spent 18 years in the Linux console and I don’t regret it
WordPress in Aufruhr: Mullenweg deaktiviert Konten und löst Sustainability-Team auf
In der WordPress-Welt überschlagen sich die Ereignisse. WordPress-Mitgründer Matt Mullenweg sorgt mit mehreren kontroversen Entscheidungen für Aufsehen in der Open-Source-Community.
Der erste Paukenschlag: Mullenweg hat die WordPress.org-Accounts mehrerer prominenter Community-Mitglieder deaktiviert. Betroffen sind unter anderem Joost de Valk (Schöpfer des beliebten Yoast SEO Plugins) und Karim Marucchi (CEO von Crowd Favorite). Der offizielle Grund: Angebliche Pläne für einen WordPress-Fork. Beide Entwickler dementieren dies jedoch vehement und betonen, dass sie lediglich über föderierte Plugin-Repositories diskutiert hätten (Quelle: TechCrunch).
Parallel dazu sorgt eine weitere Entscheidung für Entrüstung: Mullenweg hat kurzerhand das WordPress Sustainability Team aufgelöst – ein Team, das er selbst vor 18 Monaten ins Leben gerufen hatte (Quelle: TheRepository). Die Ankündigung erfolgte nur 90 Minuten nachdem Team-Lead Thijs Buijs seinen Rücktritt erklärt hatte. Buijs hatte zuvor Mullenwegs Führungsstil kritisiert, insbesondere dessen öffentlichen Reddit-Thread über geplantes „WordPress Drama 2025“.
Die Tech-Journalistin Kara Swisher bezeichnete Mullenwegs Verhalten als „bizarr und verwerflich“ und nannte ihn in einem Post einen „stone cold asshole“. Besonders bitter: Das Sustainability Team hatte gerade erst wichtige Initiativen auf den Weg gebracht:
- Ein Handbuch für nachhaltige WordCamps
- Ein Plugin zur Messung des Carbon Footprints von WordPress-Seiten
- Pläne zur finanziellen Nachhaltigkeit des WordPress-Projekts
Diese Entwicklungen folgen auf den anhaltenden Konflikt zwischen WordPress/Automattic und WP Engine. Die Situation erinnert stark an die Spannungen, die 2010 zur Entstehung von MariaDB als MySQL-Fork führten. Die Community scheint an einem Wendepunkt zu stehen – die nächsten Wochen werden zeigen, ob sich die Wogen glätten lassen oder ob wir tatsächlich einen bedeutenden Fork erleben werden.
Was meinst du – kann WordPress unter der aktuellen Führung seine Position als führendes CMS behaupten? Oder ist die Zeit reif für eine Alternative aus der Community? Noch ist das hier auch ein WordPress, aber vermutlich nicht m ehr lange.
Matt Mullenweg deactivates WordPress contributor accounts over alleged fork plans
Puppet wird Closed Source – Community startet OpenVox Fork
Die Konfigurations-Management-Lösung Puppet steht vor einschneidenden Veränderungen. Puppet-Eigentümer Perforce hat angekündigt, dass ab Anfang 2025 sämtliche neuen Binaries und Packages nur noch über ein privates Repository bereitgestellt werden. Der Source Code wird nicht mehr öffentlich zugänglich sein, auch wenn die Open Source Lizenz formal bestehen bleibt.
Die Community reagiert mit einem Fork namens „OpenVox“, der unter dem Dach der Vox Pupuli Community entwickelt werden soll. Ben Ford, langjähriges Mitglied der Puppet-Community und ehemaliger Puppet-Mitarbeiter, treibt den Fork voran. Zentrale Ziele sind:
- Sicherstellung der Interoperabilität zwischen beiden Projekten
- Weiterer Zugriff auf Plattformen wie PuppetForge
- Aufbau einer nachhaltigen Community-Struktur
Die Entscheidung von Perforce kam für Insider nicht völlig überraschend, da sich diese Entwicklung bereits seit Jahren abzeichnete. Dennoch stellt sie besonders für große Puppet-Nutzer wie das Tor-Projekt oder Debian eine Herausforderung dar.
Ob sich OpenVox langfristig etablieren kann, wird von den verfügbaren Ressourcen und dem Community-Engagement abhängen. Die Erfahrungen mit anderen erfolgreichen Forks wie Icinga stimmen aber optimistisch. Allerdings könnte der Name „OpenVox“ noch Probleme bereiten, da bereits ein VoIP-Anbieter unter diesem Namen firmiert.
Die nächsten Monate werden zeigen, wie sich das Projekt entwickelt und ob es das Vertrauen der bisherigen Puppet-Nutzer gewinnen kann. Die Tür zu Perforce scheint dabei noch nicht komplett geschlossen zu sein.
Was meinst du – wird OpenVox ein ähnlicher Erfolg wie Icinga? Nutzt du Puppet in deinem Setup?
Community Fork von Puppet soll OpenVox heissen
Schmunzelecke
Neben PDF Tetris gibt es nun auch PDF Doom – du benötigst einen PDFium fähigen Browser, üblicherweise alles, was auf Chrome basiert. Dann kannst du in diesem PDF direkt loslegen – Happy Fragging!
💡 Link Tipps aus der Open Source Welt
Tabby – Open Source Alternative zu GitHub Copilot
Mit Tabby gibt es nun eine spannende Open Source Alternative zu GitHub Copilot, die sich vor allem durch die Möglichkeit des Self-Hostings von der Konkurrenz abhebt.
Das Besondere dabei – Tabby kommt komplett ohne externe Abhängigkeiten aus, benötigt also weder eine Datenbank noch eine Cloud Anbindung. Über eine OpenAPI Schnittstelle kann der Dienst einfach in bestehende Entwicklungsumgebungen integriert werden.
Interessant für kleinere Teams oder Entwickler: Tabby läuft auch auf Consumer GPUs, man benötigt also keine teuren Enterprise Grafikkarten.
Der Start von Tabby ist denkbar einfach – mit einem Docker Container ist man in einer Minute am Start:
docker run -it \
--gpus all -p 8080:8080 -v $HOME/.tabby:/data \
tabbyml/tabby \
serve --model StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct
Für Teams, die nach einer selbst-gehosteten Alternative zu GitHub Copilot suchen, ist Tabby definitiv einen Blick wert. Die schnelle Installation und flexible GPU Unterstützung machen es zu einer interessanten Option für verschiedene Einsatzszenarien.
Self-hosted AI coding assistant
10 Monitoring Tools für Linux
Jeff Geerling, bekannt als „The Geerling Guy“ aus der Ansible Welt – hat in einem YouTube Video diverse Tools vorgestellt, mit denen du Linux Systeme überwachen kannst. Einige der Tools kannte ich ehrlicherweise noch gar nicht.
Erwähnenswert ist in jedem Fall btop
– „The Lamborghini of top’s“ wie Jeff schreibt. Es kommt mit einer coolen Übersicht, Farben und vielen Features. „It really feels like you’re hacking when you’re watching it“.
Die weiteren Tools kennst du vielleicht schon iotop
, iftop
, htop und atop
– nvtop
ist ein Tool, um GPUs zu überwachen.
https://www.jeffgeerling.com/blog/2025/top-10-ways-monitor-linux-console
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: