Willkommen zu allesnurgecloud.com – Ausgabe #176
Und auch in dieser Woche war wieder so einiges geboten – unter anderem gab es eine massive Störung bei der Datev, die dann auch andere Dienstleister getroffen hat. Das Gaia-X Projekt wurde von Nextcloud Chef Frank Karlitschek für tot erklärt und du wunderst dich vermutlich, was da überhaupt jemals „gelebt“ hat. Der Cloud-Beauftragte der Deutschen Rentenversicherung, Harald Joos, wehrt sich auf Linkedin dagegen und beschreibt, dass sich nur der Fokus des Projekts geändert habe.
Wie siehst du das Ganze?
Happy Bootstrapping Podcast
Im Podcast hatte ich in dieser Woche Jan Peininger zu Gast – Jan baut mit seinem Team an einer Cookie- und Consent-freies Video-Hosting aus Deutschland names Ignite.video. Das ist dann keine Alternative zu YouTube, sondern eher zu Angebote wie Vimeo und JW Player. Wir haben darüber diskutiert, was das fürs Hosting und die DSGVO-Konformität bedeutet und wie man eigentlich als Tech- und Produktmensch mit den Schwierigkeiten beim Thema „Sales“ umgeht – Folge 108 jetzt anhören.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Europa investiert in KI: 250+ Milliarden Euro für AI-Champions
In einem bemerkenswerten Schachzug positioniert sich Europa mit massiven Investitionen gegen das US-amerikanische „Stargate“-Projekt. Frankreich und die „EU AI Champions Initiative“ haben zusammen über 250 Milliarden Euro an Investitionen für die kommenden Jahre zugesagt.
Die wichtigsten Fakten im Überblick:
- Frankreich plant 109 Mrd. Euro KI-Investitionen
- UAE beteiligt sich mit 50 Mrd. Euro für Rechenzentren
- EU AI Champions Initiative sichert weitere 150 Mrd. Euro zu
- Über 60 namhafte europäische Unternehmen beteiligt
Wer steckt dahinter? Die Initiative wird von Schwergewichten der europäischen Wirtschaft getragen – von Volkswagen über SAP bis hin zur Schwarz Gruppe und Spotify. Investoren wie KKR, Blackstone und EQT haben ihre Unterstützung zugesagt. Besonders spannend: Auch KI-Pioniere wie Mistral AI und ElevenLabs sind mit an Bord. Alle Partner und Investoren findest du hier in der Übersicht – Logo Bingo 🙂
Der koordinierte Vorstoß zeigt, dass Europa die Zeichen der Zeit erkannt hat. Besonders interessant ist der Mix aus traditionellen Industrieunternehmen und innovativen Tech-Playern. Die Beteiligung der VAE mit dem Rechenzentren-Campus könnte sich als strategischer Vorsprung erweisen. Die große Herausforderung wird sein, die angekündigten Investitionen auch effizient in marktreife Innovationen umzusetzen.
Die Initiative plant außerdem, der EU-Kommission Vorschläge zur Vereinfachung der KI-Regulierung vorzulegen – ein wichtiger Schritt, um die europäische KI-Entwicklung zu beschleunigen.
Europa kontert Stargate: Mehr als 250 Milliarden Euro AI-Investitionen zugesagt
Paradigmenwechsel bei Big Tech: Ende der „Rest and Vest“-Ära?
Gergely Orosz, bekannt durch seinen einflussreichen Newsletter The Pragmatic Engineer, analysiert einen bemerkenswerten Wandel in der Tech-Branche. In der Tech-Branche zeichnet sich ein deutlicher Trend zu schärferem Performance Management ab. Was früher als „Rest and Vest“-Kultur bekannt war, weicht nun einem aggressiveren Ansatz bei der Leistungsbewertung – besonders bei den Tech-Giganten Meta und Microsoft.
Die wichtigsten Entwicklungen im Überblick:
- Meta kündigt erstmals rein leistungsbasierte Massenentlassungen an (3.700 Mitarbeitende)
- Microsoft führt überraschend schnelle Kündigungen ohne Vorwarnung durch
- Trotz Rekordgewinnen: Großzügige Abfindungen nicht mehr selbstverständlich
- Rückkehr zu strengeren Bewertungssystemen
Spannend zu beobachten: Der Zeitpunkt dieser Verschärfung ist bemerkenswert – beide Unternehmen verzeichnen Rekordgewinne. Meta erreicht eine Marktbewertung von 1,8 Billionen Dollar bei 62 Mrd. Dollar Gewinn, während auch Microsoft Höchststände meldet.
Wir erleben hier möglicherweise das Ende einer Ära. Die Zeit, in der Tech-Giganten primär durch großzügige Kompensation und Work-Life-Balance punkteten, scheint vorbei. Der neue Fokus auf strikte Leistungsbewertung könnte die Branchenkultur nachhaltig verändern. Besonders interessant: Einige Unternehmen wie Amazon, Netflix und NVIDIA praktizierten schon immer strenge Leistungsstandards – sie könnten nun zum Vorbild für die gesamte Branche werden.
Die Entwicklung zeigt auch: Der heiße Arbeitsmarkt der letzten Jahre kühlte sich deutlich ab. Unternehmen sehen weniger Notwendigkeit, Mitarbeitende durch besonders attraktive Arbeitsbedingungen zu halten.
Is Big Tech becoming more cutthroat?
Anzeige
Wir kümmern uns nachhaltig um deine Cloud-Infrastruktur
Wir helfen Dir beim 24×7 Betrieb, bei Performance Problemen, bei Kostenoptimierung oder einfach beim Betrieb Deiner Web-Applikationen.
Betreibst Du Services wie GitLab, Zammad und Matomo selbst – hierbei unterstützten wir ebenfalls gerne – schau Dir einfach mal unsere Leistungen an.
Unsere Kunden kommen in unseren Case Studies zu Wort – wie beispielsweise everysize.com – eine Sneaker-Suchmaschine mit Preisvergleich und Community.
Eugen Falkenstein, CEO von Everysize, sagt beispielsweise über uns:
We Manage ist für uns ein optimaler Partner zur zuverlässigen Unterstützung unserer Web Applikationen und das 24/7.
Neben kompetenter und zuverlässiger Beratung sind wir vor allem für die schnelle und direkte Kommunikation dankbar
Mit unseremaktuellen Angebot erhältst Du die ersten 4 Stunden gratis– 1 Stunde für die Analyse Deiner Infrastruktur und um zu schauen, ob und wie wir Dir helfen können. Die ersten 3 Stunden einer folgenden Beauftragung sind dann für Dich kostenlos.
Effektive Entscheidungsprozesse in Remote Teams
Die Entscheidungsfindung in Remote Teams stellt viele Unternehmen vor große Herausforderungen. Während im Büro schnell eine Runde zusammengerufen werden kann, braucht es im verteilten Arbeiten klare Strukturen und Prozesse.
Marissa Goldberg beschreibt im verlinkten Artikel die wichtigsten Grundprinzipien für erfolgreiche Remote-Entscheidungen:
Klarheit durch Frameworks – Tools wie das SPADE-Framework (Setting, People, Alternatives, Decide, Explain) helfen dabei, Entscheidungsprozesse zu strukturieren
Vermeidung von Entscheidungsparalyse durch:
- Zeitliche Begrenzungen für Feedback
- Die „70%-Regel“ von Jeff Bezos
- Pre-Mortems zur Risikoanalyse
- „Default to action“-Mentalität
Asynchrone Dokumentation – Entscheidungslogs statt endloser Meetings, um Transparenz zu schaffen und alle Stimmen zu hören
Klare Kommunikationsstandards definieren:
- Slack für schnelle Absprachen
- Ausführliche Proposals für komplexe Themen
- Zentrale Dokumentation getroffener Entscheidungen
Erhöhte Sichtbarkeit durch regelmäßige Updates und zentrale Dashboards
Remote-Entscheidungsfindung kann mit den richtigen Prozessen sogar effizienter sein als im Büro. Der Schlüssel liegt in Klarheit, Verantwortlichkeit und Transparenz – nicht in endlosen Meetings.
Was meinst du – welche Frameworks und Tools nutzt du für Remote-Entscheidungen in deinem Team?
How Great Remote Teams Make Decisions
Persönliche Software-Entwicklung mit Claude
Ein spannender Erfahrungsbericht zeigt, wie die KI-gestützte Entwicklung auch bei kleineren Projekten bereits Realität wird. Der Autor nutzte Claude (Anthropic’s KI-Assistent) für die Migration eines Emacs-Pakets nach Rust – mit beeindruckenden Ergebnissen.
Die Ausgangssituation:
- Ein langsames Obsidian.md Plugin für Emacs
- Performance-Probleme beim Scannen des Vaults
- Ziel: Migration von Elisp nach Rust für bessere Performance
Was besonders interessant ist: Die KI konnte nicht nur den Code portieren, sondern auch:
- Eigenständig die relevanten ~200 Zeilen Code aus 1.000 Zeilen Elisp identifizieren
- Ein passendes JSON-Format für die Datengrenzen entwickeln
- Funktionierenden Rust-Code inklusive Cargo.toml generieren
Der Autor zeigt sich überrascht von der Qualität: Das Projekt wurde in einem Nachmittag umgesetzt – eine Arbeit, die sonst vermutlich Tage gedauert hätte. Die Performance-Verbesserung war beeindruckend: Von 90 Sekunden auf etwa 15 Millisekunden.
Wichtige Learnings aus dem Projekt:
- KI-Fähigkeiten entwickeln sich exponentiell – alte Einschätzungen werden schnell überholt
- Gut definierte Schnittstellen helfen bei der Zusammenarbeit mit KI
- Code wird „billiger“, das Verständnis und die Architektur wichtiger
- Die Tools für KI-gestützte Entwicklung haben noch Nachholbedarf
Für mich zeigt der Artikel einen interessanten Trend: KI wird zunehmend zu einem mächtigen Werkzeug für individuelle Entwicklungsprojekte. Statt sich in Details zu verlieren, können Entwickler sich auf Design und Architektur konzentrieren.
Nutzt du bereits KI-Tools in deiner täglichen Entwicklung? Welche Erfahrungen hast du damit gemacht?
Building personal software with Claude
„Boring Tech“: Warum langweilige Technologie ein Kompliment ist
Ein spannender Beitrag darüber, warum „langweilige“ Technologie in der IT oft die beste Wahl ist. Der Autor argumentiert überzeugend: Für System-Administratoren ist Überraschungsfreiheit eine der wichtigsten Eigenschaften von Tech-Stacks.
Was macht „langweilige“ Tech aus?
- Vorhersehbares Verhalten
- Gut dokumentiert und verstanden
- Breite Community-Erfahrung
- Bewährte Problemlösungen
Besonders interessant finde ich die Unterscheidung zwischen „alt“ und „ausgereift“. Der Autor argumentiert, dass nicht das Alter einer Technologie entscheidend ist, sondern ihre Reife – gemessen an:
- Qualität der Dokumentation
- Stärke der Community
- Nachgewiesene Zuverlässigkeit
- Verständnis von Edge Cases
Ein konkretes Beispiel: Viele Unternehmen ersetzen komplexe Kubernetes-Cluster durch simple VMs und sehen dabei Verbesserungen in Zuverlässigkeit, Kosten und Uptime. Das zeigt: Nicht immer ist die neueste, „hippste“ Technologie die beste Wahl.
Der Autor widerlegt auch einige gängige Annahmen:
- „Boring“ bedeutet nicht automatisch „weit verbreitet“
- Alter garantiert keine Reife (siehe Oracle als Gegenbeispiel)
- Verständlichkeit ist wichtiger als Verbreitung
Für mich zeigt der Artikel einen wichtigen Trend: In Zeiten von AI-Hype und Cloud-Native-Everything besinnen sich viele Teams auf bewährte, „langweilige“ Technologien. Nicht weil sie alt sind – sondern weil sie funktionieren.
Boring tech is mature, not old
Building and Operating S3: Ein Blick hinter die Kulissen
In einem Gastbeitrag bei allthingsdistributed gab Andy Warfield, VP und Distinguished Engineer bei Amazon S3, im Jahr 2023 tiefe Einblicke in den Aufbau und Betrieb eines der größten Speichersysteme der Welt.
Die wichtigsten technischen Erkenntnisse:
- S3 besteht aus hunderten Microservices, die wie unabhängige Geschäftsbereiche agieren
- Die größte Herausforderung ist das Management der I/O-Last („Heat“) über Millionen von Festplatten
- Moderne HDDs haben zwar enorme Kapazitäten (aktuell 26TB), aber weiterhin nur ~120 IOPS
- Durch geschickte Datenverteilung können einzelne Workloads auf über 1 Million Festplatten zugreifen
- Die schiere Größe und Multi-Tenancy führt zu vorhersehbareren Lastmustern
Interessante organisatorische Aspekte:
- S3 wird als „lebendes System“ betrachtet – Software, Hardware und Menschen als Einheit
- Starker Fokus auf „Ownership“ – Teams übernehmen volle Verantwortung für ihre Services
- „Durability Reviews“ helfen Teams, sicher und schnell zu entwickeln
- Lightweight Formal Verification wird eingesetzt, um die Korrektheit kritischer Komponenten zu garantieren
Die Arbeit an S3 habe seine Sicht auf Systeme fundamental verändert. Nicht nur die technische Skalierung ist eine Herausforderung, sondern auch die organisatorische. Der Erfolg hängt maßgeblich davon ab, wie gut es gelingt, Teams zu befähigen und Ownership zu fördern.
Der Artikel bietet einen seltenen und detaillierten Einblick in die Herausforderungen beim Betrieb eines globalen Storage-Systems. Besonders spannend sind die Erkenntnisse zur Balance zwischen technischer Innovation und organisatorischer Skalierung.
Building and operating a pretty big storage system called S3
Vultr’s 333-Millionen-Dollar Einstieg in den AI-Cloud-Markt
Spannende Entwicklung im Cloud-Markt: Der Cloud-Infrastruktur-Anbieter Vultr hat seine erste externe Finanzierungsrunde seit der Gründung 2014 abgeschlossen – und die hat es in sich! 333 Millionen Dollar bei einer Bewertung von 3,5 Milliarden Dollar zeigen, dass hier ein ernstzunehmender Player im AI-Cloud-Markt entsteht.
Die wichtigsten Details:
- Finanzierungsrunde angeführt von AMD Ventures und LuminArx Capital
- Fokus auf GPU-Beschaffung und globale Expansion
- Erster „Supercompute“-Cluster in Chicago geplant
Besonders interessant finde ich die strategische Partnerschaft mit AMD: Vultr will sowohl AMD als auch NVIDIA GPUs anbieten und könnte damit im preissensitiven AI-Workload-Segment punkten.
Die größte Herausforderung wird aber der Wettbewerb mit den Hyperscalern:
- AWS, Google Cloud und Azure dominieren den Markt
- 333 Millionen Dollar klingen viel, sind aber gegen die Tech-Giganten eher bescheiden
- Erfolg wird von der GTM-Strategie und Enterprise-Kundengewinnung abhängen
Für mich zeigt diese Finanzierung einen spannenden Trend: Der Markt für spezialisierte AI-Cloud-Infrastruktur wächst rasant. Ähnlich wie CoreWeave könnte Vultr hier eine wichtige Rolle spielen – vorausgesetzt, sie schaffen es, ihre Kostenvorteile und Einfachheit auch bei größerer Skalierung beizubehalten.
Hat ein „kleiner“ Player wie Vultr überhaupt eine Chance gegen die großen Cloud-Anbieter? Oder wird der AI-Boom genug Platz für spezialisierte Anbieter schaffen?
Is Vultr’s $333 Million Gamble a Winning Bet in the AI Cloud?
Backblaze Drive Stats 2024: Festplatten unter der Lupe
Ein interessanter Einblick in die Festplatten-Statistiken von Backblaze für das Jahr 2024. Der Cloud-Storage-Anbieter überwacht aktuell über 300.000 Festplatten und teilt transparent seine Erfahrungen – besonders spannend für alle, die sich für Hardware-Zuverlässigkeit interessieren.
Die wichtigsten Erkenntnisse aus 2024:
- Die durchschnittliche Ausfallrate (AFR) ist auf 1,57% gesunken (2023: 1,70%)
- 24TB Festplatten von Seagate sind neu im Portfolio
- Über 53.000 neue Festplatten wurden 2024 installiert
- Die 4TB-Ära geht zu Ende, Migration auf 20TB+ läuft
Besonders interessant finde ich den Vergleich der Hersteller:
- WDC zeigt konstant niedrige Ausfallraten (0-0,85%)
- Toshiba überzeugt durch Konsistenz (meist um 1,2%)
- HGST hatte Probleme mit zwei 12TB Modellen
- Seagate konnte die Ausfallrate leicht senken (2,25% auf 2,0%)
Die neuen High-Capacity Drives (20TB+) zeigen vielversprechende erste Ergebnisse mit einer Ausfallrate von nur 0,77% im Q4. Das wird spannend zu beobachten sein, wenn diese Drives die „Badewannenkurve“ durchlaufen.
Ein besonderer Aspekt des Reports: Es ist der letzte von Andy Klein, der nach 10 Jahren bei Backblaze in den Ruhestand geht. Seine detaillierten Analysen haben maßgeblich zum Verständnis von Enterprise-Festplatten-Zuverlässigkeit beigetragen.
Backblaze Drive Stats for 2024
Schmunzelecke
Da ich einige KI/AI News in der Ausgabe habe, vielleicht mal ein Beispiel aus der Praxis, bei der ich als Star Wars Fan nicht schlecht gestaunt habe.
Der Star Wars Fan-Film „The Ghost’s Apprentice“ ist komplett mit Googles Veo, Midjourney und Runway in 14 Tagen fertiggestellt worden und geht knapp 11 Minuten. Klar, hier und da fehlen Emotionen – trotzdem super beeindruckend, was hier mittlerweile möglich ist.
Gamestar hat hier die Hintergründe zum Projekt – wie findest du den Film?
💡 Link Tipps aus der Open Source Welt
LiteLLM – Universal API Gateway für LLM-Modelle
LiteLLM ist eine spannende Open-Source-Lösung, die als universelle Schnittstelle für verschiedene LLM-Provider fungiert. Das Besondere: Du kannst alle unterstützten APIs im OpenAI-Format ansprechen – egal ob Bedrock, Huggingface, VertexAI, TogetherAI, Azure, OpenAI oder Groq.
Der Clou dabei? LiteLLM übernimmt das komplette API-Management für dich:
- Automatische Übersetzung der Anfragen für
completion
,embedding
undimage_generation
Endpoints - Einheitliches Output-Format (Responses immer unter
['choices'][0]['message']['content']
) - Intelligentes Routing mit Retry/Fallback-Logik über mehrere Deployments
- Flexibles Budget- und Rate-Limiting pro Projekt, API-Key oder Modell
Besonders praktisch ist der integrierte Proxy-Server, der als LLM-Gateway fungiert. Eine gehostete Preview-Version und Enterprise-Tier sind ebenfalls verfügbar.
Ein echtes „Swiss Army Knife“ für LLM-Integrationen! Besonders für Teams, die verschiedene KI-Provider nutzen oder eine Vendor-Lock-in vermeiden wollen, könnte LiteLLM der Game-Changer sein. Die einheitliche API-Schnittstelle spart definitiv viel Entwicklungszeit.
https://github.com/BerriAI/litellm
zeropod – Ressourcen-optimierte Kubernetes Runtime
Zeropod revolutioniert als containerd shim die Ressourcennutzung in Kubernetes-Clustern. Das Tool „friert“ inaktive Container automatisch ein und speichert deren Zustand auf der Festplatte. Bei neuen Anfragen wird der Container in Millisekunden mit identischem Zustand wiederhergestellt – für Nutzer praktisch ohne spürbare Verzögerung!
Technisch basiert zeropod auf einer Kombination aus CRIU für Checkpoints, einem TCP-Proxy als Aktivator und eBPF für intelligentes Routing. Perfekt geeignet für:
- Low-Traffic Websites
- Dev/Staging-Umgebungen
- „Mostly static“ Seiten mit Backend-Bedarf
Für Kubernetes-Admins relevant: Container bleiben im Cluster als „running“ sichtbar und kubectl exec
funktioniert wie gewohnt. Performance-Metriken werden über einen zentralen zeropod-manager (DaemonSet) bereitgestellt.
https://github.com/ctrox/zeropod
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: