Cloud Exit wird Realität, Hyperscaler Earnings, Personal ReadMe, mehr DCs in DE, K8s Migration bei Uber, Microsoft & Spegel, Salary Trends und mehr – #188

Willkommen zu allesnurgecloud.com – Ausgabe #188

Das Thema Netzbremse bewegt mich weiter und ich baue aktuell ein kleines Monitoring mit ein paar Messpunkten aus – DSL/Glasfaser Anschlüsse verschiedener Anbieter – Privatleute, die die Möglichkeit haben, in ihrer Umgebung einen kleinen Docker Container laufen zu lassen – falls du hier ne Möglichkeit hast, melde dich gerne – so 2,3 Messpunkte fehlen mir noch,.

Happy Bootstrapping Podcast

In der aktuellen Folge geht es mal wieder um das Thema E-Commerce – Vegane Sneaker, hergestellt aus Wein-, Orangen- und Kaffeeabfällen – wie geht das überhaupt? Darüber ich mit VLACE Gründerin Viola Weller gesprochen. Nach dem Start über Kickstarter in 2022 macht sie heute Kooperationen mit Trigema und Breuninger – coole Sache. Am Ende der Folge gibt es einen Gutschein Code, falls du interessiert bist – Folge 120 jetzt gleich sofort anhören.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

583 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Cloud-Exit wird Realität

In einem aufschlussreichen Artikel diskutiert ein Branchenexperte, warum der Ausstieg aus der Public Cloud („Cloud Exit“) nicht mehr nur theoretisch ist, sondern 2025 zu einer realen Strategie für viele Unternehmen geworden ist. Die jüngste Preissenkung bei AWS S3 Express um bis zu 85% zeigt, dass selbst die großen Cloud-Anbieter den wachsenden Kostendruck spüren und gegensteuern müssen.

Die Zahlen sprechen für sich:

  • 2 PiB Speicher über vier Jahre bei AWS S3 Express One Zone: ~11 Mio. $
  • Gleiche Kapazität mit On-Premise-Lösung (simplyblock): ~1,2 Mio. $ (fast 90% günstiger)
  • Wichtig: S3 Express One Zone bietet nur Single-AZ-Speicher ohne zonenübergreifende Haltbarkeitsgarantien

Nicht nur Speicher ist betroffen:

  • Leistungsstarke AWS i7ie.metal-Instanzen kosten über 218.000 $ pro Jahr pro Instanz
  • Vergleichbare On-Premise-Server: Anschaffung für 25.000-30.000 $ mit deutlich geringeren laufenden Kosten
  • Ein Cluster aus 10 solcher On-Premise-Server rechnet sich bereits nach 9-12 Monaten

Der KI-Faktor: Die KI-Revolution hat die Spielregeln grundlegend verändert. KI-Workloads sind datenintensiv und erfordern hohen Durchsatz beim Zugriff auf riesige Datensätze – ein Nutzungsmuster, für das die Cloud-Infrastruktur ursprünglich nicht konzipiert wurde. Bei eigener Infrastruktur entfallen zudem die Kosten für jede einzelne I/O-Operation, jede Trainingsepoche und jeden Retry bei unzuverlässigen Storage-Backends.

Strategischer Wandel: Was früher hauptsächlich eine Kostenfrage war, ist heute eine strategische Entscheidung. Unternehmen, die ihre Workloads zurück in die eigene Infrastruktur verlagern, bauen nicht nur kostengünstigere, sondern auch leistungsfähigere Systeme mit mehr Kontrolle über ihre Architektur.

Bei Basecamp gibt es hierzu auch News – man kann nun beim S3 Exit Vollzug melden und spart in Zukunft 1,3 Millionen Dollar pro Jahr ein. S3 hat vormals 1,5 Millionen gekostet – die neue Lösung mit eigener Pure Storage Hardware im Co-Location Datacenter kostet hingegen nur 200.000$/Jahr. In Summe spart Basecamp nun 2 Millionen pro Jahr ein – Ob das für ein neues DHH Rennteam reicht?
Jedenfalls gibt AWS Credits für den Cloud-Exit nötigen Traffic – das wusste ich bisher auch nicht. Man muss dann in 90 Tagen ausgezogen sein und seinen Account gelöscht haben.

Fazit: Die Public Cloud bleibt wertvoll für Skalierung und schnelles Experimentieren, aber für dauerhafte Hochleistungs-Workloads wie KI, Datenbanken, Analytics und auch E-Mail wird sie zunehmend zum falschen Werkzeug für die Aufgabe.

Cloud Exit Is Real —Why Cloud Economics Break Down at Scale


Quartalsergebnisse der Hyperscaler im Vergleich

In der aktuellen Berichtssaison zeigen sich deutliche Unterschiede zwischen den Cloud-Giganten Microsoft, Google und Amazon. Während Microsoft mit Rekordzahlen glänzt und sich trotz der Trump-Zölle an die Spitze setzt, kämpfen die Konkurrenten mit unterschiedlichen Herausforderungen.

Die Zahlen im Überblick:

  • Microsoft Azure: Verzeichnet Rekordumsatz dank OpenAI-Kooperation und steigender KI-Nachfrage. Microsoft-Aktie legte um beeindruckende 9% zu.
  • Google Cloud: Wachstum von 28% auf 12,26 Milliarden Dollar, knapp unter den Markterwartungen. Google-Mutterkonzern Alphabet plant dennoch massive Investitionen von 75 Milliarden Dollar in KI-Rechenzentren für 2025.
  • Amazon Web Services (AWS): Erlöse stiegen um 17% auf 29,27 Milliarden Dollar – das geringste Plus seit fünf Quartalen und deutlich schwächer als die Konkurrenz.

Strategische Ausrichtung:

Microsoft profitiert von seiner frühen OpenAI-Partnerschaft und einer diversifizierten Lieferkette, die das Unternehmen weniger anfällig für die Trump-Zölle macht. Satya Nadella betont: „Software ist die flexibelste Ressource, die uns hilft, Inflations- und Wachstumsdruck zu bewältigen.“

Bei Alphabet sorgen trotz des Cloud-Wachstums vor allem die sprudelnden Werbeeinnahmen für positive Zahlen. CEO Sundar Pichai kündigte einen Aktienrückkauf im Volumen von 70 Milliarden Dollar an.

AWS-Chef Andy Jassy steht hingegen vor der Herausforderung, Investoren vom Wert seiner milliardenschweren KI-Investitionen zu überzeugen, während die Wachstumsraten hinter den Erwartungen zurückbleiben.

Die kommenden Quartale werden zeigen, ob sich die unterschiedlichen Cloud-Strategien auszahlen – besonders im Kontext der angespannten Handelspolitik unter Trump.

Microsoft wird zum Trump-sichersten Techriesen


Anzeige

Digitale Souveränität mit gridscale: Flexibel. Skalierbar. DSGVO- konform.

gridscale bietet dir eine sicherheitszertifizierte europäische Cloud-Alternative.

Du willst Hard- und Software aus einer Hand an einem Ort deiner Wahl?
Du suchst eine kostengünstige und in Europa gehostete Alternative zu den Hyperscalern?

Dann bist du bei uns richtig! Wir bieten dir eine vollständig gemanagte Self-Service-Cloud – persönlich betreut und datensouverän. Ganz gleich, wo deine Hardware stehen soll: lokal, an einem deiner Unternehmensstandorte oder weltweit, bei einem deiner Kunden. Mit uns startest du ganz einfach durch und musst dich um (fast) nichts mehr selbst kümmern. 

Wir übernehmen für dich:

  • Systemeinrichtung (inklusive Hardwarebeschaffung)
  • Installation und Inbetriebnahme des Gesamtsystems
  • Betrieb der Cloud-Plattform: Monitoring, Patch- und Upgrademanagement 
  • 24/7 Support 

Erfahre hier mehr und lass dich von unseren Experten beraten!


Personal ReadMe: Der Schlüssel für bessere Zusammenarbeit?

In einem interessanten Artikel über Personal ReadMe’s erklärt Remotely Interesting Autorin Marissa Goldberg, wie ein „persönliches Benutzerhandbuch“ die Zusammenarbeit in Remote-Teams erheblich verbessern kann. Ein Personal ReadMe ist ein kurzes Dokument, das anderen zeigt, wie man am besten mit dir zusammenarbeitet – quasi deine persönliche Bedienungsanleitung für Kollegen.

Folgende Vorteile bietet ein Personal ReadMe:

  • Schnellerer Vertrauensaufbau durch Transparenz
  • Beschleunigte Einarbeitung für neue Teammitglieder
  • Reduzierung unnötiger Meetings durch Bereitstellung wiederverwendbarer Informationen
  • Bessere Unterstützung für asynchrone Arbeit
  • Optimierung von AI-Tools durch Personalisierung

In einem guten ReadMe solltest du Informationen zu Arbeitszeiten, bevorzugten Kommunikationswegen, Feedback-Präferenzen, Verantwortungsbereichen und deinen Kernwerten teilen. Das Dokument sollte in unter fünf Minuten lesbar sein, aber ausreichend Details enthalten, um produktive Zusammenarbeit zu ermöglichen.

Für Einsteiger gibt es zahlreiche Vorlagen und Beispiele von Unternehmen wie Slack, Netflix und Google und auch ihr eigenes Template, die als Inspiration dienen können. Die 30 Minuten Erstellungszeit sind eine der lohnendsten Investitionen für Remote-Professionals.

Coole Idee – ich rege mich aktuell als Teilzeit Arbeiter darüber auf, wenn mir jemand meine synchrone Zeit stibitzt, ob das hier helfen könnte? Hast du damit gute Erfahrungen gemacht?

Your Remote Team Cheat Sheet


Deutschland braucht mehr Rechenzentren

In einem aufschlussreichen Artikel diskutiert Jerome Evans den aktuellen Stand sowie die zukünftigen Herausforderungen für Rechenzentren „made in Germany“ – ein essentielles Thema für die digitale Souveränität des Landes. Gleichzeitig zeigt ein aktueller Fall in den USA, wie problematisch die Finanzierung solcher Großprojekte sein kann.

Die Ausgangslage in Deutschland:

  • Deutschland ist digital stark von den USA abhängig
  • Der neue Koalitionsvertrag verspricht umfassende Unterstützung für die heimische Digitalwirtschaft
  • Hohe Stromkosten und langwierige Genehmigungsverfahren bremsen den Ausbau

Die geplanten Maßnahmen der Bundesregierung:

  • Senkung der Stromsteuer auf EU-Mindestmaß
  • Beschleunigte Genehmigungsverfahren
  • Schaffung eines „Deutschland-Stack“ – eine souveräne Cloud- und KI-Infrastruktur
  • Förderung von Abwärmenutzung bei Rechenzentren

Warnendes Beispiel aus den USA: Während Deutschland um digitale Souveränität ringt, zeigt ein aktueller Fall bei Meta, wie problematisch die Finanzierung solcher Großprojekte sein kann: Für sein bisher größtes Rechenzentrum (2 Gigawatt) in Louisiana müssen drei neue Gaskraftwerke gebaut werden – Kosten: 5 Milliarden US-Dollar. Der lokale Versorger Entergy will diese Kosten auf seine 1,1 Millionen Kunden umlegen, was bei Umwelt- und Verbraucherschützern auf Widerstand stößt.

In Deutschland hat man den Ernst der Lage inzwischen wohl erkannt, steht aber vor enormen Herausforderungen. Die Nachfrage nach lokalen Lösungen steigt bereits schneller als das Angebot. Wie das Meta-Beispiel zeigt, müssen auch die Kosten- und Lastverteilung beim massiven Ausbau digital-physischer Infrastruktur gerecht gestaltet werden.

Was meinst Du?
Sollten Rechenzentren als kritische Infrastruktur stärker gefördert werden? Und wie stehst Du zur Kostenumlage bei Großprojekten wie dem von Meta?

Digitale Abhängigkeit von den USA: Das braucht es für mehr Rechenzentren „made in Germany“


Ubers Plattform-Migration von Mesos zu Kubernetes

In einem ausführlichen Blogartikel beschreibt das Uber-Team seine erfolgreiche Migration der Container-Orchestrierungsplattform von Apache Mesos zu Kubernetes. Die 2024 abgeschlossene Migration umfasste beeindruckende 3 Millionen Cores und über 4.000 Services.

Warum der Wechsel?

  • Mesos wurde bei Uber 2021 als veraltet eingestuft
  • Kubernetes bietet als Industriestandard bessere Unterstützung
  • Aktive Open-Source-Community mit regelmäßigen Updates

Herausforderungen und Lösungen:

  • Skalierung: Uber betreibt riesige Cluster (5.000-7.500 Nodes) mit 50.000 Pods pro Cluster
  • Nahtlose Integration: Die Migration musste für Entwickler transparent ablaufen
  • Anpassungen: Für Uber-spezifische Anforderungen wurden verschiedene Kubernetes-Komponenten angepasst

Besonders interessant sind die technischen Optimierungen für bessere Performance, wie das Umschalten von JSON auf Proto-Encoding und die Einführung eines Image-Prefetch-Daemons, der Container-Images vorab herunterlädt und damit Deployments beschleunigt.

Als nächstes plant Uber, auch seine Apache Hadoop YARN und Odin-Workloads auf Kubernetes zu migrieren, um letztendlich eine einheitliche Plattform für alle Container-Workloads zu schaffen.

Na gut, Mesos ist nun ja leider schon eine Weile legacy, daher überrascht die Migration auf keinen Fall. 2024 wurde die Migration abgeschlossen – bei Uber kochen sie also auch nur mit Wasser, eine solch große Umgebung zieht man eben nicht mal kurz auf eine neue Plattform um – dennoch ein interessanter Artikel und beeindruckende Scale.

Migrating Uber’s Compute Platform to Kubernetes: A Technical Journey


Microsoft vs. Spegel: „Forking“ mal anders

Ein ausführlicher Bericht des Spegel Entwicklers Philip Laine aus Berlin dokumentiert, wie Microsoft mit seiner Open Source P2P Image Registry „Spegel“ umgegangen ist – ein Fall, der exemplarisch für das Spannungsfeld zwischen einzelnen Entwicklern und Tech-Giganten steht.

Die Chronologie des Falls

Philip hatte „Spegel“ als Lösung für Kubernetes-Cluster entwickelt, die bei Registry-Ausfällen weiterhin autark funktionieren sollten. Nach einem Black-Friday-Vorfall, bei dem GitHub-Container-Registries ausfielen, entstand die Idee eines zustandslosen P2P-Sharing-Systems für Container-Images.

  1. Microsoft kontaktierte den Entwickler für Gespräche über Spegel
  2. Nach anfänglicher Zusammenarbeit folgte Funkstille
  3. Auf der KubeCon Paris entdeckte der Entwickler „Peerd“ – Microsofts Version seines Tools
  4. Untersuchungen zeigten: Code, Kommentare und Tests wurden nahezu identisch übernommen

Problematik

Spegel steht unter MIT-Lizenz, was die Übernahme technisch erlaubt. Dennoch bleiben ethische Fragen:

  • Die Originalquelle wurde kaum gekennzeichnet
  • Microsoft präsentierte das Projekt größtenteils als Eigenentwicklung
  • Nur ein kleiner „Acknowledgement“-Hinweis erwähnt Spegel

Trotz der entmutigenden Erfahrung hat Spegel mittlerweile über 1.700 Stars und 14,4 Millionen Downloads erreicht.

Beobachtungen

Dieser Fall zeigt ein grundlegendes Dilemma: Die Open-Source-Welt braucht die Ressourcen großer Unternehmen, gleichzeitig entstehen jedoch ungleiche Machtverhältnisse. Nach den Lizenzänderungen bei HashiCorp und sinkenden Investitionen im Open-Source-Bereich scheint ein neues Gleichgewicht nötig zu sein – eines, das auf echten Partnerschaften statt bloßer Übernahme basiert?

Getting Forked by Microsoft


Berlin Salary Trends 2025: Stagnation und Gehaltsunterschiede

In der aktuellen Berlin Salary Trends 2025-Studie von Handpicked Berlin wurden die Gehaltstrends im Berliner Tech-Sektor analysiert.

Mit 1.845 gültigen Einsendungen (60% mehr als im Vorjahr) bietet der Report einen umfassenden Einblick in die Vergütungslandschaft.

Die wichtigsten Erkenntnisse:

  • Das Gehaltswachstum stagniert mit einem unveränderten Median von 75.000€ und einem durchschnittlichen Jahresbrutto von 78.574€ (+1,46%)
  • Der Gender Pay Gap hat sich auf über 20% vergrößert, mit Frauen im Median bei 66.000€ gegenüber 83.000€ bei Männern
  • Software Engineering zahlt weiterhin am besten, mit technischen Führungspositionen an der Spitze (110.000€)
  • Fast ein Drittel der Befragten (30,82%) plant 2025 einen Jobwechsel
  • Überraschend: Deutschkenntnisse spielen für die Vergütung kaum eine Rolle – Nicht-Deutschsprachige verdienen oft sogar mehr
  • Die Mehrheit (67,8%) erhält weder Bezahlung noch Freizeitausgleich für Überstunden

Der Bericht zeigt, dass trotz des hochqualifizierten Arbeitsmarktes (49,27% mit Master-Abschluss) signifikante Ungleichheiten bestehen und das Gehaltswachstum deutlich hinter dem Vorjahr zurückbleibt.

Einige Zahlen hab ich so nicht erwartet, du?

Berlin Salary Trends 2025: Report


SQLite-Datenbanken schneller kopieren

In einem praktischen Blogpost teilt ein Datenbankexperte eine Methode, um SQLite-Datenbanken deutlich schneller zwischen Rechnern zu kopieren – besonders nützlich bei großen Datenbanken.

Das Problem: Bei SQLite vergrößern vor allem die Indizes die Dateien erheblich, was den Transfer verlangsamt. Da Indizes nur Datenduplikate enthalten, werden beim direkten Kopieren dieselben Informationen mehrfach übertragen.

Die Lösung: Statt direkter Übertragung nutzt der Autor SQLite’s .dump-Befehl, der die Datenbank als SQL-Textdatei exportiert und komprimiert:

sqlite3 my_database.db .dump | gzip -c > my_database.db.txt.gz

Beeindruckende Ergebnisse:

  • Original: 3,4 GB → Komprimiert: 240 MB (14x kleiner!)

Zusätzlicher Vorteil: Diese Methode vermeidet „malformed database“-Fehler, die auftreten können, wenn sich eine Datenbank während der Übertragung ändert und man eben keine konsistenten Zustand hat

Der Workflow ist einfach: Text-Dump erstellen, komprimieren, übertragen, entpacken und wieder importieren. Für alle, die mit großen SQLite-Datenbanken arbeiten, kann dieser Ansatz viele Stunden Wartezeit einsparen.

A faster way to copy SQLite databases between computers


NVIDIA RTX 5090 & 5080: Next-Gen AI-Power im Test

In einem ausführlichen Hardware-Test von Jon Allman wurden die neuen NVIDIA GeForce RTX 5090 und 5080 GPUs auf ihre AI-Performance untersucht. Die Blackwell-Architektur verspricht verbesserte Leistung durch mehr CUDA-Cores, fünfte Generation Tensor-Cores und GDDR7-Speicher mit drastisch erhöhter Bandbreite.

Die RTX 5090 bietet 32GB VRAM mit beeindruckenden 1,79 TB/s Speicherbandbreite – 77% mehr als beim Vorgänger. Bei AI-Workloads wie LLM-Token-Generierung übertrifft sie die RTX 4090 um etwa 29%. Die neue FP4-Präzision für AI-Berechnungen bleibt jedoch mangels Software-Unterstützung weitgehend ungenutzt.

Überraschend fand Jon: Bei einigen Tests (llama.cpp, SD.Next) zeigten beide Karten unerwartete Ergebnisse, vermutlich aufgrund nicht optimierter Treiber. In kommerzieller Software wie DaVinci Resolve und Topaz Video AI waren die Leistungssprünge weniger beeindruckend.

Die RTX 5090 ist somit theoretisch die leistungsstärkste Consumer-GPU für AI-Workloads, braucht aber bessere Software-Unterstützung, um ihr volles Potenzial zu entfalten. Für 40-Serie-Besitzer lohne sich ein Upgrade aktuell nur bedingt.

Falls dich die Details und Vergleiche mit den anderen Karten und den verschiedenen Workloads interessieren, schau dir direkt den Artikel mit den vielen Schaubildern und Statistiken an.

NVIDIA GeForce RTX 5090 & 5080 AI Review


Schmunzelecke

Wem is-odd nicht ausreicht, der kann nun is-odd-ai verwenden, weil – „Why check if something is odd simply, when you can do it with AI“.
Da fällt einem dann wirklich nichts mehr ein.

Ansonsten hast du es bestimmt schon mitbekommen – die Trump Administration nutzt TeleMessage, eine modifizierte Signal Variante aus Israel. Und nun wurde das Dingens gehacked, nun ja.


💡 Link Tipps aus der Open Source Welt

Rybbit: Open Source Analytics Alternative zu Google Analytics

Rybbit ist eine datenschutzfreundliche Analytics-Plattform, die sich als intuitivere Alternative zu Google Analytics positioniert. Die Lösung ist recht schick, komplett Open Source und bietet alle wichtigen Web-Metriken ohne Cookies.

Hauptmerkmale:

  • Erfassung von Sessions, Nutzern, Seitenaufrufen und Absprungraten
  • DSGVO- und CCPA-konform durch cookielosen Ansatz
  • Anpassbare Dashboards für Ziele, Nutzerreise und Conversion-Trichter
  • Umfangreiche Filtermöglichkeiten über mehr als 15 Dimensionen
  • Standortverfolgung bis auf Stadtebene mit visuellen Karten
  • Echtzeit-Dashboard für Live-Sessions
  • Unterstützung für Organisationen und unbegrenzte Anzahl von Websites

Die Einrichtung fürs self-hosting dauert nur wenige Minuten und die Benutzeroberfläche ist auch für Nicht-Techniker leicht verständlich.
In der Live Demo hier kannst du echte Daten sehen – Funnels und Goals gibt es ebenfalls. Sehr cool ist natürlich der Real-Time View und die Map, die man auch in Total Visits per Capita umstellen kann.

Laut dem Docker Compose File wird Postgres und ClickHouse verwendet – Ich denke, die Stammdaten sind in Postgres – die Massendaten/Clicks in ClickHouse.

https://github.com/rybbit-io/rybbit

LumenOne: Open-Source-Alternative zu Plesk

LumenOne ist eine kostenlose und quelloffene Alternative zu Plesk, die das Webhosting-Management durch eine moderne und intuitive Oberfläche vereinfacht. Die in Node.js entwickelte Lösung befindet sich aktuell in der Pre-Alpha-Phase und verspricht ein „Open Source und free forever“.

Hauptmerkmale:

  • Einfache, responsive und moderne Weboberfläche
  • Domain- und Subdomain-Verwaltung
  • Dateimanagement (via SFTP/WebFTP)
  • Datenbankverwaltung (SQLite)
  • FTP-Konten-Management
  • E-Mail-Verwaltung (optional)
  • Docker-Integration (optional für Service-Isolation)
  • Let’s Encrypt SSL-Zertifikate
  • Erweiterungssystem für individuelle Anpassungen
  • REST-API für Automatisierung und Integration

Roadmap aka ToDo List gibt es hier – Rechte und Rollen für PHP oder ein Dashboard für web/FTP/databases gibt es beispielsweise noch nicht.

⚠️ Hinweis: LumenOne befindet sich noch in der Entwicklung. Einige Funktionen können instabil oder unvollständig sein. Die Nutzung in einer Produktionsumgebung wird derzeit ausdrücklich nicht empfohlen. Aktuell werden Benutzerpasswörter noch nicht verschlüsselt – what could go wrong? 😬

https://github.com/lumenlabss/LumenOne


❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

583 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x