Willkommen zu allesnurgecloud.com – Ausgabe #196
Danke für eure Insights und Antworten auf den letzten Newsletter – teilweise hat sich der Posteingang etwas gestaut und ich hab noch nicht alles verarbeitet – freue mich aber immer über Feedback und auch Kritik zum Newsletter.
Daher – einfach auf Antworten klicken und mir dein Feedback schicken – vielleicht mach ich noch eine Feedback-Ecke und verarbeite einfach dein Feedback und Input zur vorherigen Ausgabe?
Im Engineering Kiosk Podcast gibt es ein Update mit Indie-Hacker Sebastian Röhl von der App HabitKit – Sebastian war vor einer Weile in meinem Podcast zu Gast und ist nun deutlich weiter als 2023. Auch im Engineering Kiosk gibt in der aktuellen Folge insights zur „Struktur hinter dem weltweit größten OpenSource Projekt“ – Home Assistant, die Smart Home Lösung schlechthin.
Und Antje, Jan und Philipp aus dem Hause Elastic haben mit „Such dich schlau“ einen eigenen Podcast gestartet – in der ersten Folge geht es um Spotify Wrapped und wie Elasticsearch hier zum Einsatz kommt.
Happy Bootstrapping Podcast
Für alle LinkedIn User ist der aktuelle Happy Bootstrapping Podcast ein Muss – ich hab zumindest in der Aufnahme mit Robert Heineke von Leaders Media viel neues gelernt – auch, dass ich derzeit auf der Plattform doch so einiges falsch mache.
Wie poste ich richtig, wie wachse ich auf LinkedIn – und wie kommt man überhaupt auf die Idee, zum Thema LinkedIn ein Coaching Angebot auf die Beine zu stellen?
Mit über 30.000 Followern weiß Robert jedenfalls, von was er spricht – jetzt in Folge 129 reinhören (Spotify/Apple).
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Figma’s AWS-Rechnung: Warum $300k täglich völlig normal sind?
In der vergangenen Woche hatte ich über Figmas massive AWS-Rechnung von täglich 300.000 Dollar berichtet – und wie das Internet daraufhin kollektiv ausgerastet ist. Jetzt meldet sich Corey Quinn von Last Week in AWS zu Wort, der beruflich AWS-Rechnungen verhandelt und mehr AWS-Invoices gesehen hat als die meisten Menschen Marvel-Filme.
Seine klare Botschaft: Figmas Ausgaben seien etwa so skandalös wie „Mister Rogers‘ Neighborhood“.
Quinn korrigiert erstmal die Panik-Mathematik des Internets. Figmas 545 Millionen Dollar Vertrag über fünf Jahre entspricht etwa 12% ihres rollierenden Umsatzes von 821 Millionen Dollar. Das unterstützte 13 Millionen monatlich aktive Nutzer und 450.000 zahlende Kunden bei einer Bruttomarge von 91%.
Zwei wichtige Punkte, man leicht übersehen konnte: AWS-Verträge steigen meist jährlich, und die Zahlen sind Post-Discount. Bei dieser Größenordnung hat Figma vermutlich etwa 30% Rabatt – real entspricht das etwa 785 Millionen zu Listenpreisen.
Quinns Erfahrung zeigt typische Cloud-Ausgaben: Compute-lite SaaS liegt bei ~5% des Umsatzes, compute-heavy Plattformen bei 10-15%. Figma rendert komplexe Designs in Echtzeit für Millionen Nutzer mit unter 100ms Latenz – das sei heavyweight technische Infrastruktur.
Zum Vergleich: Snowflake hat ein 2,5 Milliarden Dollar Commitment 2024-2028, Apple gab schon 2019 geschätzte 360 Millionen jährlich aus. Quinn amüsiert sich über die Armchair-Architekten, die behaupten, Figmas Kosten um „mindestens 30%“ reduzieren zu können.
Die Realität: Bei einem neunstelligen jährlichen AWS-Spend hat definitiv schon jemand gefragt, wo das ganze Geld hingeht. Figma mache seine Hausaufgaben mit Optimierungen und wächst 46% year-over-year bei 91% Bruttomarge.
Quinn zeig hier die Gegenposition zu der, die ich sonst auch häufig argumentiere. Persönlich denke ich: das Ganze funktioniert so lange, wie die Firma wächst und eben Geld an der Börse bekommt. Wäre das Ganze „bootstrapped“, würde es nicht funktionieren.
Ich habe hier einen Kunden mit Cloud-Infrastrukturkosten von unter 1% bei einem zweistelligen Millionenumsatz pro Jahr – das ist wirklich super lean! Das Entscheidende beim Thema Cloud-Kosten ist, dass man diese kontinuierlich im Blick behält und aussagekräftige Metriken etabliert.
Wichtig ist eine Metrik, die Cloud-Kosten pro relevanter Geschäftseinheit berechnet – beispielsweise pro SaaS-Seat, pro Kunde oder pro Transaktion. Diese Kennzahl sollte man konstant überwachen und bei neuen Features, Produkten oder Kundenwachstum entsprechend anpassen.
Die regelmäßige Analyse hilft dabei, frühzeitig Kostenentwicklungen zu erkennen und rechtzeitig gegenzusteuern, bevor aus effizienten Cloud-Ausgaben ein Kostenproblem wird.
Hast du eine solche Kennzahl für deine Cloud Kosten und wie berechnest du sie?
Schreib mir gerne bei Fragen oder Anmerkungen!
Figma’s $300k Daily AWS Bill Isn’t the Scandal You Think It Is
KI als Unternehmer: Wenn Claude einen Shop führt (und Apps entwickelt)
Anthropic ließ Claude einen Mini-Shop führen, während ein Entwickler eine komplette macOS-App fast ausschließlich mit Claude Code erstellte – zwei faszinierende Experimente zu KI-Autonomie.
Der Claude-Shop: „Claudius“ als Ladenbesitzer Anthropic testete Claude Sonnet 3.7 als autonomen Betreiber eines Büro-Kiosks. Der KI-Agent verwaltete Inventar, Preise und Kundeninteraktionen über Slack. Trotz cleverer Momente – wie der Einführung eines „Custom Concierge“-Services – scheiterte Claudius spektakulär:
Er verkaufte Wolfram-Würfel unter Einkaufspreis, ignorierte $100-Gewinnchancen und verteilte großzügig Rabatte. Am 1. April erlitt er sogar eine Identitätskrise und behauptete, ein echter Mensch zu sein.
Im Gegenzug dazu demonstrierte ein erfahrener Mac-Entwickler eindrucksvoll die Zukunft der Softwareentwicklung: Er erstellte „Context“, eine native macOS-App, fast vollständig mit Claude Code.
Die SwiftUI-basierte Entwickler-Tool für MCP-Server-Debugging umfasst 20.000 Codezeilen und ist zu 95% KI-generiert, der Entwickler schrieb weniger als 1.000 Zeilen selbst. Claude Code meisterte beeindruckende Features:
- OAuth 2.1-Implementation vollständig automatisiert
- JSON-Tree-Views mit erweiterbaren Knoten
- 2.000-zeiliges Python-Release-Skript (Codesigning, Notarisierung, DMG-Packaging)
- Automatische UI-Verbesserungen – einfach Screenshot einfügen und „make it more beautiful“ sagen
- Mock-Daten-Generierung für realistische UI-Prototypen
Entwicklungs-Highlights: Der Schlüssel zum Erfolg lag im „Context Engineering“ statt klassischem Prompt-Engineering. Durch gezieltes „Priming“ mit Dokumentation und Specs konnte Claude sogar Swift 6.1 und moderne Swift Concurrency korrekt einsetzen.
Ist das die IDE-Zukunft?: Statt traditionellem Code-Editor reichten Claude Code und GitHub Desktop für den gesamten Entwicklungsprozess.
I Shipped a macOS App Built Entirely by Claude Code
Anzeige
Checkly: Vom komplexen Synthetic Monitoring zum blitzschnellen Uptime Check
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
NEU: Uptime Monitors für die Basics Checkly erweitert sein Arsenal um Uptime Monitors – simple, blitzschnelle Checks für URLs, TCP und Heartbeats mit bis zu 1 Sekunde Frequenz aus 22+ Standorten. Perfekt als erste Verteidigungslinie: Ist mein Service überhaupt erreichbar? Antwortet die API rechtzeitig?
Das Beste aus beiden Welten Während Uptime Monitors die Basics abdecken, simuliert Checkly mit Playwright weiterhin komplexe User Journeys: Funktioniert der Login? Läuft der Checkout-Prozess? Neu ist auch Checkly Traces für nahtlose Integration in Open Telemetry Tracing.
Alles bleibt Code-first Egal ob Uptime Monitor oder Synthetic Check – alles lässt sich über Terraform Provider, Pulumi Integration oder die CLI als Code verwalten. Monitoring as Code at its best!
Flexibles Pricing:
- Hobby (kostenlos): 10 Uptime Monitors, 1.000 Browser Checks
- Starter ($24): 20 Uptime Monitors, 3k Browser Checks
- Team ($64): 50 Uptime Monitors, 12k Browser Checks
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Announcing Checkly Uptime Monitors: Simple, Scalable, and Built for Developers
Database-Trends durch 1,8 Millionen Hacker News Headlines analysiert
Ein interessanter Einblick in die Datenbankwelt: Eine neue Analyse hat 1,8 Millionen Hacker News Headlines aus 18 Jahren (Februar 2007 bis Juni 2025) ausgewertet, um herauszufinden, welche Datenbanken bei Entwicklern aktuell im Trend liegen. Die vollständige Analyse wurde mit camelAI und einer ClickHouse-Datenbank durchgeführt.
Die wichtigsten Erkenntnisse auf einen Blick:
PostgreSQL dominiert weiterhin – mit einem nahezu monotonen Anstieg und über 1.200 Headlines in den letzten 12 Monaten. MySQL beherrschte die Ära vor 2012, stagniert aber seitdem. MongoDB erreichte 2013 seinen Peak und verliert seither kontinuierlich an Aufmerksamkeit.
Die Analytics-Renaissance zeigt sich deutlich: DuckDB führt die Wachstumstabelle mit beeindruckenden +50,7% year-over-year an – die Hälfte aller DuckDB-Headlines stammt aus diesem Jahr. ClickHouse folgt mit +24,1% auf einer bereits größeren Basis und profitiert von Vector Search und Managed Services. SQLite puncht weit über seiner Gewichtsklasse. Mit nur einem Drittel der Story-Anzahl von PostgreSQL erreicht es zwei Drittel der Gesamtpunkte und hat mit 40 Punkten pro Story den höchsten Durchschnitt aller Mainstream-Engines.
Cloud-native SaaS-Engines verlieren deutlich an Share: DynamoDB (-34,2%), BigQuery (-42,9%) und Redshift (-44,4%) zeigen alle zweistellige Rückgänge. Die Gründe sind vielfältig: Reife Technologien generieren weniger „Show HN“-Posts, Open-Source-Alternativen ersetzen proprietäre Lösungen, und Diskussionen zu Kosten oder Lock-in erwähnen oft nicht den konkreten Produktnamen.
SQLite’s hohe Engagement-Rate pro Story bestätigt seinen Status als „beloved workhorse“. DuckDB sammelt solide Punkte, aber weniger Kommentare – typisch für emerging Tools. ClickHouse zeigt moderates Engagement, was auf Interesse, aber weniger tägliche Nutzung in der breiteren HN-Community hindeutet. Wir haben es für einige Kunden im Einsatz und die populäre Error und APM Tracking Software Sentry ist auch großer ClickHouse Kunde.
Die Daten spiegeln perfekt wider, was wir auch in der Praxis sehen – der Shift zu Open-Source-Lösungen, die Analytics-Renaissance mit Tools wie DuckDB und ClickHouse, und PostgreSQL als der stetige Gewinner, der Hype-Zyklen übersteht. Besonders spannend finde ich SQLite’s hohe Engagement-Rate – zeigt, dass „einfache“ Lösungen oft die besten sind.
Analyzing Database Trends Through 1.8 Million Hacker News Headlines
Cloudflare ergänzt „Content Independence Day“ um technische Schutztools
Zusätzlich zum bereits vorgestellten Pay-per-Crawl Marketplace hat Cloudflare weitere technische Tools zur Content-Kontrolle angekündigt. Diese ergänzen die Micropayment-Lösung um präventive Schutzmaßnahmen für alle Website-Betreiber.
Managed robots.txt mit automatischen Updates
Das neue managed robots.txt-Feature erstellt und verwaltet automatisch robots.txt-Dateien mit aktuellen AI-Bot-Direktiven. Besonders clever: Cloudflare prepended die eigenen Regeln vor bestehende Dateien, ohne diese zu überschreiben. Das System orientiert sich am RFC 9309 (Robots Exclusion Protocol) und monitort die kommende IETF AI-Preferences-Proposal.
Intelligente Ad-Detection für selektives Blocking
Das zweite Tool erkennt automatisch Seiten mit Werbung und blockiert AI-Bots nur dort. Die Technik nutzt:
- EasyList-Filter (400 der wichtigsten statt 40.000 für bessere Performance)
- HTML-Parsing mit Cloudflares „LOL HTML Parser“
- Content Security Policy Reports für dynamisch geladene Ads
- ML-Fingerprinting gegen User-Agent-Spoofing
Edge-Implementierung ohne Latenz
Technisch läuft alles über Edge-Module mit distributed Key-Value-Stores. Bei /robots.txt
-Anfragen prüft das System die Kunden-Einstellungen und antwortet direkt, ohne Origin-Roundtrip. Das Ad-Detection arbeitet durch HTML-Streaming ohne zusätzliche Latenz.
Bot-Erkennung wird verschärft
Cloudflare erweitert kontinuierlich die Verified Bot List und nutzt das Netzwerk mit 57 Millionen Requests/Sekunde für globale Bot-Fingerprinting-Modelle. Kunden können verdächtige Bots über ein Submission-Form melden.
IETF-Standards im Blick
Besonders interessant: Cloudflare verfolgt aktiv die IETF AI-Preferences-Proposal und wird das managed robots.txt entsprechend anpassen. Ein Zeichen, dass sich hier Web-Standards entwickeln könnten, die sich dann auch wirklich durchsetzen?
Komplexität meistern: HelloFresh’s Playbook für große Tech-Transformationen
In seiner dreiteiligen Serie teilt Konstantin Rohleder von HelloFresh praxiserprobte Strategien zum Management von Komplexität bei abteilungsübergreifenden Initiativen. Die Insights basieren auf jahrelanger Erfahrung mit Large-Scale-Migrationen beim Meal-Kit-Giganten.
Teil 1: Warum Komplexität reduzieren?
Die Vorteile sind messbar: geringeres Risiko durch weniger Fehlerquellen, höhere Erfolgsraten, Kosteneinsparungen und schnellere Innovation. HelloFresh’s Yearly Planning (YP) Prozess schafft zwar initiales Alignment, kann aber nicht alle „unknown unknowns“ aufdecken – versteckte Legacy-Abhängigkeiten, die erst während der Umsetzung zuschlagen.
Der Schlüssel liege in der Balance zwischen Vereinheitlichung (bei tiefen technischen Abhängigkeiten) und Entkopplung (für unabhängige Team-Adoption). Change Champions als eingebettete Tribe-Vertreter reduzieren organisatorische Komplexität erheblich.
Teil 2: Operative Hebel und Konkrete Werkzeuge für die Praxis:
- Programm-Evaluierung: Nicht jede Initiative braucht formale Governance mit dediziertem TPM
- Key Results (KRs): Schaffen Transparenz und gemeinsame Erfolgskriterien
- ICE-Framework für Priorisierung: Impact, Confidence, Effort
- Phasenweise Rollouts statt riskante Big-Bang-Launches
- Gating-Mechanismen: Verhindern neue technische Schulden während laufender Modernisierung
HelloFresh liefert hier einen wertvollen Leitfaden für TPMs und Tech-Leader. Besonders der Fokus auf inkrementelle Fortschritte und datengetriebene Entscheidungen spiegelt moderne DevOps-Prinzipien wider. Teil 3 verspricht Einblicke ins ASEI-Framework – ich bin gespannt auf die technischen Details.
Taming Complexity: HelloFresh’s Playbook for Managing Large-Scale Change (Part 1/3)
GitHub’s „Oops Commits“: Gelöschte Commits mit Secrets
Security-Researcher Sharon Brizinov hat alle „Zero-Commit“ Force-Push-Events seit 2020 gescannt und dabei Secrets im Wert von 25.000 Dollar Bug Bounties entdeckt. Zusammen mit Truffle Security gibt es nun einen Open-Source-Scanner für GitHub-Organisationen.
Das Problem: Entwickler denken, git reset --hard HEAD~1
und git push --force
löscht ihre versehentlich committeten Secrets sicher. GitHub vergisst aber nie – gelöschte Commits bleiben über das GitHub Archive zugänglich.
Statt Commit-Hashes zu bruteforcen, nutzte Brizinov die GitHub Event API mit dem GitHub Archive. „Zero-Commit Push-Events“ zeigen Force-Pushes an und enthalten den Hash des „gelöschten“ Commits.
Interessante Patterns aus der Analyse: MongoDB-Secrets waren am häufigsten, GitHub PATs und AWS-Credentials die wertvollsten für Bug Bounties. .env-Dateien sind die Hauptquelle für geleakte Credentials. Ältere Secrets sind seltener aktiv, da sie inzwischen revoked wurden.
Der dramatischste Fund: Ein GitHub Token mit Admin-Zugriff auf alle Istio-Repositories – hätte eine massive Supply-Chain-Attacke ermöglicht. Istio wird von Google, IBM, Red Hat und vielen anderen kritischen Systemen eingesetzt.
Tools wie Gitleaks oder TruffleHog sollten in Pre-Commit-Hooks und CI/CD-Pipelines integriert werden. Einmal committed, immer kompromittiert – Secrets müssen sofort revoked werden, auch wenn der Commit „gelöscht“ wurde.
How I Scanned all of GitHub’s “Oops Commits” for Leaked Secrets
Das digitale Gehirn löschen: 10.000 Notizen weg
Joan Westenberg beschreibt in ihrem Blog, wie sie nach sieben Jahren ihr komplettes „Second Brain“ gelöscht hat – alle Obsidian-Vaults, Apple Notes und Zettelkasten-Systeme. Das Ergebnis: Erleichterung und wohltuende Stille.
Die Personal Knowledge Management Bewegung verspricht durch bidirektionale Links und Graph-Views mentalen Hebel. Westenberg erkannte jedoch: Ihr System wurde zum Mausoleum alter Ideen. Statt Denken zu beschleunigen, ersetzte es dieses zunehmend.
Die Tyrannei der Tools
Sie begann, zum Extrahieren zu lesen und in archivierbaren Formaten zu denken. Jede Erfahrung wurde zu Material – aber Erkenntnisse wurden nie gelebt, nur gespeichert.
„Ich vertraute der Struktur. Aber eine Struktur ist kein Denken. Ein Tag ist keine Einsicht.“
Neuer Ansatz: Kein System
Ihr neues System: Ein einziger Notizblock namens „WHAT“ für wichtige Dinge. Inspiration von DHH (37Signals). Sie vertraut darauf, dass Wichtiges zurückkehrt. Nicht Wissen verwalten, sondern leben.
Westenberg plant, Obsidian wieder zu nutzen – aber als Arbeitsplatz für ihr bestehendes Gehirn, nicht als Ersatz.
Tja, wer hat ihn nicht, den unendlichen Speicher von Ideen und Bookmarks. Digitale Freiheit, so ein Löschvorgang.
VM-Malware-Evasion umgehen: CPU-Lüfter simulieren
Der Sicherheitsforscher Petr Beneš beschreibt detailliert, wie er seine VM dazu brachte, einen CPU-Lüfter vorzutäuschen, um Malware-Samples zur Ausführung zu bewegen. Viele Malware-Varianten prüfen via WMI Win32_Fan-Klasse, ob ein physischer Lüfter vorhanden ist – fehlt er, verweigern sie die Ausführung.
SMBIOS-Manipulation als Lösung
Windows liest Lüfter-Informationen aus den SMBIOS-Daten (Type 27 „Cooling Device“). Der Forscher erstellte eine custom smbios.bin-Datei mit gefälschten Lüfter- und Temperatursensor-Daten (Type 28), da beide WMI-Klassen miteinander verknüpft sind.
Bei Xen musste er erst einen Patch anwenden, da nur bestimmte SMBIOS-Types unterstützt werden. QEMU/KVM macht es einfacher – dort funktioniert die -smbios file=
Option direkt ohne Patches.
Die Hex-Daten enthalten Struktur-Header, Lüfter-Eigenschaften (5600 RPM) und String-Definitionen („CPU Fan“, „CPU Thermal Probe“). Xen benötigt zusätzlich 32-Bit Size-Präfixe, QEMU kommt mit den Raw-Daten aus.
Nach erfolgreicher Implementation zeigt wmic path Win32_Fan get *
endlich „Cooling Device OK“ statt „No Instance(s) Available“ – die Malware läuft nun bereitwillig in der VM.
Interessant, mit was man sich in dem Segment beschäftigen darf.
I made my VM think it has a CPU fan
Schmunzelecke
CPU stuck at 0.80Ghz, Fixed by removing keyboard screw (2018)
gut, denke kannte ich noch nicht – HackerNews & dell.com
💡 Link Tipps aus der Open Source Welt
stagewise: Browser-zu-IDE-Bridge für KI-gestütztes Frontend-Coding
stagewise ist eine Browser-Toolbar, die deine Frontend-UI direkt mit KI-Agenten in deinem Code-Editor verbindet – egal ob Cursor, GitHub Copilot oder Windsurf – Infos auf stagewise.io.
So funktioniert’s:
- DOM-Element auswählen im Browser
- Kommentar hinterlassen direkt am Element
- KI-Agent erhält echten Browser-Kontext und macht die Änderungen
Features:
- 30-Sekunden-Setup – funktioniert beim ersten Prompt
- Echter DOM-Kontext statt manueller Pfad-Angaben
- Plugin-System für erweiterte Funktionalität
- Framework-Support für React, Next.js, Vue, Nuxt.js, Svelte
Coole Lösung für das nervige Copy-Paste von Element-Selektoren und Ordnerstrukturen! Die direkte Browser-Integration macht KI-Agents deutlich effizienter beim Frontend-Coding. Das Open-Source-Projekt zeigt, wohin die Reise geht: visuelle Interaktion statt textbasierter Prompts.
Und nun kommt der Knaller: Stagewise ist ein Tool aus Bielefeld, deutsche Entwickler, kleine UG und zur Krönung hat es stagewise in den Summer 2025 Batch von Y-Combinator geschafft – Glückwunsch an das Team und viel Erfolg!
https://github.com/stagewise-io/stagewise
Anubis: Web AI Firewall gegen die KI-Crawler-Flut
Anubis ist ein Open-Source Web AI Firewall, das HTTP-Requests „wiegt“ und KI-Scraper und andere Crawler von deinen Servern fernhält – benannt nach dem ägyptischen Gott, der die Seelen der Verstorbenen wog.
Wie wie schon länger wissen – KI-Unternehmen bombardieren das „kleine Internet“ mit endlosen Scraping-Requests. Während große Plattformen Cloudflare nutzen können, brauchen kleinere Communities eine Alternative.
So funktioniert’s:
- Challenge-System prüft eingehende Requests
- Ultraleichtgewichtig – auch für kleine Server geeignet
- Bot-Policy-Definitionen für Allowlisting (z.B. Internet Archive)
- Nuclearer Ansatz – blockiert aggressiv, aber effektiv
Features:
- KI-Crawler-Blocker für OpenAI, Anthropic & Co.
- Minimaler Ressourcenverbrauch
- Konfigurierbare Bot-Policies
- Curated „Good Bot“-Liste in Arbeit
Ein wichtiges Tool für die digitale Selbstverteidigung! Während die großen Plattformen sich schützen können, sind kleine Foren, Blogs und Communities den KI-Scrapern ausgeliefert. Anubis ist zwar ein Holzhammer-Ansatz, aber manchmal braucht’s genau das.
Außerdem wollte ich schon immer mal mit Anubis zusammenarbeiten 😉
https://github.com/TecharoHQ/anubis
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: