Cloud & Co. im Koalitionsvertrag, KI-Crawler Last, 20 Jahre Git, Preisänderungen bei AWS und Microsoft, Postgres skalieren, DIY-Kalender und mehr – #184

Willkommen zu allesnurgecloud.com – Ausgabe #184

Auch die letzte Woche war wieder verrückt – „This is a great time do buy“ postete Donald auf seinem Social Network – und kurz danach waren diverse Broker bei uns nicht mehr verfügbar. Wolltest du beispielsweise (wie ich) ein paar Aktien nachkaufen, so war das bei Trade Republic nicht möglich. Die App öffnete sich zwar, man konnte aber keine Charts sehen oder Aktien und ETFs kaufen – Luxusproblem, ich weiß.

Der Fall hat mir mal wieder gezeigt, dass man auch in 2025 mit Cloud, automatisch skalierenden Systemen und Co. – immer irgendwelchen Kipppunkte erreicht, bei dem das System nicht mehr funktioniert. Und kippt das System, so überlastet es sich selbst, weil die User es immer wieder versuchen – bei web.de haben wir das damals „den F5 Effekt“ genannt, den gibt es heute noch, auch mit Apps.

Happy Bootstrapping Podcast

in dieser Woche war wieder ein E-Commerce Thema im Podcast – die Julia Grossjohann war vor 2 Jahren schon mal zu Gast und hat mir jetzt in einem super interessanten Gespräch berichtet, welche Challenges sie gemeistert hat. Mit ihrem Shop edelundschnel.com macht sie mittlerweile 350.000€ Umsatz im Jahr – und hat noch einen Vollzeit Job, super beeindruckend. Dabei hat sie eine Migration der Logistik und Warenwirtschaft im letzten Jahr fast ruiniert – wie sie diese Herausforderung gemeistert hat – jetzt reinhören in Folge 116.

Wie immer gibt es auch was zum Lachen und ein paar Open-Source Tipps!

Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchenkannst du das auf passionfroot machen.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

572 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Cloud und Digitalisierung im Koalitionsvertrag

Wie du sicherlich schon weisst, haben die CDU/CSU und die SPD sich auf einen Koalitionsvertrag geeinigt. Dieser hat als PDF 146 Seiten und ich hab mir mit Hilfe von FragDasPDF mal angeschaut, was da so zu IT, Cloud und Co. drinsteht.

Rechenzentrumsstandort Deutschland

Deutschland soll als Leuchtturm Europas für Rechenzentren gestärkt werden, indem Cluster sowie regionale und dezentrale Ansiedlungen unterstützt werden. Es wird angestrebt, mindestens eine der europäischen „AI-Gigafactories“ nach Deutschland zu holen und Edge-Computing voranzutreiben. Dazu gehört auch eine Digitalisierungsoffensive bei Stromnetzbetreibern und mehr Transparenz über Netzanschlusskapazitäten, um die Planung und Integration von Rechenzentren in das Stromnetz zu erleichtern. Der Auf- und Ausbau von Rechenzentren soll beschleunigt werden.

Das ist das schöne an diesen Formulierungen – man schreibt immer gerne rein, was alles passieren „soll“, konkretes gibt es dabei meist wenig.

Deutsche Verwaltungscloud (DVC):

Die Deutsche Verwaltungscloud wird mit souveränen Standards realisiert, um Austauschbarkeit zu sichern und unkontrollierte Datenabflüsse zu verhindern. Automatisierung und KI werden umfassend genutzt, um den Staat zum Ankerkunden für die digitale Wirtschaft zu machen.

Es wäre aus Sicht der Bürger sehr wünschenswert, dass hier was passiert – egal ob beim Antrag von Kindergeld, Steuererklärung, etc. – aktuell wird die Informationsbeschaffung komplett an den Bürger ausgelagert, weil die ganzen Systeme nicht miteinander kommunizieren können/sollen/dürfen. An der Mehrheit der Stellen könnte das jedenfalls für ordentlich Effizienzgewinne sorgen.

Bundesjustizcloud:

Die Bundesjustizcloud wird gemeinsam mit den Ländern umgesetzt. Es wird ein Justizportal mit Kommunikationsplattform, Vollstreckungsregister und weiteren Bürgerservices eingeführt, wie zum Beispiel eine digitale Rechtsantragsstelle und Zugang zum digitalen Rechtsverkehr für Bürgerinnen und Bürger sowie kleine Unternehmen.

Gut, damit hab ich in der Regel und zum Glück wenig zu tun – hört sich aber sinnvoll an. Man hört ja, dass in dem Bereich viele überlastet sind mit Papierkram, Datenaustausch und Co.

Deutschland-Stack als technologisches Fundament

Im Zentrum der technischen Umsetzung steht ein „souveräner Deutschland-Stack“ – eine Sammlung interoperabler Technologiekomponenten, die folgende Eigenschaften kombinieren sollen:

  • Europäische Anschlussfähigkeit und Standards
  • Integration modernster KI-Technologien
  • Cloud-Dienste und zentrale Basiskomponenten
  • Strikte Sicherheitsstandards mit Ausschluss nicht vertrauenswürdiger Anbieter

Im Text heisst es außerdem:

Bei dem Aufbau dieser Strukturen prüfen wir, ob europäische Anbieter bereits entsprechende Lösungsmodelle entwickelt haben. Nicht vertrauenswürdige Anbieter schließen wir künftig rechtssicher aus.

Aha, also nix mit BSI und Google Cloud? Das wäre ja was.

Koalitionsvertrag (PDF)


KI-Crawler überlasten Open-Source-Infrastruktur

Open-Source-Entwickler kämpfen gegen aggressive KI-Crawler, die bis zu 97% des Traffics auf ihren Websites verursachen. Projekte wie Fedora, GNOME und KDE berichten von massiven Bandbreitenbelastungen und Systemausfällen durch Bot-Anfragen von Unternehmen wie Amazon, OpenAI und Alibaba.

Entwickler wie Xe Iaso haben kreative Verteidigungsstrategien entwickelt: Vom Einrichten von VPNs bis hin zu „Anubis“, einem Proof-of-Work-System, das Web-Crawler zum Lösen komplexer Rechenaufgaben zwingt. GNOME konnte so 96,8% des Bot-Traffics blockieren.

Die finanziellen Auswirkungen sind erheblich. Read the Docs reduzierte seinen Datenverkehr durch Blocking um 75% und sparte dadurch monatlich 1.500 Dollar. Kritiker werfen KI-Unternehmen vor, Ressourcen rücksichtslos auszunutzen und Robots.txt-Richtlinien zu ignorieren.

Als Gegenmaßnahme entstehen neue Tools wie „Nepenthes“ und Cloudflares „AI Labyrinth“, die KI-Crawler in komplexe Inhalts-Labyrinthe locken, um sie zu verlangsamen.

Wir finden doch immer wieder Wege, wie wir das Internet noch mehr kaputt machen.

Open source devs say AI crawlers dominate traffic, forcing blocks on entire countries


Anzeige

Von AWS zu Hetzner: everysize spart 80% Cloud-Kosten mit „We Manage“

Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.

„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.

Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.

Brauchst du Hilfe bei Cloud-Optimierung oder IT-Operations?
Lies die vollständige Case Study und erfahre, wie auch dein Unternehmen von We Manage profitieren kann – buch dir jetzt einen Termin zum Kennenlernen.

zur Case Study: Warum everysize die AWS Public Cloud hinter sich lässt


20 Jahre Git: Reise zum dominanten Versionskontrollsystem

Genau vor 20 Jahren machte Linus Torvalds den ersten Commit zu Git, einem Projekt, das die Softwareentwicklung grundlegend veränderte. In seinem Blog-Artikel reflektiert Scott Chacon, Mitgründer von GitHub und Gründer von GitButler, über die Evolution von Git.

Git wurde ursprünglich nicht als Versionskontrollsystem konzipiert, sondern als effizienter „Content-Tracker“ für die Linux-Kernel-Entwicklung. Bestehende Systeme waren zu langsam und nicht für dezentrale Arbeitsabläufe geeignet. Die ersten sieben Kommandozeilentools dienten hauptsächlich als Datenbankfunktionen – Linus nannte es selbst einen „stupid content tracker“.

Die bekannten Befehle wie „git commit“ oder „git log“ entstanden später als einfache Shell-Skripte. Der erste „git log“-Befehl war nur drei Zeilen Code lang! Der heute unverzichtbare „rebase“-Befehl entsprang 2005 einem Workflow-Gespräch zwischen Junio Hamano und Torvalds.

Interessant: Chacon nutzte Git zunächst nicht für Code, sondern zur Asset-Verteilung in einer Werbeagentur, wo die Content-Addressable-Struktur half, große Dateien effizient zu verwalten.

Fun-Fact: Die GitHub „Octocat“-Maskotte hat ihren Ursprung im Git-Begriff „octopus merge“. Nach 20 Jahren bleibe Git „weird“ und „wonderful“ – und ist zum unverzichtbaren Werkzeug für Entwickler weltweit geworden. Und ja, Linus Torvalds ist auch noch da – in seinem letzten Rant geht es den „Turds“ der Grafikkarten Treiber an den Kragen – wie immer öffentlich auf der Kernel Mailingliste.

20 years of Git. Still weird, still wonderful.


Intercom modernisiert Datenbankinfrastruktur mit PlanetScale

Der SaaS Customer Service Anbieter Intercom berichtet über beeindruckende Fortschritte bei der Umstellung ihrer Datenbankarchitektur von Amazon Aurora auf Vitess und PlanetScale. Die ersten Migrationen zeigen tolle Ergebnisse: Wartungsarbeiten ohne Ausfallzeiten, über 90% Leistungsverbesserung bei anspruchsvollen Abfragen und erhöhte Infrastruktur-Resilienz.

Erreichte Meilensteine

Die Migration kritischer Datenbanken – darunter KI-Infrastruktur, Kontakte und Inbox – verlief erfolgreich. Besonders hervorzuheben:

  • Rasantes Sharding: Was früher monatelange Planung erforderte, geschieht jetzt in wenigen Tagen
  • Deutliche Leistungssteigerungen: Materialisierte Ansichten in Vitess beschleunigen komplexe Abfragen um mehr als 90%
  • Vereinfachtes Verbindungsmanagement: Eine Inbox-Datenbank bewältigt jetzt 135.000 aktive Verbindungen ohne zusätzliche Infrastruktur
  • Zero-Downtime-Wartung: Regelmäßige Upgrades bleiben für Nutzer unsichtbar

PlanetScale Metal als Game-Changer

Nach anfänglichen Herausforderungen durch I/O-Engpässe bei EBS-Volumes wechselte Intercom zu PlanetScale Metal mit lokalen NVMe-Laufwerken. Die Ergebnisse:

  • Drastisch reduzierte Latenzzeiten
  • Verbesserte Betriebsstabilität
  • Kostenreduktion um über 60%

Als nächstes steht die Migration der zwei größten Legacy-Datenbanken an – ein komplexes Vorhaben mit Hunderten Terabyte Kundendaten, das jedoch auf den bisherigen positiven Erfahrungen aufbauen kann. Super interessanter Case und jetzt nicht nur ein „Planetscale“ Werbebeitrag, sondern ein echter Praxisbezug. Man liest ja überall von der Dominanz von PostgreSQL – aber dann gibt es auch wieder solche Cases mit mehreren 100TB Datenbanken auf MySQL.

Evolving Intercom’s database infrastructure: Lessons and progress


Microsoft macht On-Premises teurer

Microsoft dreht erneut an der Preisschraube – diesmal trifft es Kunden, die auf lokale Server-Installationen setzen. Ab Juli 2025 müssen Unternehmen, die Microsoft-Server in ihren eigenen Netzwerken betreiben, deutlich tiefer in die Tasche greifen (Quelle: heise.de). Die Redmonder benennen es elegant als „Lizenz- und Preis-Aktualisierungen für On-Premises-Server“.

Konkret werden die Preise für alle eigenständigen On-Premises-Server (SharePoint, Exchange und Skype for Business) um 10 Prozent angehoben. Bei Client-Access-License-Modellen (CAL) wird es noch teurer: Die Core CAL Suite steigt um 15 Prozent, die Enterprise CAL Suite sogar um 20 Prozent. Microsoft betont zwar, dass man das „On-Premises-Bedürfnis“ von Kunden anerkenne, doch die Preispolitik spricht eine andere Sprache – wer nicht in die Cloud will, muss eben mehr zahlen.

Interessanterweise bleiben Cloud-Dienste wie SharePoint Online, Exchange Online und Microsoft Teams von diesen Preiserhöhungen verschont.

Microsoft erhöht Preise für On-Premises-Server


AWS schafft Reserved Instances ab

Wie Cloud Guru Corey Quinn im aktuellen Newsletter festgestellt hat, werden neue EC2-Instance-Typen ohne Reserved Instance (RI) Support eingeführt. Bei den neueren Instance-Familien wie trn2, p5e, i8g, f2 und i7ie fehlen die typischen RI-Preisoptionen – stattdessen werden nur noch Savings Plans angeboten.

Dieser Schritt war abzusehen, da Savings Plans deutlich weniger manuellen Aufwand erfordern und trotzdem die gleichen Rabatte bieten. AWS scheint hier den sanften Übergang zu wählen, anstatt einen harten Schnitt zu machen. Für die meisten Kunden dürfte diese Änderung kaum spürbar sein, da viele bereits seit Jahren auf Savings Plans umgestiegen sind. Allerdings wäre es kundenfreundlich, wenn AWS auch andere Dienste wie RDS, OpenSearch und Redshift in einen einheitlichen Savings Plan integrieren würde, anstatt separate Rabattstrukturen beizubehalten.

EC2 Reserved Instances are Being Quietly Deprecated


PostgreSQL skalieren: Datenbank-Wachstum in der Praxis

Kaarel Moppel teilt in seinem Blog-Artikel eine strukturierte Roadmap zur Skalierung von PostgreSQL-Datenbanken. Als Experte mit „20.000+ Stunden in den Postgres-Schützengräben“ bietet er eine pragmatische Herangehensweise an dieses zeitlose Thema.

Der Stufenplan zur Skalierung:

  1. Grundlagenwissen aufbauen: MVCC, Autovacuum und WAL verstehen
  2. Datenmodellierung optimieren: Business-Use-Case analysieren und frühzeitig harte Migrationsentscheidungen treffen
  3. Indexierung: Gezielt und sparsam einsetzen, kostengünstige Index-Typen bevorzugen
  4. Hardware upgraden: Manchmal ist einfaches „Schieberegler ziehen“ die beste Lösung; DBaaS kann für Batch-Workloads sinnvoll sein
  5. Statistiken anpassen: PostgreSQL-Defaults sind konservativ und veraltet
  6. Konfiguration optimieren: Weniger wichtig als früher angenommen
  7. Partitionierung: Hot-Cold-Datentrennung und vollständiges Entfernen alter Partitionen

Bei weiterem Wachstum folgen fortgeschrittene Techniken: Komprimierung, Vor-Aggregation, Lesereplikas, logische Replikation, alternative Storage-Engines, externes Caching und schließlich Sharding.

Moppels Kernbotschaft: Viele Skalierungsprobleme lassen sich durch grundlegende Optimierungen lösen, bevor man zu komplexeren Lösungen greifen muss. Erst wenn alle anderen Optionen ausgeschöpft sind, sollte man PostgreSQL-Derivate in Betracht ziehen.

A roadmap to scaling Postgres


Entwicklerin baut DIY-Kalenderlösung

Emily Gorcenski beschreibt in ihrem Blog, wie sie ein selbst gehostetes Kalendersystem implementiert hat, um die Abhängigkeit von Big-Tech-Unternehmen zu reduzieren und ihre komplexen Reise- und Terminanforderungen besser zu managen.

Herausforderung und Anforderungen

Als Vielreisende mit Fernbeziehung brauchte sie ein System, das Arbeitskalender mit persönlichem Kalender synchronisiert, Ereignisse nur einmal erfasst und komplette Datenkontrolle ermöglicht. Kommerzielle Lösungen scheiterten an diesen Anforderungen.

Die technische Umsetzung

Das Herzstück ihrer Lösung ist Baïkal, ein leichtgewichtiger, selbst hostbarer CalDAV-Server, der über Docker und Nginx eingerichtet wurde. Besonders clever:

  • Python-Automatisierung: Skripte importieren Termine aus E-Mails, ihrem Flugtracker und anderen Datenquellen
  • Eigene Taxonomie: Ein System zur Kategorisierung von Ereignissen mittels Python Enums ersetzt fehlende Funktionalität in Standard-Kalenderfrontends
  • Intelligente Privatsphäre-Kontrolle: Bestimmte Ereignistypen (z.B. Arzttermine) werden automatisch als privat markiert
  • Automatische Synchronisierung: Ein 15-Minuten-Cron-Job aktualisiert alle Kalender

Ein Google Script sorgt für die Synchronisierung mit dem Arbeitskalender und ermöglicht sogar farbliche Kodierung verschiedener Ereignistypen.

Nach sechs Monaten Nutzung ist Emily begeistert: Neue Flugreisen erscheinen innerhalb von 15 Minuten im Kalender und werden automatisch weitersynchronisiert. Die monatlichen Serverkosten von etwa 100 Dollar werden durch enorme Zeitersparnis mehr als ausgeglichen.

Owning my own data, part 1: Integrating a self-hosted calendar solution


Google stellt neue Ironwood TPUs für KI Inferenz vor

Google hat auf der Cloud Next 25 seine neueste Generation von Tensor Processing Units (TPU) vorgestellt: Ironwood. Diese siebte TPU-Generation ist speziell für Inferenz-Workloads optimiert und markiert einen Paradigmenwechsel von reaktiven zu proaktiven KI-Modellen, die eigenständig Daten interpretieren und Erkenntnisse generieren können.

Die technischen Spezifikationen sind beeindruckend:

  • Bis zu 9.216 Chips pro Pod mit insgesamt 42,5 Exaflops (24× leistungsstärker als der größte Supercomputer der Welt)
  • 4.614 TFLOPs pro Chip
  • 192 GB High Bandwidth Memory (HBM) pro Chip (6× mehr als beim Vorgänger Trillium)
  • 7,2 TBps HBM-Bandbreite (4,5× höher als bei Trillium)
  • Verbesserte Inter-Chip-Verbindungen mit 1,2 Tbps bidirektionaler Bandbreite

Besonders hervorzuheben ist die Energieeffizienz: Ironwood ist 2× effizienter als der Vorgänger und sogar 30× effizienter als die erste Cloud TPU von 2018. Die Flüssigkühlung ermöglicht doppelt so hohe Leistung wie bei luftgekühlten Systemen.

Ironwood wird später im Jahr verfügbar sein und soll anspruchsvolle KI-Workloads wie großskalige Sprachmodelle, Mixture-of-Experts-Modelle und komplexe Reasoning-Aufgaben unterstützen. Google nutzt die TPUs bereits für eigene Modelle wie Gemini 2.5 und AlphaFold.

Ironwood: The first Google TPU for the age of inference


Tailscale sichert sich $160 Millionen Funding

Tailscale hat in einer Series-C-Finanzierungsrunde beeindruckende 160 Millionen USD eingesammelt. Die Runde wurde von Accel angeführt, mit Beteiligung von CRV, Insight Partners, Heavybit und Uncork Capital. Auch namhafte Angel-Investoren wie George Kurtz (Crowdstrike-CEO) und Anthony Casalena (Squarespace-CEO) sind an Bord.

Das 2019 gegründete Unternehmen hat sich zum Ziel gesetzt, Netzwerke zu vereinfachen – oder besser gesagt, sie unsichtbar zu machen. Heute verlassen sich Millionen von Menschen täglich auf Tailscale, um ihre Homelabs, Anwendungen, Unternehmen und KI-Workloads zu verbinden.

Mit der neuen Finanzierung will Tailscale das Konzept des „identitätsbasierten Netzwerkens“ vorantreiben. Anders als beim herkömmlichen Internet, das auf IP-Adressen basiert, verbindet man sich bei Tailscale direkt mit der Anwendung, dem Teammitglied oder dem Service – unabhängig vom Standort.

Führende KI-Unternehmen wie Perplexity, Mistral und Groq nutzen bereits Tailscale, ebenso wie Firmen wie Instacart, SAP und Duolingo. Mit der neuen Finanzierung plant das Unternehmen, sein Entwicklungs- und Produktteam zu erweitern und weitere Märkte zu erschließen – ohne dabei den kostenlosen Support für Gratisnutzer oder die rückwärtskompatible Plattform zu vernachlässigen.

Hast du Tailscale im Einsatz? Falls ja, für welchen Use-Case? Würde mich interessieren – danke!

Building the New Internet, together — our Series C and what’s next


Schmunzelecke

Microsoft hat ein AI Modell namens „Muse“ programmiert, welches in Zukunft Levels oder DLCs für Spiele auf Basis vorhandener Missionen erstellen soll. Im spielbaren Beispiel kannst du dann Quake 2 in 640 x 360 Pixel spielen – und irgendwie ist die Experience nicht so überzeugend – aber gerne selber mal ausprobieren.

Fintech-Startup versprach „KI-Shopping“, betrieb aber manuelles Call-Center – Der Gründer Albert Saniger des mit 50 Millionen Dollar finanzierten Shopping-Apps Nate wurde wegen Betrugs angeklagt, da er Investoren täuschte: Statt der beworbenen KI-gesteuerten „universellen“ Checkout-Funktion erledigten in Wirklichkeit hunderte menschliche Mitarbeiter in den Philippinen die Einkäufe manuell, während die tatsächliche Automatisierungsrate bei 0% lag (Quelle: TechCrunch). Danke an Michi für die Einsendung.


💡 Link Tipps aus der Open Source Welt

Lazydocker: Terminal-UI für Docker-Management

Lazydocker ist ein schlankes Terminal-Interface für Docker und Docker-Compose, das in Go entwickelt wurde und die Container-Verwaltung drastisch vereinfacht. Das Tool bietet eine übersichtliche, tastatur- und mausgesteuerte Oberfläche, mit der Entwickler ihre Docker-Umgebung effizienter und mit weniger Aufwand verwalten können.

Features im Überblick:

  • Echtzeit-Übersicht des Status aller Docker-Container und -Services
  • Einfacher Zugriff auf Container-Logs
  • Visualisierung von Container-Metriken durch ASCII-Graphen
  • Anpassbare Messwerte für individuelles Monitoring
  • Direkte Verbindung zu Containern via Attach-Funktion
  • Schnelles Neustarten, Entfernen oder Neubauen von Containern
  • Detaillierte Anzeige von Image-Layern
  • Effizientes Aufräumen nicht benötigter Container, Images und Volumes

Die intuitive Benutzeroberfläche macht Docker-Management zu einer One-Click-Angelegenheit – perfekt für alle, die sich weniger mit CLI-Befehlen und mehr mit ihrer eigentlichen Entwicklungsarbeit beschäftigen möchten (YouTube Demo / GIF Demo)

https://github.com/jesseduffield/lazydocker

Smee.io: Webhook-Proxy Service für lokale Entwicklung

Smee.io ist ein cleverer Webhook-Relay-Dienst, der das lokale Testen von Webhook-basierten Anwendungen ermöglicht, indem er öffentlich erreichbare Endpunkte bereitstellt und die eingehenden Payloads an Ihre localhost-Umgebung weiterleitet. Der Dienst nutzt Server-Sent Events (SSE) als Übertragungstechnologie und überbrückt damit elegant die Kluft zwischen externen Webhook-Quellen und Ihrer lokalen Entwicklungsumgebung.

Kernfunktionen:

  • Proxy für Webhook-Payloads zwischen Internet und localhost
  • Einsicht in empfangene Daten über benutzerfreundliche Weboberfläche
  • Nahtlose Integration mit dem smee-client oder Probot-Framework
  • Einfaches Deployment als eigene Instanz via Docker
  • Skalierbarkeit durch Redis-basierte Instanzvernetzung
  • Entwicklungsfreundliche Alternative zu komplexen Tunneling-Lösungen

Coole Sache, kannte ich noch nicht – danke an Ben für den Hinweis!

https://github.com/probot/smee.io

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

572 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x