Willkommen zu allesnurgecloud.com – Ausgabe #205
So, der Newsletter in der letzten Woche konnte trotz der Phishing Infos sauber zugestellt werden – bei Ausgabe 203 hab ich die SPAM Zustellungen direkt in den Öffnungsraten gesehen, da diese 10-15% niedriger waren als sonst.
Wusstest du, dass sich viele Internet und Kernel nahe Projekte noch immer über Mailing-Listen organisieren?
Dieser Post in der IETF Mailingliste, der Internet Engineering Task Force, listet 20 Vorteile von Mailinglisten auf. Man stelle sich vor, man würde Entscheidungen und Projekte in Firmen so transparent organisieren – finde ich zumindest einen interessanten Gedanken. Der Post erklärt jedenfalls schön, warum die Mailinglisten wohl auch nie verschwinden werden.
Falls du selbst über interessante Artikel stolperst, schick mir einfach einen kurzen Hinweis als Antwort auf diese Mail – danke!
Happy Bootstrapping Podcast
In der aktuellen Folge 140 spreche ich mit Max Grimm von Maro.Coffe – Max hat mit seinem Co-Founder Robin eine Siebträgermaschine der neusten Generation geboostrapped und schon über 400 Geräte verkauft. Das Besondere? Das Team kann Remote Support auf die Kaffee Maschine leisten und auch hier ist die Herausforderung die Kombination von Software und Hardware, die eben optimal zusammen spielen muss – auch wenn du kein Siebträger Fan bist kann man einiges mitnehmen, finde ich – Folge 140 jetzt anhören.
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Cloudflare AI Index Private Beta
Nach der „Content Independence Day“ Ankündigung mit Pay-per-Crawl geht Cloudflare jetzt den nächsten Schritt: Der neue AI Index verwandelt Websites in strukturierte Datenquellen für KI-Systeme – mit voller Kontrolle für Content-Ersteller.
Von Crawling zu Pub/Sub
Statt blindem Scraping bietet der AI Index ein Pub/Sub-Modell: Websites exponieren strukturierte Updates, KI-Builder abonnieren gezielt. Die Technik dahinter ist modern und eine Abkehr vom zyklischen Crawling und robots.txt – automatisch generierte APIs inklusive MCP Server (Model Context Protocol), LLMs.txt nach Open Standards und eine flexible Search API. Alles basiert auf Cloudflares AI Search (ehemals AutoRAG) Technologie.
Die Monetarisierung läuft weiter
Der AI Index integriert sich nahtlos mit dem bestehenden Pay-per-Crawl System. Zur Erinnerung: Während Google 14 Crawls pro Referral macht, sind es bei Anthropic 73.000 – ohne entsprechende Gegenleistung. Mit dem neuen System können Content-Ersteller über HTTP 402 und x402-Integrationen jeden Zugriff monetarisieren.
Der Open Index als Aggregator
Cloudflare baut zusätzlich einen Open Index – eine gebündelte Sammlung aller teilnehmenden Websites. KI-Builder bekommen einen zentralen Zugriffspunkt mit Quality-Filtern nach Originalität, Tiefe und Relevanz. Die Monetarisierung fließt trotzdem direkt an die einzelnen Websites zurück.
Nach der Pay-per-Crawl Ankündigung folgt nun der zweite große Schritt zur Neuordnung des Web-KI-Verhältnisses. Cloudflare nutzt seine Position (20% des Webs) geschickt aus – sie spüren die Traffic-Einbrüche bei Content-Seiten vermutlich direkt in ihren eigenen Abrechnungen und steuern hier gegen. Der AI Index könnte das Ende des wilden Web-Scrapings einläuten und endlich faire Kompensation für Content-Ersteller bringen.
Die Private Beta startet jetzt und Content Owner und AI Builder können sich hier anmelden . Mal sehen, ob die KI-Giganten mitspielen.
An AI Index for all our customers
SAP und OpenAI mit „souveräner“ KI & EU Wettbewerbsverfahren
SAP, OpenAI und Microsoft wollen ab 2026 deutsche Behörden mit ChatGPT versorgen – aus der Delos-Cloud mit 4.000 GPUs in Deutschland. OpenAI Gründer Sam Altman tweetete stolz vom „sovereign cloud offering“ für Deutschland:
Had fun being in Germany to launch a sovereign cloud offering with SAP and Microsoft; important to us to help governments use our frontier models.
,Doch wie souverän ist die Lösung wirklich?
OpenAIs KI-Modelle laufen auf SAPs Delos-Infrastruktur, die, wir wir ja aus vorherigen Ausgaben wissen, auf Microsoft Azure Stack basiert, aber formal unter deutschem Recht operiert. Microsoft soll keinen direkten Zugriff haben, im Notfall sei sogar autarker Betrieb möglich. Der Preis dieser „Souveränität“: 10-20% Aufschlag zur Public Cloud – so weit, so gut.
Die Frage bleibt: Kann eine Lösung souverän sein, die komplett auf US-Software basiert?
Der US Cloud Act könnte theoretisch trotzdem greifen. SAP-Manager Philipp Herzig versichert, die „roten Linien des BSI“ würden erfüllt, Daten blieben in Deutschland. Digitalminister Wildberger (CDU) applaudiert, Kritiker zweifeln.
SAP investiert bis 2035 20 Milliarden Euro in sein Sovereign-Cloud-Portfolio. Nach der Bundesagentur für Arbeit als ersten Pilotkunden sollen „Millionen Beschäftigte“ in Verwaltungen folgen. Das Versprechen: Weniger Papierkram durch KI-Automatisierung.
Die unbequeme Realität: „Souveränität“ bedeutet hier deutsche Rechenzentren mit amerikanischer Software und deutschem Rechtsetikett. Echte digitale Unabhängigkeit sieht anders aus – aber vielleicht ist das der einzig realistische Kompromiss zwischen technologischer Abhängigkeit und regulatorischen Anforderungen?
Die Original Pressemeldung kannst du im SAP Newsroom nachlesen.
Parallel zu den Kooperationsankündigungen mit OpenAI und Microsoft läuft ein EU-Wettbewerbsverfahren gegen SAP. Die Kommission wirft dem Konzern vor, bei On-Premise-Software den Markt für Wartungsdienstleistungen zu verzerren.
Die konkreten Vorwürfe: Kunden könnten keine Drittanbieter-Wartung wählen, müssten für ungenutzte Lizenzen zahlen und säßen durch automatische Verlängerungen in der Vendor-Lock-in-Falle. EU-Wettbewerbskommissarin Teresa Ribera kritisiert: Europäische Unternehmen hätten „weniger Auswahlmöglichkeiten und höhere Kosten“.
SAP kontert mit dem Argument der „Branchenstandards“ und spricht intern von einem „Solidarsystem“ – alle Kunden zahlen für kontinuierliche Weiterentwicklung. Die Walldorfer vergleichen es mit einem Auto: Man könne Software nicht einfach stilllegen und später reaktivieren, sie werde kontinuierlich erneuert. Wer pausiert, wäre ein Trittbrettfahrer.
Der Konzern gibt sich gelassen und erwartet „keine materiellen Auswirkungen“ auf die Finanzergebnisse. Die Gespräche mit Brüssel laufen bereits länger, die formale Untersuchung wurde erst jetzt eingeleitet.
ChatGPT aus der Delos-Cloud: SAP und OpenAI arbeiten zusammen
Anzeige
Hier könnte Deine Werbung stehen
Du möchtest Deine Firma, angebotene Dienstleistungen & Services oder Dein SaaS Produkt hier im Newsletter vorstellen?
Du suchst neue Mitarbeiter und möchtest diese direkt erreichen?
Erreiche über 1400 Cloud und Open-Source Enthusiasten direkt per E-Mail und im RSS Feed. Dazu kommen 1000+ Impressions im LinkedIn Artikel des Newsletters.
Die Preise beginnen ab 150€ pro Ausgabe – bei Interesse antworte mir direkt auf den Newsletter oder kontaktiere mich über LinkedIn ich schreib dann auch ganz schnell zurück.
Jetzt Werbung anfragen (und Freitags deployen)
Motivation hacken: Der innere Schweinehund macht Code Review
Ashley Janssen teilt ihre Erfahrungen mit dem „Assault Bike“ – und trifft mit der Analogie damit einen Nerv, den jeder Entwickler kennt: Die Sache mit der ungeliebten Legacy-Codebase, dem überfälligen Refactoring oder der Dokumentation, die seit Monaten aufgeschoben wird – Dinge, die wir irgendwann machen müssen, es aber nicht dringend ist – und somit liegen bleibt.
Janssens Beobachtung folgt einem bekannten Muster:
- Vor dem Start: Die Aufgabe wirkt überwältigend
- Nach 3 Minuten: „Vielleicht reichen auch 10 Minuten“
- Nach 20 Minuten: „Naja, jetzt kann ich auch fertig machen“
- Danach: Erleichterung gemischt mit Ärger über die Prokrastination
Was hat alles Einfluss auf deine Motivation?
Motivation ist komplex – beeinflusst von Schlaf, Ernährung, Stress, Tageszeit und ja, auch davon, ob man „falsch geschlafen“ hat und der Rücken rebelliert. Die Autorin listet pragmatische Strategien:
1. Root Cause Analysis: Warum fehlt die Motivation? Environment optimieren (seperater Arbeitsplatz), Mood boosten (10-Minuten-Spaziergang), Body Care (Stretching, Power Nap).
2. Gamification: Den Task mit etwas Angenehmem kombinieren – Audiobook beim Refactoring, gute Musik beim Code Review. External Accountability durch Pair Programming oder Stand-ups nutzen.
3. Chunking: Die kleinste sinnvolle Einheit finden. Statt „komplettes Refactoring“ erstmal „eine Klasse aufräumen“. 5-Minuten-Commits statt Marathon-Sessions.
4. Konsistenz > Motivation: Routinen etablieren statt auf Inspiration warten. Der Calendar-Blocker für Deep Work ist verlässlicher als spontane Motivation.
5. Backlog-Management: Manchmal ist „jetzt nicht“ die richtige Antwort. Plastic Balls können warten, Glass Balls nicht.
Mir hilft ja, dass ich immer mit einem unbequemen Thema starte – damit man gleich ein kleines Erfolgserlebnis hat. Ich nutze zum Tracken einfacher Habits gerne HabitKit von Sebastian – ihn hatte ich ja mal vor 2 Jahren im Podcast und nun am Freitag Folge 2 aufgenommen – kommt dann im Oktober. Ashley hat hier auch einen Artikel geschrieben, in dem Sie über das Tracking ihrer Habits schreibt – das beschreibt ganz gut, was ich damit meine.
How to Motivate Yourself To Do A Thing You Don’t Want to Do
Cloudflare und PlanetScale: Full-Stack mit Postgres und MySQL
Cloudflare Worker können jetzt direkt auf PlanetScale-Datenbanken zugreifen – und PlanetScale hat zeitgleich Postgres allgemein verfügbar gemacht. Neben dem etablierten MySQL-Angebot via Vitess gibt es nun auch vollwertige Postgres-Unterstützung.
Die Cloudflare-Integration nutzt automatisch Hyperdrive, den verteilten Connection-Pooler, der Verbindungen warm hält und Queries cached. Hyperdrive platziert Connection-Pools automatisch in den Rechenzentren mit der niedrigsten Latenz zur Datenbank und eliminiert die typischen Roundtrips beim Verbindungsaufbau. Bei den üblichen 80% read-only Queries in transaktionalen Datenbanken bringt das Caching erhebliche Entlastung.
PlanetScale’s doppelte Strategie: Während das Unternehmen seit 5 Jahren erfolgreich Vitess für MySQL-Sharding betreibt (Kunden: Cursor, Intercom, Block), arbeitet man parallel an „Neki“ – einer Postgres-Sharding-Lösung, die Vitess‘ Konzepte für Postgres neu implementiert. Planetscale CEO Sam Lambert betont: „Built by the team behind Vitess combining the best of Vitess and Postgres.“ Neki sei kein Fork, sondern eine Neuarchitektur von Grund auf.
Die praktischen Vorteile der Cloudflare-Integration: Keine manuellen API-Keys mehr zwischen Dashboards kopieren, bidirektionale Verwaltung aus beiden Dashboards möglich, One-Click Password Rotation für erhöhte Sicherheit. Workers haben damit Zugriff auf das volle Spektrum: Workers KV für unstrukturierte Daten, D1 für Multi-Tenant-Apps, Durable Objects für isolierte SQL-Datenbanken und jetzt Enterprise-Grade Postgres/MySQL via PlanetScale.
Hunderte Unternehmen nutzen laut Angaben von Planetscale bereits PlanetScale Postgres in Produktion. Mit dem proprietären Operator und der „Performance of Metal“ positioniert sich PlanetScale als Premium-Alternative zu anderen Postgres-Anbietern.
Ein paar Kunden Cases sind auf der News verlinkt – OpenSecret, die Layers AI Suche für Shopify oder auch die AI Memory Engine „Supermemory“ – interessanter Name.
Partnering to make full-stack fast: deploy PlanetScale databases directly from Workers
PostgreSQL 18 ab sofort verfügbar
Zeitgleich mit PlanetScales Postgres-GA kommt PostgreSQL 18 mit massiven Performance-Verbesserungen. Das neue asynchrone I/O-Subsystem bringt bis zu 3x bessere Read-Performance – genau das, was Cloud-Provider wie PlanetScale für ihre „Performance of Metal“-Versprechen brauchen.
Die wichtigsten PostgreSQL 18-Features für Cloud-Deployments: Skip Scan auf Multi-Column-B-Tree-Indizes beschleunigt Queries ohne Prefix-Conditions, parallele GIN-Index-Builds reduzieren Wartungsfenster, und die neue PG_UNICODE_FAST Collation macht Text-Vergleiche schneller. Besonders relevant für Managed-Service-Provider: Major-Version-Upgrades behalten jetzt Planner-Statistiken, was Post-Upgrade-Performance-Probleme minimiert.
Für Entwickler bringt PostgreSQL 18 virtuelle generierte Spalten (berechnet zur Query-Zeit statt gespeichert) und die uuidv7() Funktion für timestamp-geordnete UUIDs mit besserer Cache-Performance. Die neue OAuth 2.0 Authentication passt perfekt zu modernen Cloud-Architekturen – und zu Cloudflares Workers-Integration mit PlanetScale.
Technisch bemerkenswert: PostgreSQL führt nach 21 Jahren erstmals ein neues Wire Protocol (3.2) ein. Checksums sind jetzt standardmäßig aktiviert – was bei Upgrades beachtet werden muss. Die io_uring und worker AIO-Methoden lassen sich per io_method-Setting konfigurieren, während SCRAM-Passthrough-Authentication die Verbindung zu Remote-Instanzen vereinfacht.
Mit PlanetScales Postgres-GA, ihrer angekündigten „Neki“ Sharding-Lösung und PostgreSQL 18s Performance-Sprüngen positioniert sich Postgres noch stärker als Enterprise-Alternative.
Dabei haben die meisten vermutlich noch nicht mal auf PG 17 migriert, da steht schon Postgres 18 zur Verfügung. Ich verweise gerne auf endoflife.date – hier findest du die aktuell supported Versionen – der Support für PG13 endet übrigens im November 2025.
Von Docker zu Podman
Dominik Szymański zog nach Jahren mit Docker zu Podman um – aus gutem Grund. Docker läuft mit einem Root-privilegierten Daemon als Single Point of Failure. Die CVE-Liste ist lang: Von runC-Escapes über „Dirty Pipe“ bis zu den „Leaky Vessels“ 2024.
Podman arbeitet daemonless – Container laufen als direkte Child-Prozesse des Users. Selbst Root im Container bedeutet nur unprivilegierte Rechte auf dem Host. Weniger Attack Surface, kein zentraler Ausfallpunkt.
Die Migration? Überraschend simpel: alias docker=podman
reicht fast. Die CLI ist identisch, Dockerfiles funktionieren unverändert. Der Killer-Feature: Native Systemd-Integration. Mit podman generate systemd
werden Container zu First-Class-Citizens im Linux-Service-Ökosystem.
Für Multi-Service-Setups bietet Podman Pods wie Kubernetes – Services teilen sich den Network-Namespace. Docker-Compose? Entweder podman-compose
oder gleich zu K8s-YAML konvertieren.
Gotchas: Keine privilegierten Ports (<1024) im Rootless-Mode – das ist Security by Design. Volume-Permissions brauchen manchmal Anpassung.
Szymańskis Fazit nach sechs Monaten: Besserer Schlaf, sauberere Monitoring-Dashboards. Docker bleibt durch Legacy-Code relevant, aber für neue Projekte ist Podman die logische Evolution – und der Umstieg auf K8s dann ebenfalls einfacher.
Hast du Podman schon länger am Start? Wie sind deine Erfahrungen?
Why I Ditched Docker for Podman (And You Should Too)
Secret Service zerschlägt massives SIM-Farming-Netzwerk
Kurz vor der UN-Vollversammlung hat der US Secret Service ein Telekommunikations-Netzwerk ausgehoben, das New York hätte lahmlegen können. 300 SIM-Server mit über 100.000 SIM-Karten im Umkreis von 56 Kilometern um die UN – die Infrastruktur hätte Mobilfunkmasten ausschalten, 911-Notrufe blockieren und 30 Millionen SMS pro Minute versenden können.
Das System funktionierte wie eine Armee von Mock-Telefonen, die gleichzeitig Massenanrufe und -nachrichten generieren konnten. Matt McCool vom Secret Service vergleicht die potenzielle Wirkung mit den Netzausfällen nach 9/11 und dem Boston-Marathon-Bombing – nur diesmal kontrolliert ausgelöst. Die forensische Analyse deutet auf Nation-State-Actors hin, die verschlüsselte Nachrichten an organisierte Kriminalität, Kartelle und Terrororganisationen sendeten.
Die Entdeckung zeigt eine neue Dimension von „Smishing“ (SMS + Phishing): Nicht nur Betrug, sondern gezielte Infrastruktur-Sabotage. Frühere Vorfälle umfassten gefälschte Nachrichten im Namen von Trumps Stabschefin Susie Wiles und Außenminister Marco Rubio. Großbritannien hat bereits reagiert und SIM-Farmen ohne legitimen Grund verboten.
Die Operation kostete Millionen Dollar allein für Hardware und SIM-Karten – und es lagen noch Tausende inaktive Karten bereit für eine Verdopplung oder Verdreifachung der Kapazität. McCool warnt: „Es wäre unklug zu denken, dass es nicht andere Netzwerke in anderen US-Städten gibt.“
Die neue „Advanced Threat Interdiction Unit“ des Secret Service kümmert sich wohl um solche Bedrohungen. Mir war. nicht klar, dass der Secret Service auch solche Dinge macht. Auf der anderen Seite: Kritische Infrastruktur ist das neue Schlachtfeld – und Telekommunikation ihre Achillesferse.
Secret Service takes down network that could have crippled New York cell service
Zerforschung deckt Datenleck bei Hotel-Software auf
Nach dem Freundschaftspass-Debakel mit 245.000 geleakten Datensätzen hat Zerforschung wieder zugeschlagen. Diesmal traf es die Hotel-Check-in-Software der likeMagic AG – mit verheerenden Folgen.
Mit einem simplen Account konnten die Forscher:innen über API-Calls auf 500.000 Dateien von 200.000 Buchungen zugreifen, darunter 90.000 Ausweisdokumente. Betroffen: Mindestens 50 Hotelketten weltweit. Der Bug war trivial – die Software interpretierte Teilstrings als Wildcards. Mit nur 26 API-Calls (A bis Z) hätte man alle Daten abgreifen können.
Das Problem liegt auch in der Architektur: likeMagic setzt auf eine klassische Single-Page-App, bei der der gesamte Code beim ersten Laden ausgeliefert wird – inklusive Funktionen wie downloadFile
, die eigentlich nur für berechtigte Nutzer gedacht waren. Die API-Dokumentation war zwar öffentlich (gut!), aber die Endpunkte nicht ausreichend abgesichert (schlecht!).
likeMagic reagierte vorbildlich schnell (2 Stunden am Sonntagabend), aber die betroffenen Gäste wurden nie informiert – ein klarer DSGVO-Verstoß. Besonders absurd: Seit Januar 2025 müssen nur noch nicht-deutsche Staatsbürger Ausweisdaten bei Hotels hinterlegen. Der Hotelverband Deutschland fordert zurecht die komplette Abschaffung.
Zerforschungs Fazit bleibt treffend: „Daten sind kein Öl, sondern toxischer Abfall.“ Nach Supabase beim Freundschaftspass nun also likeMagic – die nächste schlecht abgesicherte API wartet bestimmt schon.
Hotel: Check-in 🤝 Daten: Check-Out
Ruby Central: Community wehrt sich gegen Shopify-Übernahme
Ruby Central hat die Kontrolle über RubyGems und Bundler übernommen – ohne Zustimmung der Maintainer. Nach Joel Drappers Investigativ-Bericht meldet sich nun auch Christine mit einer Community-Perspektive.
Nach dem Verlust von $250.000 Sidekiq-Förderung (wegen DHH bei RailsConf 2025) wurde Shopify zum Quasi-Alleinfinanzierer. Das Ultimatum: Kontrolle über RubyGems oder keine Finanzierung mehr. Am 18. September verloren Maintainer ihre Zugänge – André Arko wurde während seiner On-Call-Schicht ausgesperrt.
Der kritische Unterschied: Ruby Central betreibt den RubyGems Service, aber der Code war immer Community-Eigentum. Christine bringt es auf den Punkt: „That’s like saying you own Rails because you sponsored someone who made a PR to Rails.“
André Arko hat inzwischen klargestellt: Er hält die Bundler-Trademark nur treuhänderisch für die Community und will sie an eine demokratische Organisation übertragen. Der Code bleibt MIT-lizenziert, das Problem ist Governance, nicht Zugang.
Community-Reaktion aus den Kommentaren: David Duymelinck fragt den entscheidenden Punkt: „Why did the RubyGems service need that level of permission?“ Christine antwortet: Durch das Entfernen erfahrener Maintainer wurde das Ökosystem unsicherer, nicht sicherer.
Adarsh, ehemaliger Ruby Central Director, betont die Notwendigkeit klarer Trennung zwischen Infrastruktur-Betrieb und Community-Code-Verwaltung. Der Weg vorwärts: Explizite Vereinbarungen, transparente Governance und Vertrauensaufbau statt Machtübernahme.
Die Ruby-Community hat scheinbar ein Governance-Problem, kein technisches.
Shopify, pulling strings at Ruby Central, forces Bundler and RubyGems takeover
„Die Kochen auch nur mit Wasser“
Am 12. September 2025 legte ein fehlerhafter useEffect-Hook im Dashboard Cloudflares APIs lahm. Ein Objekt im Dependency-Array wurde bei jedem State-Change neu erstellt, React behandelte es als „immer neu“ – Resultat: Tausende unnötige API-Calls statt einem einzigen. Der Tenant Service kollabierte unter der Last, die Authorization fiel aus, APIs antworteten nur noch mit 5xx-Fehlern.
Der erste Fix verschlimmerte zunächst alles und der Patch um 18:58 UTC führte zur zweiten Outage. Erst nach Revert und Rate-Limiting war um 19:12 UTC wieder Ruhe. Lessons Learned: Argo Rollouts hätten automatisch zurückgerollt, mehr Kapazität war überfällig, und die Thundering-Herd-Problematik (F5 Effekt) beim Restart hätte man vorhersehen können.
Die Kochen halt auch nur mit Wasser – aber absolut bemerkenswert, dass am Tag nach dem Incident ein solch detaillierter Report online zu lesen ist.
Schmunzelecke
Der anycrap.shop ist ein Online Shop, der unter dem Motto „Bring Impossible Products to Life“ sämtliche undenkbaren Produkte „anbietet“ – beispielsweise eine Teleportations Maschine, „Thought Canceling Headphones“ oder auch nur „Trumps Head in a basket“ – der ist übrigens im Angebot 😉
💡 Link Tipps aus der Open Source Welt
zrok – Secure Internet Sharing Made Simple
zrok ist ein Open-Source Tool zum sicheren Teilen von Web-Services, Dateien und Netzwerk-Ressourcen ohne Firewall-Konfiguration oder Port-Forwarding.
Du kannst lokale Web-Apps instant über das Internet zugänglich machen, Ordner als Netzlaufwerke teilen oder TCP/UDP-Services sicher mit anderen zrok-Nutzern austauschen. Das Tool basiert auf OpenZiti (Zero-Trust-Netzwerk) und bietet Ende-zu-Ende-Verschlüsselung, funktioniert durch Firewalls/NAT hindurch und unterstützt Windows, macOS, Linux sowie den Raspberry Pi.
Quick Start:
bash
zrok invite # Account erstellen
zrok enable # Sharing aktivieren
# Beispiele
zrok share public localhost:8080 # Web-Service öffentlich
zrok share public --backend-mode drive ~/Docs # Ordner als Laufwerk
zrok share private localhost:3000 # Privat teilen
zrok kannst du über die gehostete Variante auf zrok.io nutzen oder selbst hosten. Auf der GitHub Page hier siehst du ein paar Screenshots zu UI und funktionsweise.
https://github.com/openziti/zrok
OpenCut – Free Open-Source Video Editor
OpenCut ist eine kostenlose Open-Source Alternative zu CapCut für Web, Desktop und Mobile. Der Editor wurde entwickelt, weil CapCut mittlerweile fast alle Basic-Features hinter einer Paywall versteckt hat und in letzter Zeit mit der Änderungen der Nutzungsbedingungen sich keine Freunde gemacht hat.
Features:
- Timeline-basiertes Editing
- Multi-Track Support
- Echtzeit-Preview
- Keine Wasserzeichen oder Abonnements
- Analytics via Databuddy (100% anonymisiert)
- Blog powered by Marble CMS
- Privacy-First: Videos bleiben auf deinem Gerät
Tech-Stack: Das Projekt ist als Next.js Web-Applikation gebaut mit Zustand für State Management, PostgreSQL als Datenbank und Redis für Caching. Die Struktur umfasst die Hauptapp unter apps/web/
mit Components, Hooks, Utilities und TypeScript Types.
Quick Start:
bash
# Repository klonen und Setup
cd apps/web
cp .env.example .env.local
bun install
# Für vollständiges Development Setup
docker-compose up -d # DB & Redis starten
bun run db:migrate # Migrationen
bun run dev # Dev-Server auf localhost:3000
Du benötigst Node.js v18+, Bun als npm-Alternative und optional Docker für die lokale Datenbank. Die wichtigsten Environment-Variablen sind Database URL, Better Auth Secret und Redis Konfiguration.
Einfach mal ausprobieren kannst du OpenCut direkt auf der „Public Beta“ Website, komplett ohne Anmeldung und Registrierung.
https://github.com/OpenCut-app/OpenCut
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: