Willkommen zu allesnurgecloud.com – Ausgabe #185
So, wegen Ostern kommt der Newsletter einen Tag später – aber du arbeitest ja sowieso nicht und so ist er wenigstens passend zum Osterfrühstück in deiner Inbox. Nächste Woche dann wieder am Sonntag!
Ich bekomme immer wieder Feedback auf die Ausgaben, teils direkt als E-Mail Antwort, manchmal über LinkedIn oder auch über andere Wege – danke dafür!
Happy Bootstrapping Podcast
In der aktuellen Folgen hatte ich einen tollen Gast – den Johannes Höller von Elternnachricht.de – passt auch sonst zu der „Boring Technology“ Story, die ich hier gerne erzähle – die App wird von Johannes und seinem Co-Founder betrieben – zu zweit haben sie 1100 Schulen und KiTas als Kunden – deren Kunden, die Eltern, verschicken bis zu 2,5 Millionen Nachrichten pro Monat über Elternnachricht.de – ganz klassisch mit MariaDB, PHP und Hosting bei Hetzner – Chapeau – jetzt reinhören in Folge 117.
Wie immer gibt es auch was zum Lachen und ein paar Open-Source Tipps!
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
CVE Foundation sichert vorläufig die CVE Zukunft
In der letzten Woche macht die Meldung die Runde, dass die Trump Administration mal wieder zugeschlagen hat und die entsprechenden Gelder für den Betrieb von MITRE gestrichen hat. Die CVE DB wird von der NonProfit Organisation MITRE administriert und erhält dafür Gelder aus Töpfen des Department of Homeland Security (DHS).
Das Funding hatte in dieser Form nun über 25 Jahre bestand und war Dreh und Angelpunkt für das Announcement von Sicherheitslücken und der Vergabe der wichtigen und eindeutigen CVE Nummern.
Nun gab es eine wichtige Entwicklung als Antwort auf die Pläne der US Regierung: Die neue CVE Foundation wurde offiziell ins Leben gerufen, um die langfristige Stabilität und Unabhängigkeit des Common Vulnerabilities and Exposures (CVE) Programms zu gewährleisten.
Nach 25 Jahren unter US-Regierungsfinanzierung wird das Schwachstellenverzeichnis nun in eine unabhängige, gemeinnützige Organisation überführt. „CVE, als Eckpfeiler des globalen Cybersecurity-Ökosystems, ist zu wichtig, um selbst verwundbar zu sein,“ erklärt Kent Landfield, ein Vorstandsmitglied der neuen Stiftung. Diese Aussage verdeutlicht die kritische Bedeutung des Programms, auf das sich Sicherheitsexperten weltweit bei ihrer täglichen Arbeit verlassen.
Die Gründung der CVE Foundation markiert einen entscheidenden Schritt zur Eliminierung eines Single Point of Failure im Schwachstellenmanagement und stellt sicher, dass das CVE-Programm eine global vertrauenswürdige, gemeinschaftlich betriebene Initiative bleibt.
In den kommenden Tagen will die Stiftung weitere Informationen zu ihrer Struktur, Übergangsplänen und Beteiligungsmöglichkeiten für die breitere Community veröffentlichen. Natürlich braucht die Stiftung Support in Form von Personal und Geld – eine FAQ gibt es auf der neuen Landingpage – es gab erstmal eine überwältigende Anzahl an E-Mails und Support – kurzfristig suche man vor allem Geld:
We have received hundreds of emails offering encouragement, financial support, and seeking more information. We are working as quickly as we can to read and consider every email. At this time we are seeking additional financial support so we can move forward more quickly.
In Europa gibt es von der ENISA (European Union Agency for Cybersecurity) schon länger eine eigene European Union Vulnerability Database – EUVD – hier findest du auch CVE IDs und Informationen zu den bekannten CVE Nummern – die EUVD vergibt dann auch eigene IDs – die aktuell ausgenutzte Fortinet Lücke CVE-2024-21762 heisst dort dann EUVD-2024-19376 – die ID lässt sich also leider nicht 1:1 mappen.
CVE Foundation Launched to Secure the Future of the CVE Program
„Trump-Effekt“ beschert europäischen Software-Anbietern unerwarteten Boom
Während US-Techfirmen seit Jahren den digitalen Markt dominieren, zeichnet sich durch die aggressive Wirtschaftspolitik von US-Präsident Donald Trump plötzlich ein Umdenken ab. Laut einem aktuellen Spiegel-Bericht verzeichnen deutsche und europäische Cloud-Anbieter seit Jahresbeginn einen bemerkenswerten Aufschwung (Paywall).
Der „Trump-Effekt“, wie ihn manche Branchenvertreter bereits nennen, führt zu konkreten Wachstumszahlen: IT-Gründer Peer Heinlein berichtet von 62 Prozent Nutzerwachstum bei seinen Diensten OpenCloud und Mailbox.org.
Auch Nextcloud-Chef Frank Karlitschek bestätigt:
„Aktuell gibt es dreimal so viele Anfragen wie sonst. Wir haben einige Fälle, wo Kunden nach öffentlichen Drohungen von Trump gegen sie so schnell wie möglich weg wollen von US-Produkten.“
Besonders interessant ist der Nutzungszuwachs bei der europäischen Navigations-App Magic Earth, die als Google Maps-Alternative gilt: „Wir verzeichnen ein Wachstum von mehr als 250 Prozent innerhalb der letzten sechs Wochen„, erklärt Firmenchef Raymond Alves. Magic Earth kannte ich noch gar nicht – da gibt es Navigation fürs Auto, Offline Karten, etc. – falls du das nutzt, schreib mir gerne, wie du es findest.
Die Hauptgründe für diese Entwicklung liegen laut Spiegel in der wachsenden Sorge vor Wirtschaftsspionage und der Angst, dass US-gespeicherte Daten als politisches Druckmittel eingesetzt werden könnten. Nina-Sophie Sczepurek von Leitzcloud by vBoxx fasst die Situation prägnant zusammen: „Kunden kommunizieren ganz offen, dass sie von amerikanischen Produkten weg wollen.“
Obwohl US-Technologie nach wie vor den Markt dominiert, könnte dieser Trend für europäische Anbieter eine historische Chance darstellen, ihre Marktposition nachhaltig zu stärken. Dazu muss man halt mal zusammenstehen und wirklich souveräne Lösungen bauen.
Europas Softwarefirmen feiern »Trump-Effekt«
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Remote Work: Wie arbeitet man flexibel, ohne zu übertreiben?
Marissa Goldberg reflektiert in ihrem aktuellen Artikel über einen interessanten Widerspruch: Obwohl sie für gesunde Arbeitspraktiken eintritt, wurde sie kürzlich kritisiert, weil sie selbst am Sonntagabend E-Mails beantwortete. Was ihr Kritiker jedoch übersah: Als Mutter eines Kleinkinds bedeutet ihr Arbeitsalltag oft, tagsüber Betreuungsaufgaben zu übernehmen und nach dem Schlafengehen des Kindes tiefer in die Arbeit einzutauchen.
Das zentrale Argument von Goldbergs Beitrag: Gesundes Arbeiten definiere sich nicht über starre Zeitfenster, sondern über Intentionen und bewusste Strukturen. Besonders im Remote-Work-Kontext braucht es einen flexibleren Ansatz, der individuelle Lebensrealitäten berücksichtigt. Die verbreitete Annahme, dass „9-to-5 = gesund“ sei, bezeichnet sie als überholt.
Goldberg teilt drei praktische Strategien für gesundes flexibles Arbeiten:
- Klare Erwartungen setzen: Definierte Sync-Zeiten und Reaktionsrichtlinien vereinbaren, mit separatem Notfallkanal für echte Dringlichkeiten. In zehn Jahren Remote-Arbeit hat sie diesen nur einmal nutzen müssen.
- Virtuelle Grenzen ziehen: Benachrichtigungen außerhalb der Kernarbeitszeit deaktivieren und asynchrone Arbeitsumgebungen schaffen, die nicht zusammenbrechen, wenn jemand nicht sofort verfügbar ist.
- Mit verschiedenen Zeitplänen experimentieren: Statt sich an die 9-to-5-Norm zu klammern, persönlich optimale Arbeitsrhythmen entdecken und den eigenen Energiezyklen folgen.
Goldbergs Fazit: Flexible Arbeit bedeutet nicht ständige Verfügbarkeit, sondern die Möglichkeit, Arbeitszeiten an persönliche Lebensumstände anzupassen, ohne die eigene Gesundheit zu kompromittieren.
Was meinst du dazu?
Mich persönlich stresst es nicht, mehr zu arbeiten – mich stressen vielmehr die Interruptions im Remote-Work Context – Postbote klingelt, Jemand in der Familie möchte ein Ausmahlbild ausgedruckt haben, „hast du mal kurz?“ und so weiter. Das meint ja niemand böse und es ist eben der Alltag – aber das ständige „Context Switchting“ ist für den Mensch nicht weniger anstrengend als für die CPU.
Und im Büro gab es die Kolleg:innen ja auch, die eine E-Mail schicken und 2 Minuten später anrufen „Hast du meine E-Mail schon gesehen und können wir darüber sprechen?“
Remote Work hat für mich viel mit asynchroner Arbeit zu tun – da sind viele Organisationen und Kulturen aber nicht bereit dazu.
When Healthy Work Isn’t 9 to 5
„Have I Been Pwned“ Macher Troy Hunt ist Phishing Opfer
Troy Hunt, Sicherheitsexperte und Betreiber von „Have I Been Pwned“, wurde Opfer eines ausgeklügelten Phishing-Angriffs auf sein Mailchimp-Konto. Während eines Aufenthalts in London erhielt er im Zustand der Übermüdung eine täuschend echte E-Mail, die behauptete, sein Konto sei gesperrt worden. Die Phishing-Seite auf mailchimp-sso.com erfasste seine Anmeldedaten und den OTP-Code, wobei Hunt die fehlende Autovervollständigung aus seinem Passwort-Manager ignorierte.
Innerhalb von nur 34 Minuten nach Erhalt der Phishing-Mail erkannte Hunt den Betrug, aber da war es bereits zu spät: Die Angreifer hatten von einer New Yorker IP-Adresse seine komplette Mailing-Liste mit etwa 16.000 Adressen exportiert und einen API-Schlüssel erstellt.
Hunt reagierte umgehend mit einem Passwort-Reset und der Löschung des unautorisierten API-Schlüssels. Konsequent seiner eigenen Transparenz-Philosophie folgend, fügte er den Vorfall seiner HIBP-Datenbank hinzu und informierte alle Betroffenen.
Der Fall demonstriert eindrücklich die Schwachstellen der OTP-basierten Zwei-Faktor-Authentifizierung, die bei automatisierten Phishing-Angriffen wirkungslos bleibt. Ironischerweise hatte Hunt am Vortag noch mit dem britischen NCSC über die Vorteile von Passkeys gesprochen. Als Konsequenz hat er nun die Domain whynopasskeys.com registriert, um für phishing-resistente Authentifizierungsmethoden zu werben.
Besonders problematisch: Neben aktiven Abonnenten waren auch etwa 7.500 abgemeldete E-Mail-Adressen betroffen, die Mailchimp als „Unterdrückungsliste“ permanent speichert – nicht so schön.
A Sneaky Phish Just Grabbed my Mailchimp Mailing List
Die Burnout-Maschine: Die dunkle Seite der Techindustrie
Der jüngst in „2600 Hacker Quarterly“ erschienene Artikel „The Burnout Machine“ wirft einen kritischen Blick auf die systemischen Probleme der Technologiebranche. Der Autor „Biozombie“ demaskiert die vermeintlichen Traumjobs mit Sitzsäcken und kostenlosem Kombucha als Fassade für eine Industrie, die Entwickler, Admins und Sicherheitsexperten kontinuierlich ausbrennt und als austauschbar behandelt.
Besonders scharf kritisiert wird die Pervertierung agiler Methoden, die ursprünglich für mehr Flexibilität sorgen sollten, in der Praxis jedoch zu endlosen Sprints und ständiger Verfügbarkeit führen. Die Branchenkultur normalisiert Burnout und zelebriert Nachtschichten als Zeichen von „Commitment“.
Der Autor prangert die fehlende Jobsicherheit an, wobei permanente Anstellungen zunehmend durch Freelancer und Vertragsarbeiter ersetzt werden. Besonders problematisch sei auch die ethische Komponente: Techniker bauen die Zukunft, haben aber kaum Mitspracherecht bei der Verwendung ihrer Arbeit.
Als Lösung propagiert der Artikel gewerkschaftliche Organisation, verweist auf erste Erfolge wie die Alphabet Workers Union bei Google und fordert die Community auf, ihre Hacker-Fähigkeiten für kollektive Aktion einzusetzen – um nicht nur bessere Arbeitsbedingungen zu erkämpfen, sondern auch ethischen Einfluss auf die Technologieentwicklung zu nehmen.
Bei den Gehälter in der US Techindustrie kollidieren halt regelmäßig Ethik und der eigene Geldbeutel – schön, wenn jemand mal wieder darauf hinweist, ändern wird sich vermutlich nichts!?
3FS: DeepSeeks verteiltes Dateisystem im Überblick
DeepSeek hat kürzlich sein hauseigenes verteiltes Dateisystem „3FS“ (Fire-Flyer File System) als Open-Source-Projekt veröffentlicht. Das System ermöglicht Anwendungen, mit verteilten Dateien zu interagieren, als wären sie lokal gespeichert – ein flexibles Abstraktionsniveau für komplexe Infrastrukturen.
Warum verteilte Dateisysteme?
Die Hauptvorteile solcher Systeme liegen in der Fähigkeit, enorme Datenmengen (bis zu Petabytes) mit hohem Durchsatz zu verarbeiten, Fehlertoleranz zu bieten und Redundanz sicherzustellen.
Architektur von 3FS
3FS besteht aus vier Hauptkomponenten:
- Meta-Nodes: Verwalten Metadaten wie Dateipfade und -eigenschaften in FoundationDB
- Mgmtd-Node: Fungiert als zentraler Kontrollpunkt für die Cluster-Konfiguration
- Storage-Nodes: Speichern die eigentlichen Dateidaten in Chunks auf physischen Festplatten
- Client-Nodes: Kommunizieren mit allen anderen Knoten, um auf das Dateisystem zuzugreifen
Besonders interessant ist die Implementierung des CRAQ-Protokolls (Chain Replication with Apportioned Queries), das für starke Konsistenz sorgt. Dabei werden Schreibvorgänge vom Head- zum Tail-Node propagiert und erst dort bestätigt, was zwar die Schreiblatenz erhöht, aber konsistente Lesevorgänge ermöglicht.
Mit dieser Architektur zielt 3FS auf verschiedene Anwendungsfälle ab, von ML-Training und Checkpointing bis hin zu großen Code-Repositories – ähnlich wie Google’s Colossus oder Meta’s Haystack.
Der Autor des Artikels, Henry Zhu, forscht zum Thema „Distributed File Systems“ und plant weitere Analysen zu Performance-Aspekten, Vergleichen mit anderen Systemen und möglichen Optimierungen.
An Intro to DeepSeek’s Distributed File System
Skalierungsprobleme bei Nextdoor & Datastore-Optimierung
In einer fünfteiligen Blogserie teilt das Core-Services-Team von Nextdoor seine Erfahrungen bei der Optimierung ihrer Datenbank- und Cache-Infrastruktur. Die Serie bietet wertvolle Einblicke für Teams, die mit Skalierungsproblemen in PostgreSQL und Redis kämpfen.
Ausgangssituation und Herausforderungen
Das Team stand vor zwei Kernproblemen:
- Hohe Last auf der primären Datenbank trotz vorhandener Lesereplikas
- Inkonsistenzen im Cache-System
Die typische Backend-Architektur mit Django-ORM führte zu Problemen, da Entwickler aus Sicherheitsgründen Anfragen bevorzugt an die Primärdatenbank schickten. Zusätzlich entstanden Konsistenzprobleme durch konkurrierende Schreibvorgänge und fehlgeschlagene Cache-Updates.
Lösungsansätze
1. Intelligentes Routing zu Lesereplikas
Das Team implementierte ein System, das automatisch nachverfolgt, welche Tabellen während einer Webanfrage modifiziert wurden. So konnten nachfolgende Leseanfragen auf dieselben Tabellen gezielt geroutet werden – zur Primärdatenbank bei kürzlich geänderten Daten oder zu Replikas bei stabilen Daten.
2. Zukunftssichere Cache-Serialisierung
Um Kompatibilitätsprobleme bei Schemaänderungen zu vermeiden, serialisierten sie Daten mit MessagePack statt mit Python Pickle. Die Methode bietet Vorwärts- und Rückwärtskompatibilität, was „Thundering Herd“-Probleme bei Deployments reduziert.
3. Versionierte Cache-Einträge
Jeder Datensatz erhielt eine automatisch inkrementierte Version (db_version
), die bei Schreibvorgängen in PostgreSQL per Trigger aktualisiert wurde. Redis-seitige Lua-Skripte ermöglichten atomare „vergleichen-und-aktualisieren“-Operationen, die veraltete Cache-Writes verhinderten.
4. Zweistufige Konsistenz-Sicherung
Für verpasste Cache-Updates implementierten sie einen „Reconciler“, der auf PostgreSQL Change Data Capture (CDC) basiert. Dieses System läuft in zwei Stufen: Eine Echtzeit-Instanz für schnelle Korrekturen und eine zeitverzögerte für gründliche Konsistenz.
Ergebnisse und Ausblick
Die beschriebenen Maßnahmen führten zu signifikanten Verbesserungen:
- Deutlich reduzierte Last auf der Primärdatenbank
- Konsistente und wartbare Cache-Infrastruktur
- Vermeidung von „Thundering Herds“ bei Schemaänderungen
Als nächster Schritt plant das Team, Listen im Cache zu speichern, um komplexere Abfragen zu unterstützen.
Diese praxisnahe Serie zeigt, dass mit durchdachten Optimierungen auch traditionelle relationale Datenbanken hochgradig skalierbar sein können – man muss sich halt intensiv damit beschäftigen, wie immer eigentlich.
Scaling Nextdoor’s Datastores: Part 1
Kubernetes zu EC2: Hyperswitch optimiert Kafka-Infrastruktur
Bei der Skalierung verteilter Systeme geht es nicht nur um Leistung, sondern auch um Kosten- und Betriebseffizienz. Hyperswitch nutzte Kafka auf Kubernetes für Event-Streaming, stieß jedoch auf unerwartete Probleme bei der Skalierung.
Die Herausforderungen mit Kubernetes
- Ineffiziente Ressourcenzuweisung: Die dynamische Ressourcenverwaltung von Kubernetes führte zu versteckten Ineffizienzen. Bei einer Anforderung von 2 CPU-Kernen und 8 GB RAM wurden tatsächlich nur etwa 1,8 Kerne und 7,5 GB RAM bereitgestellt – kleine Diskrepanzen, die sich im großen Maßstab zu erheblichen Kosten aufsummierten.
- Auto-Scaling-Probleme bei zustandsbehafteten Anwendungen: Während Kubernetes‘ Auto-Scaling-Mechanismus für zustandslose Anwendungen gut funktioniert, erwies er sich für Kafka als problematisch. Bei Ressourcenmangel startete Kubernetes die Kafka-Anwendung neu, anstatt sie effizient zu skalieren.
- Kafka-Knotenmanagement mit Strimzi: Das Tool führte zu unvorhersehbarer Leistung und erforderte manuelle Eingriffe bei jedem Skalierungsereignis.
Der Wechsel zu EC2
Nach Abwägung verschiedener Alternativen entschied sich das Team für eine Migration von Kubernetes zu EC2:
- Ersetzen von Strimzi durch einen eigenen Kafka-Controller, der speziell auf ihre Bedürfnisse zugeschnitten war und eine nahtlose Integration neuer Kafka-Knoten ermöglichte.
- Präzise Ressourcenzuweisung: Im Gegensatz zu Kubernetes erlaubte EC2 eine exakte Zuteilung von CPU und Speicher, was zu einer Kostensenkung von 28% führte (von $180 auf $130 pro Monat pro Instanz).
- Vereinfachte Kafka-Knotenverwaltung: Mit EC2 konnte das Team Kafka-Knoten ohne Neustarts skalieren und vertikale Skalierung ohne Ausfallzeiten durchführen.
Fazit und Erkenntnisse
Nicht alle Workloads eignen sich optimal für Kubernetes – besonders zustandsbehaftete Anwendungen wie Kafka können auf traditionellen VMs wie EC2 besser laufen. Maßgeschneiderte Lösungen lohnen sich, und selbst kleine Ineffizienzen bei der Ressourcenzuweisung können sich im großen Maßstab zu erheblichen Kosten summieren.
Die Entscheidung für eine Infrastruktur sollte sich an den Workload-Anforderungen orientieren, nicht an Branchentrends, aber da kennt ihr meine Meinung ja dazu. Für Hyperswitch bot EC2 jedenfalls die richtige Balance aus Kosten, Leistung und Betriebseffizienz.
GitLab 17.11 veröffentlicht
Vor kurzem wurde GitLab 17.11. veröffentlicht – wie immer findest du hier ein paar Highlights aus dem aktuellen Release:
- Benutzerdefinierte Compliance-Frameworks mit über 50 vorkonfigurierten Controls (nur Ultimate)
- Neues Issue-Interface jetzt allgemein verfügbar (in allen Editionen inklusive Self-hosted)
- GitLab Eclipse Plugin in Beta-Version verfügbar (in allen Editionen außer free)
- Mehr GitLab Duo KI-Features jetzt auch auf Self-Hosted Instanzen (nur in Ultimate & Duo Enterprise Edition)
- Extension Marketplace für Web IDE auch auf Self-Managed Instanzen (in allen Editionen)
- Verbesserte Sicherheit durch geschützte Container-Tags (in allen Editionen)
- Benutzerdefinierte Felder für Epics, Issues und Tasks (in allen Editionen außer free)
- CI/CD Pipeline Inputs für die sichere Modifikation des Pipeline-Verhaltens (alle Editionen)
- Die Wiki Sidebar kann nur besser customized werden (alle Editionen)
Kubernetes 1.32 Support gibt es ebenfalls – insgesamt finden sich 60+ Verbesserungen im aktuellen Release.
GitLab 17.11 released with Custom Compliance Frameworks
Schmunzelecke
TL;DR einmal anders – nämlich als ToS;DR – Terms of Service – Didn’t Read:
„I have read and agree to the Terms“ is the biggest lie on the web. Together, we can fix that.
Beispielsweise von Amazon, Reddit oder auch DuckDuckGo.
💡 Link Tipps aus der Open Source Welt
Docs: Open-Source-Alternative zu Notion und Outline
Docs ist eine Open-Source-Alternative zu Notion und Outline, entwickelt von den Regierungen Frankreichs (DINUM) und Deutschlands (ZenDiS) mit Beteiligung der Niederlande.
Die mit Django und React gebaute Plattform bietet kollaboratives Dokumentenmanagement mit folgenden Funktionen:
Schreiben:
- Echtzeit-Kollaboration mit einfacher Formatierung
- Offline-Unterstützung mit automatischer Synchronisierung
- Markdown-Support, Slash-Befehle und Tastaturkürzel
- KI-Funktionen für Textgenerierung und -bearbeitung
Zusammenarbeit:
- Granulare Zugriffskontrollen
- Dokumentenexporte in mehreren Formaten (.odt, .doc, .pdf)
- Wiki-Funktionalität (geplant für 02/2025)
Self-Hosting:
- Einfache Installation
- Volle Datenkontrolle
Wichtig: Da Docs BlockNote-Pakete unter AGPL-3.0-Lizenz verwendet, wird von kommerziellem Einsatz abgeraten, sofern man nicht BlockNote sponsert.
Die Plattform eignet sich besonders für Organisationen, die datenschutzkonforme Alternativen zu proprietären Kollaborationstools suchen. Die aktuelle Roadmap findest du hier – Auf der Landingpage gibt es alle Features in der Übersicht.
Wegen mir kann ein solches Modell „Schule“ machen.
https://github.com/probot/smee.io
VERT – Open Source Next Generation File Converter
VERT ist ein Open Source next-generation File Converter, den du einfach lokal oder self-hosted betreiben kannst. VERT supported dabei sämtliche bekannten Filetypen:
- Bilder (png, .jpeg, .jpg, .webp, .gif, .ico, .cur, .ani, .heic, .hdr, .jpe, .dng, .mat, .pbm, .pfm, .pgm, .pnm, .ppm, .raw, .tif, .tiff, .jfif)
- Audio Files (.mp3, .wav, .flac, .ogg, .aac, .m4a, .wma, .amr, .ac3, .alac, .aiff)
- Dokumente (.docx, .doc, .md, .html, .rtf, .csv, .tsv, .json, .rst, .epub, .odt, .docbook)
- Video Files (.mkv, .mp4, .webm, .avi, .wmv, .mov, .gif, .mts)
Warum noch ein File Converter?
File converters have always disappointed us. They’re ugly, riddled with ads, and most importantly; slow. We decided to solve this problem once and for all by making an alternative that solves all those problems, and more.
Du kannst VERT einfach lokal selber hosten oder auf vert.sh komplett kostenlos ausprobieren – hab ich eben für dich gemacht, ist echt zackig schnell. Selber betreiben kannst du VERT beispielsweise mit Docker oder Docker-compose. Cooles Teil!
https://github.com/VERT-sh/VERT
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: