Willkommen zu allesnurgecloud.com – Ausgabe #219
und einen schönen guten Morgen. Ich schreibe das Intro am Samstag Abend – aktuell weiß man ja nie genau, was bis Sonntag morgen noch passiert. Vor kurzem hat Trump die Anhebung der Zölle für Deutschland und andere europäische Länder angekündigt, wenn diese sich weiterhin gegen seine Grönland Pläne stellen. Dafür hat die EU nun das Mercosur-Abgekommen – nach 25 Jahren – unterschrieben und damit das größte Freihandelsabkommen geschaffen, dass es je in der EU gab. Mal schauen, was es uns bringt. So, genug Politics – wobei, so ganz ausblenden kann man sie als Tech-Worker nicht, und sollte es auch nicht – die Verzahnung und die Einflussnahme in den USA nimmt immer weiter zu…
Happy Bootstrapping Podcast
In der aktuellen Podcast Folge 155 spreche ich mit Julian Meier von der Wetter-App „Sonuby Weather“, die sich ganz auf deine Bedürfnisse anpasst. Es gibt beispielsweise verschiedene UI Ansichten für Fallschirmspringer, Kitesurfer, Fotografen und und und. Für jeden ist ja schließlich was anderes wichtig – schön gemacht die App. Julian verrät außerdem, wie er als neuer App Entwickler ein Feature bei 9to5Mac bekommen hat. (Folge bei Spotify/Apple).
Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).
Support the Newsletter
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.
Auf allesnurgecloud.com findest Du vorherige Ausgaben und den RSS-Feed.
Vielen Dank für Dein Interesse und wie immer freue ich mich über Feedback und Weiterempfehlungen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Souveränitätswashing? AWS startet EU-Cloud als US-Tochter
Amazon hat seine „European Sovereign Cloud“ (ESC) in Deutschland gestartet. Das Versprechen: Vollständig von der normalen AWS-Infrastruktur abgekoppelt, betrieben ausschließlich von Mitarbeitern mit EU-Wohnsitz, eigener Quellcode vor Ort. BSI-Präsidentin Claudia Plattner lobt: „Die Zukunft der Hyperscaler in Europa sind Angebote wie die AWS Sovereign Cloud.“
Sönke hatte bei LinkedIn schon vor 2 Monaten in einem Beitrag auf das Kernproblem hingewiesen: Die „AWS European Sovereign Cloud GmbH“ in Potsdam ist laut Handelsregister eine 100%ige Tochter der Amazon Inc., USA. „I thought there was one job: Having an AWS partition legally not bound to the US Cloud Act. I don’t get it.“ Er nennt als Beispiel auch die „installation“ in China: Dort betreiben lokale Partner die AWS-Partition – allerdings erzwungen durch die Regierung.
SAP, Capgemini und Accenture zeigen sich hingegen begeistert. Digitalminister Wildberger freut sich über „globales Know-how mit europäischen Standards“. Doch der Begriff „Souveränitätswashing“ macht bereits die Runde. Ob EU-Wohnsitz statt EU-Staatsbürgerschaft als Kriterium reicht, wird noch diskutiert. Im März kommt der EU „Cloud and AI Development Act“ – ob Brüssel nachschärft, hängt wohl von Washington ab – da ist gerade ja alles möglich. Vielleicht stehen die neutralen Clouds in Zukunft in Grönland oder in der Schweiz? Oder trump schaltet alles live ab und berichtet live auf Truth Social. Wie gesagt, alles möglich. Ein scheint aber sicher, man kann sich auf die transatlantischen Partner nicht mehr verlassen und sollte entsprechend Risikomanagement betreiben. Oder es ist einfach egal, Hauptsache, Netflix geht.
Der eigentliche „Lackmustest“ steht noch aus (heise) – BSI-Präsidentin Plattner räumte ein: „Wir müssen das jetzt testen“ – ob die ESC auch funktioniert, wenn alle Verbindungen in die USA gekappt werden, wurde bislang nicht geprüft, obwohl seit sechs Wochen erste Kunden auf der Plattform aktiv sind. Zum Start sind 90 der 240 AWS-Dienste in der „Parental Zone Brandenburg“ verfügbar.
Jetzt hab ich 3 mal ESC geschrieben – und der ESC ist ja eigentlich schon lange als kürzer besetzt.
Passend hierzu bestätigt aktuell ein Gutachten der Universität Köln, dass US-Behörden auch auf in Europa gespeicherte Cloud-Daten zugreifen können – selbst ohne Mitwirkung der Anbieter. Bayern plant dennoch einen Milliarden-Deal mit Microsoft ohne Ausschreibung, was Experten als Gefährdung der digitalen Souveränität kritisieren. Naja, Freistaat halt.
AWS verspricht Souveränität mit europäischem Cloudangebot
Das Ende einer Ära – Stack Overflow erreicht 2009er-Niveau

Eine aktuelle Auswertung auf data.stackexchange.com zeigt, was viele geahnt haben: Stack Overflow ist am Ende. Die monatlichen Fragen sind auf ein Niveau gefallen, das zuletzt 2009 – kurz nach dem Launch – zu beobachten war. Der Graph zeichnet ein erschreckendes Bild: Vom Höhepunkt mit über 200.000 Fragen pro Monat (2014) auf heute nahezu null.
Die Hacker-News-Diskussion liefert aufschlussreiche Einordnungen. Shog9, offensichtlich ein ehemaliger Stack-Overflow-Mitarbeiter, analysiert den Kern des Problems: Die Plattform war von Anfang an auf Google als primäre Benutzeroberfläche angewiesen. Als Google begann, weniger bewährte Q&A-Beispiele anzuzeigen, brach das Fundament weg. Sein Fazit: „LLMs weren’t the start of the problem, they were the end – the final wake-up call.“
Die existenzielle Frage stellt Nutzer johnfn: Worauf trainieren LLMs künftig, wenn Stack Overflow als Wissensquelle versiegt? Die Ironie: Die KI-Modelle, die die Plattform verdrängen, wurden auf deren Inhalten trainiert. Können die KI Modelle dann irgendwann von sich selbst lernen? Oder wovon lernen sie in der Zukunft? Einfach von der Dokumentation einer neuen Sprache?
Prosus hatte Stack Overflow 2021 für 1,8 Milliarden Dollar gekauft – ein Investment, das sich kaum noch rentieren dürfte. Ich hatte den Niedergang bereits in Ausgabe 173 und 189 dokumentiert – dass es nun so schnell geht, hätte ich aber auch nicht erwartet, schon etwas verrückt.
Stackoverflow Questions per Day
Anzeige
Buchtipp: „ReWork: Change the Way You Work Forever“
Da ich aktuell keine Werbeslots habe und euch nicht immer mit Werbung für meine eigene Firma beglücken möchte – gibt es hier in Zukunft auch immer mal wieder ein paar Buchtipps von mir. Gerne kannst du mir auch schreiben, welche Bücher dir gefallen und vor allem warum.
Weiter geht’s mit „Rework“ Das Buch ist quasi der Vorgänger zum bereits vorgestellten „It doesn’t have to be crazy at work“ – und genauso provokant. Jason Fried und DHH räumen mit Business-Dogmen auf: Businesspläne? Zeitverschwendung. Meetings? Toxisch. Workaholics? Keine Helden.
In kurzen, prägnanten Kapiteln demontieren die beiden systematisch alles, was man in BWL-Vorlesungen oder Konzern-Onboardings lernt. Das Buch ist in einer Stunde durchgelesen, aber der Inhalt beschäftigt einen länger. Man muss auch immer dran denken, dass die beiden ziemlich erfolgreich sind und aus Ihrer Erfahrung sprechen – Basecamp ist seit über 20 Jahren profitabel, ohne Investoren, ohne Wachstumswahn. Wer nach „It doesn’t have to be crazy at work“ Lust auf mehr hat, findet hier die Grundlagen (Rework gibt es hier auch auf deutsch – aber das englische ist echt kein Problem)
P.S.: Die Links haben einen Affiliate-Code und ich bekomm eine kleine Provision, falls jemand ein Buch darüber kauft.
Buchtipp: „ReWork: Change the Way You Work Forever“
„Logging sucks“: Wide Events statt Log-Chaos
Boris Tane hat einen lesenswerten Artikel über ein Problem geschrieben, das jeder Entwickler kennt: Logs, die im Ernstfall nutzlos sind. Stundenlang grep-en, um herauszufinden, warum ein Checkout fehlschlug – und am Ende nur vage Timestamps und nichtssagende Meldungen.
Das Kernproblem: Logs wurden für eine andere Ära designed. Monolithen, einzelne Server, lokal reproduzierbare Probleme. Heute berührt ein einziger Request 15 Services, 3 Datenbanken, 2 Caches und eine Message Queue. Ein typischer Checkout produziert 17 Log-Zeilen – bei 10.000 gleichzeitigen Nutzern sind das 130.000 Zeilen pro Sekunde. Viel Rauschen, wenig Signal.
Die Lösung: Wide Events (auch „Canonical Log Lines“ genannt). Statt 17 verstreuter Log-Statements ein einziges, kontextreiches Event pro Request pro Service. Mit 50+ Feldern: User-ID, Subscription-Tier, Cart-Value, Feature-Flags, Payment-Provider, Latenz, Error-Codes. Alles, was man zum Debuggen brauchen könnte.
Der Unterschied ist dramatisch. Statt String-Suche nach „user-123“ (die 47 verschiedene Formate findet) läuft man SQL-Queries: „Zeige alle Checkout-Failures von Premium-Usern in der letzten Stunde, wo der neue Checkout-Flow aktiv war, gruppiert nach Error-Code.“
Wichtig: OpenTelemetry allein löst das Problem nicht. OTel ist ein Protokoll, kein Konzept. Wer nur Auto-Instrumentation nutzt, bekommt strukturierte Telemetrie ohne Business-Kontext – genauso nutzlos, nur in schönerem Format.
Für die Kosten empfiehlt Tane Tail-Sampling: Errors und langsame Requests zu 100% behalten, VIP-User tracken, den Rest auf 1-5% samplen.
Bin mal gespannt, ob ich wegen des Titels wieder in den Spam Foldern lande….
Logging sucks. And here’s how to make it better.
10 Beobachtungen für Engineering-Leader in 2025
Aviv Ben-Yosef, Tech Executive Consultant, hat seine Erkenntnisse aus hunderten Gesprächen mit CTOs und Gründern zusammengefasst. Einige Punkte stechen heraus.
CTOs als CEO-Albtraum: Ben-Yosef beobachtet einen Rekord an Gründern, die nicht verstehen, was ihr CTO eigentlich tut. Viele hätten „Stars“ eingestellt, die nur gut im Interviewen waren. Andere seien paralysiert vor Angst, ihre Tech-Leads zu vergraulen.
Erfahrung wird überbewertet. Weil sich alles so schnell ändert, hält etabliertes Wissen manchmal mehr zurück als es hilft. Ben-Yosefs Rat: „Beginner’s Mind“ wieder aktivieren und regelmäßig hinterfragen, was noch funktioniert.
Clean Code verschwindet? Mit GenAI-Tools fokussieren sich Entwickler weniger auf handwerklich sauberen Code. Der Fokus verschiebt sich zu Clean Architecture – höhere Abstraktionsebenen, weniger Stress um Details, solange es funktioniert.
Junior Engineers im Vorteil: Entgegen der Erwartung, dass LLMs Juniors obsolet machen, sieht Ben-Yosef das Gegenteil: Jüngere Entwickler adaptieren AI-Tools natürlicher als manche Seniors, die zu festgefahren sind.
Sein Fazit zu AI: Einmalige Hackathons reichen nicht. Erfolgreiche Teams durchlaufen kontinuierliche Experiment-Exploit-Zyklen – Tools ausprobieren, bei Erfolg systematisieren, wiederholen.
10 Observations from 2025 for Eng Leaders
Rails 8 ohne Redis: SolidQueue macht’s möglich
Mit Rails 8 hat das beliebte Web-Framework Redis aus seinem Standard-Stack entfernt. Die neuen Komponenten SolidQueue für Job-Queuing, SolidCache fürs Caching und SolidCable für WebSockets laufen komplett auf der bestehenden relationalen Datenbank. Für die meisten Rails-Anwendungen kann Redis damit ersatzlos gestrichen werden.
Die versteckten Kosten von Redis gehen weit über die monatliche Hosting-Rechnung hinaus. Man müsse den Server deployen, versionieren, patchen und monitoren. Man darf eine Persistence-Strategie wählen – RDB-Snapshots, AOF-Logs oder beides? Memory-Limits und Eviction-Policies wollen definiert werden. Dazu kommen Firewall-Regeln, Authentifizierung, ein HA-Cluster für Hochverfügbarkeit und die Orchestrierung von Sidekiq-Prozessen über Deployments hinweg. Wenn dann etwas schiefgeht, debuggt man zwei Datenspeicher mit völlig unterschiedlichen Semantiken und Query-Sprachen.
Das technische Fundament von SolidQueue ist PostgreSQL’s FOR UPDATE SKIP LOCKED, das seit Version 9.5 verfügbar ist. Diese Kombination sorgt dafür, dass Worker sich nie gegenseitig blockieren und jeder garantiert einen einzigartigen Job erhält. Damit löst SolidQueue das Lock-Contention-Problem, das frühere Datenbank-basierte Queues plagte.
Was bei Sidekiq extra kostet, ist bei SolidQueue inklusive: Recurring Jobs mit Cron-Syntax, Concurrency-Limits pro Job-Typ und ein Dashboard namens Mission Control. Die Migration von Sidekiq ist überraschend einfach – Queue-Adapter umstellen, eine recurring.yml anlegen, das Procfile anpassen und die Redis-Gems entfernen. Bestehende ActiveJob-Klassen funktionieren ohne Änderungen weiter.
Wann sollte man bei Redis bleiben? Wenn man tausende Jobs pro Sekunde sustained verarbeitet, Sub-Millisekunden-Latenz geschäftskritisch ist oder komplexe Pub/Sub-Patterns über mehrere Services benötigt werden. Für alle anderen gilt: 37signals verarbeitet 20 Millionen Jobs täglich auf PostgreSQL ohne Redis. Laut dem Autor reicht SolidQueue für 95% aller Rails-Anwendungen völlig aus.
Schon mal ausprobiert?
I Love You, Redis, But I’m Leaving You for SolidQueue
Ni8mare: Tausende n8n-Instanzen in Deutschland angreifbar
Die beliebte Workflow-Automatisierungsplattform n8n hat ein ernstes Sicherheitsproblem. Eine als „Ni8mare“ bezeichnete Schwachstelle (CVE-2026-21858) gefährdet weltweit aktuell rund 60.000 Systeme – davon über 8.600 in Deutschland. In der Spitze waren laut Shadowserver Foundation sogar 105.000 Instanzen betroffen.
Die Lücke ermöglicht es Angreifern, über formularbasierte Workflows Systemdateien mit Cookies, Schlüsseln und anderen vertraulichen Daten abzugreifen. Das schafft Einfallstore für weitere Angriffe auf verbundene Dienste und IT-Systeme. Ein Patch existiert seit November 2025 (Version 1.121.0) – wurde aber offensichtlich von vielen Admins ignoriert.
Es kommt noch dicker: Das CERT-Bund warnt neben Ni8mare vor drei weiteren kritischen Lücken (CVE-2025-68613, CVE-2025-68668, CVE-2026-21877), die ebenfalls Remote Code Execution ermöglichen. Laut Shadowserver betrifft CVE-2025-68668 sogar noch mehr Instanzen als Ni8mare. Der CVE ist vom 26.12.2025 und klar, dass der hier und da untergeht….
Die meisten n8n-Installationen laufen noch auf Version 1.x – deren Support endet am 15. März 2026. Admins sollten zeitnah auf Version 2.x aktualisieren, womit alle vier Schwachstellen geschlossen sind.
Ein Kommentar bei Golem trifft einen wunden Punkt: „Wenn man sich Kanäle wie NetworkChuck oder Christian Lempa ansieht, werden ständig n8n-Tutorials promotet“ – oft ohne Hinweise auf Absicherung. Naja, mittlerweile ist ja auch LinkedIn voll mit n8n Videos und Sharepics.
8.600 deutsche Server über n8n-Lücke angreifbar
Wie GitLab 12 Deployments pro Tag ohne Downtime schafft
GitLab hat einen detaillierten Einblick veröffentlicht, wie sie GitLab.com bis zu 12 Mal täglich deployen – ohne Downtime, für Millionen von Nutzern.
Die Architektur ist hybrid: Omnibus-Pakete für die Gitaly-Fleet (Git-Storage), Container-Images für alles andere. Ein Scheduled Job sucht regelmäßig den letzten „grünen“ Commit auf dem Default-Branch und erstellt daraus einen Auto-Deploy-Branch. Technisch werden mehr GitLab-Versionen gebaut als je deployed werden – so steht immer ein fertiges Paket bereit.
Das Herzstück ist die Canary-Strategie: Nur 5% des Traffics fließen durch die Canary-Stage, bevor der vollständige Rollout beginnt. Die Progression läuft über vier Stufen: Staging Canary → Production Canary → Staging Main → Production Main. Nach jedem Schritt validieren automatisierte QA-Tests.
Die größte Herausforderung: Multi-Version-Kompatibilität. Während des Deployments läuft Canary bereits mit neuem Code und neuer Datenbank-Schema, während Main noch die alte Version nutzt. GitLab löst das mit dem „Expand-Migrate-Contract“-Pattern: Neue Spalten werden erst hinzugefügt (Expand), dann vom neuen Code genutzt (Migrate), und erst nach mehreren erfolgreichen Deployments werden alte Strukturen entfernt (Contract).
Post-Deploy-Migrations – der „Point of no Return“ – laufen erst, wenn das Team Vertrauen in die Stabilität gewonnen hat. So bleibt die Rollback-Fähigkeit möglichst lange erhalten.
Mich erinnert das irgendwie an einen Vortrag von Kris zu Deployments bei Booking vor langer Zeit – „Deploying 12 times a day keeps the pain away“ oder so hieß der glaube ich – hab ich jetzt nicht mehr online gefunden. Warum machen die das dann jetzt beide 12 mal am Tag?
How we deploy the largest GitLab instance 12 times daily
Year of Linux on the Desktop? Zwei Journalisten wagen den Wechsel
Die Abwanderung von Windows zu Linux nimmt Fahrt auf. Gleich zwei Tech-Journalisten haben in den letzten Wochen den Sprung gewagt – und berichten von überraschend positiven Erfahrungen.
Sam Medley von Notebookcheck löschte Windows komplett von Desktop und Laptop. Seine Gründe: Telemetrie, die an Spyware erinnert, und 2-3 Systemabstürze pro Woche trotz ordentlicher Hardware (Ryzen 7 6800H, 32 GB RAM). Nach einem Windows-Update, das seine Linux-Dual-Boot-Partition löschte, war Schluss. Sein Fazit nach mehreren Monaten auf Artix Linux: „It resurrected the joy of using a computer.“
Nathan Edwards von The Verge wählte CachyOS, eine Arch-basierte Distribution mit Gaming-Optimierung. Installation: sechs Minuten. Nvidia-Treiber? Funktionierten sofort. Sogar sein verhasster Drucker druckt. Steam-Spiele laufen via Proton problemlos. Sein einziges echtes Problem: Minecraft Bedrock Edition für die Kids.
Beide berichten von Hürden – WLAN-Treiber auf MacBooks, Desktop-Umgebungen, die sich gegenseitig zerschießen – aber auch von der Befriedigung, Probleme selbst zu lösen. Edwards bringt es auf den Punkt: „My OS isn’t trying to change my browser to make some shareholder happy somewhere.“
Für Gaming-Enthusiasten gibt es mittlerweile spezialisierte Distributionen wie Bazzite oder das auf Arch basierende CachyOS. Wer einen dedizierten Steam-Gaming-PC will, kann auch zu ChimeraOS greifen – einer Distribution, die den PC in eine Konsolen-ähnliche Erfahrung verwandelt.
Ist 2026 endlich das „Year of Linux on the Desktop“? Vermutlich nicht für alle. Aber für technikaffine Nutzer, die Kontrolle über ihr System wollen, war der Einstieg nie einfacher.
I dumped Windows 11 for Linux, and you should too
Raspberry Pi AI HAT+ 2: Generative KI für 130 Dollar
Die Raspberry Pi Foundation hat den AI HAT+ 2 vorgestellt – das erste Raspberry-Pi-Produkt, das speziell für generative KI entwickelt wurde. Mit dem neuen Hailo-10H-Beschleuniger liefert das Board 40 TOPS (INT4) Inferenz-Leistung und bringt 8 GB dedizierten RAM mit – genug für LLMs mit 1-7 Milliarden Parametern.
Zum Launch sind bereits mehrere Modelle verfügbar: DeepSeek-R1-Distill, Llama 3.2, Qwen2.5-Coder und Qwen2.5-Instruct – alle mit 1-1,5 Milliarden Parametern. Die Integration erfolgt über hailo-ollama als Backend und Open WebUI als Chat-Interface. Alles läuft lokal, ohne Cloud-Anbindung.
Für Computer-Vision-Aufgaben wie Objekterkennung, Pose Estimation und Szenen-Segmentierung bietet der HAT+ 2 ähnliche Performance wie sein 26-TOPS-Vorgänger. Die Integration mit libcamera, rpicam-apps und Picamera2 bleibt bestehen – bestehende Projekte laufen weitgehend ohne Anpassungen.
Wichtig: Die kleineren Edge-LLMs sind nicht dafür gedacht, mit ChatGPT oder Claude zu konkurrieren. Ihr Einsatzgebiet ist Fine-Tuning für spezifische Anwendungsfälle – via LoRA-Adapter lassen sich die Modelle auf eigene Datensätze trainieren.
Jeff Geerling hat den HAT+ 2 bereits ausführlich getestet – sein Video zeigt Benchmarks, Stromverbrauch und praktische Demos. Verrückt. sein Kanal hat mittlerweile über 1 Mio Subscriber. Na – ist ja auch cooler Content und toll produziert.
Der Raspberry Pi AI HAT+ 2 ist ab sofort für 130 Dollar (137,40€ bei Reichelt) erhältlich – kostet damit allerdings mehr als der Pi 5 selbst.
Introducing the Raspberry Pi AI HAT+ 2: Generative AI on Raspberry Pi 5
Schmunzelecke
Die olleewatch ist nicht nur eine Uhr – sondern die Smartwatch schlechhin (auf Basis einer Casio F-91W oder A158W) – Akkulaufzeit? Bis zu 10 Monate! Es gibt eine komplette Uhr und ein Kit zu selber bauen.
💡 Link Tipps aus der Open Source Welt
agent-browser – Headless Browser Automation für AI Agents
agent-browser ist ein hochperformantes CLI-Tool von Vercel Labs für Browser-Automation, speziell optimiert für KI-Agenten. Die Rust-basierte Architektur mit Node.js-Fallback ermöglicht blitzschnelle Operationen bei minimalem Overhead.
Features:
- Ref-basiertes System: Snapshot mit Element-Referenzen (
@e1,@e2) für deterministische Interaktion - Client-Daemon Architektur: Rust CLI + persistenter Node.js Daemon für optimale Performance
- AI-optimiert:
--jsonOutput und kompakte Snapshots für LLM-Integration - Session Management: Isolierte Browser-Instanzen für parallele Agenten
- Streaming Support: WebSocket-basiertes Live-Preview für „Pair Browsing“
- CDP Mode: Control von Electron Apps und Remote Chrome Instances
- Serverless-ready: Support für lightweight Chromium (50MB statt 684MB)
Das Ref-System sieht cool aus – keine flakigen CSS-Selectors mehr! Die Rust+Node.js Kombination gibt beste Performance mit Playwright-Kompatibilität – das ist cool und clever: Der Streaming-Mode für Human-in-the-Loop Scenarios. Mit 5.5k Stars zeigt sich, dass die AI-Community das Tool bereits massiv adoptiert, ist eigentlich noch recht neu, wenn ich mich nicht irre.
Sicherlich sau cool für Monitoring von Geschäftsprozessen.
https://github.com/vercel-labs/agent-browser
atlcli – Blazingly Fast CLI für Atlassian-Produkte
atlcli ist ein CLI-Tool für Confluence und Jira, das bidirektionale Markdown-Synchronisierung und Terminal-basiertes Issue-Management ermöglicht. Entwickelt als moderne und weniger nervende Alternative zu bekannten Web-UIs.
Features:
Confluence Integration:
- Bidirektionale Markdown-Sync: Konflikt-Erkennung und Smart-Merge
- Macro Support: Info, Note, Warning, Expand, TOC-Macros
- Page Templates: Handlebars-Style Variablen für Wiederverwendung
- Attachment Sync: Intelligente Change-Detection für Anhänge
- Offline-First: Lokales Arbeiten mit späterem Push
Jira Integration:
- Issue Lifecycle: Komplette Issue-Verwaltung vom Terminal
- JQL Search: Shortcuts für häufige Queries
- Sprint Analytics: Velocity, Burndown, Predictability Metriken
- Timer-basiertes Time Tracking: Start/Stop direkt im CLI
- Issue Templates: Wiederverwendbare Vorlagen
Endlich mal ein vernünftiges CLI für Atlassian! Die bidirektionale Markdown-Sync ist Gold wert für Docs-as-Code Workflows. Besonders clever: Die Timer-Funktion für Time Tracking direkt im Terminal. Für Teams, die in Confluence dokumentieren müssen aber lieber in Git/Markdown arbeiten, ist das ein Game Changer. Oder für solche, die das in ein anderes, Markdown basiertes System umziehen wollen 😉
https://github.com/BjoernSchotte/atlcli
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: