US Zugriff auf „Souvereign Cloud“ möglich, Bitnami Images EoL, Decision Log, KI Studie 2025, Open Source Maintenance Fee und vieles mehr – #198

Willkommen zu allesnurgecloud.com – Ausgabe #198

Erstmal noch nachträglich „Happy Sysadmin Day 2025“ – gab es bei dir Kuchen am Freitag?
Ist der Tag für dich überhaupt noch relevant oder hat man vergessen, dass es im Cloud Zeitalter auch noch Leute gibt, die diese betreiben?

Am Freitag war ich im programmier.bar Podcast zu Gast und wir haben über das Thema „Cloud-Exit“ gesprochen:
Was ist eigentlich ein „Cloud Exit“, was man braucht man für Menschen und was man konkret machen kann. Da ich sonst auf der anderen Seite stehe und Leute interviewe hatte ich diesmal recht viel Redeanteil. Die Folge kommt Anfang September raus und ich weise dich hier bestimmt darauf hin – aber du kannst den tollen Podcast natürlich trotzdem jetzt schon abonnieren.

Und auch an mir gingen die Ausschnitte der ersten South Park Folge von Staffel 27 nicht vorbei. Nach ihrem Panel bei der ComicCon haben die South Park Macher nun mit hetrumpedus.com eine Landingpage am Start, die zwei sehr provokante Minuten der ersten Folge zeigen. Bei dem was da drüben aktuell passiert ist das mindestens mal sehr mutig (Details bei IGN).

Happy Bootstrapping Podcast

In der aktuellen Folge habe ich mit Medea Lorenzen über ihre Gründung von „Gain Kichen“ und die Herausforderungen von Bootstrapping im Food Bereich gesprochen. Für ihren zuckerfreien Erdnuss-Aufstrich hat sie nicht nur eine Nussmus-Maschine gekauft, sondern 200.000€ eigenes Kapital investiert, welches sie mit ihrem „Nebenjob“ Projektmanagement verdient hat.
Wir haben viel über Höhen und Tiefen gesprochen und ich hab gelernt, wie man einen Newsletter auch anders machen kann und wie man seine Community sehr direkt an der Produktentwicklung beteiligt – Folge 131 jetzt anhören (Spotify/Apple).

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

587 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Microsoft kann US-Zugriff auf EU-Daten nicht ausschliessen

In einer Anhörung vor dem französischen Senat machte Anton Carniaux, Chefjustiziar von Microsoft France, ein brisantes Eingeständnis: Microsoft könne nicht garantieren, dass europäische Daten vor dem Zugriff der US-Regierung geschützt sind.

Die entscheidende Frage: Senator Dany Wattebled fragte unter Eid, ob Microsoft garantieren könne, dass französische Daten niemals ohne Zustimmung französischer Behörden an die US-Regierung weitergegeben werden. Carniaux‘ Antwort: „Nein, das kann ich nicht garantieren, aber es ist noch nie zuvor passiert.“

Microsoft könne US-Anfragen nur ablehnen, wenn sie formal „unbegründet“ sind. Bei gut formulierten Anfragen ist der Konzern „auf jeden Fall verpflichtet“, die Daten zu übermitteln. Dies betrifft alle US-Cloud-Anbieter unter dem Patriot Act und Cloud Act.

Chinesische Techniker in DoD-Cloud

Kurz nach diesem Eingeständnis wurde ein weiterer Sicherheitsskandal bekannt: Laut ProPublica-Recherchen betreuten chinesische Techniker im Auftrag Microsofts die Cloud des US-Verteidigungsministeriums.

Das perfide System: Ausländische IT-Worker erledigten die eigentliche Arbeit, während US-Bürger als „Digital Escorts“ mit Sicherheitsfreigabe die Befehle per Copy & Paste ausführten – oft ohne die technische Expertise, um diese zu verstehen. Microsoft umging so die FedRAMP-Vorgaben, die US-Bürger für sensible Regierungssysteme vorschreiben.

US-Verteidigungsminister Pete Hegseth sprach von „billiger chinesischer Arbeit“, die eine „potenzielle Schwachstelle“ in DoD-Systemen darstelle. Microsoft stoppte daraufhin die Beteiligung chinesischer Entwickler.

Was bedeutet das für Microsofts „Souveräne Cloud“?

Diese Enthüllungen werfen ein verheerendes Licht auf Microsofts angekündigte „Microsoft Cloud for Sovereignty“. Wenn der Konzern schon bei der eigenen Regierung derart fahrlässig mit Sicherheitsvorgaben umgeht, wie glaubwürdig sind dann die Versprechen für europäische Datenhoheit?

Die strukturellen Probleme sind offensichtlich:

  • Microsoft ist rechtlich an US-Gesetze gebunden
  • Kostendruck führt zu fragwürdigen Outsourcing-Praktiken
  • Selbst hochsensible Regierungsdaten werden nicht adäquat geschützt

Eine wirklich souveräne europäische Cloud kann also nicht von US-Konzernen kommen, wie auch immer das rechtliche und operative Konstrukt dahinter abgebildet wird. Die digitale Abhängigkeit Europas bleibt eine tickende Zeitbombe – trotz aller gegenteiligen Versprechen von Brad Smith und Co.

Microsoft kann US-Zugriff auf EU-Cloud nicht verhindern


Broadcom beendet kostenlose Bitnami Images und Helm Charts

Broadcom kündigt an, dass die beliebten Bitnami Container Images und Helm Charts ab 28. August 2025 nur noch stark eingeschränkt kostenlos verfügbar sein werden. Die Diskussion auf Hacker News zeigt: Die Community ist wenig überrascht, aber dennoch verärgert.

Was ändert sich konkret?

  • Nur noch „latest“ Tags für eine kleine Auswahl an Images bleiben kostenlos
  • Alle versionierten Tags (z.B. 2.50.0, 10.6) wandern ins „Legacy“ Repository ohne Updates
  • Produktions-Support gibt’s nur noch mit Bitnami Secure Images für $5.000/Monat (Mindestlaufzeit 12 Monate)
  • Der Quellcode bleibt unter Apache 2.0 verfügbar

Community-Reaktionen: Daniel Ridruejo, Bitnami-Mitgründer, zeigt sich auf HN schockiert: „The technical team at Bitnami is still top notch and great people. I am quite baffled at this business decision.“

Ein anderer Nutzer bringt es auf den Punkt: „Broadcom is just private equity buying products to bleed dry.“

Die Timeline ist sportlich:

  • Jetzt bis 28. August: Migration planen
  • 28. August: Umstellung auf eingeschränkten Katalog
  • Nach dem 28. August: Nur noch „latest“ Tags für Development

Die Ankündigung kommt reichlich kurzfristig – viele CI/CD-Pipelines werden brechen. Broadcom macht sich hier mal wieder keine Freunde und folgt dem bewährten Muster: Übernehmen, monetarisieren, Community vergraulen.

Andererseits muss man auch realistisch sein: Eine derart umfangreiche Build-Infrastruktur für über 280 Container Images kann niemand langfristig kostenlos betreiben. Die SLSA Level 3 Software Factory mit kontinuierlichen Security-Updates kostet Geld. Dass Broadcom hier aber gleich mit der Brechstange kommt, statt sanftere Monetarisierungsmodelle zu erkunden, ist typisch und das kennen wir jetzt nicht erst seit der VMware Akquisition mitsamt Änderung der Lizenzen.

Was jetzt?

  • Sofort alle genutzten Bitnami Images dokumentieren
  • Zu den Original-Upstream-Images wechseln (MariaDB, PostgreSQL, Redis etc.)
  • Alternativ: Community-Fork organisieren (der Code bleibt ja Open Source)
  • Für Produktions-Workloads: Budget für Alternativen einplanen

Die Bitnami Charts waren für viele der einfachste Weg, komplexe Anwendungen in Kubernetes zu deployen. Diese Ära endet nun – courtesy of Broadcom.

Broadcom Introduces Bitnami Secure Images For Production-Ready Containerized Applications


Anzeige

Hier könnte Deine Werbung stehen

Du möchtest Deine Firma, angebotene Dienstleistungen & Services oder Dein SaaS Produkt hier im Newsletter vorstellen?
Du suchst neue Mitarbeiter und möchtest diese direkt erreichen?

Erreiche über 1400 Cloud und Open-Source Enthusiasten direkt per E-Mail und im RSS Feed. Dazu kommen 1000+ Impressions im LinkedIn Artikel des Newsletters.

Die Preise beginnen ab 150€ pro Ausgabe – bei Interesse antworte mir direkt auf den Newsletter oder kontaktier mich über LinkedIn, ich schreib dann auch ganz schnell zurück.


Decision Log: Schluss mit Entscheidungs- und Meeting-Déjà-vus

Marissa Goldberg von Remotely Interesting zeigt uns einen eleganten Weg aus der Meeting-Wiederholungsschleife: das Decision Log. Wir alle kennen das Problem – die gleichen Diskussionen führen wir Woche für Woche, niemand erinnert sich an die finalen Entscheidungen, und wir wühlen uns durch 6 Wochen alte Slack-Threads auf der Suche nach Antworten.

Was ist ein Decision Log?

Ein simples Gedächtnis für dein Team – keine Aufgabenliste, sondern eine strukturierte Ablage für getroffene Entscheidungen. Die Faustregel: War mehr als eine Person beteiligt und dauerte es länger als ein schnelles „Ja“? Dann gehört es ins Log. Jeder Eintrag enthält das Datum, die Entscheidung selbst, den Kontext, betrachtete Alternativen und die Begründung.

Der Weg zur Routine Der Schlüssel liegt nicht im Tool – ob Notion, Google Docs oder Coda ist egal. Wichtig ist die wöchentliche Gewohnheit: Am „Decision Friday“ oder Montagmorgen sammelt jemand die Entscheidungen der Woche. Manche Teams ergänzen ihre Meeting-Agenden um die Frage: „Gab es eine Entscheidung fürs Log?“ – so kann man mit dem Thema mal „lean“ starten, denke ich.

Keep it Simple – oder smart Die Methode funktioniert manuell oder automatisiert. Ein Startup hat eine Slack-Automation gebaut: Ein Emoji triggert einen Workflow, der die Konversation ins Notion-Log überträgt. Teams können den Bot sogar direkt fragen: „Welche Entscheidung hatten wir zum Onboarding getroffen?“

Das Ergebnis? Weniger Verwirrung, schnellere Einarbeitung neuer Kollegen und endlich Schluss mit dem ewigen „Hatten wir das nicht schon besprochen?“

Das Konzept kannte ich bisher nicht, finde ich eine tolle Idee – schließlich fragt man sich häufig, warum man was mal entschieden hatte. Dabei ist das Umfeld und der Zeitpunkt häufig entscheidend – und so ein Log kann eine tolle Grundlage zur Nachvollziehbarkeit von Entscheidungen bieten.

How to End the “Didn’t We Already Talk About This?” Cycle


Cloud & Heat KI-Studie 2025 zum KI-Standort Deutschland

Die neue KI-Studie 2025 von Cloud&Heat Technologies und dem KI Bundesverband zeigt: 70% der KI-Entwickler bewerten die deutschen Rahmenbedingungen schlechter als im Ausland. Zeit für einen Weckruf!

Wer wurde befragt? Erstmals stehen nicht KI-Nutzer, sondern die 57 KI-entwickelnden Unternehmen selbst im Fokus – vom Startup bis zum Großkonzern. Die Befragung lief von Januar bis April 2025.

Die Top-5-Schmerzpunkte:

  • Kapital: Fast 50% sehen hier die größte Hürde
  • Rechtliche Aspekte: AI Act sorgt für Verunsicherung
  • Datenzugang: Fehlende Standards bremsen Innovation
  • Fachkräfte: Mangel an KI-Talenten verschärft sich
  • Kunden: Schwierige Markterschließung

Alarmstufe Rot bei Digitaler Souveränität: Während 80% der Unternehmen digitale Souveränität als wichtig erachten, stufen 82% Deutschlands Status als „gefährdet“ ein. Die Abhängigkeit von US-Hyperscalern wächst.

Was fordern die Unternehmen?

  1. Direkte F&E-Förderung statt Bürokratie
  2. Besserer Zugang zu Daten und Compute-Infrastruktur
  3. Vereinfachte Kapitalbeschaffung
  4. Der Staat als Ankerkunde für deutsche KI
  5. KI-Voucher für die etablierte Wirtschaft

Lichtblicke trotz Düsternis: Immerhin nehmen 46% eine Verbesserung der Leistungsfähigkeit wahr. Deutsche Erfolge wie DeepL, Helsing oder Black Forest Labs zeigen: Das Potenzial ist da!

Die Studie trifft einen wunden Punkt. Während andere Länder mit Milliarden-Investments voranpreschen, diskutiert Deutschland noch über Regulierungsdetails. Die Forderung nach einem nationalen KI-Infrastruktur-Board und pragmatischer Umsetzung des AI Acts ist überfällig.

Besonders brisant: Die 54%, die eine Verschlechterung der Rahmenbedingungen wahrnehmen. Das wäre dann kein Stillstand sondern eher ein Rückschritt. Da müssen wir jetzt aufpassen, dass wir den Anschluss nicht verpassen.

Die komplette Studie kannst du hier als PDF herunterladen (38 Seiten) – falls du 2026 bei der Studie mitmachen möchtest, so kannst du dich auf der Landingpage unten registrieren.

Cloud & Heat KI-Studie 2025


Amazon Q wird zur KI-gestützten Selbstzerstörungssoftware

Corey Quinn berichtet über einen unglaublichen Sicherheitsvorfall bei Amazons KI-Coding-Assistenten, welcher ursprünglich bei 404media erschienen ist. Ein Hacker reichte einen Pull Request ein, der prompt gemerged wurde – und Amazon Q in eine digitale Abrissbirne verwandelte. Das Beste daran? Amazon hat es tatsächlich ausgeliefert.

Der Prompt des Grauens Die eingefügte Anweisung war keine raffinierte Malware, sondern ein simpler Prompt mit verheerenden Befehlen: Lösche lokale Verzeichnisse, überspringe dabei höflich versteckte Dateien wie ein „rücksichtsvoller digitaler Brandstifter“. Aber warum beim lokalen System aufhören? Der Prompt wies Q an, AWS-Profile zu finden und dann loszulegen: aws ec2 terminate-instancesaws s3 rmaws iam delete-user – die volle Zerstörungspalette. Als Krönung wurde alles fein säuberlich in /tmp/CLEANER.LOG protokolliert.

Amazons Reaktion: Löschen und Lächeln Die offizielle Stellungnahme? „Security is our top priority“ – während sie hastig Version 1.84.0 aus dem VS Code Marketplace entfernten. Kein Changelog, keine Security Advisory, kein CVE. Einfach weg. Amazon behauptet steif und fest, dass „keine Kundenressourcen betroffen“ waren. Wie sie das wissen? Tun sie nicht. Sie hoffen es nur.

Das eigentliche Problem Ein zufälliger GitHub-User ohne Historie bekam Adminrechte „auf dem Silbertablett serviert“. Die Code-Review sah wohl so aus: PR-Titel klingt gut ✓, CI grün ✓, PRAISE THE LORD WE HAVE AN EXTERNAL CONTRIBUTOR ✓, Ship it!

Quinn bringt es auf den Punkt: Dies war kein cleverer Hack – es war ein Prompt in einer veröffentlichten Version. Amazon behandelte den Vorfall wie eine Katze, die hinter der Couch erbricht: Schnell verstecken und hoffen, dass es keiner merkt.

Amazon Q: Now with Helpful AI-Powered Self-Destruct Capabilities


KRUU optimiert Fulfillment mit OpenSearch

Der europäische Marktführer für Fotobox-Vermietung KRUU hatte mit einem kritischen Problem zu kämpfen: Photo-Uploads, die normalerweise nur 6 Minuten dauerten, benötigten plötzlich über eine Stunde. Dies gefährdete die pünktliche Auslieferung für nachfolgende Buchungen.

Das unsichtbare Problem: Michael Lehr, Head of Code bei KRUU, und sein Team standen vor einem Rätsel. Keine Code-Änderungen, keine Hardware-Ausfälle – dennoch massive Verzögerungen. Die Ursache: Eine Netzwerk-Fehlkonfiguration in einem neu gemieteten Lagerhaus, die monatelang unentdeckt blieb. Das Problem trat nur unter Last mit mehreren gleichzeitigen Uploads auf.

Die Lösung mit OpenSearch: KRUU implementierte OpenSearch als Observability-Lösung. Mit Filebeat werden Metriken in OpenSearch gespeist, Dashboards visualisieren Download-Geschwindigkeiten und Echtzeit-Alerts via Slack warnen bei Schwellwertüberschreitungen.

„You can’t test everything, but you should monitor it“, betont Michael Lehr. Die komplette Implementierung dauerte nur einen Tag.

Der Impact:

  • IT und Operations nutzen täglich Dashboards zur Kapazitätsplanung
  • Slack Channel erhält Alerts wenn aggregierte Schwellenwerte unter oder überschritten werden
  • Management hat Einblick in die System-Performance

Die vollständige Case Study gibt’s im Video von der OpenSearchCon EU.

Kleiner Hinweis am Rande: Wir haben mit We Manage bei der Implementierung der Geschichte geholfen und finden es sau cool, dass es nun offiziell bei der OpenSearch Foundation gelandet ist.

Case Study Bringing Fulfillment into Focus: How KRUU Uses OpenSearch for Real-Time Monitoring


ParadeDB fordert Elasticsearch heraus

Das Startup ParadeDB hat eine 12 Millionen Dollar Series-A-Runde unter Führung von Craft Ventures abgeschlossen. Die Open-Source-Erweiterung ermöglicht Volltextsuche und Analytics direkt in Postgres – ohne Daten in externe Systeme zu verschieben.

Das Problem mit Elasticsearch

CEO Philippe Noël kennt die Schmerzen aus eigener Erfahrung: Bei seinem ersten Startup stießen sie auf die Grenzen der Postgres-Suche. Elasticsearch erfordert ständigen Datentransfer zwischen zwei Systemen – das führt zu Kompatibilitätsproblemen, Latenz und höheren Kosten, besonders bei häufigen Updates.

ParadeDB’s Lösung

  • Läuft als native Postgres-Extension
  • Kein Datentransfer nötig
  • Integration mit Google Cloud SQL, Azure Postgres, Amazon RDS
  • Erste Kunden: Alibaba, Modern Treasury, Bilt Rewards

Postgres im Aufwind

Der Zeitpunkt ist optimal: Snowflake kaufte Crunchy DataDatabricks übernahm Neon – beide wollten primär Postgres-Expertise. Die fast 40 Jahre alte Datenbank erlebt durch AI-Anwendungen explosive Nachfrage.

Mit nur 4 Mitarbeitern will ParadeDB auf 10+ wachsen und Elasticsearch Marktanteile abnehmen – indem sie Nutzer dort abholen, wo ihre Daten bereits sind.

ParadeDB takes on Elasticsearch as interest in Postgres explodes amid AI boom


WiX Toolset führt Open Source Maintenance Fee ein

WiX Toolset führt Open Source Maintenance Fee ein

Das WiX Toolset, bekannt für Windows-Installer-Erstellung, hat eine Open Source Maintenance Fee eingeführt. Die Gebühr gilt ab WiX v6.0 für Unternehmen, die mit dem Tool Umsätze generieren.

Das Gebührenmodell:

  • Kleine Organisationen (< 20 Personen): $10/Monat
  • Mittlere Organisationen (20-100 Personen): $40/Monat
  • Große Organisationen (> 100 Personen): $60/Monat

Die Gebühr betrifft nur die vorkompilierten Binaries und den GitHub Support. Der Quellcode bleibt unter der MS-RL Lizenz frei verfügbar – Unternehmen können weiterhin selbst kompilieren und nutzen.

Community-Reaktionen: Die Diskussion auf Hacker News zeigt gemischte Gefühle. Ein Nutzer kommentierte treffend: „The maintainers are now free to respond to complaints with ‚you need to pay us for us to care.‘ Companies that pay get some level of support; hobbyists get the same experience.“

Viele unterstützen das Modell als nachhaltige Lösung für Open-Source-Projekte. Kritiker bemängeln die kurze Vorwarnzeit (März bis April 2025) und rechtliche Unklarheiten beim EULA-Enforcement.

Rob Mensching, der Maintainer, betont: „The reaction has been mostly positive which is also a plus. I think the OSMF is a good way to tackle exactly that issue.“ Es geht um Nachhaltigkeit, nicht um Profit. Das Modell soll andere Open-Source-Projekte inspirieren, ähnliche Wege zu gehen.

Hinweis: WiX Toolset hat nichts mit dem Website-Builder Wix.com zu tun – es handelt sich um ein MSI-Installer-Framework für Windows. Erste Projekte haben bereits Interesse bekundet, das OSMF-Modell (Open Source Maintenance Fee) zu übernehmen.

Wie findest du das Modell?

Open Source Maintainer zu sein ist ja wirklich nicht leicht, heutzutage muss man sich dann noch vielen AI Pull Requests rumschlagen, könnte das hier helfen?

Open Source Maintenance Fee


MyDumper & MyLoader: Der Turbo für MySQL-Migrationen

Maria Ehsan zeigt uns auf dem AWS Database Blog, wie man Very Large Databases (VLDBs) effizient nach Amazon Aurora MySQL migriert. Natürlich kann man die Ansätze auch für andere Migrationen verwenden ;).
Die Open-Source-Tools MyDumper und MyLoader lösen dabei ein Problem, das viele kennen: mysqldump ist für große Datenbanken einfach zu langsam.

Physische Migrationen (Binary-Dateien kopieren) werden bei VLDBs schnell unhandlich. Die klassischen Tools wie mysqldump arbeiten single-threaded – bei 1,6 TB Daten wartet man damit über 75 Stunden. Zeit, die niemand hat.

MyDumper – Backup mit Köpfchen

  • Parallel-Threads: Nutze --threads=16 für optimale Performance (Faustregel: 1 Thread pro CPU-Core)
  • Chunk-Splitting: Große Tabellen in 1-10 GB Häppchen aufteilen mit --chunk-filesize=1G
  • Kompression: zstd statt gzip verwenden – bessere Ratio, schnellere De-/Kompression
  • Flat Files: Mit --load-data für schnelleren Import vorbereiten

MyLoader – Restore auf Speed

  • Optimale Thread-Anzahl: 1 Thread pro 2 vCPUs
  • Batch-Size: Mit --queries-per-transaction=50000 den Sweet Spot finden
  • Index-Optimierung--innodb-optimize-keys lädt erst Daten, dann Indizes

Die Benchmark-Zahlen sprechen Bände Bei einem 1,6 TB Dataset mit 900 Objekten: MyDumper/MyLoader schafft die Migration in einem Bruchteil der Zeit von mysqldump. Interessant: Mehr Threads bedeuten nicht automatisch bessere Performance – bei 32 Threads war der Restore schneller als bei 64.

MyDumper und MyLoader findest du im gleichen GitHub Projekt MyDumper.

Der verlinkte Artikel ist sehr ausführlich und zeigt mit diversen Schaubildern, warum die Nutzung von MyDumper und MyLoader sinnvoll sein kann. Zuletzt hab ich das immer mit dem Percona-Toolkit gemacht, nun schaue ich mir die beiden Tools mal an.

Migrate very large databases to Amazon Aurora MySQL using MyDumper and MyLoader


Schmunzelecke

Ein aktueller YouTube Short über „Cloud Architects“ hat mich diese Woche zum Schmunzeln gebracht.

Und wusstest du, dass man das Apple TrackPad auch als Waage benutzen kann? Sehen wir die MacBooks nun häufiger in der Küche?


💡 Link Tipps aus der Open Source Welt

Atuin – Shell History auf Steroiden mit Sync und Backup

Atuin revolutioniert die Art, wie wir mit unserer Shell-History arbeiten, indem es die traditionelle History-Datei durch eine SQLite-Datenbank ersetzt und dabei zusätzlichen Kontext wie Exit-Codes, Ausführungsdauer und Arbeitsverzeichnis speichert.

Das Besondere: Die History lässt sich vollständig verschlüsselt zwischen verschiedenen Maschinen synchronisieren – wahlweise über den bereitgestellten Server oder eine eigene Instanz.

Features:

  • Volltext-Suche mit moderner UI (ersetzt ctrl-r und Pfeil-hoch)
  • SQLite-Datenbank statt einfacher History-Datei
  • Verschlüsselte Backup- und Sync-Funktionalität
  • Einheitliche History über alle Terminals, Sessions und Maschinen
  • Detailliertes Logging: Exit-Code, CWD, Hostname, Session, Dauer
  • Statistiken wie „meistgenutzte Befehle“
  • Alt-<Zahl> für Quick-Jump zu vorherigen Einträgen
  • Kontextbasierte Filter: Session, Verzeichnis oder global
  • Unterstützt zsh, bash, fish, nushell und xonsh

Endlich eine moderne Lösung für ein uraltes Problem! Die verschlüsselte Sync-Funktion macht Atuin besonders interessant für Alle, die auf mehreren Maschinen arbeiten.

Zusätzlich zur „Shell Erweiterung“ gibt es eine Desktop Preview Version, in der Workflows und Runbooks gespeichert werden können. Ne coole Website hat atuin auch – kanntest du es schon?

https://github.com/atuinsh/atuin

Pennybase – Backend-as-a-Service in unter 1000 Zeilen Go Code

Pennybase ist ein minimalistisches Backend-as-a-Service (BaaS), das die wichtigsten Backend-Funktionen wie Datenspeicherung, REST API, Authentifizierung und Echtzeit-Updates in weniger als 1000 Zeilen Go-Code implementiert – und das komplett ohne externe Dependencies.

Die Daten werden dabei in menschenlesbaren CSV-Dateien gespeichert, was das Tool perfekt für kleine Projekte macht, die keine komplexe Datenbank-Infrastruktur benötigen.

Features:

  • CSV-basierte Datenspeicherung mit Versionierung
  • REST API mit JSON-Responses
  • Session-Cookies & Basic Auth
  • RBAC & Ownership-Permissions
  • Real-time Updates via SSE
  • Schema-Validierung (Zahlen/Text/Listen)
  • Template-Rendering mit Go Templates

Ein schlanker Ansatz für Entwickler, die schnell ein Backend ohne den Overhead großer Frameworks benötigen. Die Motivation zum Tool hat Entwickler Serge Zaitsev in einem Blog Artikel aufgeschrieben.

https://github.com/zserge/pennybase

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

587 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x