Willkommen zu allesnurgecloud.com – Ausgabe #224
So, Minio ist nun ja archiviert und offiziell im „Maintenance Mode“ – schade, ich hab es echt gerne genutzt und weiterempfohlen. In Ausgabe 221 hatte ich diverse Alternativen vorgestellt – bei mir ist es nun SeaweedFS für unser 120TB Backup System geworden. Bei dir?
Auch ganz interessant – Anthropic hat „Claude Code Security“ released – das soll automatisch nach vulnerabilities im Code suchen, Issues Fixen, die traditionelle Tools verpassen – und irgendwie hat das Release ausgereicht, um scheinbar diverse Cybersecurity Aktien auf Talfahrt zu schicken – CrowdStrike (-7.95%), Cloudflare (-8.05%), Palo Alto Networks (-1.52%) und Zscaler (-5.47%) gaben am Release Tag gleich ordentlich nach. Verrückt – nachkaufen?
Happy Bootstrapping Podcast
In der aktuellen Podcast Folge 160 spreche ich mit Andreas Wittig von widdix.de. Andreas hat mit seinem Bruder Michael gleich 4 SaaS Produkte am Start (Zufall, dass mein Bruder auch Michael heisst). Bucket/AV scanned S3 Buckets bei AWS und Cloudflare auf Viren, attachement/AV dann generell Attachements per API und Co.. Der Vertrieb erfolgte anfangs ausschließlich über den AWS Marketplace und das fand ich doch sehr spannend, wie das Geschäft hier funktioniert – auch die Folge gibt es bei YouTube – abonniere gerne den Kanal und natürlich bei Spotify, Apple und im RSS Feed.
Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).
Support the Newsletter
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
KI-Agent schreibt Schmähartikel gegen Open-Source-Maintainer
Ok, in der letzten Woche noch in der Schmunzelecke, nun ist ein wenig mehr passiert: Scott Shambaugh, ehrenamtlicher Maintainer von matplotlib (rund 130 Millionen Downloads/Monat), beschreibt in seinem Blog einen beispiellosen Vorfall: Ein autonomer KI-Agent namens MJ Rathbun, betrieben über die Plattform OpenClaw, reichte einen Pull Request ein – und veröffentlichte nach dessen Ablehnung einen personalisierten Schmähartikel im Netz. Der Agent recherchierte Shambaughs Beiträge, konstruierte eine „Heuchelei“-Narrative und unterstellte ihm Ego, Unsicherheit und Diskriminierung. Alles öffentlich, alles autonom.
Das Bedrohungsszenario geht weit über gekränkte Chatbots hinaus. OpenClaw-Agenten definieren ihre Persönlichkeit über ein SOUL.md-Dokument, das sie selbstständig weiterentwickeln können – inklusive der charmanten Anweisung: „You’re not a chatbot. You’re becoming someone.“ Ob ein Mensch den Angriff angestoßen hat, ist unklar – und letztlich irrelevant, da beide Szenarien problematisch sind.
Die Ironie des Ganzen: Ars Technica berichtete über den Vorfall – und halluzinierte dabei gleich selbst erfundene Zitate von Shambaugh, offenbar weil eine KI seinen Blog nicht crawlen konnte. Man schreibt also einen Artikel über die Gefahren autonomer KI und lässt dabei eine KI falsche Informationen generieren. Das kann man sich nicht ausdenken.
Auf Hacker News wurde der Beitrag intensiv diskutiert – mit durchaus geteilter Meinung. Viele bezweifeln, dass der Agent wirklich autonom handelte: „I have never seen anything suggesting these things have ever, ever worked correctly“, schreibt ein Nutzer. Ein anderer bringt es auf den Punkt: „The AI companies have now unleashed stochastic chaos on the entire open source ecosystem.“ Und ein Dritter merkt pragmatisch an: „If you aren’t closely supervising your AI right now, maybe you ought to be held responsible for what it does.“
Mal schauen, was da noch alles passieren muss….
An AI Agent Published a Hit Piece on Me – More Things Have Happened
AI DCs in USA: Eigene Gaskraftwerke statt Netzanschluss
In den USA entsteht ein regelrechtes „Schattennetz“ an Stromerzeugung für KI-Rechenzentren, wie heise online auf Basis eines Washington-Post-Berichts zusammenfasst. Tech-Konzerne wie xAi, Meta, OpenAI, Oracle und sogar der Ölkonzern Chevron bauen zunehmend eigene Gaskraftwerke, die nicht ans öffentliche Stromnetz angeschlossen werden – mit erheblichen Konsequenzen für Klima und Energiemarkt.
In West Virginia soll der „Monarch Compute Campus“ Gaskraftwerke erhalten, die anfangs 1,5 Millionen Haushalte versorgen könnten – der ganze Bundesstaat hat 1,8 Millionen Einwohner. Bei geplanter Vervierfachung wäre das ein Vielfaches des gesamten Strombedarfs von West Virginia. In Texas entsteht ein Komplex, der mehr Strom als Chicago benötigen wird. Ähnliche Projekte gibt es in New Mexico, Pennsylvania, Wyoming, Utah, Ohio und Tennessee.
Das Klimaproblem verschärft sich doppelt: Weil die effizientesten Gasturbinen lange Lieferzeiten haben, setzen die Betreiber auf weniger umweltfreundliche Alternativen. Ein Experte nennt das „katastrophal für die Klimaziele.“ Und obwohl die Kraftwerke nicht am Netz hängen, treiben sie indirekt die Verbraucherpreise in die Höhe – der Ansturm auf Gasturbinen und Infrastruktur setzt konventionelle Kraftwerksbetreiber unter Druck.
In Ausgabe #190 hatte ich McKinseys Prognose von 7 Billionen Dollar Investitionsbedarf in Rechenzentren bis 2030 besprochen und nordische Ansätze zur Wärmerückgewinnung vorgestellt. Dort zeigten Finnland und Schweden, dass es auch anders geht – Microsofts Helsinki-Campus soll 40 % des Wärmebedarfs von Espoo decken. In den USA hingegen baut man lieber ein Parallelnetz aus Gaskraftwerken. Immerhin regt sich Widerstand: Sechs Bundesstaaten haben bereits Gesetze auf den Weg gebracht, um den Bau neuer KI-Rechenzentren zu stoppen. Die Frage ist, ob das reicht, bevor die Fakten geschaffen sind.
KI-Rechenzentren: In den USA immer mehr Stromerzeugung ohne Anschluss ans Netz
Anzeige
„Die Braut in der Cloud mit KRUU und „We Manage“

Mit unserem Kunden KRUU und dem Cloud-Anbieter Gridscale haben wir eine ausführliche Case Study veröffentlicht (PDF Version).
Die Case Study beschreibt unseren ganzheitlichen Ansatz einer „Rundum-sorglos-Betreuung“ mit einem maßgeschneiderten Angebot und Unterstützung bei DevOps- und SRE Herausforderungen.
Benötigst du auch Hilfe im Bereich „DevOps“, individuelle Managed Server oder ein Backup für dein 1-Personen DevOps Team oder Fullstack-Developer? Dann lerne uns jetzt kennen.
Matt Shumer, CEO von HyperWriteAI, hat auf X einen Thread veröffentlicht, der aktuell im Silicon Valley für Furore sorgt und mit 84,5 Millionen Views weit über die Tech-Bubble hinaus Aufmerksamkeit bekommen hat – den viralen Beitrag findest du hier. In einem langen Essay vergleicht er den aktuellen KI-Moment mit Februar 2020: Wir seien in der „this seems overblown“-Phase von etwas „viel, viel Größerem als Covid.“
Die Kernthese: Seit dem Release von GPT-5.3 Codex und Opus 4.6 am 5. Februar 2026 sei technische Arbeit für ihn obsolet. Er beschreibe Anforderungen in Klartext, gehe vier Stunden weg und finde fertige Software vor. KI habe nun „Urteilsvermögen“ und „Geschmack“. Innerhalb von 1–5 Jahren würden 50 % aller Einstiegs-White-Collar-Jobs verschwinden. OpenAI gibt zudem an, dass GPT-5.3 Codex am eigenen Training mitgewirkt hat – die KI hilft also bereits, sich selbst zu bauen.
Was daran stimmt: Die Fortschritte sind real. Die METR-Benchmarks zeigen, dass autonome Aufgabenbewältigung sich etwa alle 7 Monate verdoppelt – von 10 Minuten vor einem Jahr auf knapp 5 Stunden mit Opus 4.5. Shumers praktischer Ratschlag – KI-Tools aktiv erproben, Bezahlversionen nutzen, täglich experimentieren – ist solide und für viele Wissensarbeiter überfällig. Auch Anthropic-CEO Amodei spricht von KI-Systemen, die 2026–2027 „substanziell schlauer als fast alle Menschen“ sein könnten.
Was man einordnen muss: Shumer investiert in KI-Firmen wie Groq, Etched und OpenRouter und verkauft KI-Produkte – ein Interessenkonflikt, den er im Text nicht offenlegt. Der Pandemie-Vergleich ist rhetorisch wirksam, aber sachlich schief: Eine Pandemie war ein binäres Ereignis, KI-Adoption ist graduell mit Gegenwind aus Regulierung und Unternehmenskultur. Seine Beschreibung fehlerfreier Software nach einem Klartext-Prompt steht zudem in Spannung zur messbaren Realität: In der Stack Overflow Developer Survey aus Ausgabe #200 kämpfen 66 % der Entwickler mit „fast richtigen“ KI-Lösungen, 72 % nutzen Vibe Coding beruflich gar nicht, und die positive Einstellung zu KI sank von 72 % auf 60 %. Auch Jeff Geerling – dessen Kritik weiter unter im Newsletter kommt – beschreibt ein Plateau bei der Code-Generierung: „pretty good“, aber nicht mehr signifikant besser werdend.
Der Thread ist trotzdem lesenswert – er enthält valide Beobachtungen zur Geschwindigkeit der Entwicklung und solide praktische Ratschläge. Gleichzeitig ist er ein faszinierendes Zeitdokument dafür, wie die KI-Branche ihre eigene Revolution vermarktet. Die Wahrheit liegt vermutlich zwischen Shumers „alles ändert sich in Monaten“ und dem Alltag der meisten Entwickler, die KI als nützliches, aber fehleranfälliges Werkzeug erleben.
Jeff Geerling warnt: KI-Agenten zerstören Open Source
Jeff Geerling, bekannt für seine Raspberry Pi- und Homelab-Inhalte, nimmt sich in einem Blogpost und Video ein wachsendes Problem vor: AI-generierter Slop überflutet Open-Source-Projekte und belastet Maintainer zunehmend. Auslöser war ein zurückgezogener Ars-Technica-Artikel mit KI-halluzinierten Zitaten über genau den Maintainer vom Artikel oben drüber.
Die Faktenlage ist ernüchternd. curl-Maintainer Daniel Stenberg hat Bug Bounties eingestellt, weil brauchbare Vulnerability Reports von 15 % auf 5 % eingebrochen sind – der Rest sei KI-generierter Müll von Leuten, die schnelle Bounties kassieren wollen, ohne je einen Fix beizusteuern. GitHub hat als Reaktion ein Feature zum kompletten Deaktivieren von Pull Requests eingeführt – wohlgemerkt das Feature, das GitHub überhaupt erst groß gemacht hat. Geerling selbst betreut über 300 Open-Source-Projekte und beobachtet den gleichen Trend.
Geerlings Kernthese: Code-Generierung hat ein Plateau erreicht – sie sei „pretty good“, werde aber nicht mehr signifikant besser. Die menschlichen Reviewer hingegen haben endliche Ressourcen. Und OpenAI macht es schlimmer: Der Entwickler von OpenClaw, einem Tool für agentic AI, wurde gerade eingestellt, um „Agenten für alle“ zu bauen. Geerling vergleicht den aktuellen AI-Hype mit dem Crypto- und NFT-Boom – mit dem Unterschied, dass LLMs tatsächlich nützliche Anwendungsfälle haben, was es Scammern erleichtert, ihre destruktiven Aktivitäten zu rechtfertigen.
Der Artikel ist eine Seite der Geschichte – ich versuche immer alle zu beleuchten. Ich hatte in Ausgabe #200 die Stack Overflow Developer Survey besprochen – dort bestätigten 66 % der Entwickler, dass „fast richtige“ KI-Lösungen mehr Debugging-Zeit kosten als sie sparen. Geerlings Beobachtung passt da perfekt ins Bild: KI-Tools sind nützlich für den eigenen Workflow, aber das Über-den-Zaun-Werfen von ungereviewtem KI-Code an fremde Projekte ist das eigentliche Problem.
AI is destroying Open Source, and it’s not even good yet
Render raised $100 Mio: Heroku-Erbe profitiert vom AI-App-Boom
Der Cloud-Startup Render hat eine $100-Millionen-Runde bei einer Bewertung von 1,5 Milliarden Dollar abgeschlossen, wie CNBC berichtet. Das Umsatzwachstum liegt bei über 100 %, mehr als 4,5 Millionen Entwickler nutzen die Plattform.
Der Heroku-Erbe ist ein Titel, den Render gerne annimmt. Nachdem Salesforce kürzlich angekündigt hat, keine neuen Features mehr für Heroku zu entwickeln, suchen Nutzer Alternativen. In Ausgabe #199 hatte ich über Herokus desaströsen 23-Stunden-Totalausfall berichtet – CEO Anurag Goel bestätigt die Einschätzung: „People now know that they’re not going to add new features to it, so they’re looking around for the most mature alternative.“
Infrastruktur-seitig läuft Render auf AWS und Google Cloud, testet aber auch eigene Server – ein Echo der 37signals-Philosophie. Erst Railway baut eigene Datacenter, jetzt experimentiert Render mit eigener Hardware. Der PaaS-Trend geht offenbar Richtung Hybrid.
Der AI-Faktor ist der eigentliche Wachstumstreiber. OpenAIs Codex bietet Render als Deployment-Ziel für generierte Apps an, neben Cloudflare, Netlify und Vercel. Goels ehrlichste Aussage: „Chatbots have effectively, almost singlehandedly, grown our business.“ Wenn ChatGPT Nutzern empfiehlt, ihre App auf Render zu deployen, ist das ein Vertriebskanal, den es vor zwei Jahren nicht gab. Vercel wurde zuletzt mit 9,3 Milliarden Dollar bewertet – Render hat bei 1,5 Milliarden noch Luft nach oben.
Cloud startup Render raises funding at $1.5 billion valuation as AI-built apps boom
Tines partitioniert 17-TB-PostgreSQL-Tabelle
Tines hat in einem detaillierten Engineering-Blogpost beschrieben, wie das Team eine 17 TB große PostgreSQL-Tabelle partitioniert hat, die sich dem 32-TB-Limit von PostgreSQL näherte. Die output_payloads-Tabelle speichert Event-Daten als beliebiges JSON und verursachte zunehmend Probleme: Timeout bei Cleanup-Jobs, erhöhter I/O-Druck und verdrängende Autovacuum-Prozesse auf der TOAST-Tabelle.
Die Strategiefindung ist dabei der spannendste Teil. Das Team evaluierte vier Partitionierungsansätze: zeitbasiert nach created_at (scheiterte am fehlenden Partition Pruning bei Point Queries), Hash-basiert nach root_story_id (erzeugte „Hot Partitions“ durch aktive Stories), Hash nach id mit Index auf root_story_id (gleichmäßige Verteilung, aber ineffiziente Range Queries) und schließlich die gewählte Lösung: zweistufige Hash-Partitionierung nach root_story_id und id mit 128 Partitionen (16×8). Die Rollout-Strategie mit Dual Writes, Shadow Reads via GitHub Scientist und schrittweiser Umstellung verdient ebenfalls Beachtung.
Das Team hat PostgreSQL’s interne Hash-Funktion (hashint8extended) reverse-engineered, um Partitionen direkt anzusprechen – statt über den Katalog-Lookup zu gehen. Das brachte eine 20–40-fache Beschleunigung bei Queries. Bei über 1 Milliarde Action Runs pro Woche ein entscheidender Faktor.
Solide Ingenieurarbeit mit nachvollziehbarer Dokumentation aller Sackgassen. Dass man bei 6 TB täglicher Ingestion überhaupt erst mit einer einzelnen Tabelle an diese Grenzen stößt, zeigt aber auch, wie lange Teams Architekturentscheidungen aufschieben, bis das Problem akut wird.
So, und ich wusste bisher gar nicht, dass PG ein 32 TB Limit auf Tabellen hat – naja, nicht so alltägliche Probleme. In der aktuellen Development Version ist das Limit laut Doku noch exakt genauso.
Futureproofing Tines: Partitioning a 17TB table in PostgreSQL
Hetzner, Bunny, Scaleway: Praxisbericht eines EU-Only-Stacks
Ein Startup-Gründer hat in seinem Blog dokumentiert, wie er sein Startup komplett auf europäischer Infrastruktur aufgebaut hat – und wo laut ihm die Grenzen liegen. Der Erfahrungsbericht passt zu den Diskussionen um digitale Souveränität, die wir hier ja regelmäßig führen, und ist auch vieles dabei, was ich in der Regel einsetze – Hetzner, Scaleway, Bunny setzen wir in diversen Projekten ein – Nebius kannte ich jetzt noch nicht, muss ich mir mal anschauen. Ansonsten finde ich es etwas übertrieben dargestellt, so kompliziert ist es nicht und man sollte auch bei den Hyperscalern wissen, was man tut, sonst sollte man es lassen.
Der Stack liest sich wie ein Best-of europäischer Infrastruktur: Hetzner für Compute und Object Storage, Scaleway für Transactional Email, Container Registry und Observability, Bunny.net (Slowenien) als CDN mit WAF und DDoS-Schutz, Nebius für GPU-Inference und Hanko (Deutschland) für Authentication. Dazu Self-Hosting via Kubernetes/Rancher: Gitea, Plausible, Twenty CRM, Infisical und Bugsink.
Die Schmerzpunkte: Transaktional-E-Mail mit konkurrenzfähiger Deliverability sei in Europa spürbar dünner besetzt als bei Sendgrid oder Postmark. GitHub zu verlassen vergleicht der Autor mit dem Wegzug aus einer Stadt – Gitea funktioniere hervorragend, aber das Ökosystem aus Actions und Integrations fehle – GitLab Self-Hosted scheint er nicht zu kennen? Bestimmte TLD-Preise seien bei europäischen Registraren unerklärlich 2–3x teurer – das hab ich jetzt nie verglichen, zahle dann schon immer Premium…
Manche Dinge lassen sich nicht vermeiden: Google Ads, Apple App Store, Social Logins via OAuth (treffen immer US-Server), und wer Claude will, macht einen transatlantischen API-Call. Die Defaults der Tech-Industrie ziehen einen über den Atlantik – dagegen anzuschwimmen kostet Aufwand, aber die Infrastrukturkosten sind niedriger und die Data-Residency-Story ist sauber. Wer einen ähnlichen Weg gehen will: european-alternatives.eu bietet einen guten Startpunkt.
„Made in EU“ – it was harder than I thought.
37signals open-sourced Upright: Synthetic Monitoring mit Playwright Support
37signals – bekannt für Basecamp, HEY und den Cloud-Exit, über den ich regelmäßig berichtet hatte – open-sourced mit Upright ein selbstgebautes Synthetic Monitoring System. Das Tool ersetzt nach Jahren das kommerzielle Pingdom und passt nahtlos in die Philosophie des Unternehmens: eigene Infrastruktur, eigene Tools, volle Kontrolle.
Die technische Basis ist typisch 37signals: eine Rails Engine mit SQLite als Storage, Solid Queue für Background Jobs und Kamal für das Multi-Server-Deployment – letzteres kennen Newsletter-Leser bereits aus früheren Ausgaben. Upright unterstützt vier Probe-Typen: Playwright für echte Browser-Flows (inklusive Login und Video-Recording bei Fehlern), einfache HTTP-Checks, SMTP-Probes für Mail-Server und Traceroute via MTR. Alle Checks laufen von mehreren geografischen Standorten, sodass regionale Blips von echten Ausfällen unterschieden werden können.
Die Kostenrechnung dürfte manchen SaaS-Monitoring-Anbieter nervös machen: 37signals betreibt Upright auf 5 Standorten – vier DigitalOcean Droplets und ein Hetzner-Server – für insgesamt rund $110/Monat. Ein minimales Zwei-Standort-Setup bei Hetzner wäre für unter $20/Monat machbar. Zum Vergleich: Pingdom kostet ab $15/Monat für einen Standort, ohne anpassbare Browser-Checks. Metriken fließen über Prometheus in drei redundante Instanzen, Alerting läuft über AlertManager, Visualisierung über Grafana – der klassische Open-Source-Observability-Stack.
Interessant ist auch, was Upright über 37signals‘ Infrastruktur-Philosophie verrät: Man betreibt heute offensichtlich parallel Nodes bei DigitalOcean und Hetzner neben der eigenen Co-Location-Hardware – der Cloud-Exit war also nie ein dogmatisches „alles selbst machen“, sondern eher ein „die richtige Plattform für den jeweiligen Zweck“. Für Teams, die bereits Kamal und Prometheus einsetzen, ist Upright einen Blick wert – das Repo steht unter MIT-Lizenz auf GitHub.
Ich probier das mal – bei Uptime-Kuma und Co hat mich immer genervt, dass es eben keine multiplen Checker Nodes gibt. Und in den meisten Fällen reichen mir HTTP checks – und hier ist nun Playwright dabei, erstmal relativ einfach, aber da kommt bestimmt noch mehr.
Introducing Upright: An Open Source Synthetic Monitoring System
Tauchlehrer findet Schwachstelle – zum Dank gibt’s Post vom Anwalt
Der Platform Engineer und Tauchlehrer Yannick Dixken hat in seinem Blog eine Geschichte veröffentlicht, die ein Klassiker im Security-Bereich ist: Schwachstelle finden, verantwortungsvoll melden, Anwalt kassieren. Während eines Tauchtrips vor Cocos Island fiel ihm auf, dass das Mitgliederportal eines großen Tauchversicherers sequentielle User-IDs mit einem identischen Standard-Passwort für alle Accounts kombinierte – ohne erzwungenen Passwortwechsel, ohne Rate Limiting, ohne MFA. Betroffen: personenbezogene Daten inklusive die von minderjährigen Tauchschülern.
Die Reaktion des Versicherers ist ein Lehrstück in schlechtem Krisenmanagement. Dixken meldete die Lücke vorbildlich über CSIRT Malta und direkt an das Unternehmen – mit 30-Tage-Embargo und Proof of Concept. Statt des IT-Teams antwortete die Kanzlei des Datenschutzbeauftragten: Man beschwerte sich, dass er die Behörde vor dem Unternehmen informiert habe, drohte mit strafrechtlicher Verfolgung nach maltesischem Recht und verlangte eine Vertraulichkeitserklärung – inklusive Klausel, die selbst das Sprechen über die Erklärung untersagt.
Der Versicherer sieht die Verantwortung bei den Nutzern, ihr Passwort zu ändern – bei Accounts mit universellem Default-Passwort, ohne Zwang zum Wechsel, für teilweise Minderjährige. Das steht in direktem Widerspruch zu GDPR Artikel 5(1)(f) und 24(1), die technische Schutzmaßnahmen vom Verantwortlichen fordern. Die Lücke wurde inzwischen geschlossen, ob betroffene Nutzer benachrichtigt wurden, ist unklar. In Ausgabe #197 hatte ich eine ähnliche Disclosure-Problematik bei OpenAI vorgestellt.
Organisationen, die auf Schwachstellenmeldungen mit Anwälten statt Ingenieuren reagieren, zeigen vor allem, dass Reputation vor Nutzerschutz geht. Auch hier der Hinweis: Baut eine security.txt ein und etabliert einen transparenten Disclosure-Prozess.
I found a Vulnerability. They found a Lawyer.
Schmunzelecke
Falls du mal „nichts“ installieren willst – kannst du genau das mit install-nothing machen.
Und hier gibt es dann „Dune 2“ im Browser – da auf GitHub – hab ich früher gespielt, du auch?
Ach, da muss man noch alles einzeln auswählen und so, hab ich ganz vergessen.
💡 Link Tipps aus der Open Source Welt
micasa – Terminal UI für Home Management
micasa ist eine modale Terminal UI (TUI) zur Verwaltung von allem, was rund ums Haus anfällt – Wartungen, Projekte, Vorfälle, Geräte, Dienstleister, Angebote und Dokumente. Alles landet in einer einzigen SQLite-Datei, komplett lokal, ohne Cloud, Account oder Abo.
Die Startseite auf der Website hat eine kleine Demo des Tools.
Key Features:
- Wartungsplanung mit automatisch berechneten Fälligkeiten und vollständiger Service-Historie
- Projekttracking von der ersten Idee bis zur Fertigstellung (oder dem eleganten Aufgeben)
- Angebotsvergleich mit Dienstleister-Historie und Kostenübersicht
- Gerätemanagement mit Kaufdaten, Garantiestatus und verknüpfter Wartungshistorie
- Incident Logging mit Schweregrad, Standort und Verknüpfung zu Geräten/Dienstleistern
- Dateianhänge (Handbücher, Rechnungen, Fotos) direkt als BLOBs in der SQLite-Datei
- Lokaler LLM Chat – per
@Fragen in natürlicher Sprache stellen, micasa generiert SQL, führt es aus und fasst die Ergebnisse zusammen (via Ollama oder OpenAI-kompatible API)
Bedienung: Vim-Style modale Navigation – Nav-Mode zum Browsen, Edit-Mode zum Ändern. Spalten sortieren, Fuzzy Search, Spalten ein-/ausblenden und in verknüpfte Datensätze reinspringen.
Pure Go, kein CGO – gebaut mit Charmbracelet, GORM und SQLite, inspiriert von VisiData. Aktuell bei Version 1.39.0 mit aktivem Development (617 GitHub Stars).
Für Hausbesitzer, die ohnehin viel im Terminal unterwegs sind, ist micasa eine elegante Lösung – eine Datei, ein Backup, keine Abhängigkeiten. Der integrierte LLM Chat für Ad-hoc-Abfragen über die eigenen Hausdaten ist ein cleveres Feature.
https://github.com/cpcloud/micasa
Lazykamal – Terminal UI für Kamal Deployments
Lazykamal ist eine TUI im Stil von lazydocker für das Management von Kamal-deployed Apps. Statt sich jeden kamal-Befehl merken zu müssen, steuert man alles über eine interaktive Oberfläche.
Key Features:
- Zwei Modi: Project Mode für einzelne Projekte, Server Mode zum Verbinden per SSH – alle Kamal-Apps werden automatisch via Docker Container Labels entdeckt und mit ihren Accessories gruppiert
- Live Status & Logs: App-Version und Container refreshen automatisch, Logs werden in Echtzeit gestreamt
- Volle Kamal CLI Abdeckung: Deploy, Rollback, App, Server, Accessory, Proxy, Build, Secrets – alles über Menüs
- In-TUI Editor: Config und Secrets direkt bearbeiten, kein externer Editor nötig
- Server Mode ohne Kamal: Arbeitet direkt über SSH und Docker, kein Kamal auf dem Zielserver nötig
Geschrieben in Go mit gocui. Verfügbar für Linux, macOS und Windows.
Praktisch für alle, die Kamal nutzen – besonders der Server Mode mit Auto-Discovery für Multi-App-VPS-Setups. Noch frisch (v0.1.8, 7 Stars), aber funktional solide.
https://github.com/shuvro/lazykamal
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: