Trivy kompromittiert, RZ Strategie der Regierung, Souveränitäts-Washing, Dash0 $110M Funding, Slow Web, 1 Mio Lambda Functions, Hetzner Umzug und mehr – #229

Willkommen zu allesnurgecloud.com – Ausgabe #229

Ist bei dir auch am Wochenende die Polizei angerückt, um dich über eine ZeroDay Lücke in Windchill oder ZeroPLM zu informieren? Ne? Glück gehabt, wie ich auch…schon irgendwie abenteuerlich, dass man sowas macht. Das BSI hat jedenfalls erst am Montag einen CVE 10.0 Score dazu auf die Website gepackt, ganz gechilled.

Bei BullshitBench findest du eine Liste aller KI Modelle, sortiert nach der Menge des Bullshit Outputs pro Modell. Ganz interessant, Claude ist aktuell auf den ersten 7 Plätzen, dann kommt mit Qwen 3.5 ein Open Source Modell, wieder einige Claude Modelle und dann noch Grok vor dem ersten OpenAI Modell auf Platz 20. Den Benchmark kannst du nach den Kategorieren Overall, Software, Finance, Legal, Medical und Physics sortieren.

Ansonsten zieht der Trivy Credential Stealer immer weitere Kreise, in dieser Woche hat es unter anderen LiteLLM erwischt – die Versionen 1.82.7 und 1.82.8 des populären AI Gateways sind scheinbar im CI/CD Prozess kompromittiert worden.

Jetzt aber viel Spaß mit der Ausgabe.

Happy Bootstrapping Podcast

In der aktuellen Podcast Folge 165 habe ich mit Stephan Lerner von der Haushaltsbuch-App monee gesprochen. Monee ist komplett offlinefähig und ohne Sync in die Cloud nutzbar – und aktuell auch komplett kostenlos. Das ist Teil von Stefans Marketing-/Wachstumsstrategie. Warum das aber langfristig nicht so weiter gehen kann – darüber und über vieles mehr haben wir in der Folge gesprochen. Gerne kannst du die Folge auf YouTube schauen oder wie immer bei SpotifyApple und allen anderen Playern anhören.

Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).

Support the Newsletter

Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchenkannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Typosquatting & Persistence-Dropper: Der Trivy-Angriff im Detail

Der populäre Vulnerability-Scanner Trivy von Aqua Security wurde am 19. März über einen kompromittierten Build-Prozess zur Waffe umfunktioniert. RoseSecurity hat den Angriff technisch detailliert aufgearbeitet, die Sicherheitsfirma Wiz liefert eine ergänzende Analyse.

Die Vorbereitung begann zwei Tage vorher mit der Registrierung der Typosquatting-Domain aquasecurtiy.org – „securtiy“ mit vertauschtem i und t. Die Angreifer („TeamPCP“) nutzten dann den aqua-bot Service-Account, der nach einem früheren Incident Anfang März nie vollständig gesichert worden war, und verschoben 75 von 76 trivy-action Tags auf bösartige Commits. Der Schadcode – 105 Zeilen Shell vor der regulären Trivy-Logik – lief unsichtbar: Scans produzierten normale Ergebnisse.

Der Stealer las auf GitHub-Runnern den Prozessspeicher über /proc/<pid>/mem aus und durchsuchte über 50 Dateipfade nach SSH-Keys, Cloud-Credentials, Kubernetes-Tokens und Krypto-Wallets. Alles wurde per AES-256/RSA-4096 verschlüsselt und exfiltriert – als Fallback über ein öffentliches Repo tpcp-docs im GitHub-Account des Opfers. Auf Entwickler-Rechnern installierte die Binary zusätzlich einen persistenten systemd-Dropper, der alle fünf Minuten einen C2-Server pollte.

Drei Tage später tauchten erneut bösartige Images (v0.69.5, v0.69.6) auf Docker Hub auf – die Eindämmung war wieder unvollständig. Googles mirror.gcr.io verteilte sie weiter. Ein Nutzer im GitHub-Thread bringt es auf den Punkt: „You’ve been hacked 3 times in the last 30 days.“

Wer Trivy einsetzt: v0.69.3 ist die letzte sichere Version, Actions auf SHA pinnen, alle Pipeline-Secrets rotieren, scan.aquasecurtiy.org blocken und nach ~/.config/systemd/user/sysmon.py suchen. Bei GitHub kannst du das in dieser Diskussion nachverfolgen – ich würde sagen, „the situation is still developing“.

How a Typosquatted Domain and a Fake Version Tag Turned Trivy Into a Credential Stealer


Rechenzentrumsstrategie der Bundesregierung: Verdopplung bis 2030 geplant

Das Bundesdigitalministerium hat eine Rechenzentrumsstrategie beschlossen, die sich ambitioniert liest: 28 Maßnahmen in drei Handlungsfeldern, Kapazitäten bis 2030 verdoppeln, KI- und HPC-Kapazitäten vervierfachen. Minister Wildberger spricht von „mehr Rechenpower“ und „digitalem Fahrplan“. Deutschland sei mit über 2.000 Anlagen bereits führend in Europa.

Das Problem: In Frankfurt, dem Herz der deutschen Digitalinfrastruktur mit dem weltweit größten Internetknoten DE-CIX, ist der Strom bereits jetzt knapp. Wie t3n berichtet, teilt Energieversorger Mainova mit, dass große Neuanschlüsse erst ab Mitte der 2030er wieder möglich sind. Der Rechenzentrumsbetreiber Firstcolo wollte am Standort Frankfurt-Ost erweitern – benötigte Stromleistung: nicht vor 2035 verfügbar. Betreiber weichen ins Umland aus, Firstcolo baut jetzt ein KI-Rechenzentrum in Rosbach vor der Höhe im Wetteraukreis.

Die Strategie der Bundesregierung verspricht schnellere Netzanschlüsse, beschleunigte Genehmigungen und „Integration erneuerbarer Energien“. Die Realität: Leitungsbau dauert Jahre, Genehmigungsprozesse sind zäh, Fachkräfte fehlen. Allein in Frankfurt sollen bis 2030 nur 13 weitere Rechenzentren entstehen, im Umland 23. Ob die Strategie mit ihrem 12-Monats-Umsetzungshorizont da mithält, darf bezweifelt werden.

Man darf gespannt sein, wie die Bundesregierung den Energiebedarf decken will. Ob Wirtschaftsministerin Reiche am Ende Gaskraftwerke neben die Rechenzentren stellt – so wie Elon Musk es in Texas vormacht – wäre zumindest konsequent und passend zu Ihrer Historie, wenn auch nicht ganz das, was man sich unter „Integration erneuerbarer Energien“ vorstellt.

Bundesregierung beschließt Rechenzentrumsstrategie


Anzeige

Hier könnte Deine Werbung stehen

Du möchtest Deine Firma, angebotene Dienstleistungen & Services oder Dein SaaS Produkt hier im Newsletter vorstellen?Du suchst neue Mitarbeiter und möchtest diese direkt erreichen?

Erreiche über 2000 Cloud und Open-Source Enthusiasten direkt per E-Mail und im RSS Feed. Dazu kommen 1000+ Impressions im LinkedIn Artikel des Newsletters.

Bei Interesse antworte mir direkt auf den Newsletter oder kontaktiere mich über LinkedIn ich schreib dann auch ganz schnell zurück.
Falls du ein SaaS Tool bewerben möchtest, bin ich bestimmt auch bei einer Affiliate Geschichte dabei – schreib mir einfach bei Interesse!

Jetzt Werbung anfragen (und Freitags deployen)


Eine Million Lambda Functions, 6000 Accounts mit 3 Leuten betreiben

Ben Freiberg und Julius Blank beschreiben im AWS Architecture Blog, wie das Münchner Wearable-Unternehmen ProGlove seine SaaS-Plattform mit einem radikalen Account-per-Tenant-Ansatz betreibt: 6.000 Tenant-Accounts40 Microservices, rund 1 Million Lambda Functions in Produktion – betreut von drei Personen.

Der AWS Account selbst wird zur Isolation-Boundary: kein geteilter Compute, kein geteilter Storage, kein Multi-Tenancy-Code. Wird ein Account kompromittiert, bleibt der Blast Radius auf diesen einen Tenant begrenzt. Kosten lassen sich trivial pro Kunde zuordnen, Entwickler brauchen kein Tenant-Scoping – jede Service-Instanz gehört genau einem Kunden.

Der Preis: massive Investition in Platform Engineering. Account-Erstellung läuft über Step Functions, Deployments per CloudFormation StackSets parallel in tausende Accounts. Alles, was pro Account berechnet wird, multipliziert sich entsprechend – eine kleine EC2-Instanz für $3 wird bei 1.000 Accounts zu $3.000. Deshalb ist die Architektur konsequent Serverless: Lambda, DynamoDB, alles pay-per-use, alles skaliert auf Null. Standard-Monitoring pro Account ist bei der Datenmenge nicht tragbar, weshalb ProGlove auf zentralisiertes Streaming mit konsistentem Tagging setzt.

Nicht für jeden der richtige Ansatz – aber wer Security, Compliance und Tenant-Isolation braucht und lieber in Plattform-Automatisierung investiert als in Multi-Tenancy-Komplexität im Code, bekommt ein System, bei dem jeder neue Tenant nur marginalen Aufwand erzeugt.

6,000 AWS accounts, three people, one platform: Lessons learned


„Your Frustration Is the Product“ – Wie das Web seine Leser vertreibt

Shubham Bose hat in einem viel beachteten Blogpost seziert, was passiert, wenn man die New York Times aufruft: 422 Network Requests49 MB Daten, zwei Minuten bis die Seite zur Ruhe kommt. Windows 95 war kleiner. Was die 49 MB füllt: eine programmatische Ad-Auktion im Browser, 5 MB Tracking-JavaScript, permanente POST-Beacons und Cross-Site-Identity-Stitching. Der Consent-Endpoint heißt purr.nytimes.com – eine Katze, die schnurrt, während sie einem die Taschen durchsucht.

Beim Guardian auf Mobile belegt der Artikel 11% des Bildschirms – vier Zeilen Text. Und Google? Bestraft diese Praktiken per SEO-Scores, während Googles eigene Ad-Produkte sie ermöglichen.

John Gruber ergänzt auf Daring Fireball, gerade ohne Adblocker auf dem MacBook Neo unterwegs: Es sei, als bestelle man einen Cheeseburger und eine Marching Band spiele einem Trompete ins Ohr. Keine Printpublikation der Welt mache das – aber deren Websites unterbrechen alle zwei Absätze mit identischen Anzeigen und Autoplay-Videos, die nichts mit dem Artikel zu tun haben.

Stuart Breckenridge setzt noch einen drauf: PC Gamer veröffentlicht einen Artikel, der RSS Reader empfiehlt – auf einer 37 MB-Seite mit fünf Ads und Newsletter-Modal. In fünf Minuten lud die Seite fast 500 MB an Werbung nach. Ein Artikel über RSS, der selbst das beste Argument für RSS ist.

Irgendwo sind wir irgendwann mal falsch abgebogen.

The 49MB Web Page


25 europäische Cloud-CEOs warnen EU vor „Souveränitäts-Washing“

In einem offenen Brief an EU-Kommissions-Vizepräsidentin Henna Virkkunen fordern 25 CEOs europäischer Cloud-Unternehmen, den geplanten Cloud and AI Development Act (CADA) gegen Schein-Souveränität zu schärfen. Die im Verband CISPE organisierten Unterzeichner – darunter Frank Karlitschek (Nextcloud), Alexander Windbichler (Anexia), Arno Schäfer (UpCloud), Marc Oehler (Infomaniak) und Svenja de Vos (Leaseweb) – kritisieren, dass US-Hyperscaler mit rund 70% Marktanteil in Europa sich als „souverän“ vermarkten, obwohl sie weiterhin dem CLOUD Act unterliegen.

Der Brief formuliert fünf Prinzipien: Souveränität soll über tatsächliche Kontrolle definiert werden, nicht über EU-Rechenzentren und Cybersecurity-Zertifikate. Wo volle Souveränität nicht umsetzbar ist, müssen Resilienz-Mechanismen wie kundenseitige Verschlüsselung und Datenportabilität greifen. Öffentliche Beschaffung soll dem Prinzip „Buy European – Ensure Resilience – or Explain“ folgen. Wettbewerbswidrige Bündelung von KI- und Cloud-Diensten soll unterbunden, Open Source anerkannt und steuerfinanzierte Investitionen vorrangig dem europäischen Ökosystem zugutekommen.

CISPE-Generalsekretär Francisco Mingorance nennt CADA eine „einmalige Chance“ – die man nicht verspielen dürfe, indem man Souveränitäts-Washing legitimiert. Europäische Anbieter halten aktuell rund 15% Marktanteil und hoffen, über CADA besonders bei öffentlichen Aufträgen und sensiblen Daten Boden gutzumachen. Eine Reaktion der EU-Kommission steht noch aus, die sind ja damit beschäftig, die Kernkraft wieder schön zu reden.

Subject: Joint Call for a Sovereign and Resilient European Cloud Policy


Dash0 sammelt $110M bei $1 Milliarde Bewertung ein

Das 2023 in Deutschland gegründete und inzwischen in New York ansässige Unternehmen Dash0 hat eine Series B über 110 Millionen Dollar bei einer Bewertung von 1 Milliarde Dollar abgeschlossen. Die Runde wurde von Balderton Capital angeführt, mit Beteiligung von DTCP Growth, Accel, Cherry Ventures, DIG Ventures sowie T.Capital (Deutsche Telekom) und July Fund. Gesamtfinanzierung damit: 155 Millionen Dollar.

Dash0 positioniert sich als OpenTelemetry-native Observability-Plattform – kein proprietärer Agent, keine versteckten Kosten, Daten gehören dem Kunden. Der Clou ist Agent0: eine Plattform spezialisierter KI-Agenten, die nicht nur Probleme aufzeigen, sondern selbstständig handeln sollen – von Root-Cause-Analyse über automatisches Dashboard-Management bis zur Migration weg von teuren Legacy-Anbietern. Zielgruppe sind Teams, die von DatadogDynatrace oder Grafana weg wollen.

Mit über 600 zahlenden Kunden – darunter Zalando, Taco Bell und The Telegraph – hat Dash0 in kurzer Zeit Traktion aufgebaut. Das Geld fließt in den Ausbau der Agent0-Plattform, aggressive US-Expansion und gezielte Akquisitionen im Bereich LLM-Observability und KI-Security. Im Februar hatte Dash0 bereits Lumigo übernommen, um Serverless- und AWS-Monitoring abzudecken.

Ob „Agentic Observability“ mehr als ein Buzzword wird, muss sich zeigen. Aber ein deutsches Gründerteam, das auf offene Standards setzt und es in zwei Jahren zum Unicorn schafft – das sieht man nicht alle Tage. Schade, dass man dafür in die USA umziehen muss.

Einer der Dash0 Gründer ist übrigens Mirko Novakovic – der hatte vorher schon Instana gegründet und dann in 2020 für $500 Millionen an IBM verkauft. Da kann man nur den Hut ziehen – Herzlichen Glückwunsch!

Dash0 Raises $110M Series B at $1B Valuation to Build the AI Nervous System for Production


Von DigitalOcean zu Hetzner: Von $1.432 auf $233 pro Monat

Ein türkisches Softwareunternehmen dokumentiert in einem detaillierten Blogpost, wie es seinen kompletten Produktionsstack von DigitalOcean auf einen Hetzner AX162-R Dedicated Server migriert hat – bei laufendem Betrieb, ohne eine Sekunde Downtime. Die Ersparnis: $14.388 pro Jahr.

Der alte DigitalOcean-Droplet kostete $1.432/Monat für 32 vCPUs, 192 GB RAM und 2,6 TB Storage. Der Hetzner-Server liefert für $233/Monat einen AMD EPYC 9454P mit 48 Cores256 GB DDR5 und 1,92 TB NVMe RAID1 – in jeder Dimension überlegen. Der Stack ist kein Spielzeug: 30 MySQL-Datenbanken mit 248 GB, 34 Nginx-Vhosts, GitLab EE, Neo4j und mehrere Live-Apps mit hunderttausenden Nutzern.

Die Migration lief in sechs Phasen: Parallele Installation des kompletten Stacks auf dem neuen Server, rsync der Web-Dateien, dann MySQL Master-Slave-Replikation statt Offline-Dump – mit mydumper/myloader über 32 Threads, was den Transfer von Tagen auf Stunden verkürzte. DNS-TTLs per API-Script auf 300 Sekunden reduziert, den alten Nginx zum Reverse Proxy umgebaut, sodass während der DNS-Propagation kein einziger Request ins Leere lief. Cutover in 10 Sekunden per Python-Script.

Nebenbei wurde von CentOS 7 (längst End-of-Life) auf AlmaLinux 9.7 und von MySQL 5.7 auf 8.0 migriert. Alle Scripts sind auf GitHub verfügbar – inklusive Dry-Run-Modus.

So sieht es also aus, wenn KI in Zukunft den DevOps Job übernimmt – gut, vermutlich hat jetzt niemand gesagt, dass ein einzelner HW Server auch mal kaputt gehen kann oder ein Wartung braucht. Da kommt dann aber bestimmt noch ein weiterer Blog Artikel….

Migrating from DigitalOcean to Hetzner: From $1,432 to $233/month With Zero Downtime


Frankreichs „La Suite numérique“: Vom Aktionsplan 2021 zur souveränen Office-Alternative

Was 2021 als Aktionsplan für freie Software mit einer kleinen Free Software Unit bei der DINUM begann, hat sich zu einem der ambitioniertesten Open-Source-Projekte einer europäischen Regierung entwickelt. Die DINUM betreibt inzwischen La Suite numérique – eine vollständige, souveräne Kollaborationsplattform für den öffentlichen Dienst, die explizit als Alternative zu Microsoft, Google und Zoom positioniert wird.

Die Plattform umfasst mittlerweile sechs Kernkomponenten: Tchap (Messaging auf Matrix-Basis, bereits 375.000 aktive Nutzer), Visio (Videokonferenzen, 60.000 aktive Nutzer), Docs (kollaboratives Schreiben, in deutsch-französischer Kooperation entwickelt), Fichiers (Dateispeicher), Grist (No-Code-Datenverwaltung) und einen KI-Assistenten auf Basis von Mistral AI, der bereits von 10.000 Agents getestet wird. Das CNRS plant, seine 34.000 Zoom-Lizenzen für 120.000 Forscher durch Visio zu ersetzen – die geschätzte Ersparnis: eine Million Euro pro 100.000 Nutzer jährlich.

Der politische Rückhalt ist bemerkenswert: Seit September 2025 ist Tchap für alle Ministerien verpflichtend, und im Januar 2026 kündigte der zuständige Minister an, dass Visio bis 2027 in der gesamten Staatsverwaltung eingeführt werden soll. Alles Open Source, alles auf SecNumCloud gehostet, der gesamte Code auf GitHub verfügbar.

Französische Software-Anbieter, die teils mit staatlicher Unterstützung eigene Kollaborationslösungen entwickelt hatten, sehen La Suite als unlauteren Wettbewerb LeMagIT. Die DINUM kontert, dass man gerade auf Zusammenarbeit mit der Industrie und Open-Source-Governance setze – unter anderem durch den Beitritt zur Matrix.org Foundation im Oktober 2025.

Die europäische Dimension macht das Projekt besonders interessant: La Suite wird inzwischen in Kooperation mit Deutschland, den Niederlanden und Italien weiterentwickelt (siehe Goodtech), um digitale Gemeingüter auf Kontinentalebene zu schaffen. Während Deutschland noch diskutiert, wie man von Microsoft loskommen könnte, baut Frankreich einfach die Alternative – und lädt uns ein, mitzumachen. Das sollte man annehmen.

Nicht schlecht, was die Franzosen hier am Start haben – die Landingpage der ganzen Aktion sieht eher nach einem prof. SaaS Anbieter aus und nicht nach einem Behördenprojekt – echt nice!

Action plan for Free Software and Digital Commons


Schmunzelecke

Falls deine Kolleg:innen mal wieder ihren Rechner nicht gesperrt haben, kannst du sie nun mit sperrmi.ch beglücken und einen Blue Screen oder Windows Update Screen simulieren. Gesehen bei LinkedIn – danke Toby!


💡 Link Tipps aus der Open Source Welt

OpenSRE – Framework für AI-gesteuerte SRE Agents

OpenSRE (Tracer) ist ein Open-Source-Framework zum Bauen von AI-powered SRE Agents, die Incident Investigation und Root Cause Analysis automatisieren. Es verbindet bestehende Alerting- und Observability-Systeme und führt strukturierte Untersuchungen automatisch durch.

Key Features:

  • Automatische Investigation: Bei einem Alert sammelt Tracer Kontext aus Logs, Metriken, Configs und Dependencies, formuliert Hypothesen über mögliche Fehlerursachen, testet sie parallel und liefert einen evidenzbasierten Root Cause Report
  • Breite Integrationen: Grafana, Datadog, CloudWatch, Sentry, Slack, PagerDuty, GitHub, Kubernetes, AWS/GCP/Azure, Apache Airflow/Kafka/Spark
  • Lokaler LLM Support: Onboarding-Wizard konfiguriert lokalen LLM Provider und optional alle Integrationen
  • Deterministische Workflows: Vollständig auditierbare, evidenzbasierte Untersuchungen statt Black-Box-AI-Antworten
  • Erweiterbar: Neue Integrationen (OpsGenie, weitere Alerting-Systeme) als einfacher Einstiegspunkt für Contributors

Workflow: Alert feuert, Tracer ingestiert ihn, assembliert Kontext aus allen angebundenen Systemen, führt parallele Hypothesentests durch und liefert einen Report mit Root Cause und empfohlenen Actions – standardmäßig nach Slack.

Adressiert einen echten Pain Point – die manuelle Korrelation von Signalen über verschiedene Observability-Tools bei Incidents frisst enorm Zeit. Der Ansatz, Hypothesen parallel zu testen statt einfach Logs zusammenzufassen, klingt vielversprechend. Noch sehr früh (kein Release, 10 Contributors), aber für SRE-Teams mit komplexen Data-Platform-Stacks definitiv einen Blick wert.

https://github.com/Tracer-Cloud/opensre

pgmicro – PostgreSQL als In-Process-Datenbank auf SQLite-Storage

pgmicro ist eine experimentelle In-Process-Reimplementierung von PostgreSQL, die auf einem SQLite-kompatiblen Storage Engine basiert. Das Projekt ist ein Fork von Turso (einer kompletten SQLite-Neuimplementierung in Rust) und fügt PostgreSQL als nativen Dialekt hinzu – eine einzelne Datei, kein Server, aber PostgreSQL-Syntax.

Key Features:

  • Echte PostgreSQL-Syntax: Nutzt libpg_query (den originalen PostgreSQL-Parser), übersetzt den Parse Tree in Turso-AST und kompiliert zu SQLite-Bytecode – kein SQL-Syntax-Mapping, keine WASM-Emulation
  • SQLite-Storage: Daten landen in einer normalen .db-Datei, lesbar mit jedem SQLite-Tool
  • Dialect Switching: Eine Datenbank kann über PostgreSQL- und SQLite-Syntax gleichzeitig angesprochen werden
  • PostgreSQL Catalog: Virtuelle Tabellen (pg_class, pg_attribute, pg_type etc.) für Kompatibilität mit psql und anderen PG-Tools
  • Server Mode: Optionaler PostgreSQL Wire Protocol Server, sodass Standard-PG-Clients verbinden können
  • SDK: JavaScript/TypeScript SDK via npm (pg-micro), API-kompatibel mit @tursodatabase/database

Zielgruppe: Kurzlebige Datenbanken für AI Agents, Session Stores, Per-User-Sandboxes – überall wo man die Einfachheit von SQLite will, aber PostgreSQL-Syntax bevorzugt.

Statt PostgreSQL nach WASM zu kompilieren (wie PGlite), wird der PostgreSQL-Parser genutzt und direkt auf SQLite-Bytecode kompiliert. Noch ausdrücklich experimentell und ohne Stabilitätsgarantien, aber als Proof of Concept beeindruckend. Wer für AI-Agent-Workflows eine einbettbare PG-kompatible DB braucht, sollte das Projekt im Auge behalten.

https://github.com/glommer/pgmicro

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtigen bei
    guest

    0 Comments
    Älteste
    Neueste Meistbewertet
    Inline-Feedbacks
    Alle Kommentare anzeigen

    allesnurgecloud.com

    © 2026 allesnurgecloud.com
    0
    Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x