Remote Work, Supabase Funding, Bunny Shield, On-Call Vergütung, Amazon stoppt KI DCs, Wii Webserver und mehr – #186

Willkommen zu allesnurgecloud.com – Ausgabe #186

Diese Woche erwartet dich wieder eine prall gefüllte Ausgabe und eigentlich könnte man ganze Ausgaben mit souveränen Alternativen und den aktuellen Bewegungen im Markt füllen. Ich versuche trotzdem ein wenig Abwechslung ins Spiel zu bringen und freu mich weiterhin über Themenvorschläge oder über Feedback zur aktuellen Ausgabe.

Da fällt mir auf, ich hab schon lange nicht mehr auf ein Humble Bundle Angebot verlinkt, welches du Fomo mässig kaufen und im digitalen Bücherschrank verstauben lassen kannst, ohne es zu lesen. Aktuell gibt es im O’Reilly DevOps 2025 Bundle 15 Bücher ab 22,55€ – dabei sind Bücher über Terraform, Continuous Deployment, DevSecOps, Ansible und mehr – hast du zugeschlagen?

Ansonsten leide ich aktuell schön unter der Netzbremse der Telekom – tolle Sache – ich werde bald ausführlich berichten.

Happy Bootstrapping Podcast

In der aktuellen Folge habe ich mit Johannes Nagl vom Social Media Management Tool Swat.io gesprochenSwat.io hat Kunden wie ARD und ZDF, bezahlt nachwievor 42.000$/Monat für die Twitter API und ganz interessante Challenges rund um Uptime, Social Media, Recreuitment und vieles mehr. Super interessant fand ich, dass man es schafft, bis zu 2000 Interessierte für die hauseigenen Webinare zu begeistern – war mir bis dahin gar nicht klar, wie man sowas für Marketing, Vertrieb und Kundenkontakt nutzen kann – jetzt direkt reinhören in Folge 118.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

573 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Remote Work zwischen Regulierung und Realität

In einem aktuellen Artikel von Konstantin Joergensen wird deutlich, wie stark sich das Thema Remote Work aktuell im Wandel befindet. Die Homeoffice-Revolution, die durch die Pandemie beschleunigt wurde, zeigt jetzt interessante Konsolidierungstendenzen. Während einige Unternehmen eine Rückkehr ins Büro fordern, arbeiten Regierungen weltweit aktiv an der Formalisierung von Remote-Work-Regelungen – mit erheblichen Auswirkungen auf HR- und Payroll-Verantwortliche.

Regulatorische Entwicklungen im Fokus: In Europa haben Frankreich, Italien, Spanien und Belgien bereits umfassende Gesetzgebungen für Remote-Arbeit implementiert. Die EU intensiviert ihre Bemühungen, diese Regelungen zu harmonisieren, wobei besonders das „Recht auf Abschalten“ im Mittelpunkt steht. Dieses soll verhindern, dass Mitarbeitende im Homeoffice permanent erreichbar sein müssen.

Parallel dazu spielen weitere entscheidende Faktoren eine Rolle:

  • Generationswechsel: Nur 10% der Gen-Z-Mitarbeitenden in Großbritannien bevorzugen Vollzeit-Büroarbeit
  • Branchenspezifische Gegenbewegungen: Besonders im Finanzsektor gibt es Tendenzen zur Rückkehr ins Büro
  • Steigende Erwartungen: Flexibilität ist mittlerweile ein entscheidender Faktor bei der Talentgewinnung

Die zentrale Frage für Unternehmen: Soll man Mitarbeitende zurück ins Büro beordern, um Produktivität zu steigern, oder flexible Arbeitsmodelle beibehalten, um die besten Talente zu gewinnen?

Die Realität zeigt, dass flexible Arbeitsmodelle trotz gewisser Gegenbewegungen bleiben werden. Erfolgreiche Unternehmen entwickeln daher Strategien, die Flexibilität mit modernen Unternehmenszielen wie Talentgewinnung, Mitarbeiterbindung und Wohlbefinden in Einklang bringen.

HR-Teams spielen laut Konstantin dabei eine Schlüsselrolle und setzen zunehmend auf agilere Strukturen mit definierten Arbeitszeiten, klaren Erwartungen an Reaktionszeiten und ergebnisorientierten Ansätzen.

Soweit der wissenschaftliche Teil – die Produktivität im Büro ist doch nicht immer höher als Remote? Oder sehe ich das falsch?
Es gibt Dinge, die im Büro besser laufen, es gibt aber auch Dinge, bei denen mal ungestört produktiver ist – eine Allgemeine Aussage dazu zu treffen finde ich schwierig.

Remote work under scrutiny


Supabase: 200 Millionen $ Series D-Finanzierung

Die Open-Source-Entwicklungsplattform Supabase hat eine Series D-Finanzierungsrunde über 200 Millionen Dollar bei einer Bewertung von 2 Milliarden Dollar abgeschlossen, wie Fortune exklusiv berichtet. Zu den Investoren gehören Accel, Coatue, Y Combinator, Craft Ventures und Felicis sowie namhafte Angel-Investoren wie OpenAI CPO Kevin Weil.

Accel-Partner Arun Mathew reiste extra nach Neuseeland, um CEO Paul Copplestone persönlich zu treffen, bevor er investierte. „In jedem großen Plattformwechsel wird immer Wert auf der Datenbankebene geschaffen,“ erklärte Mathew die Investitionsentscheidung.

Supabase, gegründet im Jahr 2020, unterstützt Postgres als Alternative zu Google Firebase und wird aktuell von zwei Millionen Entwicklern genutzt, die mehr als 3,5 Millionen Datenbanken verwalten. Die Nutzerzahlen habe sich in den letzten drei Monaten durch den „Vibe Coding“-Trend verdoppelt – ob das so nachhaltig ist, sehen wir dann.

Das vollständig remote arbeitende Unternehmen setzt auf Mitarbeiter mit Gründererfahrung aus der ganzen Welt. Etwa 28% der Belegschaft sind ehemalige Gründer. Copplestone, selbst ein dreifacher Gründer, hat aus seinen früheren Startup-Erfahrungen gelernt und setzt diesmal auf einen nachhaltigeren Ansatz beim Aufbau des Unternehmens.

Supabase platziert sich als Open Source Firebase Alternative und auf der Startseite findet sich der Claim „Build in a Weekend – Scale to millions“, nicht ohne Grund wird es zum Schnellstart von vielen Apps und Indie Hackern eingesetzt. Bei Finanzierungsrunden in dieser Höhe schwingt ja auch immer eine gewisse Erwartungshaltung mit, mal schauen, was sich hier am Produkt und Pricing ändert.

Exclusive: Supabase raises $200 million Series D at $2 billion valuation


Anzeige

Monitoring as Code für LinkedIn, Crowdstrike und 1Password

Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.

Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?

Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.

Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.

Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.

Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!


Wie sollten Unternehmen On-Call-Dienste vergüten?

Die Vergütung von Bereitschaftsdiensten bleibt ein wichtiges Thema für Unternehmen mit 24/7-Verfügbarkeit. In einem aktuellen Artikel von PagerDuty werden vier gängige Vergütungsmodelle vorgestellt und deren Vor- und Nachteile analysiert.

Der freiwillige Bereitschaftsdienst ohne formale Vergütung bietet zwar Flexibilität, führt jedoch oft zu Verantwortungsproblemen und Burnout bei engagierten Mitarbeitern. Eine pauschale monatliche Vergütung ist einfach zu implementieren, berücksichtigt aber nicht die tatsächliche Arbeitsbelastung.

Die stundenbasierte Vergütung gilt als fairste Methode, da sie die Bezahlung direkt an die Bereitschaftszeit koppelt, erfordert jedoch einen höheren Verwaltungsaufwand. Die Vergütung nach tatsächlich bearbeiteten Vorfällen kann Mitarbeiter motivieren, schafft aber potenziell falsche Anreize.

Als bessere Alternative empfiehlt der Artikel, die Vergütung an die Serviceverfügbarkeit zu koppeln, was präventive Maßnahmen fördert. Tools wie PagerDuty können dabei helfen, die nötigen Daten für eine faire Vergütung zu sammeln.

Bei der Wahl des richtigen Modells sollten Unternehmen ihre spezifische Größe, Kultur und betrieblichen Anforderungen berücksichtigen und ein System entwickeln, das sowohl die Zeit als auch das Fachwissen der Mitarbeitenden angemessen wertschätzt.

Wertschätzung ist der springende Punkt, Serviceverfügbarkeit hin oder her – in der Regel opfert man ja Freizeit, in Form von von Einschränkung und Co. – das darf man bei der Bezahlung nicht vergessen.

How Should You Compensate Your Employees for Being On Call?


Bunny Shield: WAF Security-Lösung jetzt für alle verfügbar

Bunny.net hat mit Bunny Shield eine neue Web-Security-Suite vorgestellt, die darauf abzielt, hochwertige Sicherheitslösungen für alle zugänglich zu machen – nicht nur für Großunternehmen mit entsprechendem Budget.

Die neue Lösung kombiniert mehrere leistungsstarke Sicherheitsfunktionen:

  • KI-gestützter Lernmodus zur automatischen Optimierung von Sicherheitsregeln
  • Next-Gen WAF zum Schutz vor OWASP Top 10-Schwachstellen
  • Globales Rate-Limiting gegen Brute-Force-Angriffe
  • Fortschrittlicher DDoS-Schutz mit intelligentem Erkennungssystem
  • IP-Blocking für VPNs, TOR und verdächtige Quellen
  • Zero-Day-Schutz durch Echtzeit-Updates

Besonders schwäbisch: Bunny Shield bietet einen kostenlosen Basic-Plan, der bereits essenzielle Sicherheitsfunktionen enthält. Für anspruchsvollere Anforderungen gibt es den Advanced-Plan für 9,50$/Monat sowie einen Enterprise-Plan für geschäftskritische Anwendungen.

Die Lösung ist in das bunny.net-Netzwerk mit über 200 Tbps Kapazität und 119+ globalen Standorten integriert. Dabei legt das Unternehmen besonderen Wert auf Benutzerfreundlichkeit und Performance – vorkonfigurierte Profile und ein 7-tägiger Lernmodus erleichtern den Einstieg erheblich.

Mit dieser Initiative möchte bunny.net einen Beitrag zu einem sichereren Internet für alle leisten und plant bereits weitere Features wie Bot-Erkennung, API-Schutz und Upload-Scanning.

Da ich nun auch unter der Netzbremse der Telekom leide, werde ich sicherlich die ein oder andere Seite erstmal zu Bunny umstellen und hier darüber berichten.

Introducing Bunny Shield: Powerful security within reach of anyone


KI-Investitionsstopp: Amazon friert Rechenzentren-Ausbau ein

Nach Microsoft zieht nun auch Amazon die Notbremse: Wie unter anderem t3n berichtetet pausiert Amazon zahlreiche geplante KI-Rechenzentren weltweit – viele davon in Europa. Laut Berichten der Banken Wells Fargo und TD Cowen legt Amazon mehrere internationale Infrastrukturprojekte auf Eis, bei denen es sich häufig um Co-Location-Partnerschaften handelte (quelle: gizmodo.com).

Amazon verfügt aktuell über beeindruckende neun Gigawatt aktive Stromkapazität in bestehenden Rechenzentren – genug, um etwa 6,5 Millionen deutsche Haushalte zu versorgen. Doch die Expansion stockt nun überraschend.

Analysten sehen darin mögliche Anzeichen für eine sinkende Nachfrage nach KI-Infrastruktur. Viele Unternehmen kämpfen noch damit, KI profitabel zu implementieren. Auch überlastete Stromnetze stellen zunehmend ein Problem dar.

Für Nvidia könnte diese Entwicklung besonders problematisch werden, da der Chipkonzern stark vom KI-Boom abhängig ist. Zusätzlich belasten der US-chinesische Handelsstreit und eine drohende globale Rezession die Investitionsbereitschaft im KI-Sektor.

Die Börse reagiert bereits: Seit Jahresbeginn hat die Amazon-Aktie rund 24 Prozent an Wert verloren – ein Trend, der auch andere Tech-Unternehmen trifft. Mit Spannung werden nun die Quartalszahlen am 1. Mai erwartet, die Aufschluss über die tatsächliche Nachfrage nach KI-Diensten geben könnten. Kaufst du vorher noch nach? Oder zu viel Risiko?

Während Amazon und Microsoft zurückrudern, setzen Wettbewerber wie Meta und xAI übrigens weiterhin konsequent auf den Ausbau ihrer KI-Infrastrukturen.

Milliarden liegen plötzlich auf Eis: Auch Amazon stoppt Ausbau von KI-Rechenzentren


Wie man eine erstklassige Engineering-Kultur aufbaut

Mark Grebler beleuchtet in seinem aktuellen Substack-Artikel die fundamentalen Elemente einer herausragenden Engineering-Kultur. Er betont, dass eine starke Kultur Innovation beschleunigen, Produktivität steigern und Teams nachhaltig stärken kann, während eine schwache Kultur zu Demotivation und höherer Fluktuation führt.

Der Aufbau beginnt mit der Unternehmensbasis: Eine klar definierte Unternehmenskultur bildet das Fundament für die Engineering-Kultur. Die Engineering-Werte sollten darauf aufbauen und im Kontext der Technik konkretisiert werden.

Grebler identifiziert sechs Kernwerte einer exzellenten Engineering-Kultur:

  1. Lern- und Wachstumsmentalität: Fokus auf kontinuierliches Lernen, Selbstverbesserung und blamenloses Reflektieren von Fehlern
  2. Menschenzentriertheit: Priorisierung zwischenmenschlicher Beziehungen und emotionaler Intelligenz
  3. Bescheidenheit: Erkennen eigener Grenzen und Wertschätzung fremder Expertise
  4. Offene Kommunikation: Transparenz und konstruktives Feedback auf allen Ebenen
  5. Kollaborative, autonome Teams: Gemeinsame Ergebnisse über individuelle Leistungen stellen
  6. Fokus auf Kundenwert: Verstehen des „Warum“ hinter der Arbeit und Verantwortungsbewusstsein

Bei kultureller Diskrepanz zwischen Engineering und Unternehmenskultur empfiehlt Grebler drei Strategien: Die Unternehmenskultur beeinflussen, das Engineering-Team abschirmen oder die Diskrepanz offen ansprechen und graduelle Veränderungen anstreben.

In einem weiteren Artikel zeigt Grebler die konkrete Implementierung dieser Werte in Einstellungsprozesse, Entscheidungsfindung und Team-Rituale behandeln.

Defining a Great Engineering Culture


Linux Kernel: mit 30 Code-Zeilen 30% weniger Energieverbrauch?

Im verlinkten Artikel im IEEE Spectrum von Rina Diane Caballar wird eine sehr interessante Entwicklung beschrieben: Professor Martin Karsten und sein Team von der University of Waterloo haben durch eine minimale Änderung im Linux-Kernel massive Energieeinsparungen ermöglicht.

Der Kernpunkt: Durch die Umschreibung von nur 30 Code-Zeilen konnte das Team die Netzwerkverarbeitung optimieren, indem sie das System dynamisch zwischen zwei Modi umschalten lassen:

  • Busy Polling bei hohem Datenverkehr
  • Interrupt-basierte Verarbeitung bei niedrigem Aufkommen

Diese schlanke Optimierung ist bereits in Linux-Kernel 6.13 integriert und könnte angesichts der Dominanz von Linux in Rechenzentren weitreichende Auswirkungen haben. Besonders bedeutsam wird diese Innovation durch den steigenden Energiehunger von Rechenzentren, die in den USA bereits 4% des Stromverbrauchs ausmachen – mit Prognosen von bis zu 12% bis 2028.

Wie Karsten treffend bemerkt: „In den letzten 20 Jahren wurde Effizienz vernachlässigt. Alle waren auf Performance fixiert, ohne Rücksicht auf Ressourcenverbrauch.“ In Zeiten, in denen Rechenzentren in den USA bereits 4% des nationalen Stromverbrauchs ausmachen oder Anbieter wie Amazon ihren KI Ausbau drosseln, kommt diese Innovation genau zur richtigen Zeit.

Neulich hatte ich das Thema auch auf dem Tisch – beim Bare metal Hosting und dem Thema CPU Governor Einstellung. Manche Chipsets erlauben im Default hier nur noch „PowerSave“ oder „Performance“ – nicht aber mehr „OnDemand“ oder andere Scheduler – wollte ich mir nochmals anschauen – Erinnerung!

Data Centers Can Slash Power Needs With One Coding Tweak


Cilium wird Standard-CNI in Canonical Kubernetes

Canonical hat bei der Einführung seiner neuen Kubernetes LTS-Version eine wichtige Entscheidung getroffen: Cilium wird zum Standard-CNI (Container Network Interface) für alle Installationen. Diese Wahl spiegelt Canonicals Bestreben wider, eine moderne, sichere und leistungsstarke Kubernetes-Erfahrung zu bieten.

Was macht Cilium besonders? Im Gegensatz zu traditionellen CNIs, die auf iptables basieren, nutzt Cilium eBPF (Extended Berkeley Packet Filter) für effizienteres Netzwerk-Management direkt auf Kernel-Ebene. Dies eliminiert Skalierungsprobleme älterer Lösungen und bietet tiefere Einblicke in Netzwerkströme ohne Performance-Einbußen.

Die Entscheidung für Cilium basiert auf mehreren Faktoren:

  • Verbesserte Performance und Skalierbarkeit durch eBPF
  • Erweiterte Sicherheitsfunktionen mit identitätsbasierten Policies
  • Hervorragende Beobachtbarkeit für einfacheres Debugging
  • Nahtlose Integration mit Service-Meshes
  • Zukunftssicherheit durch moderne Technologie

Für unterschiedliche Anforderungen unterstützt Canonical Kubernetes weiterhin alternative CNIs wie Calico (robust mit umfangreichen Sicherheitsfunktionen), Flannel (leichtgewichtig für einfache Szenarien), Multus (für mehrere Netzwerk-Interfaces) und OVN-Kubernetes (für SDN-Funktionen mit Hardware-Beschleunigung).

Mit dieser strategischen Entscheidung positioniert Canonical sein Kubernetes-Angebot mit einem modernen Netzwerk-Stack, der sowohl für aktuelle als auch zukünftige Cloud-Native-Anforderungen optimiert ist.

The future of Kubernetes networking: Cilium and other CNIs with Canonical Kubernetes


Nintendo Wii als Web-Hosting Server

In der Tech-Welt experimentieren wir ja gerne mit ungewöhnlichen Setups – aber ein Blog, gehostet auf einer Nintendo Wii? Genau dieses Experiment beschreibt Alex Haydock in seinem aktuellen Artikel „This blog is hosted on a Nintendo Wii“.

Der Autor entdeckte, dass NetBSD 10.1 offiziell die Wii als First-Class-Target unterstützt – im Gegensatz zu vielen anderen veralteten Gaming-Konsolen-Portierungen. Während viele frühere Projekte wie PS2 Linux oder Dreamcast Linux längst eingestellt wurden, wird der NetBSD-Wii-Port aktiv gepflegt und erhält regelmäßige Updates.

Die Hardware-Specs sind natürlich bescheiden: Die Wii verfügt nur über einen einzelnen PowerPC-750-Prozessor (Codename „Broadway“) – eine Architektur, die bis zum iMac von 1998 zurückreicht. Interessanterweise kommt die gleiche Chipfamilie in strahlengehärteten Versionen beim James-Webb-Weltraumteleskop und den Mars-Rovern zum Einsatz.

Nach einigen Performance-Tests stellte der Autor fest, dass die Wii zwar statische Websites problemlos ausliefern kann, aber bei parallelen TLS-verschlüsselten Verbindungen an ihre Grenzen stößt. Die Lösung: Ein vorgeschalteter Caddy-Server übernimmt die TLS-Terminierung und leitet Anfragen an die Wii weiter.

Mit einem Stromverbrauch von etwa 18 Watt kostet der Betrieb überraschenderweise weniger als viele VPS-Angebote gängiger Cloud-Provider. Ein ungewöhnlicher, aber faszinierender Ansatz, der zeigt, was mit kreativen Einschränkungen möglich ist.

Der Artikel enthält natürlich einige witzige Herausforderungen – wie die Tatsache, dass nach jedem Systemneustart die Wiimote zum essentiellen Teil der Produktionsinfrastruktur wird – naja, wir haben ja auch davon gehört, dass U-Boote mit einem Playstation Controller gesteuert werden….

This blog is hosted on a Nintendo Wii


Neue Phishing-Methode nutzt Google-Infrastruktur

Ravie Lakshmanan berichtet in The Hacker News über eine raffinierte Phishing-Methode, bei der Cyberkriminelle die Google-Infrastruktur ausnutzen, um legitim wirkende, DKIM-signierte E-Mails zu versenden. Diese täuschend echten Nachrichten erscheinen als von „[email protected]“ versendet und warnen vor angeblichen Rechtsverfahren gegen den Google-Account des Empfängers.

Der Trick besteht in einem DKIM-Replay-Angriff: Angreifer erstellen einen Google-Account mit einem speziellen Namen, der den kompletten Phishing-Text enthält, und generieren darüber eine echte Google-Sicherheitsbenachrichtigung. Diese leiten sie dann über Drittanbieter-Dienste an das eigentliche Opfer weiter, wobei die valide DKIM-Signatur intakt bleibt.

Die Betrüger nutzen zudem die Schwachstellen von Google Sites, um dort gefälschte Anmeldeseiten zu hosten. Da Sites auf einer Google-Subdomain läuft und Skripte erlaubt, erscheinen diese Phishing-Seiten besonders vertrauenswürdig.

Google hat inzwischen reagiert und Schutzmaßnahmen implementiert. Das Unternehmen empfiehlt zur Absicherung die Nutzung von Zwei-Faktor-Authentifizierung und Passkeys, die effektiven Schutz gegen solche Phishing-Versuche bieten.

Phishers Exploit Google Sites and DKIM Replay to Send Signed Emails, Steal Credentials


Schmunzelecke

The Backdooms is a compressed, self-extracting and infinitely generating HTML game inspired by DOOM 1993 and The Backrooms that can be launched and played in a web browser directly from a QR code.

Und das alles in einem QR Code, extrem komprimiert, full-offline und mobile kompatibel – abgefahren, oder?
Gibt es eigentlich etwas, wo Doom noch nicht läuft?


💡 Link Tipps aus der Open Source Welt

Meltano: Code-first Integration für Data Engineers

Meltano ist eine Open-Source-ELT-Plattform, die Data Engineers volle Kontrolle über ihre Datenpipelines bietet. Mit dem CLI-Tool und Versionskontrolle kannst du deine Datenflüsse wie Code verwalten – ohne Einschränkungen oder Black-Box-Lösungen.

Kernfunktionen:

Meltano deckt alle Datenquellen ab: Datenbanken, SaaS-APIs, Dateien und interne Systeme. Der Ansatz „Everything as Code“ ermöglicht es Teams, Änderungen über Pull Requests vorzuschlagen und zu prüfen – da stehe ich ja sowieso drauf.

Besonders cool ist, dass man Konnektoren selbst anpassen oder gar erstellen kann – ohne auf Support-Teams warten zu müssen. Mit Meltano können Entwickler ihre Datenpipelines genau nach ihren Anforderungen gestalten und verwalten.

Im Vergleich zum ebenfalls sehr beliebten Airbyte gibt es bei Meltano keine Gui

https://github.com/meltano/meltano

Doltgres: Git und PostgreSQL in einem

Doltgres ist die neue PostgreSQL-Variante von Dolt, der ersten versionskontrollierten SQL-DatenbankDu kannst damit Datenbanktabellen ähnlich wie Git-Repositories verwalten – mit Branch, Merge, Fork, Clone, Push und Pull direkt über SQL-Befehle. Die Verbindung erfolgt wie bei einer regulären PostgreSQL-Datenbank, während die Versionskontrolle über Systemtabellen, Funktionen und Prozeduren gesteuert wird.

Obwohl noch in der Beta-Phase, ist Doltgres bereits produktionsreif und kann existierende PostgreSQL-Datenbanken via pg_dump und psql importieren. Unter der Haube emuliert es einen PostgreSQL-Server, interpretiert die SQL-Befehle aber über die Dolt-Engine mit dem gleichen Speicherformat wie Dolt.

https://github.com/dolthub/doltgresql


❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

573 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x