Willkommen zu allesnurgecloud.com – Ausgabe #189
So, für die Netzbremse habe ich nun 10 Messpunkte zusammen – coole Sache – vielen Dank erstmal an alle, die sich gemeldet haben. Man kann aktuell sagen, dass sich die Situation für Cloudflare Pro/Business und Enterprise Accounts spürbar verbessert hat – hier gab es vor allem in den Abendstunden ordentlich Probleme. Für einen Vergleich habe ich hier MyDealz.de und AboutYou.de verwendet.
Seit langem Probleme machen Cloudflare Free Accounts – solltest du das nutzen, dann am Besten Cloudflare abschalten oder auf andere Services wie BunnyCDN umziehen. Meld dich gerne, falls du hier Hilfe brauchst.
Du kannst auch gerne mal die Performance von allesnurgecloud.com mit happy-bootstrapping.de vergleichen – bist du bei der Telekom, sollte die Newsletter Website recht langsam laden und die Podcast Seite deutlich schneller – liegen aber auf dem gleichen Server.
Falls du die „Beyond the AI hype“ Keynote von Philipp „Pip“ Klöckner von der OMR 2025 noch nicht gesehen hast – die 47 Minuten auf YouTube sind super lehrreich und daher gut investiert. Auch den Vortragsstil finde ich spannend, da hat keiner Zeit für „Second Screen“, da man Angst hat, was zu verpassen.
Happy Bootstrapping Podcast
Auch in der aktuellen Podcast Folge geht es um AI – Benjamin Seifert und da logicc.com Team bauen eine datenschutzkonforme KI Plattform aus Deutschland. Ab 14,90€ kannst du alle Modelle nutzen, ein „Smart AI“ Routing nutzt das beste Modell für deine Anfrage – Daten bleiben in Deutschland oder gar auf eigenen Servern. Dazu gibt es AI Consulting und Integrationsservices – tolle Story und ein echt junges Gründerteam – freu mich auf dein Feedback zur Folge 121 – jetzt direkt reinhören.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
StackOverflow: Rückgang der Nutzeraktivität
Na, nutzt du noch StackOverflow? Pragmatic Engineer Gergely Orosz analyisert im aktuellen The Pulse Newsletter den aktuellen Zustand der populären Entwicklerplattform Stack Overflow aufgezeigt. Die Anzahl der monatlich gestellten Fragen ist auf ein Niveau gefallen, das zuletzt 2009 – kurz nach dem Launch der Plattform – zu beobachten war.
Chronologie des Niedergangs:
- 2014: Erste Anzeichen des Rückgangs, zeitgleich mit verschärfter Moderation auf der Plattform
- März 2020: Kurzzeitiger Anstieg durch pandemiebedingte Remote-Arbeit
- Juni 2020: Beschleunigter Rückgang, noch vor dem Launch von ChatGPT
- Juni 2021: Verkauf von Stack Overflow für 1,8 Milliarden Dollar an Prosus
- November 2022: Mit dem Erscheinen von ChatGPT rapider Einbruch der Nutzungsstatistiken
- Mai 2025: Aktuelle Zahlen zeigen nur noch etwa 14.000 Fragen pro Monat – vergleichbar mit dem dritten Monat nach der Gründung
KI als alleinige Ursachen?
Der Artikel identifiziert zwei Hauptfaktoren: Die zunehmend strenge Moderationspolitik seit 2014 schuf ein weniger einladendes Umfeld für Fragesteller. Mit dem Aufkommen von LLMs wie ChatGPT, die auf Stack-Overflow-Daten trainiert wurden und schnelle, höfliche Antworten liefern, beschleunigte sich der Niedergang dramatisch.
Orosz bedauert diese Entwicklung und betont die positive Rolle, die Stack Overflow für Generationen von Entwicklern gespielt hat. Trotz des wahrscheinlichen Endes der Plattform bleibt er optimistisch, dass sich neue Räume für den menschlichen Austausch unter Entwicklern etablieren werden – sei es in Discord-Servern, WhatsApp-Gruppen oder anderen Formaten.
Die Frage scheint nicht mehr zu sein, ob Stack Overflow eingestellt wird, sondern wann dies geschehen wird – ein bemerkenswertes Ende für eine Plattform, die das Leben von Millionen Entwicklern geprägt hat. Und vermutlich ist das ein oder andere LLM ja nicht nur mit Reddit, sondern auch mit StackOverflow Daten trainiert worden – was passiert, wenn es diese in Zukunft nicht mehr gibt?
Ending TLS Client Authentication Certificate Support in 2026
Google gibt nach: Nextcloud darf wieder alles synchronisieren
In einem Artikel bei The Register und einer ausführlichen Stellungnahme von Nextcloud erfährt man, dass die Android-App von Nextcloud seit Mitte 2024 mit erheblichen Einschränkungen zu kämpfen hatte. Google hatte die Berechtigung für den Zugriff auf alle Dateitypen („All files access“) zurückgezogen, wodurch nur noch Fotos und Videos hochgeladen werden konnten.
Hintergrund des Konflikts:
- Google entzog der App mit fast einer Million Nutzern im September 2024 ohne Vorwarnung die Vollzugriffsberechtigung
- Alternative APIs wie SAF oder MediaStore waren keine praktikablen Alternativen für Nextcloud
- Auf F-Droid war die App weiterhin voll funktionsfähig, nur im Play Store gab es Einschränkungen
Update: Google lenkt ein
Die gute Nachricht: Google hat am 15. Mai endlich reagiert und wird die Berechtigung wiederherstellen. Nextcloud arbeitet bereits an einem Update, das in den nächsten Tagen erscheinen soll.
Nextclouds Kritik: Für Nextcloud war dies ein klares Beispiel für Gatekeeping durch Big Tech. Das Unternehmen argumentiert, dass Google seine Plattformmacht nutzt, um Konkurrenten zu benachteiligen, während eigene Apps und die großer Partner weiterhin vollen Dateizugriff erhalten.
Interessant ist das Timing der Lösung – sie kam erst nach öffentlichem Druck und medialer Aufmerksamkeit.
Bist du Nextcloud Nutzer und warst davon betroffen?
Unhappy with the recently lost file upload feature in the Nextcloud app for Android?
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
Was die besten Remote-Teams anders machen
In der aktuellen Debatte um Remote-Arbeit und Return-to-Office-Mandate ist es aufschlussreich, auf Unternehmen zu blicken, die bereits vor der Pandemie erfolgreich ohne Büros gearbeitet haben. In einem aufschlussreichen Artikel stellt Marissa Goldberg vier entscheidende Strategien vor, die erfolgreiche Remote-Teams gemeinsam haben.
Die vier Säulen des Remote-Erfolgs:
- Komplett remote oder gar nicht Das Hybrid-Modell zeigt in der Praxis erhebliche Schwächen. Buffer beispielsweise schloss 2015 nach zweijährigem Experiment sein San Francisco-Büro, nachdem sie feststellten, dass Hybrid-Arbeit die Gemeinkosten verdoppelte und die Entscheidungsfindung verlangsamte.
- Vertrauen statt Überwachung Erfolgreiche Remote-Unternehmen verzichten auf Keylogger und Webcam-Spyware. Sie konzentrieren sich auf Ergebnisse statt auf geleistete Stunden. Dazu gehören Einstellungspraktiken, die Autonomie und asynchrone Kommunikationsfähigkeiten prüfen, sowie klare Erwartungen an die Arbeitsergebnisse.
- Zielgerichtete Team-Retreats Anstelle erzwungener Zoom-Teambuilding-Aktivitäten setzen erfolgreiche Remote-Teams auf gezielte persönliche Treffen. Zapier beispielsweise fliegt jährlich über 600 Mitarbeiter aus 40+ Ländern zu einem einwöchigen Summit zusammen.
- Tiefenarbeit als Standard Die besten Remote-Unternehmen verstehen den Unterschied zwischen Arbeit und Gesprächen über Arbeit. Doist verzichtet standardmäßig auf regelmäßige Meetings, während GitLab auf Issue-Threads und Handbuchseiten setzt, bevor Zoom-Einladungen verschickt werden.
Diese vier Strategien bilden das minimale Betriebssystem für remote-first Unternehmen. Wer eine Strategie vernachlässige, riskiere das Fundament, so Marissa.Die Erfolgsformel lautet: Entscheide dich für einen klaren Weg, bewerte Ergebnisse statt Mausbewegungen, investiere in echte zwischenmenschliche Chemie und schütze deinen Kalender wie einen Tresor.
Wie siehst du das? ich meine, 600 Leute kann man noch zusammenbringen an einem Ort, bei mehreren Tausend oder 10.000 wird das Ganze dann schon schwierig bis unmöglich.
What the Best Remote Teams Do Differently
Self-Hosting als Alternative zu Microsoft Lösungen
OneBitAhead beschreibt in seinem Artikel „Goodbye, Microsoft“ die strategische Entscheidung seines Unternehmens, die Software-Landschaft von proprietären US-Anbietern wie Microsoft zu Open-Source-Alternativen zu migrieren. Ziele: digitale Souveränität, Kostenreduzierung und größere Flexibilität.
Der Migrationsprozess ist iterativ geplant und soll bis Oktober 2025 abgeschlossen sein. Im ersten Schritt wurden Microsoft 365-Dienste durch folgende Alternativen ersetzt:
- Mattermost: Kommunikations- und Kollaborationsplattform
- Jitsi Meet: Videokonferenz-Tool statt Microsoft Teams
- LibreOffice: Office-Suite kompatibel mit gängigen Dateiformaten
- Mail-Server/Thunderbird: Mail-Lösung mit IMAP/SMTP und Kalenderintegration
Der Artikel bietet detaillierte Installationsanleitungen für Jitsi Meet und Mattermost auf Linux-Servern mittels Docker. Besonders interessant ist die Integration beider Systeme über ein Jitsi-Plugin für Mattermost, wodurch Videokonferenzen direkt aus dem Chat gestartet werden können.
Die bisherigen Erfahrungen waren positiv, und das Unternehmen ist zuversichtlich, auch die Migration von Windows und installierten Anwendungen bis Ende des Sommers abschließen zu können. Microsoft Aktien muss man deshalb vermutlich nicht verkaufen, das Beispiel zeigt aber schön, dass es auch anders geht.
Versteckte Kosten bei Microservices
In einem aufschlussreichen Artikel von Oleg Pustovit wird ein wichtiges Thema für Startups behandelt: Die voreilige Einführung von Microservices kann die Entwicklungsgeschwindigkeit drastisch reduzieren und damit die Überlebensfähigkeit junger Unternehmen gefährden.
Die versteckten Kosten von Microservices:
- Komplexe Deployments mit Orchestrierung von 5+ Services für einzelne Features
- Fragile lokale Entwicklungsumgebungen mit Docker-Wildwuchs
- Duplizierte CI/CD-Pipelines mit redundanter Logik
- Ungeplante Kopplung von „entkoppelten“ Services durch gemeinsam genutzten Status
- Hoher Overhead für Observability und fragmentierte Testsysteme
Praxisbeispiel: Erfolgreicher Monolith Pustovit beschreibt ein Real-Estate-Startup, bei dem ein Laravel-basierter Monolith organisch wachsen konnte. Was als einfaches Dashboard für Immobilienmakler begann, entwickelte sich zu einem umfassenden System mit Dokumentenverwaltung und Dutzenden von Drittanbieter-Integrationen. Durch Nutzung von Laravel-Best-Practices konnte das Team die Anwendung erheblich skalieren, ohne sie in Microservices aufzuteilen. Dieses Beispiel unterstreicht, dass ein „Majestic Monolith“ bei richtiger Modularisierung durchaus skalierbar ist.
Wann Microservices Sinn machen:
- Bei Isolierung unterschiedlicher Workloads
- Bei verschiedenen Skalierungsanforderungen einzelner Systemteile
- Bei unterschiedlichen Laufzeitanforderungen
Praktische Empfehlungen: Mit einem Monolithen starten, ein Repository nutzen, für einfaches lokales Setup sorgen und früh in CI/CD investieren. Services nur dann aufspalten, wenn sie einen echten Schmerzpunkt lösen.
Microservices Are a Tax Your Startup Probably Can’t Afford
Let’s Encrypt beendet TLS-Client-Authentifizierung
Im Blog-Beitrag von Let’s Encrypt kündigt die Organisation an, dass sie ab 2026 keine Zertifikate mehr mit der „TLS Client Authentication“ Extended Key Usage (EKU) ausstellen wird. Diese Änderung wird stufenweise eingeführt, wobei der vollständige Übergang bis Mai 2026 abgeschlossen sein soll.
Hintergrund und Zeitplan:
- Ab sofort: Der
tlsserver
ACME-Profil enthält bereits keine Client-Auth-EKU mehr - Oktober 2025: Einführung eines neuen
tlsclient
ACME-Profils für Übergangsnutzer - Februar 2026: Das Standard-Profil
classic
enthält keine Client-Auth-EKU mehr - Mai 2026: Das
tlsclient
Profil wird eingestellt
Ursache der Änderung: Die Entscheidung basiert auf geänderten Anforderungen des Google Chrome Root-Programms, das eine Trennung von Client- und Server-Authentifizierung in separate PKIs bis Juni 2026 vorschreibt.
Kritik von Jan Wildeboer: In einer Reihe von Mastodon-Posts kritisiert Jan Wildeboer diese Entscheidung scharf. Er argumentiert, dass:
- Die Änderung Postmaster und Mailserver-Administratoren vor große Herausforderungen stellt
- Die Entscheidung gegen den aktuellen Trend läuft, E-Mail-Infrastrukturen zu dezentralisieren
- Let’s Encrypt eine wichtige Funktion nur aufgrund von Google-Vorgaben entfernt
- Server-Administratoren künftig zwei verschiedene Zertifikate pro Server/Domain benötigen
Diese Änderung kommt zu einer Zeit, in der weltweit Diskussionen geführt werden, Mailserver wieder in Organisationen zurückzuführen, anstatt auf große (US-)Provider zu setzen. Die neue Anforderung könnte die Verschlüsselung für viele Administratoren verkomplizieren statt sie zu vereinfachen.
Schade, Schade – hoffentlich gibt es hier noch ein Einlenken und andere Möglichkeiten in Zukunft – Danke an Jan fürs einsenden, hätte ich sonst verpasst.
Ending TLS Client Authentication Certificate Support in 2026
Vier Trends im aktuellen Thoughtworks Technology Radar
Die neueste Ausgabe des Thoughtworks Technology Radar zeigt interessante Muster in der Tech-Landschaft auf. Der Technology Radar ist ein halbjährlicher Überblick über Tools, Techniken, Plattformen und Frameworks, der auf den Erfahrungen der globalen Teams von Thoughtworks basiert und Empfehlungen in vier Kategorien einteilt: Adopt (empfohlen), Trial (erprobenswert), Assess (beobachtenswert) und Hold (vorsichtig sein).
Die wichtigsten Trends dieser Ausgabe:
Überwachte Agenten in Coding-Assistenten
- KI-Assistenten gehen über einfache Code-Snippets hinaus
- Tools wie Cursor, Cline und Windsurf führen bei IDE-integrierten Lösungen
- Terminal-basierte Alternativen: aider, goose und Claude Code
- Trotz Fortschritten bleibt Vorsicht bei KI-generiertem Code geboten
Weiterentwicklung der Observability
- Wachsende Komplexität verteilter Architekturen erfordert bessere Beobachtbarkeit
- Neue Fokussierung auf LLM-Observability mit Tools wie Weights & Biases Weave
- KI-unterstützte Analysen und Erkenntnisse gewinnen an Bedeutung
- OpenTelemetry ermöglicht standardisierte, anbieterunabhängige Lösungen
Fortschritte im Retrieval bei RAG
- Das „R“ in RAG (Retrieval-Augmented Generation) entwickelt sich schnell weiter
- Neue Ansätze: Corrective RAG, Fusion-RAG und Self-RAG
- FastGraphRAG verbessert die Verständlichkeit durch navigierbare Graphen
Zähmung der Datengrenze
- Fokus verschiebt sich von Datenmenge zu Umgang mit komplexen Daten
- Wichtige Tools: Vector-Datenbanken und Analyseprodukte wie Metabase
- „Data Product Thinking“ als neuer Framework-Ansatz
- Richtige Datendisziplin wird zum entscheidenden Wettbewerbsvorteil
Den kompletten Report bekommst du hier als PDF (46 Seiten).
Wie NonProd Incidents bei Stärkung der Resilienz helfen können
Joe Mckevitt teilt in seinem Artikel „Turning Non-Prod Incidents into Resilience-Building Opportunities“ wertvolle Erkenntnisse darüber, wie selbst Störfälle in Entwicklungsumgebungen als Chance zur Verbesserung der Teamresilienz genutzt werden können.
Der konkrete Vorfall bei Uptime Labs
Der Autor beschreibt einen Vorfall, bei dem ein Teammitglied versehentlich eine kritische Ressource im Login-Prozess der Entwicklungsumgebung löschte. Die Situation wurde schnell identifiziert:
- Ein Kollege meldete im Slack-Kanal: „Wir können uns nicht in der Entwicklungsumgebung anmelden“
- Wichtig: Es wurde sofort klargestellt, dass die Produktion nicht betroffen war
- Der verantwortliche Entwickler stand schnell zu seinem Fehler
Der Kulturansatz: Blameless Culture als Fundament
Mckevitt betont die entscheidende Bedeutung einer schuldzuweisungsfreien Kultur für die Organisationsresilienz:
- Psychologische Sicherheit muss gewährleistet sein
- Fehler werden nicht als persönliches Versagen, sondern als Systemschwächen betrachtet
- Die zentrale Frage lautet: „Was hat diesen Fehler ermöglicht?“ statt „Wer ist verantwortlich?“
Wichtige Erkenntnisse für die Praxis
Das Team behandelte den Nicht-Produktionsvorfall mit derselben Ernsthaftigkeit wie einen Produktionsausfall:
- Sie führten ein Post-Incident-Review durch
- Implementierten technische Änderungen, um denselben Fehler künftig zu verhindern
- Nutzten den Vorfall als Lernmöglichkeit für das gesamte Team
Fazit des Autors: „Verschwende niemals einen guten Vorfall – selbst wenn er nicht in der Produktionsumgebung auftritt.“ Als Führungskraft sollte man mutiges Verhalten öffentlich würdigen und die Bedeutung einer blameless Culture kontinuierlich kommunizieren.
Die Theorie kennen wir vermutlich alle, in der Praxis ist das dann ein wenig schwieriger.
Turning Non-Prod Incidents into Resilience-Building Opportunities
Fallstricke der Disk IO: Was kann schon schiefgehen?
In einem recht aktuellen Blogbeitrag vom 27. März 2025 analysiert Phil Eaton verschiedene Problemszenarien bei Festplattenzugriffen, die besonders für transaktionale Systeme wie Datenbanken kritisch sind.
Häufige Probleme bei Festplattenzugriffen
- Daten erreichen nie die Festplatte: Standardmäßig werden Schreibvorgänge als erfolgreich gemeldet, sobald die Daten im Kernel-Speicher sind – ohne fsync können Daten bei Systemabstürzen verloren gehen
- fsync-Fehler: Selbst wenn fsync fehlschlägt, ist nicht ersichtlich, welcher Schreibvorgang betroffen war
- Datenkorruption: Ohne Checksummen bleibt diese unbemerkt – ZFS, MongoDB, MySQL und RocksDB prüfen standardmäßig, PostgreSQL und SQLite nicht
- Unvollständige Schreibvorgänge: Sogenannte „torn writes“ treten auf, wenn Systemabstürze während mehrsektoraler Schreibvorgänge passieren
- Phantom-Schreibvorgänge: Manchmal meldet fsync Erfolg, obwohl die Festplatte die Daten nicht gespeichert hat
- Fehlgeleitete Zugriffe: Daten werden an falscher Stelle geschrieben oder von falscher Stelle gelesen
Der Autor verweist auf zwei Forschungspapiere: „Parity Lost and Parity Regained“ und „Characteristics, Impact, and Tolerance of Partial Disk Failures„, die bestätigen, dass diese Probleme in der Praxis tatsächlich auftreten.
Besonders interessant ist der Hinweis, dass macOS fsync standardmäßig als No-Op behandelt und dass verschiedene Datenbanksysteme unterschiedliche Standardeinstellungen für die behandelten Probleme verwenden.
Things that go wrong with disk IO
Schmunzelecke
LLM mit User-Interface aus den 90ern? Geht – mit Clippy – gibt es für macOS, Windows und Linux – hammer.
Wusstest du, dass Steve Job erstmal nicht [email protected] als E-Mail hatte – sondern ein ganz anderer Steve? mehr bei „Great idea, thank you.“
💡 Link Tipps aus der Open Source Welt
OpenReplay: Open-Source Session Replay
OpenReplay ist eine selbst-hostbare Open-Source-Lösung für Session Replay, die Entwicklern tiefe Einblicke in das Nutzerverhalten auf Webseiten ermöglicht. Die Software hilft dabei, Probleme schneller zu identifizieren und zu beheben, indem sie nicht nur die Nutzeraktionen aufzeichnet, sondern auch technische Details unter der Haube erfasst.
Anders als bei proprietären Lösungen bleiben alle Daten in deiner eigenen Cloud-Umgebung, was besonders für datenschutzsensible Unternehmen ein entscheidender Vorteil ist. Mit nur ~26KB (.br) Tracker-Größe bleibt der Performance-Einfluss minimal.
Features im Überblick
- Umfassende DevTools mit Netzwerkaktivität, JS-Fehlern, Store-Aktionen und über 40 Metriken
- Assist-Funktion für Live-Support und WebRTC-Calls ohne Drittanbieter
- Flexible Datenschutzkontrollen zum Maskieren oder Ignorieren sensibler Nutzerdaten
- Leistungsstarke Omni-Suche ohne zusätzliche Instrumentierung
- Tiefe Integrationen mit Redux, VueX, MobX, GraphQL, Sentry, Datadog und weiteren Tools
Besonders überzeugend ist die Möglichkeit, Backend-Logs mit den Frontend-Aufzeichnungen zu synchronisieren, was einen durchgängigen Blick auf die gesamte Anwendung ermöglicht. Die einfache Bereitstellung auf allen gängigen Cloud-Plattformen (AWS, GCP, Azure, DigitalOcean) macht die Einrichtung zum Kinderspiel.
Für Entwicklungsteams, die Wert auf Datenhoheit und tiefgreifende Analysen legen, könnte OpenReplay eine überzeugende Alternative zu kommerziellen Session-Replay-Diensten sein oder auch Tools wie Sentry sein. Es gibt nicht nur ne SaaS Variante sondern auch ne Enterprise Lizenz für den Self-Hosted Einsatz, die dann neben den üblichen SSO/SAML, und RBAC Features auch Reporting und AI Features enthält.
https://github.com/openreplay/openreplay
OpenAI Codex CLI: Terminal-basierter KI-Entwicklungsassistent
OpenAI hat mit Codex CLI ein spannendes Open-Source-Tool für Entwickler veröffentlicht, das KI-gestützte Coding-Unterstützung direkt im Terminal bietet. Der Agent versteht deinen Code-Kontext und kann nicht nur Vorschläge machen, sondern diese auch direkt ausführen.
Das Tool punktet durch seinen „Zero Setup“-Ansatz – nur ein OpenAI API-Key wird benötigt. Besonders beeindruckend ist das durchdachte Sicherheitskonzept mit verschiedenen Berechtigungsstufen und einer netzwerkisolierten Sandbox für die Codeausführung.
Praktische Features:
- Verschiedene Approval-Modi von Vorschlägen bis zur vollautomatischen Ausführung
- Netzwerkisolierte Sandbox für sichere Code-Ausführung
- Multimodale Unterstützung für Screenshots und Diagramme
- Volle Git-Integration für versionskontrollierte Änderungen
- Vollständig Open-Source mit transparenter Entwicklung
Für Terminal-Enthusiasten definitiv einen Blick wert – Codex könnte die Lücke zwischen theoretischer KI-Unterstützung und tatsächlicher Code-Ausführung schließen – ob es einen „rm -rf“ Schutz eingebaut hat?
https://github.com/openai/codex
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: