Willkommen zu allesnurgecloud.com – Ausgabe #208
in dieser Woche ist etwas interessantes passiert, das bei uns etwas untergegangen ist. in Holland hat die Regierung die Kontrolle über den chinesischen Chip Hersteller Nexperia übernommen. Ist das nun die erste Phase in einer weiteren Eskalation des Handelsstreits oder nur ein wenig Beiwerk?
Auch ganz interessant – in den USA sind die AI Data Center Neubauten für 92 % des Wirtschaftswachstums (US GDP growth) verantwortlich. Platzt hier die Blase oder beschliessen die Hyperscaler im Februar/März 2026, weniger DCs zu bauen und bei Nvidia weniger zu ordern, dann könnten die USA das gleiche Null-Wachstum wie Deutschland erreichen.
Ansonsten hast du die gestohlenen Cloud Backups bei Sonicwall in der letzten Woche bestimmt noch mitbekommen – hat es nicht mehr in den Newsletter geschafft. In dieser Woche hat es dann F5 erwischt – man hat Source Code inklusive Informationen zu „undisclosed vulnerabilities“ erbeutet. Das wird bestimmt noch spaßig.
Happy Bootstrapping Podcast
Machen wir weiter mit schöneren Themen – bewerte doch bitte meinen Podcast bei Spotify oder Apple – das würde mir sehr helfen – Danke!
In der aktuellen Folge 143 hab ich zum zweiten Mal den Sebastian Röhl von HabitKit zu Gast. Er macht mittlerweile bis zu 30.000$ MRR als Solo Entwickler – mit ordentlichen saisonalen Schwankungen. Wir sprechen über den Umgang mit diesen Challenges, wie man die Motivation hoch hält, eine neue App baut und nen Billboard am Times Square bekommt – hör gerne mal in Folge 143 rein (Spotify / Apple).
Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchen, kannst du das auf passionfroot machen.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
EU baut KI-Infrastruktur aus: 6 neue AI Factories
Die EU-Kommission hat 6 neue AI Factories in Tschechien, Litauen, den Niederlanden, Rumänien, Spanien und Polen angekündigt, wie Trending Topics berichtet. Damit steigt die Gesamtzahl auf 19 AI Factories in 16 EU-Mitgliedstaaten. Die dritte Welle wird mit über 500 Millionen Euro finanziert.
Wichtig Aber: Die AI Factories (KI-optimierte Supercomputer für Startups und KMU) sind nicht die deutlich größeren AI Gigafactories aus dem AI Continent Action Plan mit 20 Milliarden Dollar Budget. Bei dieser Gigafactory-Ausschreibung ging Deutschland leer aus.
Im Mai 2025 kündigten SAP, Deutsche Telekom, Ionos, die Schwarz-Gruppe und Siemens eine gemeinsame Bewerbung an. Einen Monat später war die Allianz zerbrochen – Deutschland trat mit drei konkurrierenden Bewerbungen an, wie ein ausführlicher Blogpost analysiert.
Die Gründe:
- Unterschiedliche strategische Ansätze (Telekom mit Nvidia-Deal vs. Schwarz-Gruppe mit Lübbenau-Standort)
- Ungeklärte Standortfrage (Stuttgart, Jülich, München)
- Hohe Energiekosten (25-30 Cent/kWh vs. 5 Cent in Asien)
- Deutschland investierte 2024 nur 54 Mio. Dollar in KI-Rechenkapazität, Kanada hingegen schon 2 Milliarden – mit den USA brauchen wir uns gar nicht vergleichen
Allerdings hat Deutschland mit JAIF in Jülich und HammerHAI in Stuttgart zwei funktionierende AI Factories und gehört damit zu den europäischen Vorreitern. Die Mittel für Gigafactories wären vorhanden – was fehlt, ist scheinbar der gemeinsame Wille oder der ein oder andere Kompromiss.
6 neue AI Factories in Tschechien, Litauen, den Niederlanden, Rumänien, Spanien und Polen
Digitale Souveränität: Schleswig-Holstein migriert 30.000 Mitarbeiter auf Open Source
Das deutsche Bundesland Schleswig-Holstein hat seine komplette E-Mail-Infrastruktur von Microsoft Exchange und Outlook auf Open-Source-Alternativen umgestellt, wie Sourav Rudra auf It’s FOSS berichtet. Die Migration betraf 30.000 Mitarbeiter und wurde am 2. Oktober 2025 nach sechs Monaten abgeschlossen.
Die technischen Details
- 40.000 Mailboxen mit über 100 Millionen E-Mails und Kalendereinträgen migriert
- Server-Lösung: Open-Xchange (AGPL-lizenziert, gehostet von Dataport AöR)
- Client: Thunderbird als Desktop-Client
- Mobile Synchronisation via IMAP, SMTP, CalDAV, CardDAV
- Backend: Dovecot Pro als Mail-Server
Teil einer größeren Strategie
Dies ist nicht die erste Open-Source-Migration in Schleswig-Holstein. Bereits letztes Jahr begann die Umstellung von Microsoft Office auf LibreOffice. Digitalisierungsminister Dirk Schrödter betont: „Wir sind echte Pioniere. Es gibt kaum ein vergleichbares Projekt dieser Größenordnung weltweit.“
Wie immer wird das Thema auf Hacker News kontrovers diskutiert. User mfuzzey erklärt der Welt auf Hacker News, was wir schon länger wissen: Die USA werden zunehmend als unzuverlässiger Partner gesehen. Digitale Souveränitäts-Argumente werden sowohl von Politikern als auch der Öffentlichkeit verstanden – anders als frühere Kostenargumente oder Freiheits-Diskussionen, die schwer zu vermitteln waren.
kwar13 warnt: „Es ist wirklich wichtig, dass Nationen ihre Infrastruktur nicht auf Closed-Source-Software aufbauen, die andere kontrollieren.“ Die Abhängigkeit lateinamerikanischer Länder von WhatsApp sei ein Beispiel für massive nationale Sicherheitsrisiken. Die komplette Diskussion mit über 140 Kommentaren findest du hier bei HN.
Dies ist ein Präzedenzfall für digitale Souveränität in der Praxis. Anders als München (das aus politischen Gründen zu Windows zurückkehrte) scheint Schleswig-Holstein langfristig zu planen. Die Herausforderung: E-Mail-Deliverability außerhalb des Gmail/M365-Ökosystems – auf der anderen Seite ist es vielleicht auch der Nummer 1 Grund, hier eine wirklich souveräne Lösung zu nutzen.
Hoffentlich schneiden sich andere Bundesländer und Unternehmen eine Scheibe davon ab.
Good News! Germany’s Schleswig-Holstein Completes Massive Migration to Open Source Email Systems
Anzeige
Hier könnte Deine Werbung stehen
Du möchtest Deine Firma, angebotene Dienstleistungen & Services oder Dein SaaS Produkt hier im Newsletter vorstellen?
Du suchst neue Mitarbeiter und möchtest diese direkt erreichen?
Erreiche über 1400 Cloud und Open-Source Enthusiasten direkt per E-Mail und im RSS Feed. Dazu kommen 1000+ Impressions im LinkedIn Artikel des Newsletters.
Die Preise beginnen ab 150€ pro Ausgabe – bei Interesse antworte mir direkt auf den Newsletter oder kontaktiere mich über LinkedIn ich schreib dann auch ganz schnell zurück.
Jetzt Werbung anfragen (und Freitags deployen)
Wie Daily Tracking und Streaks beim Erreichen von Zielen helfen
Passend zur heutigen Happy Bootstrapping Podcast Empfehlung (Folge 143 hier) beschreibt Ashley Janssen in einem Blogpost, wie eine MS-Diagnose 2017 ihr Leben veränderte – und wie sie durch tägliches Tracking die Kontrolle zurückgewann.
Nach ihrer Multiple-Sklerose-Diagnose startete Janssen am 1. Januar 2018 eine 30-Tage-Yoga-Challenge. Daraus wurden 1.375 Tage ohne Unterbrechung. Sie ergänzte Laufen, HIIT und Krafttraining. Ihre MS ist seitdem in Remission.
Entgegen der Annahme von 21 Tagen dauert es durchschnittlich 66 Tage, bis Verhalten automatisch wird (James Clear, Phillippa Lally). Tracking hilft zweifach:
- Dopamin-Kick: Abhaken gibt Erfolgsgefühl
- Visuelles Feedback: Wachsende Zahlen motivieren
Janssen nutzt Tracking für ihre Schreibpraxis (1 Stunde/Tag für Blog-Artikel) und Daily Reflection. Sie trackt nicht nur „Erledigt“, sondern auch Stimmung, Energielevel, Schlafqualität und Trainingsarten.
Ihre Tools:
- Spreadsheets für Reflection
- Streaks App (iPhone)
- Countdown für Fortschritt
- Apple Fitness/Strava
Streaks funktionieren, weil sie Fortschritt sichtbar machen. Niemand will eine 100-Tage-Streak brechen. Janssens Erfolg basiert auf kleinen Schritten (erst 30 Minuten Yoga), nicht Perfektion. Das gilt auch für Tech-Projekte: Lieber täglich 15 Minuten an einem Side-Project als einmal monatlich 8 Stunden. Wobei man schon überlegen muss, ob man wegen 15 Minuten anfängt.
Mir helfen Streaks auch enorm und ich nutze daher auch HabitKit seit 2 Jahren dafür – liegt vielleicht auch an der GitHub Contribution Graph Visualisierung – ich hab da alles mögliche drin – 10.000 Schritte, Liegestützen Ziele, Sport aber auch Kundenaquise und „Newsletter Artikel“ schreiben.
How Tracking and Streaks Help You Establish Habits and Reach Your Goals
HashiCorp-Gründer: So baut man Features mit KI – Slop inklusive
Mitchell Hashimoto, HashiCorp-Gründer und Ghostty-Entwickler, veröffentlicht einen bemerkenswert transparenten Blogpost: Jede einzelne KI-Session für ein macOS-Feature – ungeschönt, mit allen Fehlschlägen. 16 Sessions, 16 Dollar, 8 Stunden – und ehrliche Einblicke in Erfolge und Fails.
Das Feature: Update-Benachrichtigungen als kleine GUI-Elemente in der Titelleiste statt störende Pop-ups. Auslöser: Eine Ghostty-Meldung unterbrach eine OpenAI-Keynote – na das sind mal Probleme!
Der Prozess: KI als Assistent
Hashimoto betont: „Ich iteriere fast immer selbst nach der KI.“ Seine Methode:
- Planung bleibt menschlich: Backend (Sparkle-Framework) und Frontend (SwiftUI) durchdacht, bevor die erste Session startet
- 16 kleine Sessions: UI-Prototyping, Code-Cleanup, Bug-Fixing, Backend, Integration
- Die „Slop Zone“ erkennen: Bei kritischen Bugs in Chats 11-14 stoppt er die KI und recherchiert selbst
- „Anti-Slop Sessions“: Nach jeder KI-Arbeit folgt Code-Reorganisation und Dokumentation
- KI als Muse: Oft verwirft er alles und macht es selbst – aber die KI gibt den initialen Anstoß
Am Ende hatte Mitchell Token-Kosten von $15.98 über ~8 Stunden verteilt auf 3 Tage produziert. Parallel liefen Ghostty-Release, Podcast-Auftritt und Zoo-Präsentation. KI beschleunigt also nicht zwingend, aber ermöglicht asynchrones Arbeiten – etwa während der Breakfast-Prep für die Familie, wie ein Foto im Post zeigt. Hashimotos Transparenz ist vorbildlich für realistische KI-Nutzung.
Vibing a Non-Trivial Ghostty Feature
Unkey verlässt Serverless: 6x Performance-Boost mit Go Server
Das API-Authentifizierungs-Startup Unkey migrierte von Cloudflare Workers auf stateful Go-Server und erreichte damit 6x bessere Performance, wie Andreas Thomas in seinem Blogpost erklärt.
Die ursprüngliche Cloudflare-Workers-Lösung kämpfte mit fundamentalen Limitierungen: Cache-Latenz von 30ms+ bei p99 (Target: unter 10ms), keine persistente Memory zwischen Invocations. Jeder Cache-Read erforderte einen Network-Request – zero Network Requests sind immer schneller als einer, so der Artikel.
Dazu kam das „SaaS-Glue-Problem“: Redis für Caching, Queues für Batching, Logstreams, Durable Objects – ein Haufen zusätzlicher Services nur um Serverless-Beschränkungen zu umgehen. Für Analytics bauten sie chproxy zum Event-Batching an ClickHouse, für Logs einen weiteren Buffering-Service weil Axiom sonst Requests rejected hätte. Cloudflare Queues hätten ihre Kosten verdreifacht.
Mit stateful Servern verschwand die Komplexität: Events in-memory batchen, alle paar Sekunden flushen. Fertig. Keine Auxiliary Services, keine komplexen Pipelines. Zusätzliche Vorteile: Self-Hosting (docker run
), triviales lokales Debugging, Platform-Independence.
Auf Hackwe News kritisiert User kburman: „Ein latenz-kritisches API auf stateless Edge-Runtime war ein Rookie-Fehler. Der Schmerz war vorhersehbar.“ voodooEntity bestätigt aus AWS-Lambda-Erfahrung: „Serverless nimmt Arbeit ab, fügt sie aber an anderen Stellen wieder hinzu für ‚künstlich induzierte Probleme‘.“
Serverless für latenz-kritische Authentication war von Anfang an die falsche Wahl – wie ein F1-Rennwagen mit Anhängerkupplung (ok, gibt es bestimmt auch irgendwo). Den Begriff Complexity Tax beim Umgehen von Platform-Limitierungen kannte ich bisher noch nicht. Naja, manchmal ist es besser, das Fundament zu wechseln statt Workarounds oder Container zu stapeln. Das Projekt ist Open Source auf GitHub.
Schmunzeln kann man zum Thema Serverless übrigens ganz gut bei ServerlessHorrors – da werden solche Stories kompiliert und öffentlich archiviert.
76% gespart: Digital Society migriert von AWS zu Hetzner
Die schottische Firma Digital Society hat ihre komplette Cloud-Infrastruktur von AWS und DigitalOcean zu Hetzner migriert und spart nun 76% der monatlichen Kosten bei gleichzeitig verdreifachter Kapazität, wie sie in ihrem Blogpost berichten.
Digital Society betrieb ihre SaaS-Plattform tap auf AWS mit ECS (Fargate), RDS und diversen anderen Services. Für leichtere Workloads nutzten sie DigitalOcean Kubernetes. Die Kosten: $559/Monat bei 12 vCPUs und 24 GiB RAM.
Das Problem: Tap ist datenintensiv und benötigt für gute Performance mindestens 2 CPUs und 4 GiB RAM – trotz Rust, Apache Arrow und DataFusion. Auf AWS Fargate kostete ein solcher Container $70/Monat. Mit zwei Worker-Instanzen, Web-Instanzen und der üblichen AWS-Infrastruktur (ALB, RDS, NAT Gateway) explodierten die Kosten auf $449/Monat allein für AWS.
Als bootstrapped Startup mit aufgebrauchten AWS-Credits (nach nur 6 Monaten) war das nicht tragbar.
Nach Recherchen entschied sich das Team für:
- Hetzner ARM Shared vCPU Cloud Server
- Talos Linux als OS (deklarative Kubernetes-Node-Verwaltung)
- CloudNativePG als Managed-DB-Ersatz (Automated Failover, Backups)
- Ingress NGINX Controller + ExternalDNS + cert-manager
- Alles codiert mit Terraform und Helm, automatisiert via GitHub Actions
Die neue Rechnung bei Hetzner: $133/Monat (-76%) für 44 vCPUs und 88 GiB RAM (+367%) – exklusive Controlplane (weitere 6 vCPUs, 12 GiB).
Hetzners Network Zones sind keine AWS Availability Zones: Significante Latenz zwischen Locations machte Multi-Location-Workloads problematisch. Lösung: Single Location (Nürnberg) mit Placement Groups für Resilience – so mach ich das in der Regel auch 😉
Docker-basiert heißt nicht trivial migrierbar: Die Migration von ECS CloudFormation zu Kubernetes-Manifests war aufwendiger als erwartet – besonders die Deployment-Automation. Sie lösten es mit Kustomize als Kleber zwischen GitHub-Config und Manifests.
Die Migration zeigt den wahren Preis der AWS-Convenience. Für $426/Monat Ersparnis nahmen sie zusätzliche Komplexität in Kauf – aber mit Talos Linux und CloudNativePG bleiben die operational Overheads überschaubar. Die Wahl von ARM Shared vCPUs bei Hetzner ist clever: Perfekt für I/O-bound Workloads, dramatisch günstiger.
Für Bootstrapped Startups mit technischer Expertise oder mit gutem Support ist Self-Managed Infrastructure auf Hetzner ein No-Brainer. Falls du da Hilfe brauchst, melde dich gerne. Bei den Zahlen einfach 1,2 Nullen dazu denken, dann sieht man auch die Größenordnung, in der man sparen kann.
Fast gehackt im „Vorstellungsgespräch“
David Dodda war nur 30 Sekunden davon entfernt, Malware auf seinem Rechner auszuführen. Der Angriffsvektor? Ein vorgetäuschtes Coding-Interview von einer scheinbar „legitimen“ Blockchain-Firma, wie er in seinem Blogpost schildert, der auf Hacker News heftig diskutiert wird.
Mykola Yanchii, angeblicher „Chief Blockchain Officer“ bei Symfa, kontaktierte Dodda via LinkedIn. Real aussehende Firma, 1.000+ Connections, professionelles Auftreten. Vor dem Call kam der „Test-Code“ – ein React/Node-Projekt im Bitbucket-Repo mit sauberer README und Corporate-Fotos.
In Zeitdruck verfiel Dodda in die typische Entwickler-Falle: Code reviewen ohne Sandbox. Erst ein paranoides „Kann AI hier verdächtigen Code finden?“ an Cursor AI enthüllte die Gefahr: Obfuskierter JavaScript-Code, versteckt zwischen Admin-Funktionen, der Crypto-Wallets, Dateien und Passwörter stehlen sollte. Die URL war 24 Stunden später tot – professionelle Spurenverwischung.
Hacker News reagiert skeptisch
User nubg erkannte sofort: „Dieser Artikel wurde von einem LLM geschrieben.“ Die typischen Muster: „It’s not X. It’s Y.“, endlose Bullet-Points. Dodda gab zu: Der Text ging durch 11 AI-Versionen. Sein Original-Google-Doc sei besser lesbar gewesen, räumten Kommentatoren ein.
User Uptrenda berichtet von mehreren identischen Angriffen im Blockchain-Bereich. Die Gruppe Lazarus (Nordkorea) ist bekannt für diese Masche. Ziel: Crypto-Wallets und Zugang zu Blockchain-Companies.
Die ausgegklügelte Operation
- LinkedIn-Profil: 100% authentisch wirkend, „verified“
- Firma Symfa: Vollständige Company-Page mit Mitarbeitern
- Psychologie: Zeitdruck („Test vor Meeting“), Autorität, Social Proof
Empfohlene Schutzmaßnahmen
- Immer sandboxen: Docker, VMs, nie auf der Hauptmaschine
- AI als Scanner nutzen: 30 Sekunden Prompt können das digitale Leben retten
- Alles verifizieren: Real Profile ≠ Real Person
- Bauchgefühl ernst nehmen: Zeitdruck ist Red Flag
Der Angriff war hochprofessionell – aber die Ironie bleibt: AI-generierter Blogpost über AI, die vor Malware rettet. Und die Lektion: „Blockchain company“ sollte bereits Red Flag genug sein 😉
How I Almost Got Hacked By A ‚Job Interview‘
Postgres 18 Benchmark bei Planetscale
Postgres 18 führt die neue io_method
-Konfiguration ein – mit drei Modi: sync (wie Postgres 17), worker (neuer Default mit Background-Prozessen) und io_uring (asynchrone Disk-Reads). Letzteres galt als Performance-Gamechanger. PlanetScales ausführlicher Benchmark überrascht jedoch.
Die Benchmark-Konfigurationen:
- r7i.2xlarge mit gp3: 3.000 / 10.000 IOPS
- r7i.2xlarge mit io2: 16.000 IOPS
- i7i.2xlarge mit NVMe: 300.000 IOPS
- Testdaten: 300 GB Datenbank bei 64 GB RAM
Bei niedriger Parallelität performten sync
und worker
auf EBS-Storage besser als io_uring
. Bei hoher Parallelität (50 Connections) wurden IOPS zum Bottleneck – die I/O-Methode spielte kaum eine Rolle. Nur bei CPU-intensiven Range-Scans gewann io_uring
knapp.
Warum io_uring enttäuscht: Index-Scans nutzen (noch) kein Async I/O, Checksums bleiben Bottleneck, worker
parallelisiert besser.
Die Kosten (AWS/Monat):
- gp3 (3k IOPS): $442
- io2 (16k IOPS): $1.514
- i7i mit NVMe: $551 (bei 1,8 TB statt 700 GB!)
Die Wahl von worker
als Default war richtig. Aber die wichtigste Erkenntnis: Lokale NVMe-Disks mit niedriger Latenz schlagen jede Software-Optimierung. Bei massiven IOPS spielt die I/O-Methode kaum noch eine Rolle – die Physik lässt sich nicht austricksen. Und klar, Planetscale hat da mit PlanetScale Metal zufälligerweise das passende Angebot.
Hast du schon auf PG 18 aktualisiert? Unsere ersten Zammad Instanzen laufen nun mit Postgres 18.
Benchmarking Postgres 17 vs 18
GitLab 18.5 veröffentlicht
GitLab 18.5 ist da – mit massivem Fokus auf AI-Agenten für spezialisierte Workflows. Die Release Notes listen 57 Verbesserungen und 278 Community-Beiträge. Hier die wichtigsten Features:
AI & Automation
- GitLab Duo Planner Agent (Beta) – AI-Agent für Product Manager, analysiert Backlogs und wendet RICE/MoSCoW-Frameworks an (nur Duo Core/Pro/Enterprise)
- Security Analyst Agent (Beta) – Verwaltet Vulnerabilities via AI-Chat, listet CVEs mit EPSS-Scores (nur Ultimate mit Duo Add-on)
- GPT-5 Support – OpenAI GPT-5 als Modell-Option in Duo Chat (nur Duo Pro/Enterprise)
- Model-Auswahl in IDEs – Claude, GPT & andere Modelle direkt in VS Code/JetBrains wählbar (nur Duo Core/Pro/Enterprise)
Security & Compliance
- Instance-Wide Policy Management – Zentrale Verwaltung von Compliance Frameworks über alle Top-Level Groups (nur Ultimate Self-Managed/Dedicated)
- Emergency Bypass für Approval Policies – Designierte User können MR-Approvals in Notfällen umgehen mit Audit Trail (nur Ultimate)
- DAST Authentication Scripts – Automatisierung komplexer Auth-Flows inkl. OTP MFA (nur Ultimate)
- Advanced SAST für C/C++ (Beta) – Cross-file, cross-function Scanning (nur Ultimate)
- Validity Checks (Beta) – Zeigt Status von GitLab Secrets (nur Ultimate)
Package & Workflow
- Maven Virtual Registry UI (Beta) – Web-Interface statt API-Calls für Registry-Management (nur Premium/Ultimate)
- Personal Homepage – Konsolidiert To-Dos, Issues, MRs, Review Requests (in allen Editionen)
- Status Lifecycles für Issues & Tasks – Separate Workflows konfigurierbar (nur Ultimate)
- Child Task Progress in Issues – Real-time Übersicht über Sub-Task-Status (in allen Editionen)
- Markdown Table Formatter – Ein-Klick-Neuformatierung (in allen Editionen)
Performance & Runner
- GitLab Runner 18.5 – Bug Fixes für Kubernetes Operator (Open Source)
- Diff-Based SAST Scanning – Scannt nur Code-Changes statt volles Repo (nur Ultimate)
GitLab setzt also auf domain-specific AI-Agenten statt generischer Chat-Tools – der Planner für PMs und Security Analyst sind erste Beispiele. Auffällig: Fast alle AI- und Security-Features sind Ultimate-only. Die 278 Community-Beiträge zeigen aber: Der Open-Source-Core bleibt lebendig.
Schmunzelecke
Was mit Video KI heute schon möglich ist, sieht man in diesem „Heiratsantrag“ per Disney Video auf der Couch. Naja, schwer zu beschreiben, schau es dir an (Instagram Link).
Auf einem Düsseldorfer Hühnerhof läuft noch Windows 95 – never touch a running system 😉
💡 Link Tipps aus der Open Source Welt
Rio – Hardware-Accelerated GPU Terminal Emulator
Rio ist ein moderner, GPU-beschleunigter Terminal-Emulator, der in Rust geschrieben wurde und sowohl auf Desktop-Systemen als auch im Browser läuft. Das Projekt fokussiert sich auf Performance und visuelle Features für das 21. Jahrhundert.
Features:
- GPU-Beschleunigung: Nutzt moderne Rendering-Architekturen für maximale Performance
- 24-Bit True Color: Unterstützt 16 Millionen Farben statt nur 256
- Bilder im Terminal: Zeigt Bilder via Sixel und iTerm2 Protokoll an
- Cross-Platform: Läuft auf Windows, macOS, Linux und FreeBSD
- Font Ligatures: Verbesserte Lesbarkeit durch Ligatur-Support
- Split-Views: Terminal-Fenster können geteilt und verwaltet werden
- RetroArch Shader: Unterstützt custom Filter und CRT-Shader für Retro-Look
- Moderne Architektur: In Rust geschrieben für optimale Performance
Rio positioniert sich als schnelle Alternative zu etablierten Terminal-Emulatoren und wird von der Community für seine Performance und das durchdachte Design gelobt. Die Konfiguration erfolgt über Config-Dateien und das Terminal unterstützt moderne Workflows mit erweiterten visuellen Capabilities.
Installation und weitere Infos: rioterm.com
https://github.com/raphamorim/rio
Halloy – Modern IRC Client in Rust
Halloy ist ein Open-Source IRC-Client, der in Rust mit der iced GUI-Library entwickelt wurde. Das Projekt zielt darauf ab, einen einfachen und schnellen Client für Mac, Windows und Linux bereitzustellen.
Features:
- IRCv3.2 Support: Unterstützt moderne IRC-Capabilities wie SASL, server-time, message-tags, chathistory und viele weitere
- DCC Send: Direkte Dateiübertragungen zwischen Clients
- Multi-Server: Mehrere Channels gleichzeitig über verschiedene Server
- Auto-Completion: Für Nicknames, Commands und Channels
- Notifications: Desktop-Benachrichtigungen für Mentions und Highlights
- Command Bar: Schnelle Aktionen über Kommandozeile
- Custom Themes: Anpassbare Benutzeroberfläche
- Portable Mode: Kann ohne Installation genutzt werden
- Keyboard Shortcuts: Umfangreiche Tastaturkürzel-Unterstützung
Der Client kombiniert die Performance und Sicherheit von Rust mit einer modernen GUI und richtet sich an Nutzer, die einen schnellen, ressourcenschonenden IRC-Client mit zeitgemäßen Features suchen. Ein GIF Video für einen ersten Eindruck findest du hier. Ansonsten findest du auf der Website halloy.chat weitere Infos.
IRC, lange her, dass ich das wirklich richtig genutzt hab – nutzt du es noch? Falls ja, für was?
https://github.com/squidowl/halloy
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: