Netzbremse der Telekom, Cloud Nutzung in CH, Redis 8 wieder Open Source, On-Call bei Datadog, SRE Teams und mehr – #187

Willkommen zu allesnurgecloud.com – Ausgabe #187

Nachdem mein LinkedIn Artikel zur Netzbremse auf viel Interesse gestoßen ist, hab ich das Thema in der heutigen Ausgabe etwas ausführlicher beleuchtet. Es ist aus Kundensicht wirklich nicht schön und man kann einfach nicht nachvollziehen, warum man das Thema nicht dauerhaft behebt – in den Kommentaren haben sich Fabian Spielberger von MyDealz.de und Tarek Müller von AboutYou.de gemeldet, beide sind mit ihren Angeboten trotz Cloudflare Enterprise Plan vom abendlichen Stau auf der Datenautobahn betroffen….

Happy Bootstrapping Podcast

Für alle Fans der Energiewende und Heim-Optimierung hab ich in der aktuellen Happy Bootstrapping Folge mit Danny Klose von clever-PV.com gesprochenClever PV ist eine App mit Subscription Modell, die dir bei der Optimierung des Stromverbrauchs mit eigener PV Anlage, Überschussladung, Monitoring und mit der Einbindung von dynamischen Stromtarifen hilft. Also „Lade mein e-Auto wenn der Strom günstig ist“; und so – Folge 119 jetzt anhören.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

575 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

Die Netzbremse der Deutschen Telekom

Kennst du schon die Netzbremse der Deutschen Telekom?

Auf LinkedIn habe ich diese Woche darüber geschrieben und es gab super viel Feedback zum Thema. In meinem Artikel geht es hauptsächlich um die Einschränkungen, hohe Latenzen oder gar Paket Loss in Richtung Cloudflare. Hier ist das Problem vor allem bei Cloudflare Free Accounts spürbar, da diese immer über die USA geroutet werden.
Ab den Pro Accounts von Cloudflare sieht es dann besser aus – allerdings sind abends zu den Stoßzeiten auch Enterprise Accounts wie aboutyou.de, mydealz.de, Discord oder Claude.ai von Anthropic betroffen.

Was steckt hinter der Aktion „Netzbremse“?

Die Initiatoren der Netzbremse Aktion sind epicenter.works, die Gesellschaft für Freiheitsrechte e.V., der Verbraucherzentrale Bundesverband und Stanford Professorin Barbara van Schewick. Diese haben zusammen nun offiziell Beschwerde bei der Bundesnetzagentur eingereicht. In der Pressemitteilung ist von einer „Zweiklassengesellschaft im Internet“ die Rede:

Die Folge ist eine Zweiklassengesellschaft im Internet: Finanzstarke Dienste, die die Telekom bezahlen, werden schnell in das Telekom-Netz geleitet und funktionieren einwandfrei. Kleinere Anbieter und Start-ups, die sich diese Zahlungen nicht leisten können oder wollen, werden ausgebremst

und weiter:

Die Telekom ist der einzige Anbieter in Deutschland, der diese Engpässe am Netzeingang gezielt ausnutzt. Andere Internetanbieter in Deutschland bauen ihre Zugänge zum Netz aus, wenn dort Engpässe auftreten. Geld fließt dabei nicht.

Die komplette Analyse inklusive vielen Zahlen, Fakten und Kommentaren von Usern aus dem Netz findest du in diesem super umfangreichen und echt ausführlichen PDF, dass die Netzbremse Macher:innen kürzlich veröffentlicht haben.

Was passiert da eigentlich?

Die Telekom kommt ihrem Auftrag nicht nach, Bandbreite zwischen den Peering Anbietern auszubauen, wenn diese saturiert ist. Laut LinkedIn Kommentaren, Feedback, Reddit und Co. möchte die Telekom vom Peering Partner das 2-3 fache der Markt-üblichen Gebühren für ein Peering von den Partnern bezahlt bekommen. Die Partner lassen sich hier teilweise nicht erpressen und routen den Traffic um oder die Kunden leiden eben darunter. Man schiebt sich gegenseitig den schwarzen Peter zu – mir als Kunden hilft das nicht.
Seit März bin ich mit meinem Glasfaser Anschluss wieder bei der Telekom und teilweise fühlt sich das wieder nach einem „back-to-the-roots“ mit Analog-Modem an.

Wie kann ich überprüfen, ob ich betroffen bin?

Seiten mit Cloudflare Free wie allesnurgecloud.com oder happy-bootstrapping.de erreiche ich mit Latenzen über 200ms – den ganzen Tag über. Andere Seiten sind dann nur Abends eingeschränkt. Ich hatte schon Kunden mit Problemen an der Stelle, die ich nicht nachvollziehen konnte.
Wenn diese Seiten bei dir also langsam laden, dann bist du betroffen. Unter diesem Debug Link kannst du sehen, wie Cloudflare deinen Traffic ausliefern würde – also wenn bei „local-free-v4“ eine Location in den USA steht (bei mir Dulles, Virginia), dann bedeutet das, dass der IPv4 Traffic von Free Accounts über die USA geroutet wird. „local-pro“ sind dann Pro Accounts, „local-biz“ Business Accounts, „local-ent“ enterprise Accounts, local-1111 der DNS resolver und Durable-Object ist der S3 Speicher von Cloudflare.

Aktuell arbeiten die Initiatoren der Netzbremse an einem Monitoring System, da die Telekom sich auf die Auszeichnungen zum „Besten Netz“ beruft und meint, es sei ja alles in Ordnung.
Bis dahin kannst du mal einen Blick auf dieses Checkly Dashboard werfen – das zeigt für einige Pages die Latenzen. für einen normalen GET Request auf diverse Homepages an, die Cloudflare-free, Pro oder Enterprise verwenden. Realisiert ist dies über die Private Locations in Checkly – die Checks werden über einen Docker Container auf meiner Synology ausgeführt – das nutzt also meinen Glasfaser Anschluss der Telekom.

Spannendes Detail am Rande – laut einem Golem Artikel vom Januar 2025 peert die Telekom nur mit 20GBit/s am DE-CIX. Zum Vergleich habe Vodafone zur selben Zeit bereits mit 2*600GBit/s gepeered. Die Telekom ist laut Statista mit über 14 Millionen DSL Anschlüssen in Deutschland der größte Anbieter (von insgesamt über 24 Millionen). Das lässt die Peering Geschichte nochmals in einem komplett anderen Licht erscheinen.

Bist du auch betroffen? Schreib mir gerne eine Mail oder kommentiere den Artikel. Ich werde hier vermutlich einige Updates dazu schreiben.

Die Telekom drosselt das Netz. Tun wir etwas dagegen!


Abhängigkeit von US-Clouds: Bundesrat erarbeitet Exit-Strategie

In einem aufschlussreichen Artikel von Adrienne Fichter auf Republik.ch wird die problematische Abhängigkeit der Schweizer Bundesverwaltung von amerikanischen Cloud-Anbietern beleuchtet. Die Recherchen zeigen, dass trotz geplanter Exit-Strategien und wachsender geopolitischer Risiken die Abhängigkeit von Microsoft, Amazon und anderen US-Konzernen weiterhin besteht.

Obwohl der Bund Rahmenverträge mit Tech-Giganten wie Microsoft, Amazon, Oracle, IBM und Alibaba abgeschlossen hat, bleiben die Bundesämter zurückhaltend – von 110 Millionen Franken Budget wurde bisher nur die Hälfte genutzt. Von 26 Public-Cloud-Nutzungen sind nach Abzug der BIT-Testprojekte nur 15 tatsächlich im Einsatz.

Besonders pikant: Die Verträge mit den Tech-Konzernen bleiben unter Verschluss, da ein Anbieter Beschwerde beim Bundesverwaltungsgericht eingereicht hat. Zudem lässt sich die Bundeskanzlei von IT-Kanzleien wie Laux Lawyers beraten, die gleichzeitig Mandate bei Big-Tech-Firmen innehaben – ein Interessenkonflikt wird jedoch verneint.

Für Office-Software entwickelt der Bund eine Exit-Strategie namens BOSS (Büroautomation durch Open Source), die bis 2026 mit der deutschen Open-Desk-Lösung eine Alternative zu Microsoft-Produkten bieten soll. DTI-Leiter Daniel Markwalder dämpfte jedoch die Erwartungen: Microsoft werde nicht vollständig ersetzt, und ob der Machbarkeitsbericht in konkrete Produkte münde, stehe noch nicht fest – trotz einer Studie der Berner Fachhochschule, die für alle Microsoft-Produkte Open-Source-Alternativen identifiziert hat.

Am meisten überrascht mich im Artikel ja, dass man in der Schweiz dann neben den bekannten US-Playern auch Alibaba einsetzt – vom Schweizer Cloud Anbieter Exoscale habe ich nichts gelesen, daher finde ich die Nutzung von Alibaba dann schon fast ironisch.

Wie Big Tech in Bundesbern polarisiert


Anzeige

Von AWS zu Hetzner: everysize spart 80% Cloud-Kosten mit „We Manage“

Als everysize mit seiner Cloud-Infrastruktur an Grenzen stieß, fand das Unternehmen in We Manage den idealen Partner.
Das Ergebnis: 80% Kostenreduktion bei gleichzeitiger Leistungssteigerung.

„Der Profi-Sysadmin, den ich inhouse bräuchte, der aber bei mir zu wenig zu tun hätte,“ beschreibt Mitgründer Eugen Falkenstein treffend die Rolle von We Manage für sein Unternehmen.

Durch maßgeschneiderte IT-Operations, 24/7-Monitoring und Cloud-Migration befreite sich everysize vom teuren AWS-Vendor-Lock-in. Die Serverkosten sanken von 50.000 auf nur 10.000 Euro jährlich – bei höherer Zuverlässigkeit und Agilität.

Brauchst du Hilfe bei Cloud-Optimierung oder IT-Operations?
Lies die vollständige Case Study und erfahre, wie auch dein Unternehmen von We Manage profitieren kann – buch dir jetzt einen Termin zum Kennenlernen.

zur Case Study: Warum everysize die AWS Public Cloud hinter sich lässt


Redis mit Version 8 Release wieder Open Source

Redis 8 wurde offiziell veröffentlicht und bringt eine bedeutende Änderung: Redis kehrt zur Open-Source-Welt zurück und nutzt jetzt die AGPLv3-Lizenz. Besonders Salvatore „antirez“ Sanfilippo, der ursprüngliche Redis-Schöpfer, zeigt sich erfreut über diese Entwicklung.

In seinem Blog beschreibt antirez, wie die SSPL-Lizenz von der Community nie wirklich als Open-Source akzeptiert wurde. Seine Begeisterung bei der Entwicklung der neuen Vector Sets Datenstruktur war besonders groß, da er wusste, dass seine Arbeit wieder vollständig Open Source sein würde.

Neben der Lizenzänderung bietet Redis 8 massive Performance-Verbesserungen: Über 30 Optimierungen sollen für bis zu 87% schnellere Befehle und verdoppelten Durchsatz sorgen.

Zu den wichtigsten Neuerungen zählen:

  • Vector Set Datenstruktur (Beta) – von antirez entwickelt
  • JSON-Datenstruktur für Session-Management
  • Time Series für Zeitreihendaten
  • Fünf probabilistische Datenstrukturen für effiziente Datenstromanalysen
  • Redis Query Engine mit verbesserter Skalierung

Die Umbenennung von „Redis Community Edition“ zu „Redis Open Source“ unterstreicht den Wandel zurück zu echtem Open Source – ein wichtiger Schritt für die Zukunft des Projekts. Nutzer älterer Versionen sollten ein Upgrade in Betracht ziehen, um von allen Verbesserungen zu profitieren.

kommt das Ganze zu spät? Der Redis Fork Valkey scheint am Markt ja sehr gut anzukommen.

Redis 8 is now GA, loaded with new features and more than 30 performance improvements


SRE-Teams: Organisation und 6 Varianten bei Google

Vor einigen Tagen hatte ich einen interessanten Podcast mit Andy Grunwald, Engineering Manager bei Cloudflare, gehört. In der Podcast Folge bei „Einfach Komplex“ geht es um Site Reliability Engineering und wie die Themen SLO, SLI und SLA zusammenhängen und implementiert werden können.

Auf LinkedIn hatte mich dann interessiert, wie er die Implementierung in Teams empfehlen würde – als „SRE Team“, dass die SRE Arbeit für andere Produkt Teams erledigt oder mit SRE Ambassadors, die in die Teams entsendet werden, um dort Wissen und Erfahrungen an die Teams weiterzugeben, so dass diese dort selber laufen können.

Andy hat ausführlich mit „It depends“ geantwortet und mich auf einen älteren Artikel von Google verwiesenGoogle hat nämlich sogar sechs verschiedene Implementierungsvarianten für SRE-Teams (Site Reliability Engineering) identifiziert, die je nach Unternehmensreife und -bedürfnissen eingesetzt werden können:

  1. „Kitchen Sink“: Das erste SRE-Team mit unbegrenztem Aufgabenbereich – ideal für kleinere Unternehmen, aber mit Skalierungsrisiken.
  2. Infrastruktur-Teams: Fokus auf Hintergrundarbeit wie Kubernetes-Cluster oder CI/CD-Pipelines, um Entwicklern DevOps-Praktiken zu ermöglichen.
  3. Tools-Teams: Konzentrieren sich auf Software zur Messung und Verbesserung der Systemzuverlässigkeit.
  4. Produkt/Anwendungs-Teams: Verbessern die Zuverlässigkeit kritischer Anwendungen oder Geschäftsbereiche.
  5. Embedded-Teams: SREs arbeiten direkt mit Entwicklerteams zusammen, oft zeitlich begrenzt.
  6. Consulting-Teams: Ähnlich wie Embedded-Teams, aber ohne direkten Code-Eingriff.

Zwei häufige Modifikationen dieser Grundmodelle sind:

  • Zuverlässigkeitsstandards und -praktiken: Teams setzen Standards für alle Unternehmensabteilungen
  • Service-Stufen: Ermöglichen unterschiedliche Unterstützungsniveaus für verschiedene Services

Die Wahl des richtigen Modells hängt also von Unternehmensgröße, Komplexität und Kultur ab, wobei viele Unternehmen mit dem „Kitchen Sink“-Modell beginnen und später differenzieren.

Wie habt ihr das in deiner Firma implementiert? Mit einer der oben genannten Methoden oder komplett was anderes?

How SRE teams are organized, and how to get started


Wie Datadog On-Call-Rotationen strukturiert

Im verlinkten Artikel im Datadog Blog teilen die AutorenLaura de Vesine und David Lentz Einblicke in Datadogs Ansatz für nachhaltige Bereitschaftsdienste. Eine gut konzipierte Bereitschaftsrotation sei entscheidend für die Zuverlässigkeit von Diensten, kann aber bei falscher Umsetzung das Wohlbefinden der Teammitglieder beeinträchtigen. Datadog balanciert diese Anforderungen sorgfältig aus.

Die Struktur einer Rotation wird hauptsächlich durch die Teamgröße bestimmt:

  • Idealerweise 6-8 Ingenieure pro Rotation (maximal einmal pro Monat im Einsatz)
  • Bei kleineren Teams werden teamübergreifende Rotationen oder kürzere Schichten empfohlen
  • Teams in verschiedenen Zeitzonen können „Follow-the-Sun“-Modelle implementieren

Die optimale Schichtlänge liegt bei Datadog zwischen 8 und 12 Stunden, wobei 12 Stunden als Richtwert gilt – lang genug, um Übergaben zu minimieren, aber kurz genug, um Ermüdung vorzubeugen.

Unterstützung für Bereitschaftsmitarbeiter

Datadog unterstützt Bereitschaftsmitarbeiter umfassend:

  • Training vor dem ersten Einsatz zu Verantwortlichkeiten und Erwartungen
  • Ressourcen wie Datadog On-Call zur Integration von Monitoring, Paging und Incident Response
  • Backup-Responder als zweite Eskalationsstufe
  • Direkte Beteiligung von Managern an Rotationen, um Verständnis und Vertrauen zu fördern

Manager, die selbst Bereitschaftsdienste übernehmen, können besser einschätzen, wann die Arbeitsbelastung unhaltbar wird, und entsprechend gegensteuern. Sie ermutigen Teammitglieder, sich nach besonders stressigen Schichten zu erholen.

Dass Manager selbst mit im Boot sitzen, finde ich prima – die Schichtlänge, hm, das geht so auch nur in größeren Firmen mit Follow-the-Sun Besetzung, oder? Ich kenne das eigentlich nur so, dass man auch regelmäßig das ganze Wochenende Bereitschaft hat, kommt aber vermutlich auch darauf an, wie häufig man rausgebimmelt wird.

How we structure on-call rotations at Datadog


Oracle: Souveräne Cloud-Versprechen vs. Realität

Auf der „Oracle CloudWorld Tour“ in München stellte Tobias Deml, Head of Cloud Engineering, das Konzept der Oracle „Sovereign Cloud“ vor. Diese soll europäischen Kunden alle Funktionen einer Public Cloud bieten, jedoch mit strengeren Rahmenbedingungen für Datenschutz und Souveränität. Der Betrieb erfolgt ausschließlich in europäischen Rechenzentren mit lokalen Teams – komplett getrennt von der globalen Cloud-Infrastruktur.

Als Hauptzielgruppen nennt Oracle Unternehmen aus der Finanzbranche, Telekommunikation und vor allem dem öffentlichen Sektor. Besonders betont werden die Einhaltung von Vorschriften wie Schrems-II, DORA und NIS-2 sowie Konzepte für „Airgap“-Szenarien für sensible Daten.

Währenddessen in den USA: Krankenhaus-IT für Tage lahmgelegt

Die Realität sieht weniger souverän aus: Während Oracle in Europa seine Zuverlässigkeit bewirbt, haben Oracle-Techniker bei Wartungsarbeiten am 23. April „versehentlich kritische Speicherressourcen gelöscht“ und damit ein elektronisches Patientendatensystem in 45 Krankenhäusern des Betreibers Community Health Systems (CHS) lahmgelegt.

Die betroffenen Kliniken mussten fünf Tage lang auf Papierakten zurückgreifen. CHS betreibt insgesamt 72 Krankenhäuser mit über 10.000 Betten in 14 US-Bundesstaaten – betroffen war also fast zwei Drittel aller Einrichtungen. Erst am 28. April wurde das Problem behoben, und selbst jetzt arbeitet CHS noch daran, „die volle Funktionalität wiederherzustellen“.

Widerspruch zwischen Anspruch und Wirklichkeit

Der Kontrast könnte kaum größer sein: Während Oracle in Europa mit Schlagworten wie „digitale Souveränität“, „strenges Regelwerk“ und „Airgap-Szenarien“ für kritische Infrastrukturen wirbt, können die eigenen Techniker in den USA grundlegende Wartungsarbeiten nicht fehlerfrei durchführen – mit potentiell lebensgefährlichen Folgen im Gesundheitssektor.

Die betroffene Software trägt ausgerechnet den Namen „Oracle Health“ und soll sensible Patientendaten verwalten – genau die Art von Anwendung, die in der viel beworbenen „Sovereign Cloud“ besonders sicher sein sollte.

Techniker von Oracle legen IT von 45 Kliniken lahm


SQLite pro Mandant: Multitenancy mit Rails implementieren

Im verlinkten Artikel erklärt Julik Tarkhanov, wie man das „eine Datenbank pro Mandant“-Muster in Rails-Anwendungen korrekt implementiert.

Vorteile der Datenbank-pro-Mandant-Architektur

Die Isolierung von Mandantendaten in separate Datenbanken bietet erhebliche Vorteile. Bei dieser Methode wird für jeden Mandanten eine eigene Datenbankinstanz verwendet, was zu verbesserter Isolation und Skalierbarkeit führt.

Besonders mit SQLite ergeben sich praktische Vorteile:

  • Keine Datenbankserver-Konfiguration notwendig
  • Einfache Backups per rsync
  • Vereinfachtes Debugging durch isolierte Datensätze
  • Reduzierte Schemakomplexität

Diese Architektur verschiebt Anwendungen aus dem „Big Data“-Bereich in den „Tiny Data“-Bereich – ein unterschätzter Vorteil für viele Anwendungsfälle.

Die Herausforderung mit Rails

Während das Öffnen und Schließen von SQLite-Datenbanken mit nativem Code trivial ist, macht ActiveRecord dies kompliziert. Das Framework wurde für wenige große Datenbanken optimiert, nicht für tausende kleine.

Die API hat sich über Rails-Versionen stark verändert, was die Implementierung zusätzlich erschwert.

Die Lösung: Shardine

Der Autor präsentiert „Shardine“, ein Middleware-System, das ActiveRecord’s connected_to-API nutzt, um sicher zwischen Mandanten-Datenbanken zu wechseln. Die Middleware erstellt dynamisch Verbindungspools für Mandanten und nutzt Fibers, um den Verbindungskontext während der gesamten Request-Verarbeitung beizubehalten.

Diese Lösung ermöglicht es, das volle Potenzial von SQLite in multimandantenfähigen Rails-Anwendungen zu nutzen, was besonders für „Small Data in großen Mengen“ ideal ist.

A Can of Shardines: SQLite Multitenancy With Rails


Backblaze in der Krise?

Eine ausführliche Untersuchung des Shortsellers Morpheus Research enthüllt die prekäre Lage des Cloud-Speicher-Anbieters Backblaze, der seit seinem Börsengang 2021 kontinuierliche Verluste verzeichnet und dessen Aktienkurs um 71% gefallen ist. Zwei ehemalige Führungskräfte haben Klagen eingereicht, die schwerwiegende Vorwürfe der Bilanzmanipulation und irreführender Finanzprognosen beinhalten. Besonders brisant: Die Gründer sollen trotz interner Warnungen aggressive Aktienverkaufspläne umgesetzt haben, während sie angeblich Mitarbeiter drängten, „ungenaue“ Finanzberichte zu bestätigen.

Die Analyse zeigt, dass Backblaze ungewöhnlich hohe Softwareentwicklungskosten kapitalisiert – fast fünfmal mehr als vergleichbare Unternehmen – was die tatsächlichen Verluste verschleiert. Gleichzeitig ändert das Management wiederholt Finanzkennzahlen und verweigert zunehmend Transparenz gegenüber Investoren, indem es beispielsweise keine Fragen von Kleinanlegern mehr zulässt.

Ehemalige Mitarbeiter und Wettbewerber bestätigen, dass Backblaze im hart umkämpften Speichermarkt kaum Differenzierungsmerkmale bietet und hauptsächlich über den Preis konkurriert, während Konkurrenten wie Wasabi kontinuierlich Kunden abwerben, darunter mehrere im KI-Bereich.

Auf Backblaze und deren Festplatten Reliability Report habe ich hier regelmäßig verwiesen, die Geschäftszahlen habe ich mir nie angeschaut – wenn der Report auch nur ansatzweise stimmig ist, wäre das ja schon der Hammer.

Backblaze: A Loss-Making Data Storage Business Mired in Lawsuits, Sham Accounting, and Brazen Insider Dumping


Schmunzelecke

„NFTs That Cost Millions Replaced With Error Message After Project Downgraded to Free Cloudflare Plan“ – schreibt 404media – hier geht es um die Pages von CloneX RTFKT, die vor einiger Zeit mal total In waren. Über NFTs redet heute aber niemand mehr, oder?


💡 Link Tipps aus der Open Source Welt

Hyprnote: KI-Notizblock für Meetings mit Offline-Unterstützung

Hyprnote ist ein innovativer KI-Notizblock speziell für Meetings, der verschiedene praktische Funktionen mitbringt:

Kernfunktionen:

  • Aufzeichnung und Transkription von Meetings
  • Erstellung leistungsstarker Zusammenfassungen aus Ihren Notizen
  • Funktioniert offline mit Open-Source-Modellen (Whisper & Llama)
  • Erweiterbar durch Plugin-System (ähnlich wie VSCode)

Besonderheiten:

  • „Local-first“-Ansatz garantiert Datenschutz und Offline-Nutzung
  • Verwandelt einfache Stichworte in strukturierte Meeting-Notizen
  • Kombiniert Ihre Notizen mit Transkripten für optimale Zusammenfassungen

Hyprnote richtet sich an alle, die ihre Meeting-Dokumentation effizienter gestalten möchten, ohne auf Cloud-Dienste angewiesen zu sein. Die Nutzung lokaler KI-Modelle macht die Anwendung besonders datenschutzfreundlich.

Aktuell gibt es Hyprnote nur für den Mac (brew tap fastrepl/hyprnote && brew install hyprnote --cask), Windows soll bald kommen und eine Linux Version kommt „vielleicht“.

https://github.com/fastrepl/hyprnote

trippy – Leistungsstarkes Netzwerk-Diagnosetool

Trippy ist ein Open-Source-Diagnosetool, das die Funktionalität von Traceroute und Ping kombiniert und speziell für die Analyse von Netzwerkproblemen entwickelt wurde.

Das Tool unterstützt ICMP, UDP und TCP über IPv4 und IPv6 mit vollständig anpassbaren Tracing-Optionen, verschiedenen ECMP-Strategien und erkennt NAT-Konfigurationen. Besonders praktisch: Trippy kann GeoIP-Informationen auf einer Weltkarte visualisieren und unterstützt sowohl MaxMind- als auch IPinfo-Datenbanken – alle Features findest du hier.

Trippy läuft plattformübergreifend auf *Linux, macOS, Windows und BSD, unterstützt verschiedene Architekturen und ist in den meisten nativen Paketmanagern verfügbar. Das TUI (Terminal User Interface) ist hochgradig anpassbar mit verschiedenen Farbthemen, Tastenbindungen und ist sogar in 10 Sprachen verfügbar, darunter Deutsch.

Trippy hilft mir nun auch beim Netzbremse debugging und ist ne coole Sache.

https://github.com/fujiapple852/trippy

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

575 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2025 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x