38 TB AI Leak, Wert der AWS IPv4 Adressen, OpenTofu, Private Clouds, Cisco kauft Splunk und mehr – allesnurgecloud #117

Im Podcast hatte ich in dieser Woche in Folge 40 meine Schwester zu Gast – Katrin Lehr von viel-unterwegs.de – Sie nimmt uns mit auf die Geschichte zur Entstehung ihres Reiseblogs, dass sie nun seit 10 Jahren betreibt. Anfangs noch „Viel Unterwegs trotz Vollzeitjob“ wurde daraus „Viel Unterwegs“, als Selbstständige in Vollzeit. Und man erfährt auch, welche Rolle mein Bruder und ich dabei gespielt haben… Freu mich auf Feedback!

So, und auch in der Cloud und Security Welt ist viel passiert, ein paar Themen für die nächste Woche habe ich auch schon – freue mich aber auch immer über coole Einsendungen, egal ob direkt per Mail oder über Twitter.

Microsoft verliert 38 TB AI Forschungsdaten

Die Sicherheitsforscher von WIZ haben mal wieder einen Clou gelandet. In einem Datentopf mit KI Trainingsdaten fanden sie 38 TB an privaten Daten, die neben Secrets, Passwörtern und über 30.000 internen Teams Nachrichten auch 2 vollständige Disk Backups von Workstations enthielten.

Die Daten konnten über ein SAS Token, welches initial geshared wurde, aus einem Azure Storage Account heruntergeladen werden. Man kann Daten, die über den Link verteilt werden, zwar einschränken – das ist in diesem Fall aber nicht passiert.
Interessant war zudem, dass es kein „read-only“ share war – die Daten hätten sogar überschrieben, verfälscht oder gelöscht werden können.
WIZ crawled regelmäßig das Internet und Buckets, die zu lasche Permissions haben – bei einem solchen Routine-Crawl ist das Azure Storage Bucket aufgefallen.

An der Timeline ist weiterhin interessant, dass das Token bereits im Juli 2020 auf GitHub committed wurde und im Oktober 2021 sogar aktualisiert wurde.
WIZ hat die Daten am 22. Juni 2023 dann erst gefunden und an Microsoft reported, 2 Tage später war das Token dann invalidiert worden. Die Analyse des Vorfalls dauerte dann bis zum 16. August 2023 – und nun der Public Disclosure am 18.09.2023.

Die Forscher von WIZ haben auf Twitter eine Zusammenfassung veröffentlicht, falls dir der unten verlinkte Artikel zu lang ist.

Ob wir nächste Woche lesen, dass Microsoft WIZ kauft, damit da mal endlich Ruhe ist?

38TB of data accidentally exposed by Microsoft AI researchers

AWS: Wieviel sind 128 Millionen IPv4 Adressen wert?

4,5 Milliarden US-Dollar – so hoch bewertet Andree Toonk den Wert der 128 Millionen IPv4 Adressen von AWS.
Er nimmt dabei 35 $ pro IP an. Seit seiner letzten Analyse vor 3 Jahren hat AWS um die 27 Millionen zusätzliche IP-Adressen erworben.
AWS hat noch einiges an Reserve – laut dem „IP-Range Usage“ JSON File sind aktuell knapp 47 Millionen IPv4 Adressen in Verwendung.
Im Mittel kosten IPv4 Adressen bei Auktionen aktuell um die 35-40$ – daher kommt er auf die 35 $ pro Adresse – interessanterweise sind die Preise eher am Fallen.
Ganz interessant, die größten Netze, die man aktuell bei den Auktionen von IPv4.Global kaufen kann, sind /17 Netze – die kosten dann um die 1,3 Millionen Dollar (/17 sind 32766 Adressen,
AWS hatte zuletzt zwei /11 Netze (um die 2,1 Millionen Adressen) von Xerox gekauft – die Drucker sind wohl nun alle nach IPv6 migriert worden.

Da AWS dann bald anfängt, für die IPv4 Adressen Gebühren zu verlangen, dürfte da in den nächsten Jahren ein ordentliches Sümmchen zusammenkommen – und das jeden Monat.

AWS IPv4 Estate Now Worth $4.5 Billion

Sponsored

Have your head in the clouds?

Das kann mal passieren! Cloud Computing stellt die Cybersicherheit vor neue Herausforderungen; On-Premise und Cloud wachsen zunehmend zusammen und die Funktionalitäten erweitern sich rasant. Dadurch stellt sich Dir die Frage: Wie sicher ist meine Cloudumgebung eigentlich?

Beim Finden der Antwort, unterstützen wir Dich gerne: Das Cloud Security Assessment von SCHUTZWERK schafft Risikotransparenz und hilft Dir Deine Cloud bestmöglich zu schützen.

👩‍💼 Professionelle Betrachtung: Mit dem Cloud Security Assessment bieten wir Dir eine umfassende Prüfung, die auch die Anbindung an das Unternehmensnetzwerk und die administrativen Prozesse berücksichtigt.

☁️ Individuelle Bewertung: Wir beginnen das Assessment mit einem Workshop zur Analyse möglicher Bedrohungsszenarien, damit wir unsere Arbeit genau auf Deine Situation abstimmen können.

🔎 Sorgfältige Prüfverfahren: Wir führen sowohl automatisierte als auch manuelle Prüfungen durch, um Deine Cloudumgebung auf Herz und Nieren zu untersuchen.

📄 Umfangreicher Report: Wir liefern Dir einen detaillierten Bericht und konkrete Empfehlungen, um Deine Cloud optimal abzusichern.

👉 Willst Du wissen, wie Du Deine Cloud noch sicherer machen kannst? Buche hier ein unverbindliches Beratungsgespräch und informiere Dich über unsere weiteren Prüfungsdienstleistungen (z.B. Penetrationstests)

Comeback für Private Clouds?

Laut einem Artikel in InfoWorld denken viele Unternehmen mittlerweile über eine eigene, private Cloud nach, da die Public Cloud Kosten einfach zu hohe und regelmäßige Kosten verursachen. Basecamp / 37signals ist mit seiner Vorgehensweise also nicht alleine.

Aber die Kosten sind nicht der einzige Grund, warum ein Umdenken stattfindet. Die populäre Open-Source Cloud Distribution OpenStack gibt es nun seit über 10 Jahren – und allen Unkenrufen zum Trotz, ist sie heute noch da – und dabei aktiver denn je. Alle 6 Monate erscheint ein Release – inzwischen sind es so viele, dass man alle Buchstaben von A-Z durch hat und die nächsten Releases dann mit einer Jahreszahl erweitert werden – unter anderem das aktuelle 2023.1 Antelope oder 2023.2 Bobcat, welches Anfang Oktober erscheint.

Dazu kommt, dass OpenStack mittlerweile auf Kubernetes läuft (Announcement Artikel) – und sich damit einfach und portabel über Generationen von Hypervisor Hosts verteilen und automatisieren lässt. Ein weiterer Grund dürfte sein, dass Hardware deutlich günstiger geworden ist – also nicht unbedingt pro Stück, aber man bekommt in einen normale 2HE oder 4HE Server aktuell schon viele CPU Cores und TBs von RAM untergebracht – so kann man seine eigene Cloud auf deutlich kleinerem Raum bauen, als noch früher.

Natürlich ist dies alles andere als einfach – allerdings sind viele Firmen auch nach wie vor naiv im Umgang mit den HyperScalern – einen DBA braucht man weiterhin, sonst bucht man einfach Ressourcen zu und merkt nicht einmal, dass man durch Query-Optimierung einen Großteil der Kosten einsparen kann.

A comeback for private clouds

OpenTofu – Terraform Fork und Linux Foundation

Das ging nun wirklich schnell – der Terraform Fork OpenTF, über den ich in Ausgabe #114 berichtet hatte, firmiert in Zukunft unter dem Namen OpenTofu und wird zudem unter die Schirmherrschaft der Linux Foundation gestellt.
Dazu gibt es eine schicke neue Landingpage, die zudem sämtliche Supporter auflistet. Darunter sind 4 Firmen, die das Projekt maßgeblich treiben und für mindestens 5 Jahre zugesichert haben, jeweils 3-5 FTEs bereitzustellen (Harness, Spacelift, env0, Scalr). Ansonsten finden sich auf der Supportliste bereits über 600 Personen und 140 Organisationen, die ihre Unterstützung zugesicher haben.

Zur Namensänderung gibt es ganz transparent ein GitHub Issue, welches noch eine interessante Anekdote zur initialen Namensfindung bei Linux.

Interessant, wie schnell das nun alles ging und ich bin mal gespannt, was das für Auswirkungen auf das Ökosystem haben wird – und ob die Module und deren Kompatibilitäten irgendwann auseinanderlaufen werden.

Linux Foundation Launches OpenTofu: A New Open Source Alternative to Terraform

Kostenlose SaaS und Cloud Tiers Übersicht

Auf „free-for.dev“ findest du eine umfangreiche Liste mit „free Tiers“, also kostenlosen Angeboten für unzählige PaaS, SaaS und IaaS Dienste.

Die Seite ist alleine einen Bookmark wert, da sie die „Free Tiers“ der Hyperscaler Google, AWS und Azure deutlich einfacher und übersichtliche darstellt, als die Hyperscaler selbst. Beeindruckend ist auch die Liste der Monitoring-Tools oder der „Code Quality“ Analyse Werkzeuge.

Selbst wenn du nicht auf der Suche nach einem Free-Tier bist, so ist es doch eine tolle Marktübersicht.
Natürlich wird das Ganze in GitHub gepflegt – du kannst also auch dein Angebot dort listen lassen.

Free for Developers

Cisco kauft Splunk für 28 Milliarden Dollar

Der Netzwerk-Hersteller Cisco kündigte am Donnerstag an, Splunk für 157 $ pro Aktie übernehmen zu wollen. Das entspricht einer Bewertung von rund 28 Milliarden Dollar. Die Marktkapitalisierung von Cisco selbst beträgt etwas über 215 Milliarden US-Dollar.
Die Verwaltungsräte haben der Übernahme zugestimmt, die Zustimmung der Aktionäre und der Regulierungsbehörden steht noch aus. Laut Cisco soll das Geschäft zum Ende des dritten Quartals 2024 abgeschlossen werden.

Interessante Beobachtungen zum Deal gab es auf Twitter – scheinbar gibt es den Verdacht von Insider Trades.
Ein weiterer Twitter schrieb zum Thema:

Everyone is confused. Cisco isn’t buying Splunk – the $28B is for their August bill.

and I think, that’s beatiful.

Und natürlich hat es nicht lange gedauert, bis auf HackerNews ein Beitrag mit dem Namen „Show HN: My Single-File Python Script I Used to Replace Splunk in My Startup“ auftauchte. Der Kollege hat das Ganze auch schon direkt in ein GitHub Repository gepackt.
Ich würde ja aber eher mal einen Blick auf HyperDX werfen – siehe unten bei Open-Source Tipps.

Splunk and Cisco Unite To Accelerate Digital Resilience as One of the Leading Global Software Companies

PostgreSQL 16 released

Die beliebte Open Source Datenbank PostgreSQL wurde in der neuen Version 16 veröffentlicht.

Neben den üblichen Fixes und Performance Verbesserungen stellt das Postgres Team folgende Features in den Vordergrund:

  • Performance: der Query Planner kann nun FULL und RIGHT Joins parallel ausführen, was „aggregate functions“ beschleunigen soll. Performance für ARM und x86 soll ebenfalls deutlich besser sein, und es gibt eine neue „Loadbalancing“ Funktionalität.
  • Logical Replication: Eine Standby Instanz kann nun als Quelle für weitere Instanzen dienen und über das PostgreSQL logical protocol Änderungen bereitstellen.
  • Speziell für Entwickler gibt es mehr Support für SQL/JSON Konstruktoren, beispielsweise JSON_ARRAYJSON_ARRAYAGG und IS_JSON.
  • Im Bereich Monitoring gibt es mit pg_stat_io deutliche Verbesserungen beim Thema Observability

Die Major Release Geschwindigkeit bei Postgres ist schon sehr stabil. Alle 11-12 Monate erscheint ein neues Major Release – aktuell sind 6 Versionen supported (beeindruckend). PostgreSQL 11(ok, noch 1 Monat und 3 Wochen) bis hin zu PostgreSQL 16.

PostgreSQL 16 Released!

Plex Media Server blockt Hetzner Server

Plex Media Server ist ein beliebtes Medienzentrum für den Eigenbetrieb zu Hause. Scheinbar sind die aktuellen Hetzner Preismodelle mit dem Inklusiv-Traffic so günstig, dass sie reihenweise für das Movie und Serien-Sharing mit Friends & Family verwendet werden.
Die Nutzer haben nun jedenfalls eine E-Mail von Plex erhalten, die ankündigt, die Hetzner IPs ab dem 12. Oktober 2023 zu blockieren.
Auf Hacker News gibt es eine ausführliche Diskussion dazu, denn auch Plex hat sich mit seinen Praktiken nicht immer Freunde gemacht, da man einen Plex Account benötigt und zentral Daten erhoben werden. Man tauscht also nur Pest gegen Cholera, oder so ähnlich.
Im Plex Forum selbst gibt es über 400 Kommentare zu der E-Mail, manche sind dann auch ein wenig witzig:

I have already spoken with my lawyer (who, by the way, is one of the 2 other people who have access to my Plex) and we will take action against it

Es gibt zudem komplett „freie“ Systeme ohne zentralen Account, die man sich als Alternative anschauen kann – beispielsweise Jellyfin oder auch das beliebte Kodi.
Im verlinkten Artikel bei Caschy gibt es auch eine Diskussion mit ein paar Alternativen.

Plex blockt Zugriff auf Hetzner-Server

Schmunzelecke

Heute gibt’s hier mal wieder ein Video zum Thema „Working in InfoSec watching the rest of IT“ – da kann der eine oder andere sicher mitfühlen.

💡 Link Tipps aus der Open Source Welt

HyperDX – OpenSource DataDog Alternative

HyperDX ist eine Open-Source Observability Platform, die Logs, Metriken, Tracing, Errors und Session-Replays in einem Tool zusammenfasst.
Für die persistente Speicherung der Daten verwendet HyperDX ClickHouse – damit ist eine vernünftige Performance garantiert.
HyperDX unterstützt den Open Telemetry Standard. Über Trace-IDs oder Session-IDs kann man eine User-Journey in den Logs direkt nachvollziehen.
ClickHouse kann Archivdaten in S3 auslagern – HyperDX spricht aber nur mit ClickHouse – damit kann man schnell auf eine große Anzahl an Logs zugreifen.
Dass man es mit der modernen UI ernst meint, sieht man nicht nur auf der schicken Landingpage, sondern kann es auch in der Live-Demo direkt nachvollziehen.

Structured Logs/JSON wird automatisch geparsed – Alerts soll man mit 2 Klicks anlegen können. Und zum Start gibt es bereits diverse SDKs für Java, Python, PHP, GO, Ruby, Javascript und mehr.

Du kannst das Ganze lokal mit Docker-Compose ausprobieren und zumindest mal lokal eine bessere Experience hinbekommen – hat es sich bewährt, kannst du dann deine DataDog oder NewRelic Installation ersetzen.

Im Thread bei HackerNews zum Launch gibt es viele Ideen und Feedback zum Start von HyperDX – sieht vielversprechend aus, oder?

https://github.com/hyperdxio/hyperdx

gping – graphical ping

Zu gping ist mit „Ping, but with a graph“ eigentlich schon alles gesagt.
gping gibt es als Homebrew package (brew install gping), wie auch für Windows, CentOS oder sogar als Ubuntu Package.

Das coole an gping ist nicht nur die grafische Darstellung, sondern dass du auch mehrere Hosts gleichzeitig pingen und auf einen Graph packen kannst – einfach die Hosts nacheinander eingeben, und dann geht das schon: gping heise.de allesnurgecloud.com amazon.com

https://github.com/orf/gping

  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2024 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x