allesnurgecloud #58 – S3 ist kein Backup, Grafana Mimir, DevOps Plattform Dagger und Home Office Tipps

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

507 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

S3 ist kein Backup Ersatz

Amazon hat mit „AWS Backup für S3“ im Februar eine nötige Erweiterung für seinen Backup und S3 Dienst gestartet.
Viele sind gefühlt der Meinung, „meine Daten sind in S3 und ich versioniere die Daten da auch, also brauch ich kein Backup“ – oder?
Corey Quinn beschreibt dies im verlinkten Blog Beitrag S3 ist Not a Backup auf gewohnt unterhaltsame Weise.
Man benötigt ein Backup als Sicherheit gegen

  1. Accidental deletion – die Daten werden aus Versehen gelöscht – dann auch mit der Versionierung
  2. Malicious deletion – jemand klaut eure Accountdaten und löscht einfach alle Objekte – oder verschlüsselt sie mit einem euch nicht bekannten Key
  3. Recovery – Hat man die Daten in einem Drittsystem, wie einem CMS, PIM oder so – und kann diese neu erzeugen – so sollte man dringend schauen, wie lange der Recovery in einem solchen Fall benötigt. Je nach Anwendungsfall kann das „viel zu lange“ sein.

Alle diese Themen sollte man nicht unterschätzen und genau anschauen, wie man seinen S3 Speicher sichern kann. Corey nennt im Artikel noch andere Motivationen – er spiegelt beispielsweise seine S3 Daten von AWS in einen Google Cloud Storage – das ist dann auch wirklich ein anderer Brandabschnitt ;-).

Wie sichert ihr eure S3 Daten?
Die bekannten OpenSource Tools ResticBorg und duplicity können zwar nach S3 sichern, aber selbst keine Sicherung mit Quelle S3 durchführen. Mit S3Sync kann man seine produktiven S3 Buckets immerhin zyklisch an einen anderen Standort sichern – was man ja sowieso machen sollte.

S3 Is Not a Backup

Grafana startet Mimir – TSDB Alternative zu Cortex

Grafana startet mit Grafana Mimir eine eigene Timeseries Database (TSDB) und Alternative zu Cortex. Mimir soll die schnellste TSDB der Welt sein und dabei bis zu 40-mal besser performen als Cortex. Dazu glänze man mit Hochverfügbarkeit, Mandentenfähigkeit, einfachem Deployment und robustem Storage.
Warum das Ganze? Man kann die Motivation dahinter relativ direkt im Blog Artikel ablesen:

Grafana Labs employees have been far and away the largest contributors to the Cortex project, with ~87% of the commits from 2019-2021….

At the same time, cloud providers and ISVs have introduced their own offerings based on Cortex, without similar levels of contribution to the project. The cycle of one company building technology that others can offer at a lower cost, because they don’t have to invest in the open source code, is simply not sustainable.

Man ist also nicht glücklich darüber, dass diverse Cloud Provider sich mit dem bereitstellen von OpenSource Produkten eine goldene Nase verdienen, sich dabei aber nicht angemessen an den zu Grunde liegenden beteiligen und contributen.
Man habe nun die mit Mimir die Möglichkeit, nochmal von vorne und ohne die angehäuften Technischen Schulden zu starten.
Gleichzeitig sind einige proprietäre Features von Grafana Cloud und Mimir eingeflossen.
Was genau nun Mimir von Cortex und Grafana Cloud unterscheidet seht ihr in diesem Schaubild.
Eine Migration von Cortex zu Mimir soll nicht mehr als 10 Minuten dauern. Bisher unterstützt Mimir nur Prometheus Metriken, man arbeite zukünftig am Support von Influx, Graphite, OpenTelemetry und sogar Datadog.
Details zum Projekt findet ihr beim GitHub Projekt zu Mimir.
Am Dienstag den 26. April wird Mimir in einem Webinar detailliert vorstellt.

Announcing Grafana Mimir, the most scalable open source TSDB in the world

Sponsored

DevOps & SRE as a Service mit „We Manage“

Wir helfen Dir beim 24×7 Betrieb, bei Performance Problemen, bei Kostenoptimierung oder einfach beim Betrieb deiner Web-Applikationen.
Betreibst du Services wie GitLab, Zammad und Matomo selbst – hierbei unterstützten wir ebenfalls gerne – schau Dir einfach mal unsere Leistungen an.
Unsere Kunden kommen in unseren Case Studies zu Wort – wie beispielsweise KRUU.com – eine Plattform für die Vermittlung von Dienstleistungen rund ums Thema „Hochzeit“.

Interessiert? Lerne uns in einem 15 Minuten Video-Call kennen.

Docker Gründer startet DevOps Platform Dagger

Der Docker Gründer Solomon Hykes hatte sich vor ungefähr 4 Jahren aus dem operativen Docker Geschäft zurückgezogen.
Nun nimmt er einen neuen Anlauft und startet mit dagger.io ein neues Produkt, unterstützt von einer $20 Millionen Finanzierungsrunde.
Dagger möchte in Zukunft sicherstellen, dass lokale CI Pipelines exakt genauso funktionieren, wie auf eurer CI/CD Umgebung für Test und Produktivsysteme. Hierfür verwendet Dagger lokale Docker Images. Mit der eigens entwickelten Konfigurationssprache CUE könnt ihr der „YAML Hölle“ entkommen. Die Dagger Engine läuft auf jeder Docker Engine – zudem könnt ihr vorgefertigte Aktion aus dem von der Community gepflegten Katalog zugreifen – somit müsst ihr das Rad nicht immer neu erfinden.
Was nun genau Dagger von anderer CI/CD oder PaaS Angeboten unterscheidet könnt ihr auf „Dagger vs. Other Software“ einsehen.
So ganz schlau werd ich daraus noch nicht, aber das Projekt steht noch am Anfang – das aktuelle Release ist eine v0.2.4.
Was haltet ihr davon?

Docker founder launches Dagger, a new DevOps platform

Kubernetes: Digital Forensics Basics

Alberto Pellitteri empfiehlt im verlinkten Beitrag im Sysdig Blog eine Vorgehensweise, um forensische Daten im Falle eines Security Incidents in einer Kubernetes Infrastruktur zu sichern. Diese Daten benötigt man um nachvollziehen zu können, was der Angreifer genau gemacht hat, welche Daten er potentiell abgezogen hat oder wie der Angriff initial erfolgt ist.
In der traditionellen Welt hat man hierfür mal mindestens Snapshots der betroffenen Maschinen gezogen und für eine Offline Analyse bereitgestellt.
Sind die Anwendungen in Kubernetes deployed, so ist der Prozess etwas komplexer und erfordert die Verwendung diverser Tools, wie beispielsweise den Docker Explorerkube-forensics oder kubesploit.
Um Vorzubeugen empfiehlt sich ein SIEM System (Beispielsweise ElasticSearch oder Graylog), sowie eine zu Kubernetes passende Thread detection Engine, Alberto nennt hier Falco inklusive Falcosidekick als den de facto Standard.

Im Artikel untersucht Alberto mit Hilfe der genannten Tools einen Incident auf einem Tomcat Pod, welcher unter anderem externe Downloads und „chmod 777“ ausgeführt hat.
Schaut euch die Analyse gerne mal an. Bei Verwendung von Applikationen in Kubernetes Cluster wäre es ratsam, solche Vorfälle zu trainieren und zu dokumentieren, damit man sich im Ernstfall und unter Druck korrekt verhält und nötige Beweise sichert.

Digital Forensics Basics: A Practical Guide for Kubernetes DFIR

Tipps für Remote Work im Home Office

Das Home Office perfekt einrichten, mit vernünftiger Kamera ausstatten, Mikrofon Upgrade durchführen und sogar das Licht für Video Calls optimieren – haben sicherlich viele von uns in den letzten beiden Jahren gemacht.
So langsam merken wir aber, dass sich das für Video Calls optimierte Home-Office nicht für alle Tätigkeiten anbietet.
Marissa Goldberg beschreibt im verlinkten Blog Artikel, dass es vollkommen normal sei, auch zu Hause die Arbeitsstätte zu wechseln. Unser für Video-Calls optimiertes Home-Office ist vermutlich nicht optimal für kreatives Arbeiten oder auch der falsche Ort, um Konzepte zu erstellen.
Sie beschreibt dies anhand dem Schreiben des Blog Artikels selbst. Brainstorming macht sie auf der Couch, oder am Küchentisch, ja sogar im Bett. Für manche Dinge benötigt man eine ruhige Arbeitsumgebung, für Anderes eben eine kreativere.
Schaut gerne mal rein, mir hat das sehr geholfen – abonniert auch gerne Ihren Newsletter.

This Popular Remote Work Advice Is Wrong (And You’re Probably Following It)

Linux Grundlagen: traceroute und mtr verstehen

Die beiden Linux Tools traceroute und mtr gehören zu den absoluten Grundlagen der Linux Administration.
Beide benötigt man, um die Wege von Paketen durch verschiedene Router und nachzuvollziehen.
Phil Lavin stellt im verlinkten Blog Artikel beide Tools vor und erklärt beispielsweise, warum „Packet Loss“ zwischen 2 einzelnen Host auf der gesamten Verbindung unproblematisch sein können.

Unless packet loss or increased RTT is seen on every hop between a given hop and the end of the trace, it is not a problem.

Des weiteren erklärt er die Round Trip Time (RTT) und Forward vs. Return Path.

How to properly interpret a traceroute or mtr

ModernCTO Podcast

Ein kleiner Hinweis auf einen mir bisher unbekannten Podcast: den ModernCTO Podcast.
Der ModernCTO Podcast erscheint wöchentlich in englischer Sprache. Interview Gäste sind häufig CTOs der Fortune 500 Firmen aus unterschiedlichsten Sparten. Laut eigenen Angaben erreicht der Podcast über 88.000 Hörer pro Woche.
Einer der beiden Macher, Joel Beasley, hat zum Thema auch ein Buch geschrieben – „Modern CTO“ – vielleicht hat es jemand von euch schon gelesen und kann mitteilen, ob es sich lohnt?

ModernCTO is the place where CTOs hang out.

Schmunzelecke

Your Kubernetes Backup and Recovery Strategy – @memenetes – schaut mal bei den Tools vorbei, da gibt es 1,2 interessante Lösungen für das Backup Problem – und nicht vergessen, den Restore zu testen.

💡 Link Tipps aus der Open Source Welt

Velero – Backup für Kubernetes

Mit Velero könnt ihr Kubernetes Cluster Ressourcen und Persistent Volumes sichern und im Falle eines Fehlers wiederherstellen.
Außerdem hilft euch Velero beim Verschieben von Ressourcen auf andere Cluster, oder bei der Replikation von Ressourcen auf Test oder Dev Cluster. Velero nutzt unter anderem eine Restic Integration zur Sicherung eurer Volumes. Über das Plugin System von Velero könnt ihr verschiedene Storage Provider in Velero einbinden.

https://github.com/vmware-tanzu/velero

Kopia – OpenSource Backup Lösung

Kopia ist eine UI gestützte, Backup Lösung, welche, neben der Deduplizierung eurer Backups, diese auch verschlüsselt und komprimiert in verschiedenen Backends ablegen kann. Kopia unterstützt hier eine Vielzahl an Repositories, unter anderem Google Cloud Storage, Azure Blob Storage, Amazon S3, Google Drive, Backblaze und SFTP.
Ein Demo Video der UI könnt ihr euch auf YouTube anschauen.

https://github.com/kopia/kopia/

Resume as Code – Hugo Theme für euren CV

Mit diesem Hugo Theme könnt ihr euren CV einfach online darstellen und komplett in yaml konfigurieren.
Der Entwickler Mert Bakir beschreibt in einem Blog Eintrag Motivation und Funktionsweise.
Wie das Ganze online aussieht, könnt ihr euch hier in der Demo anschauen.
Mit CSS könnt ihr das Design individuell anpassen – ausgedruckt und als PDF sieht es dazu auch noch gut aus.

https://gitlab.com/mertbakir/resume-a4

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

507 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtige mich bei
    guest

    0 Comments
    Inline Feedbacks
    View all comments

    allesnurgecloud.com

    © 2024 allesnurgecloud.com
    0
    Would love your thoughts, please comment.x