Willkommen zu allesnurgecloud.com – Ausgabe #162
Im Streit zwischen WordPress und WP Engine ging es auch in dieser Woche weiter – Schlagabtausch von Matt Mullenweg mit DHH von Basecamp (Post von DHH, Antwort von Matt) , diverse Klagen und Ausschlüsse aus der WP Community und irgendwie ist das alles ziemlich unübersichtlich und jeden Tag passiert was. Eine gute Zusammenfassung mit Timeline gibt es bei bullenweg.com und bei designkitchen.dev – Danke an Michi für die Links.
Happy Bootstrapping Podcast
In dieser Woche hatte ich mit „Kooray Food“ ein Food Startup zu Gast bei „Happy Bootstrapping“. Kevin Hornik, der Gründer von Kooray | spice ’n easy, hat lange Erfahrung in der thailändische Küchen und verkauft nun Bio-Instant Currysaucen für zu Hause, die einfach durch das beimischen von Wasser schon „fertig“ sind. Er hat nicht nur die Produktion gebootstrapped, sondern auch schon eine Listung in ersten Edeka und Rewe Märkten geschafft – gar nicht so einfach, bootstrapped in den LEH.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Cloud Exit bei Basecamp auf der Zielgeraden
Bei Basecamp befindet sich der Cloud Exit auf der Zielgeraden. In 2024 konnte man die Cloud Kosten bereits von ursprünglich $3,2 Millionen pro Jahr auf $1,3 Millionen reduzieren. Der letzte große Brocken ist Amazon S3 – Speicher und Traffic – Wow.
Die verschiedenen Angebote von Basecamp (Hey, Basecamp, etc.) speichern aktuellen 10 PB Daten in S3 – in verschiedenen AWS Regionen. Man hat nun ein Purestorage Setup mit 18 PB Speicherkapazität beschafft, welches den in Zukunft den Speicher für S3 bereitstellen soll. Die Beschaffung des Storages kostet das gleiche wie ein Jahr S3 bei AWS zur „Miete“:
This setup will cost about the same as a year’s worth of AWS S3 for the initial hardware. But thanks to the incredible density and power efficiency of the Pure flash arrays, we can also fit these within our existing data center racks.
37signals kann dank der geringen Dichte der Purestorage Hardware seine bestehende Racks beim Housing Anbieter nutzen und muss da nicht mal neuen Space mieten. Man spart mit dem Cloud-Exit nun über 10 Millionen Dollar ein in den nächsten 5 Jahren ein – ursprünglich waren hier 7 Millionen Dollar prognostiziert. Die Performance der Anwendungen ist mit dem Umzug auf eigene Hardware sogar besser geworden (Blogbeitrag dazu).
DHH schreibt im Artikel aber auch, dass die Cloud für sie absolut Sinn gemacht hat. Startet man neue Anwendungen, weiß nicht genau, wieviel Workload man benötigt, oder hat eine hohe Volatilität, ist man in der Cloud gut aufgehoben.
But as soon as the cloud bills start to become substantial, I think you owe it to yourself, your investors, and common business sense to at least do the math. How much are we spending? What would it cost to buy these computers instead of renting them?
Hat man planbare Workload, kein exponentielles Wachstum oder wird die Cloud Rechnung so substanziell, dass man sie nicht ignorieren kann, so schuldet man es Kunden, Investoren und vor allem sich selbst, seine Strategie zu hinterfragen:
Der S3 Umzug wird bis in den nächsten Sommer andauern und ich werde sicherlich darüber berichten.
Our cloud-exit savings will now top ten million over five yea
AWS: Managed Valkey ist billiger als Managed Redis
Im April dieses Jahres hatte ich über den Redis Fork „Valkey“ berichtet, der unter der Schirmherrschaft der Linux Foundation gestartet wurde.
Nun hat AWS Amazon ElastiCache for Valkey und Amazon MemoryDB for Valkey als Service gelaunched. Interessanterweise ist Valkey um bis zu 20 % günstiger als „andere Engines“, natürlich ist damit das eigene Redis OSS Angebot gemeint. AWS garantiert 100 % API-Kompatibilität zum Redis OSS Angebot und 99,99 % Verfügbarkeit – damit ist der Austausch dann wirklich ein No-Brainer.
Ich habe da mal eine Instanz konfiguriert – mit 1 GB RAM und 1000 Requests pro Sekunde (cache.m5.xlarge, Region:Ireland):
- ElastiCache mit Redis Engine: 352,59 $/Monat
- ElastiCache mit Valkey Engine: 302,51 $/Monat
Ich weiß, ist beides irgendwie teuer, für das bisserl Redis – aber so ist das halt bei Managed Services. Die fast 20 % werden jedenfalls bei diesen kleinen Instanzen schon erreicht. Spürbar wird es dann bei deutlich größeren Instanzen, was sicherlich eher die Regel ist.
Bei dem reinen Memory Angebot, MemoryDB for Valkey, soll die Ersparnis je nach Instanz sogar bis zu 30 % betragen.
Cloud Guru Corey Quinn spekuliert im Artikel, dass AWS den Umstieg vielleicht auch belohnen möchte, damit die User auf Valkey umsteigen:
AWS is essentially paying customers to switch – and more importantly, to start thinking of “Valkey” as something distinct from Redis.
Customers get lower costs, and AWS gets to shift the ecosystem towards what’s shaping up to be the obvious Redis successor.
Das könnte massiv Kunden in das Valkey Ökosystem bringen. Und AWS hat sicherlich trotzdem noch eine gute Marge am Thema. Man dürfe nicht vergessen, dass Valkey schon heute 10-mal so viele Contributoren hat als Redis selbst, und mittlerweile auch einige Commits voraus ist.
AWS’s Valkey Play: When a Fork Becomes a Price Cut
Sponsored
Checkly sucht Engineers – Full Remote!
In einer der letzten Ausgaben hatte ich bereits über die 20 Millionen Finanzierungsrunde von Checkly berichtet. Checkly ist außerdem ein „Gartner Cool Vendor“ und die Speerspitze der „Monitoring as Code“ Bewegung.
Das Team von Checkly sucht nun folgende neue Kolleg:innen zur Unterstützung:
- Senior Backend Engineer (remote)
- Senior Full Stack Engineer (remote)
- Senior Growth Marketer (remote)
- Junior Support Engineer (remote)
Bei Checkly arbeitest du remote-first, flexibel und asynchron – Meetings werden so gut es geht vermieden. Mit der Kultur ist Checkly sehr transparent – viele Infos dazu findest du auf dieser Notion Page. Passend dazu ist das „Employee Handbook“ für alle verfügbar – inklusive Informationen zur Bezahlung der Mitarbeitenden.
Falls du Checkly nicht kennst – Checkly bietet eine synthetische Monitoring Lösung an, die eure APIs und Applikationen von der ganzen Welt aus überwacht. Das besondere? Checkly ist Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Remote und Office: Ablenkung durch Notifications
Egal ob im Büro oder „remote“ – die Anzahl der Tools in Notifications, die im Arbeitsalltag ungefiltert auf uns einprasseln, hat spürbar zugenommen.
Jira E-Mail, Teams Notification, Alerting oder ein klassischer Anruf – die Anzahl der Ablenkungen, die einen aus der Konzentration reißen und einen anstrengenden „Kontext Switch“ in unserem Hirn ausläsen, ist enorm. Daheim klingelt dann noch der Postbote, das Kind klopft an der Türe oder die Fußball WhatsApp Gruppe explodiert in einer wilden Diskussion.
Marissa Goldberg hat im aktuellen „remotely Interesting“ Newsletter einige Tips, um dem „Notification Overload“ zu begegnen. Im Gegensatz zur üblichen Empfehlung, „Deep Work“ Zeit zu blockieren, empfiehlt sie das Gegenteil:
Box in your sync hours so the rest can be defaulted to deep work
D.h. man blockt sich Zeiten für synchrone Arbeit, Meetings, Notifications, E-Mail Posteingang. und Co – und die restliche Zeit ist „Deep Work“ Zeit. Sie macht das, in dem sie sich die ersten und letzten 30 Minuten ihres Arbeitstages für solche Zeiten blockiert:
During this time, my team members know they can reach me immediately. I check and respond to messages in various tools like Slack, Notion, and email
Jede Nachricht, die sie in 5 Minuten beantworten kann, bekommt sofort eine Antwort – andere kommen in einen separaten Ordner – schön, wenn das so geht, oder? Auch interessant, sie hinterlässt ein Emoji an Nachrichten, die sie gelesen hat und bearbeitet, damit der Sender weiß, dass die Antwort in Arbeit ist.
Remote Work habe auch eher Mehrarbeit ausgelöst, da wir der Meinung seien, wir müssten auf alles gleich antworten. Marissa wirbt daher dafür, dass man die Erwartungshaltung an Kommunikationskanäle klarstellen sollte – eben dass man nicht sofort eine Antwort erwartet – auch das ist remote und asynchrone Arbeit. Nur weil ich jetzt Zeit habe, zu telefonieren oder zu schreiben, heisst das nicht, dass mein Gegenüber das kann.
Eine schöne Analogie hat sie beim Messaging:
Responding to a single message as soon as it comes in is as efficient as washing one piece of clothing at a time. You’re spending a much larger cumulative amount of time on notifications than you would if you would batch checking them
Und so habe ich darüber noch gar nicht nachgedacht. Der Overhead ist bei dieser Form der Bearbeitung dann schon enorm. Kann man einfach abstellen, erfordert aber eine gewisse Disziplin und Erwartungshaltung. Ich nutze auf dem Mac Raycast und diverse Extensions, um schnell meine Verfügbarkeit in Teams und Slack einzustellen, wenn jeder das macht, hilft das ungemein.
Einen sehr guten Tipp hat Marissa ans Ende gepackt: „Keeping you from being in reactive mode all day“ – man solle sich von Notifications nicht den Tag bestimmen lassen, sondern selbst den Tag bestimmen. Hört sich irgendwie ulkig an, ist aber was wahres dran, denke ich.
Marissa hat einen kostenlosen „Slack Hacks“ guide geschrieben, den man auch auf andere Notification Tools anwenden kann.
So, ich glaube, ich hab 3,4 Unterbrechungen während dem schreiben dieses Abschnitts gehabt, auch das ist nicht gut und die Verbesserung fängt vor allem bei sich selbst an.
How do you deal with endless work notifications?
Indie Hacker Cloud Exit: Von $1.400 auf $120 pro Monat
Der Indie Hacker Rameerez bietet mit den SaaS-Tools PromptHero, jobician und dem Time Lapse Video Tool „Hustl“ diverse Applikationen im Internet an. Sein Tweet zu seinem Cloud-Exit ging vor 2 Wochen nun viral und erreichte über 1 Million Views.
Nun hat er bei seinem Cloud-Exit bzw. Umzug von AWS zur Hetzner Cloud $1.200 im Monat gespart – oder $15.000 im Jahr. Im verlinkten Artikel „How I exited the Cloud“ beschreibt er, wie er das gemacht hat. Nach mehreren Wochen Vorbereitung hat ihn der Umzug in Produktion dann nur 1 Stunde Zeit gekostet – die Ersparnis ist natürlich enorm – gerade, da die Cloud-Kosten bei ihm ein ordentlicher Kostenblock sein dürften.
Sein größter Kostenblock bei AWS war die PostgreSQL RDS Datenbank, gefolgt von den EC2-Instanzen und einer Redis-Cache Instanz. Er hat sich für 2 Server in der Hetzner Cloud entschieden – einen dedizierten für die Datenbank, den anderen für den Web-Server mit Rails, nginx, redis und dem restlichen Kram.
Die komplette Vorgehensweise hat er hier bei GitHub dokumentiert – natürlich fehlt da noch einiges, was bei AWS im Bauch ist – Metriken der Systeme, Monitoring, ein Patching der Hosts – all das bekommt man bei AWS umsonst mit oder kann es dazubuchen. Hier muss er das selbst machen, oder man beauftragt Profis, die sich damit auskennen.
Das „Operations“ Thema sollte man nicht unterschätzen, denn nur mit der Installation der Services ist es nicht getan, daher kann man die Preise natürlich nicht 1:1 vergleichen. Gerade in dem Fall und gerade bei RDS sieht man schön, wie AWS die Marge für das Operations mit der Instanzgröße einfach mitwachsen lässt, obwohl der Operations-Aufwand eigentlich der gleiche bleibt.
Llama 3.2 self-hosting mit Coolify
Der Entwickler Raymond Yeh wollte seinen angestaubten Home Server mitsamt GeForce RTX 2060 mal wieder zum Einsatz bringen und ein lokales LLM zu Hause hosten.
Das geht ganz einfach, und zwar mit Coolify, einer Art self-hosting Plattform und Alternative für Heroku, Netlify und Vercel. Coolify kümmert sich um Pull request Deployments, DB Backups, Webhooks, Monitoring, Server Automatisierungen und hilft einem, Services in Docker recht einfach zu deployen. Alle features findest du hier in der Dokumentation und hier ein paar Screenshots der Oberfläche.
Jedenfalls hat Raymond über Ubuntu und ein Bash Script Coolify installiert, einen Cloudflare Tunnel konfiguriert und dann Ollama in Docker gestartet. Das hat erstmal die ganze CPU gesaugt, da man Ollama via Docker erst noch über das nvidia-container-toolkit
überreden muss, dass es auch die GPU verwendet. Ganz interessant dabei – die AMD Ryzen 9 5950X 16-Core CPU ist 10 mal langsamer wie die „alte“ GeForce RTX 2060 bei der Inferenz.
How I Self-Hosted Llama 3.2 with Coolify on My Home Server: A Step-by-Step Guide
$1M Open Source Fund von Zerodha
Zerodha ist der zweitgrößte Stock Broker in Indien mit über 2000 Mitarbeiter und über 1 Milliarde Dollar Umsatz. Über den Remote to Hybrid Switch der Arbeitsweise hatte ich in Ausgabe 143 bereits berichtet.
Zerodha setzt nun einen Drauf und startet einen Open Source Fund, der jedes Jahr $ 1 Million Dollar in OpenSource Projekte investieren soll. CTO Kailash Nadh schreibt dazu im neu aufgesetzten Blog des FLOSS/fund:
A significant portion of our success and growth is owed to FOSS, encompassing everything from programming languages to operating systems, to databases, web servers, frontend frameworks, productivity tools, code editors, and absolutely everything
Wenn das doch nur mehrere Firmen mit über 1 Milliarde Umsatz so machen würden, dann wäre das gar kein Problem. Wobei, wenn man sich das anschaut, ist das ja gerade mal 0,1 % des Umsatzes in dem Fall, und trotzdem kann man damit eine Menge Impact haben.
Ganz interessant, im Blog Artikel gibt es eine historische Reise durch den Tech-Stack von Zerodha – von Python über Postgres, WordPress und PHP bis hin zur modernen Architektur. Jedenfalls spendiert Zerodha dem Fund ein kleines Team, welches als eine Art OpenSource Programm Office arbeiten, Bewerbungen für den Fund durchschauen und administrieren soll. Es soll erstmal ein interim Commitee geben, dass die Entscheidungen gibt, später soll dies aus der Community geregelt werden.
Der Fund soll mindestens $10.000 und bis zu $100.000 pro Projekt und maximal $1 Million pro Jahr investieren. Man möchte die 1 Million erhöhen, sofern der Prozess sitzt und man sicher ist, dass es funktioniert.
Bewerbung kann man sich übrigens automatisiert über ein funding.json, welches am besten im eigenen Projekt Repository eingehängt wird. Die Schema Description findest du hier.
Da ich die Empfänger hier kenne und da auch ein paar größere Firmen dabei sind – könnt ihr euch sowas auch vorstellen? Oder warum liest man wenig von deutschen Firmen, die solche Themen öffentlich finanziell supporten?
Announcing FLOSS/fund: $1M per year for free and open source projects
Self hosting Observability Stack
In Ausgabe #156 hatte ich QRYN als Observability Stack vorgestellt. Wer es lieber klassisch mag und seine teure DataDog Subscription loswerden möchte, der kann sich den verlinkten Artikel zu „self Hosting full stack observability“ mal anschauen.
Der Stack läuft in Kubernetes und besteht aus:
- OpenSearch über den OpenSearch Operator
- OpenTelemetry mit dem OpenTelemetry Operator
- Jaeger Tracing mit dem Jaeger Operator
- Prometheus und Alertmanager mit dem Standard Prometheus Operator
- und Grafana für die Visualisierung via Grafana Helm Chart
Der Artikel kratzt ein wenig an der Oberfläche, aber eigentlich ist alles drin, was das cloud-native Herz begehrt – es gibt aber ein simples Architekturdiagramm, das zeigt, wie das Ganze im Zusammenspiel funktioniert.
Wichtiger Tip des Autors: Nicht alles auf einmal machen, sondern mit Logging Und Metrics anfangen, Tracing und Alerting dann später einbauen. Das Ganze ist komplex genug, auch nicht sofort alles in alle Applikationen einbauen, sondern Schritt für Schritt vorgehen.
Ich würde sogar noch einen Schritt weiter gehen und „außen“ anfangen – also bei der Sicht des Kunden – Überwachung der Endpoints, APIs, Zertifikate, etc. – mehr dazu gibt es im „Customer Centric Monitoring“ Vortrag auf der OSMC in Nürnberg. Sehen wir uns da?
Self hosting full stack observability
GitLab 17.5 released
Und auch in diesem Monat gibt es ein neues GitLab Release mit über 125 Verbesserungen und diversen Fixen – der Fokus lag in Release 17.5 auf der AI GitLa Duo Chat – self-hosted AI Modelle, Code Suggestions, deren Export und Merge Request Conversion Support mit GitLab Duo Chat.
Was gibt es sonst noch neues?
- Die Branch Rules können nun in einer übersichtlichen View einheitlich konfiguriert werden
- Für GitLab Ultimate SaaS Kunden gibt es nun ein globales Credentials Inventory mit allen SSH Keys und Access Tokens
- Duo Chat ist nun in allen Visual Studio Windows Versionen verfügbar (ab Premium Abo)
- Die Flux GitOps Integration in GitLab wurde deutlich verbessert – muss ich mir unbedingt anschauen 😉
- Für alle Versionen gibt es eine bessere Kubernetes Integrations mit Log Viewer und Pod Debugging in der GitLab UI integriert
- Flux Reconciliation ist nun auch aus der GitLab UI möglich
- In self-hosted Installationen ist die User Management Übersicht aufpoliert worden
- self-hosted Installationen können nun auf PostgreSQL 16 aktualisiert werden – muss man aber selbst anschieben (#notetoself)
Das Upcoming Release ist dann 17.6 – hier stimmt die Kickoff Page aktuell nicht (da steht 17.4) – aber das Video mit den geplanten Features ist schon online.
GitLab 17.5 released with Duo Quick Chat AI code assistance
openDesk 1.0 verfügbar
Die Version 1.0 von openDesk wurde auf der Smart Country Convention in Berlin angekündigt. Unter „openDesk“ wird eine Office & Collaboration Suite als Bundle für einen souveränen Arbeitsplatz bereitgestellt.
openDesk enthält in der aktuellen Version diverse Software als Bundle, unter anderem:
- Video und Telefonkonferenzen von Element auf Basis von Matrix – unter anderem Bei der NATO, Bundeswehr, Fedora und der Gematik im Einsatz
- Zusammenarbeit an Files und Dokumenten über NextCloud
- Projektmanagement mit OpenProject
- Wissensmanagement mit XWiki
- Online Office von Collabora
- E-Mail und Kalender von OpenExchange
Das Ganze wird als Bundle auf einem Portal von Univention bereitgestellt und kann wahlweise von B1 Systems self-hosted im eigenen Data Center oder als SaaS Variante auf der STACKIT Cloud der Schwarz Gruppe gehostet werden.
Ultimate Cybersecurity Awareness Bundle
Das Cybersecurity Trainings Unternehmen EC-Council hat anlässlich des „Cybersecurity Awareness Month“ ein spannendes, ja, eigentlich ein no-brainer Cybersecurity Kurs Bundle im Angebot.
Für schlappe $19,99 bekommt man 15 Cybersecurity Kurse im Bundle, die sonst $299 kosten. Man kann die Kurse einzeln für $1,99 kaufen oder halt im Bundle – dann bekommt man noch ein AI Kurs Bundle mit 4 Kursen dazu.
Dabei sind unter anderem:
- Offensive Perspective – OWASP Security for Developers
- Security Automation with Ansible
- Network Defense Fundamentals
- „Learn Linux Security Through Practical Steps“
- Linux Command Line for an Ethical Hacker
- Kali for Penetration Testers
und und und. Die AI Kurse beziehen sich auf ChatGPT (2 Kurse) und Google Gemini (die anderen 2).
Nach Abschluß der Kurse gibt es sogar ein Zertifikat – also da schlagen nicht nur Schwaben zu, bin ich mir sicher.
Cybersecurity Awareness Month Super Sale
Schmunzelecke
Der YouTube Kanal KRAZAM ist für eine aufwendigen IT Stories aus dem Leben bekannt, das Video über Microservices kennt wahrscheinlich jeder der Leser hier.
Vor einem Monat wurde ein neues Video zum „High Agency Individual Contributor“ veröffentlicht – und das ist ebenfalls einen Blick wert. Nicht so gut wie „Microservices“, aber schmunzeln musste ich trotzdem.
💡 Link Tipps aus der Open Source Welt
Online Cheat Sheets bei cheat.sh
Bei Cheat.sh findest du Online-Cheat Sheets für unzählige Tools – der Clou dabei – du kannst cheat.sh im Terminal per CLI und curl abfragen. Das Ganze mag sich jetzt banal anhören, ist aber ziemlich umfangreich. Ein paar Beispiele:
curl cheat.sh/tar
– gibt dir eine Hilfe mit diversen Beispielen für tar
Kommandos –
curl cht.sh/rsync
– das Gleiche für rsync
, mit der short-url cht.sh.
Programmiersprachen kann es allerdings auch, beispielsweise:
curl cht.sh/js/parse+json
– wie parsed man ein JSON mit Javascript?
curl cht.sh/go/Pointers
– wie funktionieren Pointer in Go?
Noch einfacher geht die Bedienung über den cht.sh Client mitsamt bash und ZSH auto-completion. curl cht.sh/kubectl
geht natürlich auch. Was es nicht alles gibt 🙂
https://github.com/chubin/cheat.sh
Tinyproxy – leichtgewichtiger HTTP/HTTPS Proxy
Tinyproxy
habe ich an verschiedenen Stellen in Verwendung, da der HTTP Proxy Daemon leichtgewichtig und einfach zu installieren und konfigurieren ist. Bei Ubuntu gibt es Tinyproxy
als Packet und ist daher schnell installiert.
Tinyproxy
kann per IP an interne IPs gebunden oder mit „Basic Auth“ und ACL vor fremdem Zugriff geschützt werden. Zudem kann Tinyproxy
auch bestimmte URLs filtern oder mit einer Whitelist nur auf bestimmte Ressourcen zugreifen.
Falls du also in deinem Setup einen HTTP/HTTPS Proxy benötigst – schau dir gerne mal Tinyproxy an.
https://github.com/tinyproxy/tinyproxy
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: