Willkommen zu allesnurgecloud.com – Ausgabe #195
Eine in vielerlei Hinsicht interessante Woche geht zu Ende – und nein, ich meine nicht die verrückten politischen Themen in den USA – sondern die „AI Independence Day“ Initiative von Cloudflare – das heutige Top Thema.
Bei all den News hast du hoffentlich nicht vergessen, deine sudo Pakete zu patchen – da gibt es eine chwoot Lücke, die Ende Juni bekannt wurde (CVSS Score 9,2 – siehe heise.de).
Ansonsten war am Freitag DBA Appreciation Day – der ist übrigens jeden ersten Freitag im Juli jedes Jahr – wusstest du das?
Gibt es bei dir noch DBAs oder zahlt man einfach mehr Cloud Ressourcen? Geht ja auch, siehe Figma News.
Eine Bitte noch in eigener Sache – leite den Newsletter doch gerne an Kolleg:innen oder Bekannte weiter, die sich für die Themen interessieren könnten – weitere Abos würden mir sehr helfen – dank!
Happy Bootstrapping Podcast
Nach der Knaller Folge 127 mit Hannes Zwetschke in der letzten Woche gab es in dieser Woche wieder eine E-Commerce Folge, Bootstrapping in Reinkultur – HOLZRICHTER Berlin. Hier habe ich mit dem Gründer Alexander Korduan gesprochen – er hat die Lederwaren Brand HOLZRICHTER aus dem WG Zimmer vor knapp 10 Jahren gestartet und viele Höhen und Tiefen durchlebt – klare Empfehlung und jetzt unbedingt Folge 128 anhören.
allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:
Cloudflare revolutioniert das Web mit Pay-per-Crawl
TechCrunch im verlinkten Artikel über Cloudflares neuen Marketplace „Pay per Crawl“, der das Verhältnis zwischen Website-Betreibern und KI-Unternehmen grundlegend verändert. Als Infrastruktur-Provider für 20% des Webs startet Cloudflare die „experimentelle“ Beta und ermöglicht es Website-Besitzern erstmals, für jeden einzelnen „Crawl“ Micropayments von KI-Bots zu verlangen.
Technische Umsetzung mit HTTP 402
Das System nutzt den fast vergessenen HTTP Status Code 402 (Payment Required) und moderne Web-Authentifizierung. KI-Crawler müssen sich mit Ed25519-Schlüsseln registrieren und bei jeder Anfrage spezielle Header einsetzen. Website-Betreiber können zwischen drei Optionen wählen: Allow (kostenloser Zugang), Charge (bezahlter Zugang) oder Block (komplette Sperrung).
Drastische Unterschiede bei Crawl-Verhältnissen
Die Zahlen sind erschreckend: Während Google 14 Mal crawlt pro Referral, macht OpenAI 1.700 Crawls pro Referral und Anthropic sogar 73.000 Crawls pro Referral – mit also Google crawlt deine Page 14 mal, bis man dir einen Besucher schickt. Bei Anthropic ist es dann ein Besucher alle 73.000 Crawls.
Das Verhältnis ist ziemlich abgefahren und zeigt deutlich, wie die KI-Unternehmen Inhalte extrahieren, ohne entsprechende Gegenleistung zu bieten. Teilweise „verstopfen“ sie auch das Netz – als ich mir das mal angeschaut habe, haben die Crawler die HTTP Codes nicht entsprechend respektiert und immer den ganzen Content heruntergeladen, dabei sieht HTTP ja If-Modified-Since
und eine 304 Response vor – dafür muss man sich nur merken, wann man selbst zuletzt da war. Zudem könnte man sich etag oder content-length
merken und NUR einen Content Download anstoßen, wenn der Inhalt auch wirklich aktualsiiert wurde.
Vision für eine agentenbasierte Zukunft
Cloudflare CEO Matthew Prince deutete an, dass möglicherweise eine eigene Stablecoin für Transaktionen entwickelt wird. Die wahre Vision liegt in einer „agentenbasierten“ Zukunft, in der KI-Agenten mit Budget automatisch für hochwertige Inhalte bezahlen können.
Matthew Prince hatte in letzter Zeit ordentlich Content in die Richtung gepushed und sich in diversen Interviews zum Thema geäußert.
Auf LinkedIn beschreibt er in einem Video die Historie des Internets und warum es nun zu diesem Schritt kommen müsse.
Meinung: Ein längst überfälliger Schritt
Dries Buytaert, Drupal-Gründer, kommentiert das Thema treffend in seinem Blog:
„AI companies are breaking the web’s fundamental economic model. They train on our work and answer questions directly in their own interfaces, cutting creators out entirely.“
Er sieht in Cloudflares Ansatz einen wichtigen ersten Schritt, fordert aber zusätzlich Content-Lizenzmarktplätze nach dem Vorbild von Shutterstock mit programmatischer Preisfindung. Nur so könne das offene Web langfristig nachhaltig bleiben und Kreative fair entlohnt werden.
Ob das funktionieren kann? Ja nur, wenn alle großen da mitmachen, oder was meinst du?
Wusstest du, dass es einen „Payment Required“ HTTP Status Code 402 gibt? Ich nicht.
Pip hat in der aktuellen Doppelgänger Podcast Folge 472 einige Details beleuchtet, an die ich selber noch gar nicht gedacht habe. Cloudflares Offensive könnte auch daher rühren, dass sie eben die Traffic-Einbrüche von Content Pages besonders spüren, da sie eben nach Traffic bezahlt werden. Pip spricht im Podcast dann von Cloudflare als „bestechlichem Schiedsrichter“ – findet die Art des Eingriffs eher auch gefährlich, aber unvermeidbar und dann auch gut für das gesamte Web. Vor allem, wenn man sich die Alternativen anschaut – dann geht uns ja irgendwann der Content aus.
Introducing pay per crawl: enabling content owners to charge AI crawlers for access
PlanetScale startet Postgres-Hosting mit Performance Feuerwerk
PlanetScale CEO Sam Lambert kündigte die private Preview von „PlanetScale for Postgres“ an – laut eigener Aussage die „weltweit schnellste Postgres Hosting-Plattform“. Der Schritt kommt nach enormer Kundennachfrage seit dem Launch von PlanetScale Metal im März.
Nach Gesprächen mit über 50 Kunden bestehender Postgres-Anbieter hörte PlanetScale immer wieder dieselben Beschwerden: regelmäßige Ausfälle, schlechte Performance und hohe Kosten. Lambert betont, dass PlanetScale als Engineering-Unternehmen nur mit „außergewöhnlicher Technik“ in neue Märkte einsteigt.
PlanetScale hat ein internes Tool namens „Telescope“ entwickelt und damit extensive Benchmarks gegen alle großen Postgres-Anbieter durchgeführt. Die Ergebnisse ihrer M-320 Instanz (4 vCPUs, 32GB RAM, 929GB Storage) zeigen durchweg bessere Performance – selbst wenn die Konkurrenz doppelte Ressourcen erhält:
Performance-Vergleich (QPS = Queries per Second):
- PlanetScale: ~18.000 QPS (TPCC Benchmark)
- Amazon Aurora: ~12.000 QPS
- Google AlloyDB: ~9.000 QPS
- Neon/Lakebase: ~12.500 QPS (mit 8 statt 4 vCPUs)
- Supabase: ~5.000 QPS (mit 8 statt 4 vCPUs)
- TigerData: ~8.000 QPS (mit 8 statt 4 vCPUs)
- Heroku: ~2.300 QPS
Kosten-Vergleich für High-Availability Setup:
- PlanetScale M-320: $1.399/Monat (3 Nodes inklusive)
- Aurora: $1.754/Monat (3 Nodes)
- AlloyDB: $1.642/Monat (3 Nodes)
- Neon: $3.085/Monat (nur 2 Nodes)
- Supabase: $2.144/Monat (3 Nodes)
- TigerData: $3.475/Monat (3 Nodes)
- Heroku: $2.250/Monat (3 Nodes)
PlanetScale nutzt echtes Postgres v17 auf ihrer proprietären Operator-Architektur mit automatischen Failovers, Query-Buffering und Connection-Pooling via PGBouncer. Die lokal angeschlossenen NVMe SSD-Laufwerke mit unbegrenzten IOPS und 8th-Generation AArch64 CPUs sorgen für die Performance-Vorteile.
Die Benchmark Preview findest du auf dieser Landingpage – dort kannst du auch in die einzelnen Benchmarks abspringen. Zum Vergleich kann man Benchmarks auf dem eigenen System mit diesen Instruktionen reproduzieren.
Vitess für Postgres geplant
Interessant wird die Ankündigung einer Vitess-Alternative für Postgres. Statt das MySQL-optimierte Vitess zu portieren, entwickelt PlanetScale ein komplett neues System von Grund auf für Postgres-Sharding bei extremer Skalierung.
PlanetScale scheint mit ihrer bewährten Metal-Infrastruktur tatsächlich signifikante Performance- und Kostenvorteile zu bieten. Die umfassenden Benchmarks wirken transparent und fair – selbst bei doppelten Ressourcen für die Konkurrenz bleibt PlanetScale vorne. Spannend wird, ob sie die hohen Erwartungen in der Praxis erfüllen können.
Kommt nun der „Back to Metal“ Trend?
Announcing PlanetScale for Postgres
Anzeige
Monitoring as Code für LinkedIn, Crowdstrike und 1Password
Checkly ist eine code-first Monitoring-Lösung, die ein kundenzentrisches Monitoring ermöglicht und unter anderem bei LinkedIn, Crowdstrike, Finn.auto und 1Password im Einsatz ist.
Kundenzentrisches Monitoring?
Ja, „Customer Centric Monitoring“ – wie sieht eigentlich der Kunde meine Applikation?
Funktioniert der Login, ist die Suche nach einem Produkt schnell und kann man überhaupt ein Produkt in meinem Shop kaufen?
Das fängt schon beim HTTP Handshake und dem TLS-Zertifikat an und geht durch die ganze Traffic-Kette bis zum Kaufprozess inkl. aller externen APIs, die in deiner Anwendung verwendet werden.
Checkly verwendet hierfür die Open-Source-Browser-Automatisierung Playwright und simuliert damit einen Browser aus über 20 Standorten aus der Welt. Du bekommst damit neben der rein funktionalen Überwachung auch noch einen Einblick in die Performance und Uptime.
Dabei ist Checkly Code-first und bietet wirkliches „Monitoring as Code“ über einen eigenen Terraform Provider, eine Pulumi Integration und die hauseigene CLI an.
Als neues Feature bietet Checkly nun mit Checkly Traces eine nahtlose Integration in vorhandene „Open Telemetry Tracing“ Lösungen an – in einem Webinar vom Ende September kannst du dir hier auf YouTube anschauen, wie das Ganze funktioniert.
Starte jetzt mit dem kostenlosen Checkly Hobby Plan: mit dem Code „Andreas“ bekommst du 15% Rabatt auf die Paid Pläne!
„10x Overemployed“ Engineer: Million-Dollar-Betrug im Valley
Gergely Orosz enthüllt in seinem Newsletter eine spektakuläre Betrugsgeschichte: Ein indischer Software-Engineer namens Soham Parekh arbeitete gleichzeitig für 22 AI-Startups und erschlich sich so rund eine Million Dollar jährlich – ohne dass die Arbeitgeber voneinander wussten.
Startup-Gründer Suhail Doshi machte den Fall öffentlich, nachdem mehrere Y Combinator-Gründer ähnliche Erfahrungen mit Parekh geteilt hatten. Der Ingenieur bestand Interviews mit Bravour, erledigte dann aber kaum bis gar keine Arbeit und wurde meist nach wenigen Wochen gefeuert.
22 Unternehmen betroffen
Die Liste der betroffenen Companies liest sich wie ein Who’s Who der AI-Startup-Szene: Playground AI, Sync Labs, Antimetal, Digger, Fleet AI, Lindy und viele mehr. Besonders perfide: Bei Create.xyz erschien er sogar einen Tag im Büro in San Francisco, dann verschwand er wieder.
Parekhs Ausreden waren bizarr: Militärdrohnen hätten sein Haus beschädigt, er sei chronisch krank oder „windig und regnerisch, daher Internet-Probleme“. Bei Reworkd log er über seinen Standort – ein IP-Logger entlarvte ihn in Mumbai, obwohl er behauptete, in den USA zu sein.
Der Betrug funktionierte, weil Nachfrage nach AI-Ingenieuren explodiert ist. Fähige Entwickler, die LLMs integrieren können, sind rar und können bis zu 200.000$ Jahresgehalt verlangen. Parekh nutzte diese Marktlage perfekt aus.
Remote Work als Risikofaktor
Die Geschichte zeigt eine dunkle Seite von Remote Work: Mehrfachbeschäftigungen werden deutlich einfacher. Background Checks und Referenzen hätten den Betrug verhindert – viele Startups verzichten aber darauf, um schnell im Hiring zu sein.
The 10x “overlemployed” engineer
Figma zahlt täglich 300.000$ für AWS
Was soll man dazu sagen? Figma hat in seinem IPO-Filing offengelegt, dass sie täglich 300.000 Dollar für AWS ausgeben – das sind über 545 Millionen Dollar in den nächsten fünf Jahren. Das ist schon eine ordentliche Summe, selbst für eine erfolgreiche Design-Plattform. D kann man ja schon fast einen der kleineren Cloud Anbieter kaufen.
Interessant ist dabei die komplette Abhängigkeit von AWS. Figma nutzt Computing, Storage, Bandwidth und andere Services des Cloud-Riesen und ist dabei so stark an die AWS-Infrastruktur gekoppelt, dass ein Wechsel schwierig wäre. AWS kann zudem die Vertragsbedingungen nach eigenem Ermessen ändern – nicht gerade eine komfortable Position für Figma.
Bei Figmas Zahlen wird klar, warum das Thema Cloud-Kosten so relevant ist. 300k täglich – da kommen schnell massive Beträge zusammen, die bei eigener Infrastruktur deutlich günstiger sein könnten.
Allerdings ist natürlich die Frage, ob Figma überhaupt die Scale und das Know-how hat, eine solche Infrastruktur selbst zu betreiben. Außerdem zeigen die restlichen Zahlen im IPO Filling, dass in die Cloud Kosten vielleicht auch total wurst sind.
Was denkst du über solche Cloud-Ausgaben?
Design platform Figma spends $300,000 on AWS daily
Netcraft Web Server Survey: nginx und Cloudflare dominieren
Passend zum obigen Artikel zu Cloudflare hab ich mir mal wieder die aktuellen Netcraft Webserver Charts angeschaut, denn die aktuelle Netcraft Web Server Survey für Mai 2025 zeigt interessante Verschiebungen im Webserver-Markt, die perfekt zu Cloudflares aktueller AI-Offensive passen.
nginx führt mit deutlichem Wachstum
nginx konnte mit +6,4 Millionen Sites den größten Zuwachs verzeichnen und erreicht nun 21,2% Marktanteil (+0,37pp). Cloudflare folgt mit +2,1 Millionen Sites (+1,33%) und hält 13,05% Marktanteil. Einziger Verlierer: Apache verlor 449.813 Sites (-0,24%) und fiel auf 15,3% zurück.
Bei den aktiven Sites führt nginx mit 18,73%, gefolgt von Cloudflare mit 18,12% und Apache mit 15,79%. Bei den Top-Million-Sites dominiert Cloudflare sogar mit 22,77% vor nginx (20,28%) und Apache (17,84%).
Cloudflares strategische Position
Die Zahlen unterstreichen Cloudflares starke Position als Infrastruktur-Provider. Mit 20% des gesamten Web-Traffics und dominanter Präsenz bei hochfrequentierten Sites ist das Unternehmen ideal positioniert für ihre Pay-per-Crawl-Initiative.
Die Survey-Daten bestätigen Cloudflares starke Marktstellung genau zum richtigen Zeitpunkt für ihre Content Independence Day-Initiative. Mit ihrer Reichweite können sie tatsächlich Standards für AI-Content-Monetarisierung setzen, vor allem wenn die nun per Default überall aktiviert werden – wobei das glaub nur für neue Cloudflare Accounts gilt, muss ich mal checken.
Zurück zur Haptik: Ein Liebesbrief an physische Whiteboards
Nach all den AI-Tools, digitalen Workflows und cloudbasierten Lösungen wird es Zeit für etwas analog Rebellisches: Pawel Brodzinski schwärmt in seinem Blog von physischen Whiteboards und warum sie digitalen Tools überlegen sind.
Brodzinski zitiert Tonianne DeMaria: „Unser Gehirn fühlt sich anders an“ beim Betrachten physischer Kanban-Boards mit Post-its versus digitaler Tools. Das sei keine Einbildung, sondern Neurowissenschaft – unsere räumliche Wahrnehmung und Systemdenken entwickelten sich in der physischen Welt.
Paradoxerweise sind Whiteboards heute ein Luxus geworden. Remote Work ist Standard, internationale Zusammenarbeit normal, digitale Tools allgegenwärtig. Brodzinski musste jahrelang ohne physische Boards auskommen – bis er sie für den Sales-Prozess wieder entdeckte.
Sein Sales-Board zeigt die Überlegenheit analoger Visualisierung:
- Subflows (mild/warm/hot) funktionieren natürlicher als starre JIRA-Spalten
- Color-Coding ist „schmerzlich offensichtlich“ – in digitalen Tools immer noch problematisch
- Platzbegrenzung auf Post-its wirkt als Filter für wirklich wichtige Informationen
- Helicopter-View ermöglicht zufällige Informationsaufnahme
Der entscheidende Unterschied
Das physische Board wird nur einmal wöchentlich aktualisiert – aber das spielt keine Rolle bei Sales-Aktivitäten. Der serendipitöse Informationskonsum beim Vorbeigehen mit dem Kaffee ist unbezahlbar und in digitalen Tools fast nicht existent.
Brodzinski weiter:
„Wir sind genetisch darauf programmiert, physische Visualisierungen zu nutzen.“
Finde ich interessant – mein Kanban Board ist aktuell auch im Zettelweise Notizbuch und nicht digital. Mir hilft es irgendwie, am Freitag ein paar Items auf Done zu setzen oder zu entfernen. Man hat mehr ein Gefühl, dass man etwas Geschäft hat, als wenn man das auf einen Trello/GitLab/Jira Board verschiebt.
A Love Letter to Physical Whiteboards
Incident-Patterns: Warum dasselbe Problem nie zweimal auftritt
Lorin Hochstein erklärt in seinem Blog, warum derselbe Incident nie zweimal passiert – aber die zugrunde liegenden Muster sich ständig wiederholen. Nach einem Vorfall befürchten Organisationen meist dessen exakte Wiederholung, übersehen dabei jedoch die wichtigeren strukturellen Patterns.
Das „No-More-Snow-Goon“ Problem
Teams fokussieren sich zu stark auf spezifische Details des letzten Incidents statt auf übergeordnete Muster. Saturation (Ressourcenerschöpfung) sei das häufigste Pattern: CPU, Memory, Disk, Threadpools, Bandbreite, Rate Limits – man kann unglaublich viele verschiedene Dinge ausschöpfen. Hochstein dokumentierte dies bei Canva, Slack, OpenAI, Cloudflare, Uber und Rogers.
Wiederkehrende Patterns identifizieren
Weitere häufige Muster: „unexpected behavior of a subsystem whose primary purpose was to improve reliability“ oder „time-based behavior change“ (abgelaufene Zertifikate). Dazu kommt der allgegenwärtige „production pressure“ – der Druck in produktiven Systemen.
Konkrete Beispiele
Ein expired certificate wird oft als isoliertes Problem gesehen, ist aber Teil des größeren time-based behavior change Patterns. Unsichtbare Vendor-Rate-Limits scheinen völlig neu, folgen aber dem Saturation-Pattern.
Fazit
„Kein Mensch steigt jemals zweimal in denselben Fluss“ – Heraklit
Ohne Erkennung höherer Abstraktionsebenen sehen alle Incidents wie völlig neue oder exakte Wiederholungen aus. Pattern-Awareness hilft, scheinbar unterschiedliche Vorfälle als strukturell ähnlich zu erkennen.
The same incident never happens twice, but the patterns recur over and over
Let’s Encrypt kurz vor Launch der IP-Adress-Zertifikate
Let’s Encrypt kündigt in ihrem Community Forum die baldige Ausgabe von SSL-Zertifikaten für IP-Adressen an. Die Funktion wird zunächst nur im „shortlived profile“ verfügbar sein – mit einer Gültigkeitsdauer von nur 6 Tagen und bleibt vorerst auf einer Allowlist beschränkt.
Technische Details und Browser-Bugs
Das Demo-Zertifikat für die IPv6-Adresse 2602:ff3a:1:abad:c0f:fee:abad:cafe
zeigt bereits interessante Herausforderungen. JamesLE entdeckte einen Firefox-Bug bei der Anzeige von IP-SAN-Feldern. Besonders interessant: Die Registrierung von abad.cafe
als Domain, um Verwechslungen zwischen DNS- und IP-SANs zu demonstrieren.
Community-Feedback und Kompatibilität
Die Community diskutiert im Community Thread bereits Browser-Kompatibilität-Probleme. Ein Nutzer merkt an, dass vor 15 Jahren IP-Adressen sowohl als IP- als auch DNS-SAN benötigt wurden für maximale Browser-Unterstützung.
Wichtige Einschränkung: Nur HTTP-01 und TLS-ALPN-01 Challenges werden unterstützt – DNS-01 funktioniert nicht für IP-Zertifikate, was logisch ist.
Ein Kommentator hebt die Wichtigkeit für das „Small Web“ hervor – IP-Zertifikate könnten helfen, das Web zu dezentralisieren, da keine Domains mehr zwingend erforderlich sind. Wofür haben wir nochmal dieses DNS? Drucken wir jetzt IPv6 Adressen auf Plakate?
Getting ready to issue IP address certificates
Schmunzelecke
Bei ABSURD.website gibt es diverse, absurde WebProjekte – beispielsweise den „BuyNothing Store„, das „One Life Game“ oder auch „A Guide for Aliens to live on Earth„.
„The closer to the train station, the worse the kebab“ – A „Study“ – hm, kann des wirklich sein? (Quelle)
💡 Link Tipps aus der Open Source Welt
Quarkdown – LaTeX-Alternative mit Markdown-Syntax
Quardown ist ein Open Source Markdown-Typesetting-System für verschiedene Ausgabeformate. Ideal für komplexe Dokumente mit Scripting-Funktionen. Nutzung über quarkdown c file.qd
mit Live-Preview. Komplett Open Source unter GPL-3.0.
Features:
- Multi-Format-Export (HTML, PDF, Slides, Paged Books)
- Turing-vollständige Markdown-Erweiterung mit Funktionen und Variablen
- Integrierte Standard-Library (Layout, I/O, Math, Conditional Logic)
- Live-Preview mit automatischem Reload
- Reveal.js-Integration für Präsentationen
- Paged.js-Support für Bücher und Artikel
- Interaktiver REPL-Modus zum Experimentieren
- Project-Wizard für schnelle Einrichtung
- Watch-Modus für automatische Neukompilierung
- Umfangreiche CLI-Optionen und Themes
Starke LaTeX-Alternative mit Markdown-Einfachheit. Scripting-Funktionen ermöglichen dynamische Inhalte, Multi-Format-Support bietet maximale Flexibilität. Ideal für komplexe Dokumente und Präsentationen – falls du nicht überzeugt bist, gerne hier die Demo Dokumente oder die Online-Präsentation (Source Code) anschauen. Einen Vergleich mit LaTeX, AsciiDoc, MDX und Markdown findest ebenfalls im GitHub repo.
https://github.com/iamgio/quarkdown
Wordfence CLI – WordPress Security Scanner
Wordfence ist ein hochperformanter, multi-prozessfähiger Sicherheitsscanner für WordPress-Administratoren und Hosting-Provider, um automatisierte Sicherheitschecks durchzuführen und Malware sowie Vulnerabilities frühzeitig zu erkennen.
Den Wordfence Newsletter hab ich aufgrund diverser größerer WordPress Sites in unserem Hosting schon länger abonniert, nun habe ich das Tool dann doch mal wieder „live“ benötigt – mir gefällt es deutlich besser als das WP Plugin, da man es vernünftig automatisieren und damit alarmieren kann.
Features:
- PHP-Malware-Erkennung (über 14 Millionen Varianten in Premium)
- WordPress-Vulnerability-Scanning (über 11.800 Schwachstellen)
- Parallelisierbar und schedulebar für automatisierte Scans
- Pipe-Input/Output-Unterstützung für Integration in Scripts
- Kostenlose und Premium-Lizenzen verfügbar
- Open Source unter GPLv3
- Kontinuierlich aktualisierte Vulnerability-Datenbank
- Rekursive Verzeichnis-Scans
- Kommandozeilen-Interface mit vielen Konfigurationsoptionen
Die kostenlose Version kommt leider mit 30-Tage Delay bei den Patterns, bietet aber bereits soliden Schutz, während die Premium-Version mit aktuellster Malware-Erkennung punktet.
https://github.com/wordfence/wordfence-cli
❓ Feedback & Newsletter Abo
Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.
Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!
Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren: