Themen der Woche
🛡️ Anthropics 'Mythos Preview'
📜 OpenAIs Policy-Blueprint
✨ Meta Muse Spark
---
🎧 Jetzt auch als Podcast
Keine Zeit zum Lesen? KI zum Kaffee gibt’s ab sofort auch zum Anhören - erstellt mit Notebook LM.
---
🛡️ Anthropic Mythos Preview & Project Glasswing: KI als Cyber-Schutzschild
Anthropic hat still und leise das vielleicht mächtigste Coding-Modell der Welt gebaut — und gibt es der Cybersecurity-Branche als erstes in die Hand.
Was ist Project Glasswing?
Am 7. April 2026 präsentierte Anthropic 'Claude Mythos Preview' — ein Frontier-Modell, das speziell für Coding und agentische Aufgaben optimiert wurde. Gleichzeitig startete 'Project Glasswing': eine Cybersecurity-Initiative, bei der 12 Launch-Partner und über 40 weitere Organisationen das Modell ausschließlich für defensive Zwecke einsetzen dürfen. Die Partner-Liste liest sich wie ein Who is Who der Tech-Welt: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks — und Anthropic selbst.
Was kann Mythos Preview wirklich?
Das Modell übertrifft menschliche Sicherheitsexperten beim Aufspüren von Schwachstellen. Es hat bereits Tausende hochkritische Sicherheitslücken identifiziert — darunter Bugs in nahezu jedem gängigen Betriebssystem und Browser, einige davon mit einer Lebensdauer von 27 Jahren. Schwachstellen-Scanning, Black-Box-Testing, Endpoint-Sicherung, Penetrationstests: Mythos Preview kann das alles autonom durchführen. Anthropic stellt bis zu $100M an Nutzungskrediten bereit und spendet $4M an Open-Source-Sicherheitsgruppen.
Das Paradox: Schutzschild oder Angriffswerkzeug?
Anthropic spricht es offen an: Diese Fähigkeiten werden sich nicht dauerhaft einschränken lassen. Wenn sie zu Angreifern durchsickern, könnten Exploits dramatisch schneller entwickelt werden. Project Glasswing ist laut Anthropic ein 'dringender Versuch', die Capabilities zuerst defensiv nutzbar zu machen — bevor es zu spät ist. Ein allgemeiner Release ist derzeit nicht geplant.
Quelle: TechCrunch
📜 OpenAIs Policy-Blueprint: Robot-Steuer, 4-Tage-Woche & Public Wealth Funds
OpenAI hat ein 13-seitiges Policy-Paper veröffentlicht — und schlägt damit eine Wirtschaftspolitik vor, die viele linke Ökonomen überraschen dürfte.
Was fordert OpenAI?
Am 6. April 2026 erschien 'Industrial Policy for the Intelligence Age'. Das Papier skizziert drei Kernziele: KI-getriebenen Wohlstand breit verteilen, systemische Risiken reduzieren und breiten Zugang sicherstellen. Die konkreten Vorschläge sind radikal: eine Robot-Steuer (Roboter zahlen dieselben Abgaben wie die Arbeiter, die sie ersetzen), ein Public Wealth Fund (Amerikaner erhalten automatisch Anteile an KI-Unternehmen und direkte Renditen), eine subventionierte 4-Tage-Woche ohne Lohnverlust, höhere Unternehmenssteuern und eine Verschiebung von Arbeits- zu Kapitalbesteuerung.
Warum ausgerechnet OpenAI?
Das ist die entscheidende Frage. Das Unternehmen, das vielleicht mehr als jedes andere die beschriebene Disruption antreibt, fordert nun staatliche Umverteilung. Axios bezeichnet das Papier als 'der detaillierteste Blueprint, die jemals ein Tech-Titan für Besteuerung, Regulierung und Umverteilung veröffentlicht hat'. Kritiker nennen es einen 'New Deal mit alten gescheiterten Ideen'. TechPolicy.Press spricht von einem 'Policymercial' — Werbung in Policy-Gewand.
Die eigentliche Warnung im Text
OpenAI selbst benennt das zentrale Risiko: KI-Wachstum könnte die Steuerbasis für Sozialprogramme systematisch aushöhlen. Wenn Arbeit wegfällt, bricht die Finanzierung von Rente, Gesundheit und Bildung ein. Das Papier ist kein finaler Blueprint, sondern ein Diskussionsstarter — die Frage, ob Eigeninteresse oder echte Verantwortung dahintersteckt, bleibt offen.
✨ Meta Muse Spark: Der erste Streich der Superintelligenz-Labs
Meta hat seinen kompletten KI-Stack in 9 Monaten von Grund auf neu gebaut — und schickt jetzt ein Closed-Source-Modell ins Rennen.
Was ist Muse Spark?
Am 8. April 2026 stellte Meta das erste Modell der neu gegründeten Meta Superintelligence Labs (MSL) vor. Geführt wird MSL von Alexandr Wang — dem Ex-CEO von Scale AI, den Meta nach einem $14,3-Milliarden-Investment ins Haus holte. Muse Spark ist nativ multimodal (Text, Bild, Voice als Input), beherrscht Step-by-step Reasoning, Tool-Use und Multi-Agent-Orchestrierung. Der 'Contemplating Mode' setzt parallele Sub-Agenten für komplexe Aufgaben ein.
Stärken, Schwächen, Benchmarks
Muse Spark glänzt bei Health Reasoning (trainiert mit über 1.000 Ärzten), Shopping-Empfehlungen und visuellen STEM-Aufgaben. Die Effizienz ist bemerkenswert: 'Thought Compression Training' — ein RL-basiertes Verfahren, das übermäßige Reasoning-Tokens bestraft — sorgt für mehr als 10x weniger Compute als Llama 4 Maverick. Beim SWE-bench Verified erreicht Muse Spark 77,4%. Beim ARC AGI 2 im Contemplating Mode landet es bei 42,5 — während Gemini 3.1 Pro (76,5) und GPT-5.4 (76,1) deutlich vorne liegen. Coding bleibt eine anerkannte Lücke.
Der Bruch mit der Open-Source-Tradition
Muse Spark ist Closed-Source — eine direkte Abkehr von Metas Llama-Philosophie. Das Modell wird in Facebook, Instagram und WhatsApp ausgerollt und greift auf Daten von 3 Milliarden Nutzern zu. Eine Open-Source-Variante der Muse-Familie ist zwar geplant, aber noch ohne Termin. Zuckerberg nennt das den 'ersten Meilenstein' auf dem Weg zur persönlichen Superintelligenz. Der Markt glaubt ihm vorerst: Meta-Aktie +8% am Launch-Tag.
Quelle: TechCrunch
Was du sonst noch wissen solltest ...
🧑💻 GLM-5.1: Open-Source-Agent schlägt GPT-5.4 – Z.ai hat am 7. April GLM-5.1 veröffentlicht: ein agentisches Coding-Modell, das auf SWE-Bench Pro Closed-Source-Modelle wie GPT-5.4 und Opus 4.6 schlägt und bis zu 8 Stunden autonom arbeiten kann. TechCrunch
🔧 Anthropic Managed Agents API in Public Beta – Entwickler können ab sofort cloud-gehostete Agenten direkt über die Anthropic-API bauen und deployen; entkoppelte Kernkomponenten verbessern Performance und Zuverlässigkeit. Anthropic
🎥 HeyGen Avatar V: 15 Sekunden Video, dauerhafter Digital Twin – Das neue Modell trennt statische Identitätsmerkmale (Gesichtsgeometrie, Hauttextur) von dynamischen (Sprechrhythmus, Mikro-Expressionen), unterstützt 175+ Sprachen und schlägt Google Veo 3.1 in unabhängigen Tests. HeyGen
💰 Perplexity knackt $450 Mio. ARR – Das KI-Suchtool wächst rasant, angetrieben durch sein agentisches Computersystem und nutzungsbasierte Preisgestaltung. Yahoo
🎙️ Google AI Edge Eloquent: KI-Diktat komplett offline – Die neue iOS-App von Google läuft vollständig auf dem Gerät mit Gemma-Modellen — keine Cloud, kein Datentransfer. DerStandard
🎨 Canva übernimmt Simtheory & Ortto – Canva sichert sich zwei KI-Startups: Simtheory für agentische Workspace-Tools und Ortto für Marketing-Automatisierung. Canva
⚡ xAI trainiert 7 neue Modelle auf Colossus 2 – Elon Musk kündigt Systeme mit bis zu 10 Billionen Parametern an, trainiert auf dem Colossus-2-Supercomputer. X
📰 New Yorker Investigation zu Sam Altman – Über 100 Interviews, unveröffentlichte Memos von Sutskever und Amodei: Das Magazin beschreibt angebliche Muster täuschenden Verhaltens bezüglich Sicherheitsprotokollen bei OpenAI. The New Yorker
Empfehlung der Woche 💡
1.000 AI Engineers trafen sich vom 8.–10. April in London bei der ersten europäischen AI Engineer Conference – alle Livestreams sind auf YouTube verfügbar.
Schwerpunkte waren Coding Agents, AI System Engineering und ein exklusiver Google DeepMind Track.
Tool der Woche 🧞♂️
Dein KI-Zwilling aus 15 Sekunden Smartphone-Video
Kamera raus, 15 Sekunden aufnehmen, fertig: HeyGen Avatar V erstellt daraus einen persistenten digitalen Avatar, der in 175+ Sprachen spricht, auch bei 10+ Minuten langen Videos keine Identitätsdrift zeigt und dank „Video-Reference Conditioning“ kein Fine-Tuning braucht.
Die Trennung statischer und dynamischer Identitätsmerkmale ist der technische Kern — Bewegungsmuster lassen sich auf beliebige Fotos, Outfits und Szenen übertragen.
Für Content-Teams, Sales und Personal Branding ein echter Gamechanger.