Seouls Detektor überflügelt die LLMs. Marken hatten die Bildauthentifizierung in KI-Kampagnen nie wirklich unter Kontrolle.
Das koreanische Startup Stealcut hat laut einem Bericht von Platum ein Erkennungsmodell veröffentlicht, das Grok, Gemini und ChatGPT in allen Benchmarks auf acht großen Bildgenerierungsplattformen übertrifft. Für Marken, die synthetische Kampagnenbilder in großem Maßstab produzieren, hat die Frage, wer die Bildauthentifizierung kontrolliert, gerade eine geografische Dimension bekommen.
Parallax Pincer
Das KI-generierte Lookbook hat mittlerweile einen unverkennbaren Look — denselben erfundenen Faltenwurf, dieselbe merkwürdig makellose Hauttextur, das Licht, das von überall und nirgendwo zugleich kommt. Die meisten Marken, die solche Bilder produzieren, sind davon ausgegangen, dass sie für kein Werkzeug erkennbar sind, das sie nicht selbst lizenziert haben. Platum berichtet, dass das in Seoul ansässige Startup Stealcut ein Erkennungsmodell veröffentlicht hat, das Grok, Gemini und ChatGPT in allen Metriken übertrifft — getestet auf acht großen Generierungsplattformen, darunter kommerzielle Deepfake-Dienste. Die Frage, wer “ist das synthetisch?” beantworten darf, ist keine ausschließliche Angelegenheit US-amerikanischer Plattformen mehr.
Stealcut hat sich einen Namen mit proaktivem Bildschutz gemacht — indem es Bildern unsichtbares adversariales Rauschen hinzufügt, bevor sie kursieren, und Deepfake-Generierungsmodelle bereits bei der Extraktion stört. Das in dem Platum-Bericht beschriebene Erkennungsmodell scheint eine ergänzende Fähigkeit zu sein: nicht nur die Synthese zu stören, sondern sie im Nachhinein zu identifizieren — über das gesamte Spektrum der Generierungswerkzeuge hinweg, das eine Kampagnenpipeline heute nutzen könnte. Das Unternehmen ist mit der Seoul National University verbunden, wird durch Südkoreas Deep-Tech Pre-Startup Package staatlich gefördert und hält Patentanmeldungen aus dem Jahr 2025. Es befindet sich in einer frühen Phase; die Benchmark-Behauptungen verdienen eine unabhängige Überprüfung.
Der breitere Befund, auf den der Platum-Bericht hindeutet, ist jedoch konsistent mit bestehender Forschung. “LLMs Are Not Yet Ready for Deepfake Image Detection”, veröffentlicht im Juni 2025, hat ChatGPT, Claude, Gemini und Grok auf Faceswap-, Reenactment- und synthetischen Generierungsaufgaben benchmarkt und festgestellt, dass sie „noch nicht als eigenständige Erkennungssysteme verlässlich sind”. Universelle Sprachmodelle können Anomalien beschreiben; sie können sie nicht zuverlässig klassifizieren. Ein zweckgebaut entwickeltes Erkennungsmodell verfolgt völlig andere architektonische Prioritäten — und genau in dieser Differenz sieht Stealcut seine Chance.
Das Problem mit Kampagnenbildern ist strukturell. Marken produzieren seit Jahren KI-generierte Visuals: Produktaufnahmen aus 3D-Renderings, Modell-Imagery aus Diffusionsmodellen, redaktionelle Lookbooks ohne Set und Stylist. Manche machen das transparent. Viele nicht — weil das Fehlen einer externen Erkennungsebene Offenlegung zu einer Frage der Markenstimme gemacht hat, nicht zu einer Notwendigkeit. Erkennungskompetenz in den Händen Dritter — insbesondere solcher außerhalb des eigenen Vendor-Ökosystems — ändert das. Ein Erkennungsmodell, das die bisherigen Werkzeuge übertrifft, bedeutet: Die Frage „Ist das echt?” lässt sich beantworten, ohne die Kooperation der Marke.
Fashion hat ein langes Gedächtnis für genau diese Frage. Der Übergang von der Modeplatte zur Modefotografie — eine Entwicklung, die sich von den 1860ern bis in die 1930er Jahre erstreckte — hat neu definiert, was ein Bild eines Kleidungsstücks zu behaupten berechtigt ist. Modeplatten waren erkennbar erfunden; die illustrierte Dame in einem Worth-Kleid wurde als Idealisierung verstanden. Die Fotografie beanspruchte ein anderes Verhältnis zur Realität, auch wenn sie log. KI-generierte Bilder kehren zum Synthetischen zurück, während sie die Autorität der Fotografie tragen. Erkennungstechnologie macht diese Umkehrung wieder sichtbar — die Platte hinter dem Foto.
Was an Stealcuts Veröffentlichung geopolitisch bemerkenswert ist, sind nicht allein die Benchmark-Ergebnisse. Es ist die Herkunft. Die im US-Plattform-Ökosystem aufgebaute Bildauthentifizierungsinfrastruktur — Googles SynthID, Adobes C2PA-konforme Credentials, die Coalition for Content Provenance and Authenticity — spiegelt die Interessen der Unternehmen wider, die gleichzeitig die Generierungswerkzeuge betreiben. Ein koreanisches Startup, das unabhängig entwickelte Erkennungsfähigkeiten veröffentlicht, an kommerziellen Deepfake-Diensten getestet, signalisiert: Authentifizierung wird zu umkämpfter Infrastruktur — kein gelöstes Problem, das einer kleinen Gruppe von Plattformunternehmen gehört.
Für Marken, die synthetische Bildpipelines aufbauen: Die stille Annahme, dass Erkennung das Problem anderer sei und sich über eine Plattformbeziehung managen lasse, verliert an Überzeugungskraft. Erkennungskompetenz verteilt sich. Ein Kampagnenbild, das die Provenienzstandards einer Plattform erfüllt, besteht möglicherweise nicht das Urteil eines Drittanbietermodells, das auf anderen Daten trainiert wurde. Die Authentifizierungsschicht entsteht — ohne dass Marken am Tisch sitzen. Und der Raum ist gerade deutlich größer geworden.