Dein nächster Einkauf läuft auf Zeit
Artikelspezifische Wiederkaufrhythmen erfassen eine zeitliche Präzision, die warenkorbbasierte Empfehlungsmodelle verwerfen – und die Lebensmittelhändler, die dieses Signal kodieren, messen den Unterschied bereits.
Neritus Vale
Die meisten Next-Basket-Empfehlungsmodelle betrachten eine Lebensmittelbestellung als eine Menge von Artikeln und sagen die nächste Menge voraus. Sie erfassen, was Kunden gemeinsam kaufen. Aber sie verpassen, wann jeder einzelne Artikel wieder fällig wird. Der Unterschied ist bedeutsam, denn jedes Produkt im Warenkorb läuft nach seiner eigenen Uhr: Milch im Wochentakt, Waschmittel monatlich, Gewürze im Quartalsrhythmus. Wer diese artikelgenauen Kaufrhythmen in Empfehlungsmodelle einbettet, gewinnt eine zeitliche Präzision, die Warenkorb-basierte Ansätze schlicht verwerfen. Die Forschung ist vorhanden; die meisten Produktivsysteme nutzen sie nicht.
Wiederholungskäufe tragen den Löwenanteil zur Next-Basket-Vorhersage bei. Eine ReCANet-Studie über sechs Lebensmittel-Transaktionsdatensätze ergab, dass über 54 % des Empfehlungs-Recalls auf Artikel entfallen, die der Nutzer bereits gekauft hat – eine Menge, die gerade einmal 1 % des Gesamtkatalogs ausmacht. Die Hälfte der nützlichen Modellleistung konzentriert sich auf einen Bruchteil von Produkten, die der Kunde bereits kennt. Der öffentliche Instacart-Datensatz bestätigt dieses Muster: Über 3 Millionen Bestellungen hinweg häufen sich Wiederkaufsintervalle bei sieben, vierzehn und dreißig Tagen, mit einem Medianabstand von sieben Tagen. Die meisten sequenziellen Deep-Learning-Architekturen behandeln diese Wiederholungssignale genauso wie die Entdeckung neuer Artikel – und verschwenden damit Kapazität auf Breite, wo eigentlich Timing gefragt wäre.
Einfache Häufigkeitsauszählungen übertreffen bereits die meisten Deep-Learning-Modelle bei dieser Aufgabe. Ein empirischer Vergleich von acht Next-Basket-Methoden zeigte, dass TOP – der Ansatz, der Artikel nach Kaufhäufigkeit eines Nutzers reiht – neuronale Architekturen wie RNNs bei Recall, MAP und NDCG häufig schlägt. Separat zeigten Hu et al. auf dem SIGIR 2020, dass eine kNN-Methode auf Basis personalisierter Artikelhäufigkeit den damaligen Stand der Technik im Deep Learning über vier öffentliche Datensätze hinweg übertraf. Diese Häufigkeits-Baselines sind erfolgreich, weil die artikelgenaue Kaufhistorie ein Signal trägt, das sequenzielle Warenkorb-Modelle nicht extrahieren können. Sie beweisen, dass das Signal existiert – erfassen es aber nicht vollständig, weil rohe Häufigkeit keine Uhr hat.
Kadenzfähige Modelle fügen die Uhr hinzu. Katz et al. formalisierten dies in ihrem „Buy-Cycle”-Framework auf der RecSys 2022 mit einem hyper-konvolutionalen Modell, das artikelgenaue Wiederkaufsrhythmen für jeden Nutzer erlernt. In ihrer erweiterten Arbeit in den ACM Transactions on Recommender Systems (2024) führten sie personalisierte Kadenzbewusstheit ein und analysierten Wiederkaufsmuster auf drei Granularitätsebenen: Nutzer, Bestellung und Artikel. Die Artikelebene ist entscheidend. Ein Modell, das weiß, dass ein Kunde alle neun Tage Hafermilch und alle sechs Wochen Spülmaschinentabs kauft, kann zwischen einem überfälligen Tab und einem erst vergangene Woche gekauften unterscheiden. Warenkorb-basierte Modelle, die nur die Sequenz vollständiger Bestellungen sehen, komprimieren beide Signale zu einer einzigen Repräsentation.
Die Lücke zwischen dem Wissen, was ein Kunde kauft, und dem Wissen, wann jeder Artikel fällig wird, ist genau dort, wo Produktivsysteme an Präzision verlieren.
Der naheliegende Einwand lautet: Wäre artikelgenaue Kadenz so wirkungsvoll, würde die Branche sie längst einsetzen. Der technische Aufwand ist real. Kadenzfähige Modelle müssen pro Nutzer und Artikel Zeitstatusgrößen vorhalten, was sowohl den Trainingsdatenbedarf als auch die Serving-Komplexität vervielfacht. Wenn die meisten Lebensmittelkörbe klein und gewohnheitsbasiert sind, erfasst ein gut kalibriertes Häufigkeitsmodell möglicherweise den Großteil des Werts zu einem Bruchteil der Kosten. Dieser Einwand gilt für Händler mit schmalem Sortiment und stabiler Kundenbasis. Er versagt für jede Plattform, bei der die Warenkorbzusammensetzung variiert, wo Aktionspreise die Rhythmen stören oder wo die Kosten einer fehlgetimten Empfehlung in ignorierten Vorschlägen gemessen werden, die das Vertrauen in das Widget untergraben.
Praxisergebnisse bestätigen die Richtung. Amazons T-REX, eine Transformer-Architektur für Lebensmittelempfehlungen, bildet 29.000 Produkte auf Kategoriesequenzen ab und nutzt adaptive Positionskodierung für unregelmäßige Kaufintervalle. A/B-Tests ergaben einen 23-prozentigen Umsatzzuwachs gegenüber bestehenden Empfehlungs-Widgets, mit den größten Gewinnen bei Neukunden und kleinen Warenkörben unter fünf Artikeln. Separat zeigte ein PCIC-Framework für „Buy It Again”-Empfehlungen auf der RecSys 2023 eine NDCG-Verbesserung von bis zu 16 %, indem die Wiederkaufsvorhersage in kategorienbasierte Häufigkeit und artikelgenaues Ranking aufgeteilt wurde – trainiert auf 100 Millionen Kunden und 3 Millionen Produkten. Beide kodieren zeitliche Kadenz auf unterschiedlichen Granularitätsebenen, ohne sich allein auf Warenkorb-Sequenzen zu stützen.
Der Hebel ist konkret, und die Kosten des Ignorierens zeigen sich in jedem Widget-Impression, der danebentrifft. Für Lebensmittel- und Nachschubhändler ist der Warenkorb die falsche zeitliche Analyseeinheit. Jeder Artikel läuft nach seiner eigenen Uhr. Die Empfehlung, die eintrifft, wenn diese Uhr abläuft, konvertiert; die, die eine Woche zu früh kommt, lehrt den Kunden, nicht mehr hinzusehen. Kadenz ist kein Feature, das dem Modell hinzugefügt wird – sie ist das Signal, das das Modell eigentlich finden sollte.