Was ist der Headline-Bandit?

Welche Überschrift passt am besten zu meinem Artikel? Der Headline-Bandit nimmt den Newsroom-Journalisten diese Entscheidung ab.

Was ist der Headline-Bandit?

Die Suche nach der optimalen Überschrift für Euren Artikel frisst Zeit. Zeit, die Ihr effizienter nutzen könntet. In Merkurist-Newsrooms nimmt Euch das Headline-Bandit-Tool diese Entscheidung ab.

Mit dem Headline-Bandit könnt Ihr mehrere Titel-Varianten anlegen. Der Algorithmus bewertet dann automatisch, welcher Titel die besseren Performancewerte erzielt.

Dafür testet der Algorithmus in Echtzeit verschiedene Kombinationen an Euren Lesern. Das bedeutet: Manchen Lesern wird die eine, anderen Lesern die andere Variante angezeigt. Das geht so lange, bis der Algorithmus genug signifikantes Leserfeedback gesammelt hat, um eine eindeutige Aussage zur statistisch besten Variante zu treffen. Dann wird den Lesern nur noch die Gewinner-Variante ausgespielt.

Übrigens könnt Ihr nicht nur mehrere Überschriften testen – mit dem Cover-Bandit könnt Ihr dasselbe auch mit verschiedenen Titelbild-Varianten machen. Hier erfahrt Ihr mehr zum Cover-Bandit.

Wie man den Headline-Bandit benutzt, erfahrt Ihr hier.

Hintergrund

Der Headline-Bandit basiert auf dem Multi-Armed-Bandit-Experiment. Das Experiment beschreibt einen hypothetischen Test, in dem mehrere „einarmige Banditen“ (Spielautomaten) analysiert werden. Ziel ist es, den Spielautomaten zu finden, der die höchste Auszahlungsrate hat. Für die Umsetzung des Multi-Armed-Bandit-Verfahrens werden komplexe Wahrscheinlichkeitsrechnungen durchgeführt.

Merkurist überträgt das Multi-Armed-Bandit-Verfahren auf Content. Tests, die auf dem Multi-Armed-Bandit-Verfahren basieren, sind im allgemeinen effizienter als das „klassische“ A-B-Testing, das auf statistischen Hypothesentests basiert. Die Multi-Armed-Bandit-Tests sind effizienter, da sie die Zugriffe schrittweise in Richtung der gewinnbringenden Varianten verschieben. Sie müssen nicht auf eine „endgültige Antwort“ am Ende eines Tests warten. Für diejenigen unter Euch, die gerne noch besser verstehen möchten, wie Multi-Armed-Bandit-Algorithmen funktionieren, empfehlen wir den Wikipedia-Artikel.

_____________________________________________________

Logo