Herr Schmidt, Sie halten am JETZT SUMMIT die Keynote zum Thema „Datadriven Publishing Reloaded – die Matrix lebt“. Was dürfen sich die Konferenzteilnehmer von Ihrem Vortrag erwarten?
Jürgen Schmidt: Ich beschäftige mich seit vielen Jahren mit Innovationen im Bereich digitaler Medien. Von semantischer Content-Analyse über die Verhaltensökonomie bis zum nächsten großen Schritt in diesem Bereich, der Simulation von User-Daten mit den Methoden von Reinforcement-Learning und den Konzepten von Agents. Ich bin in diesen Thematiken selbst sehr tief drin, und es ist mir ein großes Anliegen, diese Technologien der Zukunft einfach zu erklären. Es gibt mehr an Möglichkeiten, die sich durch den Einsatz von künstlicher Intelligenz für digitale Medien eröffnen, um hochqualitative Optimierungen durchzuführen und eigene Portale – vor allem im Bereich von E-Commerce – auf Basis von errechneten Evidenzen zu verbessern.
Welche Key-Insights werden die Teilnehmer von Ihrer Keynote mitnehmen können?
Schmidt: Wir forschen derzeit am Einsatz von Daten-Simulationen und den Vorteilen, die sich daraus ergeben. Simulationen sind bereits in vielen Bereichen breit im Einsatz, im digitalen Publishing geht man noch immer den Weg von klassischen Userdaten, die gespeichert und dann mehr schlecht als recht ausgewertet werden. Es wird aber auch darum gehen, welche Perspektiven uns die Verhaltensökonomie in der Auswertung von Daten bietet. Der Ausgangspunkt ist für mich die sogenannte „Ground Truth“, also die eigentliche Datenlage. Viele Daten zu haben ist ja noch lange kein Schlüssel zum Erfolg. Man muss sie auch nicht nur auswerten können. Der wesentliche Key im Bereich von Data-Driven Publishing ist die Qualität dieser Daten. In vielen Diskussionen gibt es kaum eine Reflexion auf das Qualitätsattribut von Daten. Auch künstliche Intelligenz kann nichts schönrechnen: Falsche Daten führen zu falschen Annahmen und falschen Rückschlüssen. Das lässt sich nicht verändern. Der zweite wesentliche Punkt ist die Möglichkeit von Datensimulation. Hier ergeben sich völlig neue Szenarien für den Einsatz: Gerade für kleineren Portale im Bereich von E-Commerce wird dieser Schritt für die Optimierung von User Journeys notwendig sein. Bei geringerem Traffic ist die Datenauswertung von Tracking-Daten nur bedingt sinnvoll. Artificial Intelligence (AI) braucht eine gewisse Menge an Daten, da geht es einfach um die Größenordnung. Ohne einer entsprechenden Reichweite kann diese Quantität nicht erreicht werden. Für eine „cookieless future“ und auch für kleinere Portale werden in Zukunft Daten von wesentlich höherer Qualität zur Verfügung stehen.
Was ist Ihrer Meinung nach das Faszinierende an Marketing Technologien?
Schmidt: Ich persönlich finde Technologie immer faszinierend. Im Bereich der Marketing Technologie hinken wir anderen Branchen eher hinterher. Wenn man derzeit eingesetzte Methoden z.B. mit den Fortschritten autonom-fahrender Autos vergleicht, also mit den Fortschritten in der neuen Mobilität oder mit automatisierter Bilderkennung und den Deep-Fakes in Videos, dann sieht das in unserer Branche ja eher ein wenig „mau“ aus. Es ist daher faszinierend, Entwicklungen aus anderen Bereichen aufzugreifen, sich gut anzusehen und dann zu überlegen, wie sich das in Marketing Technologien nutzen lässt. Auf diesem Weg sind wir ja auch auf die Idee der Datensimulation gekommen. In vielen anderen Branchen und Themen wird das bereits gemacht. Tesla errechnet sich z.B. sehr viele Informationen, um sie auf eine wesentlich breitere Basis zu stellen. Auch in der Robotik werden diese Methoden intensiv eingesetzt. Dass das auch in digitalen Medien möglich ist, werden wir nun mit unserer Forschung versuchen zu beweisen.
Und was sind Ihrer Meinung nach die größten Missverständnisse in Zusammenhang mit Marketing Technologien?
Schmidt: Ich halte es für einen enormen Fehler, dass über Datenqualität nicht gesprochen wird. Wenn wir die Ergebnisse, also Click-Raten und andere Kenngrößen, die wir heute erreichen, mit älteren Methoden vergleichen, sieht man eigentlich sofort, dass das noch nicht viel gebracht hat. Der Grund dafür liegt in der schlechten Datenqualität, diese wiederum liegt daran, dass wir über diese Qualität und ihre inhaltliche Richtigkeit nicht diskutieren. Wir sprechen lediglich über Datenmengen. Selbst die Wortwahl ist hier falsch. Big Data bezeichnet nicht grundsätzlich enorm große Datenmengen. Es geht hier viel mehr um ihre strukturelle Verfasstheit und die Komplexität dieser Strukturen. Douglas Laney hat vor langer Zeit dazu eine Definition geliefert in seiner „3V-Theorie“: Volume (also Datenmenge), Velocity (die Geschwindigkeit, in der sich Daten verändern) und Variety (die Vielfalt in der Daten auftreten können). Das vergleichen wir dann mit dem Verfolgen auf Portalen mit den immer gleichen Botschaften und Themen, nur weil man einmal irgendwo etwas geklickt hat. Diese Fehler sind schon in der Definition vorhanden, und ich finde das sehr schade.
Welche zukunftsweisenden Trends werden Marketing Technologien aus Ihrer Sicht nachhaltig prägen?
Schmidt: Künstliche Intelligenz ist sicher der größte Treiber in Marketing Technologien, der noch sehr vieles verändern wird, und diese Veränderung hat gerade erst begonnen. Die Technologien und ihre zugrundeliegende Theorie ist ja nicht neu. Die Mathematik hat dieses Feld ja bereits vor vielen Jahrzehnten entdeckt und nicht wenige der heute angewandten Algorithmen im frühen 20. Jahrhundert definiert. Neu ist hingegen, dass wir Rechenleistung zur Verfügung haben, die es ermöglicht, diese Methoden im Zusammenhang mit komplexen Datenstrukturen auch zu nutzen. Ich bin mir sicher, dass hier noch sehr vieles kommt und uns völlig andere Methoden in der Zukunft liefern wird. Das Feld der Simulation, das ich oben bereits angesprochen habe, ist hier absolut wesentlich. In Europa wird Datenschutz groß geschrieben, und ich persönlich halte das für die richtige Herangehensweise. Es führt zu wesentlich mehr an Innovation und neuen Überlegungen, wie es eben trotzdem gehen könnte. Und zwar nicht, indem man Usern zu einem Consent „überredet“, sondern indem man völlig andere Verfahren anwendet. Dazu möchte ich dann beim JETZT SUMMIT mehr erzählen.
Was halten Sie von der Idee, den JETZT SUMMIT aufgrund der derzeitigen Corona-Situation virtuell abzuhalten und durch virtuelles Networking abzurunden?
Schmidt: Wir wünschen uns alle in erster Linie unser Leben zurück. Niemand will diese Pandemie weiter haben. Solange sie uns aber umgibt, müssen wir das wohl ernst nehmen, um uns möglichst gut davor zu schützen. Ich freue mich auf den Event. Ich habe immer gerne Vorträge über meine Arbeit gehalten und das Feedback zeigt mir, dass doch der eine oder die andere etwas daraus mitnehmen konnte. Also lieber einen virtuellen SUMMIT als gar keinen.
Jürgen Schmidt, CEO bei STRG.AT, hält beim JETZT SUMMIT die Midday Keynote des zweiten Konferenztages mit dem Titel „Datadriven Publishing Reloaded – die Matrix lebt“. STRG.AT fungiert außerdem als Goldsponsor.