Fake-Bewertungen auf digitalen Märkten: Analyse und Lösungen
Bei der Forschungsgruppe (FakeInDigitalMarkets) handelt es sich um ein von der Thyssen Stiftung finanziertes Forschungsvorhaben zu Fake Bewertungen auf digitalen Märkten. Wissenschaftler und Wissenschaftlerinnen der TU Clausthal, Helmut-Schmidt-Universität Hamburg (HSU) und Universität Köln haben sich zusammengetan, um mit empirisch-experimentellen Methoden zwei zentrale Aspekte zu untersuchen. Zum einen soll der Wissensstand zum Umfang von Fake Bewertungen erweitert werden, also wie wird gefakt, wann wir gefakt und in welchem Umfang wird gefakt. Zum anderen geht es um die Entwicklung und Verifizierung von Maßnahmen um Fake Bewertungen zu begegnen und diese zu vermindern.
Hintergrund, Relevanz und Problemstellung
In der letzten Dekade haben sich Bewertungssysteme in digitalen Märkten und auf Online- Plattformen etabliert. Jeden Tag werden bei Amazon, ebay, Google, Facebook oder Airbnb Millionen Bewertungen von Produkten, Dienstleistungen, Institutionen oder Akteuren veröffentlicht. Nutzer von Onlinediensten können heute beinahe alles und jeden bewerten. Bewertungssysteme spielen zudem in klassischen „Offline“-Märkten eine immer wichtigere Rolle. So können z.B. auf glassdoor.com Arbeitgeber, auf yelp.com Restaurants und auf arzt- auskunft.de Ärzte bewertet werden. Basierend auf den durch Bewertungssystemen bereitgestellten Informationen werden jeden Tag unzählige Entscheidungen getroffen. Viele Entscheider verlassen sich auf die zur Verfügung gestellten Bewertungen. Bewertungssystemen wird zugetraut, das Problem von asymmetrischen Informationen auf digitalen Märkten zu lösen oder zumindest verringern zu können.
Aktuelle Berichte wie auch wissenschaftliche Arbeiten legen die Vermutung nahe, dass manipulierte Bewertungen weit verbreitet sind und in ihrem Umfang vermutlich weiter ansteigen werden (u.a. Mayzlin et al. 2014, Luca und Zervas 2016, Bundeskartellamt 2020 ). Auch die öffentliche Berichterstattung hat das Thema prominent aufgegriffen (z.B. Süddeutsche Zeitung vom 08.06.2022, Frankfurter Allgemeine Sonntagszeitung vom 14.10.2022 oder New York Times vom 18.6.2021 ). Manipulierte Bewertungen, die im allgemeinen Sprachgebrauch auch als „Fake-Bewertungen“ bezeichnet werden, sind Bewertungen, die entweder selbst oder über Dritte illegal auf den Plattformen eingestellt werden, meistens ohne dahinterstehende Transaktionen. Das Ziel solcher Bewertungen ist es, entweder die Durchschnittsbewertung der eigenen Produkte und Dienstleistungen zu verbessern oder die Reputation der Konkurrenz zu verschlechtern. Bewertungen zu manipulieren oder gute Bewertungen einzukaufen ist Betrug, führt potenziell zu Ineffizienz und stellt damit eine essenzielle Herausforderung für das Funktionieren von digitalen Märkten dar. Das Problem scheint sich zudem, während der Covid-19-Pandemie noch verstärkt zu haben, da sich viele Aktivitäten in Onlinemärkte verlagert haben und die digitale Informationssuche aufgrund reduzierter persönlicher Interaktion insgesamt zugenommen hat.
Eine wachsende Literatur zeigt, dass Bewertungssysteme in digitalen Märkten und auf Online- Plattformen in der Lage sind, Risiken für Kunden zu reduzieren, Kooperation zu erhöhen und Effizienzgewinne zu ermöglichen (u.a. Tadelis 2016, Greiff und Paetzel 2020). Neben der Problematik von manipulierten Bewertungen wurden bereits umfangreich zum „Selektions-Bias“, Bewertungen werden insbesondere von Nutzern geschrieben, die eine besonders gute oder besonders schlechte Erfahrung gemacht haben (u.a. Dellarocas und Wood 2008, Hu et al. 2009, Bolton et al. 2019) und des reziproken Bewertens bei sequenziellen Bewertungen (u.a. Bolton et al. 2013 und Fradkin et al. 2021) geforscht.
Forschungsagenda
Das wissenschaftliche Projekt „Fake-Bewertungen auf digitalen Märkten: Analyse und Lösungen (FakeInDigitalMarkets)“ untersucht mittels Labor- und Online- Experimenten systematisch, wer warum und in welchem Umfang Fake-Bewertungen nutzt, inwiefern gefälschte Bewertungen die Funktionsweise von Bewertungssystemen behindern, und wie es gelingen kann, den Umfang von Fake-Bewertungen auf Online-Portalen zu verringern. Ein tieferer Einblick in die Funktionsweise umfasst hierbei die Analyse, inwiefern das Bewertungsverhalten, die Erwartungsbildung und die Entscheidungen von den Fake-Möglichkeiten und dem Bewertungssystem selbst abhängen. In einem zweiten Schritt sollen Lösungen für die Reduzierung von manipulierten Bewertungen erforscht werden. Ziel ist es Lösungen aufzeigen, wie die Funktionsweise von Bewertungssystemen geschützt und mögliche Ineffizienzen, die durch Fake-Bewertungen auf digitalen Märkten entstehen, reduziert werden können.
Forschungsfragen
Aufbauend auf den vorher genannten etablierten Experimenten zu Bewertungssystemen (Greiff und Paetzel 2015, 2016, 2020, Bolton et al. 2019, Dorner et al. 2020), sowie der aktuellen Vorstudie Krügel und Paetzel (2021) werden Fake-Bewertungen im Hinblick auf die Funktionsweise des Bewertungssystems erforscht. Folgende Leitfragen stehen exemplarisch im Vordergrund der Forschung:
- Welche Nutzer verwenden in welcher Situation Fake-Bewertungen?
- Wie genau wird die Funktionsweise von Bewertungssystemen durch Fake-Bewertungen beeinflusst?
- Wie wirken sich Fake-Bewertungen auf die allgemeine Verlässlichkeit von Bewertungen und Bewertungssystemen aus?
- Führen Fake-Bewertungen zu Ineffizienzen auf Online-Märkten, indem die Nutzer den Bewertungen nicht mehr vertrauen und somit Transaktionen, die mit echten Bewertungen zu Stande gekommen wären, unterbleiben?
- Welche Mechanismen funktionieren am besten, um das Ausmaß manipulierter Bewertungen und den durch Fake-Bewertungen hervorgerufenen Schaden zu reduzieren?
- Wie lässt sich die Anzeige von Bewertungen optimieren, so dass Anreize zum Erstellen von Fake-Bewertungen reduziert werden können?
Literaturverzeichnis
Bolton, G., B. Greiner und A. Ockenfels (2013): ‘Engineering Trust: Reciprocity in the Production of Reputation Information’, Management Science 59(2), 265–285.
Bolton, G.E., D.J. Kusterer und J. Mans (2019): ‘Inflated Reputations: Uncertainty, Leniency, and Moral Wiggle Room in Trader Feedback Systems’, Management Science 65(11), 5371–5391.
Dellarocas, C. und C.A. Wood (2008): ‘The Sound of Silence in Online Feedback: Estimating Trading Risks in the Presence of Reporting Bias’, Management Science 54(3), 460–476.
Fradkin, A., E. Grewal und D. Holtz (2021): ‘Reciprocity and Unveiling in Two-Sided Reputation Systems: Evidence from an Experiment on Airbnb’, Marketing Science 40(6), 1009–1216.
Greiff, M. und F. Paetzel (2020): ‘Information about average evaluations spurs cooperation: An experiment on noisy reputation systems’, Journal of Economic Behavior & Organization 180, 334–356.
Hu, N., J. Zhang und P.A. Pavlou (2009): ‘Overcoming the J-shaped distribution of product reviews’, Communications of the ACM 52(10), 144–147.
Krügel, J. P. and Paetzel, F. (2022): ´The Impact of Fraud on Reputation Systems´, Available at SSRN: https://ssrn.com/abstract=3710843
Luca, M. und G. Zervas (2016): ‘Fake it till you make it: reputation, competition, and yelp review fraud’, Management Science. 62(12), 3412–3427.
Mayzlin, D., Y. Dover und J. Chevalier (2014): ‘Promotional reviews: An empirical investigation of online review manipulation’, American Economic Review 104(8), 2421–2455.
Tadelis, S. (2016): ‘Reputation and Feedback Systems in Online Platform Markets’, Annual Review of Economics 8(1), 321–340.
Die Fritz Thyssen Stiftung mit Sitz in Köln wurde am 7. Juli 1959 im Gedenken an August und Fritz Thyssen zur Förderung der Wissenschaft gegründet. Sie ist die erste große private wissenschaftsfördernde Einzelstiftung, die nach dem zweiten Weltkrieg in der Bundesrepublik Deutschland errichtet wurde. Ausschließlicher Zweck der Stiftung ist nach ihrer Satzung die unmittelbare Förderung der Wissenschaft an wissenschaftlichen Hochschulen und Forschungsstätten, vornehmlich in Deutschland, unter besonderer Berücksichtigung des wissenschaftlichen Nachwuchses.
Projektteam
Fabian Paetzel
Sprecher
TU Clausthal
Janina Kraus
Projektkoordinatorin
TU Clausthal