GESIS Leibniz-Institut für Sozialwissenschaften: Homepage aufrufen

Algorithms & Society

Die Digitalisierung der Gesellschaft bringt einen Strukturwandel der Öffentlichkeit und des Privaten hervor, in dem Algorithmen eine entscheidende Rolle spielen – und das ist ganz wörtlich zu nehmen. Wir alle agieren in und mit soziotechnischen Systemen wie sozialen Medien, Suchmaschinen, Kauf-, Bewerbungs-, Informationsplattformen u.v.m. In diesen Systemen entscheiden maßgeblich Algorithmen welche Inhalte, Gruppen, Personen oder Institutionen wir präsentiert bekommen, uns vorgeschlagen werden und wie diese priorisiert werden. Algorithmen nutzen dabei oft das Nutzungsverhalten selbst als Ausgangsbasis und schaffen so eine komplexe rekursive Interaktion zwischen der Wirkweise des Algorithmus und menschlichem Verhalten und Erleben. Auf diese Weise entfalten künstliche Intelligenz, Algorithmen und automatisierte Prozesse Dynamiken, die für die Benutzenden nicht erkennbar sind und doch soziale Strukturen schaffen, die unser individuelles Leben und die Gesellschaft als Ganzes substanziell beeinflussen. Ob die Folgen dieses Einflusses wünschenswert sind oder nicht, kann nur diskutiert und bewertet werden, wenn wir wissen, wie genau digitale Technologien, das Web und die darin verwendeten Algorithmen gesellschaftliche Strukturen formen.

GESIS erforscht deshalb die Mechanismen soziotechnischer Systeme, um den sozialen Wandel, den sie bewirken, verstehen zu können und die Basis für informierte und „gute“ Entscheidungen zu verbessern. Wir tun dies durch die Erhebung digitaler Verhaltensdaten entlang gesellschaftlicher Fragestellungen, die Durchführung von Online-Experimenten zur Analyse von Verhaltensmustern und ihrer Beeinflussbarkeit in digitalen Umgebungen sowie die Entwicklung analytischer Tools. Eines der drängendsten gesellschaftlichen Probleme ist Ungleichheit. Algorithmen können bestehende soziale Ungleichheit verstärken oder selbst Verzerrungen und Diskriminierung verursachen. Wir erforschen, wie solche Verzerrungen (z.B. gender bias) konkret zustande kommen und wie andererseits Algorithmen und KI genutzt werden könnten, um struktureller Ungleichheit und Ungerechtigkeit oder Fehlinformation entgegenzuwirken.

Erfahren Sie mehr über unsere Beratungsangebote und Serviceleistungen:

  • Strohmaier, Markus, Lukas Moldon, and Johannes Wachs. 2021. "How Gamification Affects Software Developers: Cautionary Evidence from a Natural Experiment on GitHub." In 43rd IEEE/ACM International Conference on Software Engineering, ICSE 2021, Madrid, Spain, 22-30 May 2021, 549-561. IEEE Computer Society. doi: https://doi.org/10.1109/ICSE43902.2021.00058.
  • Neuhäuser, Leonie, Felix Stamm, Florian Lemmerich, Michael Schaub, and Markus Strohmaier. 2021. "Simulating systematic bias in attributed social networks and its effect on rankings of minority nodes." Applied Network Science 6 86. doi: https://doi.org/10.1007/s41109-021-00425-z.
  • Sen, Indira, Fabian Flöck, Katrin Weller, Bernd Weiß, and Claudia Wagner. 2022. "Applying a total error framework for digital traces to social media research." In Handbook of Computational Social Science. Volume 2: Data science, statistical modelling, and machine learning methods, edited by Uwe Engel, Anabel Quan-Haase, Sunny Xun Liu, and Lars Lyberg, 127-139. Routledge.
  • Soldner, Felix, Leonie Maria Tanczer, Daniel Hammocks, Isabel Lopez-Neira, and Shane Johnson. 2021. "Using machine learning methods to study technology-facilitated abuse: Evidence from the analysis of UK crimestoppers’ text data." In The Palgrave handbook of gendered violence and technology, edited by Anastasia Powell, Asher Flynn, and Lisa Sugiura, 481-503. Basingstoke u.a.: Palgrave Macmillan. doi: https://doi.org/10.1007/978-3-030-83734-1_24.
  • Soldner, Felix, Bennett Kleinberg, and Shane Johnson. 2022. "Trends in online consumer fraud: A data science perspective." In A fresh look at fraud: Theoretical and applied perspectives, edited by Stacey Wood, and Yaniv Hanoch, 167-191. Binghamton, NY: Routledge. doi: https://doi.org/10.4324/9781003017189.