GESIS Leibniz-Institut für Sozialwissenschaften: Homepage aufrufen

Algorithms & Society

Die Digitalisierung der Gesellschaft bringt einen Strukturwandel der Öffentlichkeit und des Privaten hervor, in dem Algorithmen eine entscheidende Rolle spielen – und das ist ganz wörtlich zu nehmen. Wir alle agieren in und mit soziotechnischen Systemen wie sozialen Medien, Suchmaschinen, Kauf-, Bewerbungs-, Informationsplattformen u.v.m. In diesen Systemen entscheiden maßgeblich Algorithmen welche Inhalte, Gruppen, Personen oder Institutionen wir präsentiert bekommen, uns vorgeschlagen werden und wie diese priorisiert werden. Algorithmen nutzen dabei oft das Nutzungsverhalten selbst als Ausgangsbasis und schaffen so eine komplexe rekursive Interaktion zwischen der Wirkweise des Algorithmus und menschlichem Verhalten und Erleben. Auf diese Weise entfalten künstliche Intelligenz, Algorithmen und automatisierte Prozesse Dynamiken, die für die Benutzenden nicht erkennbar sind und doch soziale Strukturen schaffen, die unser individuelles Leben und die Gesellschaft als Ganzes substanziell beeinflussen. Ob die Folgen dieses Einflusses wünschenswert sind oder nicht, kann nur diskutiert und bewertet werden, wenn wir wissen, wie genau digitale Technologien, das Web und die darin verwendeten Algorithmen gesellschaftliche Strukturen formen.

GESIS erforscht deshalb die Mechanismen soziotechnischer Systeme, um den sozialen Wandel, den sie bewirken, verstehen zu können und die Basis für informierte und „gute“ Entscheidungen zu verbessern. Wir tun dies durch die Erhebung digitaler Verhaltensdaten entlang gesellschaftlicher Fragestellungen, die Durchführung von Online-Experimenten zur Analyse von Verhaltensmustern und ihrer Beeinflussbarkeit in digitalen Umgebungen sowie die Entwicklung analytischer Tools. Eines der drängendsten gesellschaftlichen Probleme ist Ungleichheit. Algorithmen können bestehende soziale Ungleichheit verstärken oder selbst Verzerrungen und Diskriminierung verursachen. Wir erforschen, wie solche Verzerrungen (z.B. gender bias) konkret zustande kommen und wie andererseits Algorithmen und KI genutzt werden könnten, um struktureller Ungleichheit und Ungerechtigkeit oder Fehlinformation entgegenzuwirken.

Erfahren Sie mehr über unsere Beratungsangebote und Serviceleistungen:

  • Rosenbusch, Hannes, Felix Soldner, Anthony M. Evans, and Marcel Zeelenberg. 2021. "Supervised machine learning methods in psychology: A practical introduction with annotated R code." Social and Personality Psychology Compass 15 (2): e12579. doi: https://doi.org/10.1111/spc3.12579.
  • Soldner, Felix, Justin Chun-ting Ho, Mykola Makhortykh, Isabelle Van der Vegt, Maximilian Mozes, and Bennett Kleinberg. 2019. "Uphill from here: Sentiment patterns in videos from left-and right-wingYouTube news channels." In Proceedings of the Third Workshop on Natural Language Processing and Computational Social Science, 84–93. 3rd Workshop on Natural Language Processing and Computational Social Science. doi: https://doi.org/10.18653/v1/W19-2110.
  • Soldner, Felix, Veronica Pérez-Rosas, and Rada Mihalcea. 2019. "Box of Lies: Multimodal Deception Detection in Dialogues." In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, 1768–1777. Association for Computational Linguistics (ACL). doi: https://doi.org/10.18653/v1/n19-1175.
  • Sen, Indira, Fabian Flöck, Katrin Weller, Bernd Weiß, and Claudia Wagner. 2021. "A Total Error Framework for Digital Traces of Human Behavior on Online Platforms." Public Opinion Quarterly 85 (S1): 399–422. doi: https://doi.org/10.1093/poq/nfab018.
  • Wagner, Claudia, Markus Strohmaier, Alexandra Olteanu, Emre Kiciman, Noshir Contractor, and Tina Eliassi-Rad. 2021. "Measuring algorithmically infused societies." Nature (595): 197–204. doi: https://doi.org/10.1038/s41586-021-03666-1.