GESIS Leibniz-Institut für Sozialwissenschaften: Homepage aufrufen

Algorithms & Society

Die Digitalisierung der Gesellschaft bringt einen Strukturwandel der Öffentlichkeit und des Privaten hervor, in dem Algorithmen eine entscheidende Rolle spielen – und das ist ganz wörtlich zu nehmen. Wir alle agieren in und mit soziotechnischen Systemen wie sozialen Medien, Suchmaschinen, Kauf-, Bewerbungs-, Informationsplattformen u.v.m. In diesen Systemen entscheiden maßgeblich Algorithmen welche Inhalte, Gruppen, Personen oder Institutionen wir präsentiert bekommen, uns vorgeschlagen werden und wie diese priorisiert werden. Algorithmen nutzen dabei oft das Nutzungsverhalten selbst als Ausgangsbasis und schaffen so eine komplexe rekursive Interaktion zwischen der Wirkweise des Algorithmus und menschlichem Verhalten und Erleben. Auf diese Weise entfalten künstliche Intelligenz, Algorithmen und automatisierte Prozesse Dynamiken, die für die Benutzenden nicht erkennbar sind und doch soziale Strukturen schaffen, die unser individuelles Leben und die Gesellschaft als Ganzes substanziell beeinflussen. Ob die Folgen dieses Einflusses wünschenswert sind oder nicht, kann nur diskutiert und bewertet werden, wenn wir wissen, wie genau digitale Technologien, das Web und die darin verwendeten Algorithmen gesellschaftliche Strukturen formen.

GESIS erforscht deshalb die Mechanismen soziotechnischer Systeme, um den sozialen Wandel, den sie bewirken, verstehen zu können und die Basis für informierte und „gute“ Entscheidungen zu verbessern. Wir tun dies durch die Erhebung digitaler Verhaltensdaten entlang gesellschaftlicher Fragestellungen, die Durchführung von Online-Experimenten zur Analyse von Verhaltensmustern und ihrer Beeinflussbarkeit in digitalen Umgebungen sowie die Entwicklung analytischer Tools. Eines der drängendsten gesellschaftlichen Probleme ist Ungleichheit. Algorithmen können bestehende soziale Ungleichheit verstärken oder selbst Verzerrungen und Diskriminierung verursachen. Wir erforschen, wie solche Verzerrungen (z.B. gender bias) konkret zustande kommen und wie andererseits Algorithmen und KI genutzt werden könnten, um struktureller Ungleichheit und Ungerechtigkeit oder Fehlinformation entgegenzuwirken.

Erfahren Sie mehr über unsere Beratungsangebote und Serviceleistungen:

  • Lee, Eun, Fariba Karimi, Claudia Wagner, Hang-Hyun Jo, Markus Strohmaier, and Mirta Galesic. 2019. "Homophily and minority-group size explain perception biases in social networks." Nature Human Behavior 3 (10): 1078–1087. doi: https://doi.org/10.1038/s41562-019-0677-4.
  • Tsvetkova, Milena, Claudia Wagner, and Andrew Mao. 2018. "The emergence of inequality in social groups: Network structure and institutions affect the distribution of earnings in cooperation games." PLoS ONE 2018 (13 (7)): e0200965. doi: https://doi.org/10.1371/journal.pone.0200965.
  • Karimi, Fariba, Mathieu Génois, Claudia Wagner, Philipp Singer, and Markus Strohmaier. 2018. "Homophily influences ranking of minorities in social networks." Scientific Reports 2018 (8). doi: https://doi.org/10.1038/s41598-018-29405-7.
  • Zagovora, Olga, Katrin Weller, Milan Janosov, Claudia Wagner, and Isabella Peters. 2018. "What increases (social) media attention: Research impact, author prominence or title attractiveness?" In Proceedings of the 23rd International Conference on Science and Technology Indicators, doi: https://doi.org/10.31235/osf.io/mwxye. urn: http://hdl.handle.net/1887/65362.
  • Kinder-Kurlanda, Katharina E., Katrin Weller, Wolfgang Zenk-Möltgen, Jürgen Pfeffer, and Fred Morstatter. 2017. "Archiving Information from Geotagged Tweets to Promote Reproducibility and Comparability in Social Media Research." Big Data & Society 4 (2): 1-14. doi: https://doi.org/10.1177/2053951717736336.