Workshops 2019

During the workshop, participants will learn how to efficiently handle problems of data management with Stata, and how to avoid repetition by automating (and programming) tasks. The workshop is not an introduction to Stata, but will feature "best practice" of Stata usage in order to modify existing do-files (or create new ones) to be reproducible, maintainable and efficient. The tips and tricks will refer mainly to data preparation and management, but they can also be used or automation of data analysis. The workshop will present some ideas about these topics, but focus on the interactive work where participants shall learn producing efficient Stata syntax by themselves.

*************************                                               

Daniel Bela works as a senior Data Manager for the German National Educational Panel Study (NEPS) since 2010. His main tasks are both conceptualization and implementation of automated routines for data management and preparation, metadata processing, and documentation for the study.

 

Diese Veranstaltung führt allgemein in interkulturelle und kulturvergleichende Forschungsmethoden ein. Im Zentrum stehen hierbei, wenn auch nicht ausschließlich, psychologische Forschungsbeispiele. Diese Veranstaltung behandelt drei Themenkomplexe: Zunächst geht es um Entwicklungsstränge und Ansätze in der Forschung, in der Kultur eine Rolle spielt. Konzepte, wie z.B. emic und etic sowie Kulturspezifizität und verschiedene Ebenen kultureller Universale, werden in diesem ersten Teil des Workshops vermittelt. Im zweiten Themenkomplex geht es um konkrete Forschungsmethoden. Hier wird der Forschungsprozess, vom adäquaten Forschungsdesign bis hin zur Verwirklichung der kulturvergleichenden Studie, näher beleuchtet. Hierzu zählen Sampling-Strategien, Übersetzungsstrategien, kultursensible Adaptierung von Instrumenten sowie die angemessene Anwendung von qualitativen und quantitativen Methoden. Im dritten Themenkomplex geht es um kulturvergleichende Analysemethoden. Die TeilnehmerInnen lernen konkret, wie Daten aus verschiedenen Kulturen verglichen werden können. Dies beinhaltet u.a. die Anwendung und Beurteilung der Messinvarianz von angewandten Erhebungsinstrumenten sowie die adäquate und kultursensible Interpretation von kulturellen Unterschieden und Gemeinsamkeiten. Hauptbestandteil ist hierbei das Üben mit Datensätzen und das Interpretieren der Ergebnisse. Es werden SPSS und R verwendet.

 *************************

Dr. Dorothée Behr ist Senior Researcher bei GESIS. Ihre Schwerpunkte in Forschung und Dienstleistung  hier insbesondere Beratung, Lehre und Projektarbeit  im Bereich international-vergleichender Umfragen liegen in der Fragebogenübersetzung und adaptation, der interkulturell sensiblen Fragebogenentwicklung sowie dem web probing.  Als Mitglied der internationalen Steuerungsgruppe arbeitet(e) sie für den Bereich der Fragebogenübersetzung im ESS 2010, im EVS 2017 und in PIAAC Runde 1 und 2 mit. 

Dr. Katja Hanke ist Senior Researcher und Projektberaterin in der Abteilung Survey Design and Methodology (SDM) bei GESIS. Sie ist spezialisiert auf das Gebiet der interkulturellen Forschungsmethoden und der interkulturellen Psychologie und ist Expertin für Messinvarianz-Tests. Sie hat an kulturvergleichenden Studien in den Bereichen Intergruppen-/Interkulturelle Beziehungen und Akkulturationsforschung mitgewirkt und gearbeitet.

Der Workshop vermittelt die grundsätzliche Bedeutung und Relevanz von Fragebogenpretests im Rahmen von Umfrageprojekten und gibt einen Überblick über die gängigen Pretestverfahren (u.a. Kognitives Interview, Behavior Coding, Expert Review, Web Probing, Eye Tracking).
Herausgearbeitet und diskutiert werden vor allem die Vor- und Nachteile der einzelnen Methoden, ihre spezifischen Anwendungsfelder sowie ihre Kombinationsmöglichkeiten. Darüber hinaus wird die Anwendung der Pretestingmethoden anhand von praktischen Übungen verdeutlicht.

 *************************

Patricia Hadler ist Researcher im Bereich Fragebogen-Pretesting bei GESIS. Ihre Schwerpunkte liegen in der Beratung und Durchführung von kognitiven Pretests. In ihrer Forschung befasst sie sich mit interkulturellen Pretests und Sensitivität.

Dr. Timo Lenzner ist Senior Researcher im Bereich Fragebogen-Pretesting bei GESIS. Seine Schwerpunkte liegen in der Beratung und Durchführung von kognitiven Pretests und in der Forschung zum Design und der Evaluation von Fragebögen.

Dr. Cornelia Neuert ist Senior Researcher im Bereich Fragebogen-Pretesting bei GESIS. Neben der Durchführung kognitiver Interviews liegen Ihre Forschungsinteressen in der Konstruktion und Evaluation von Fragebögen und in der Bewertung und Weiterentwicklung kognitiver Pretestverfahren.

 

 

 

Forschungsdatenmanagement bedeutet den Forschungsprozess zu strukturieren und Methoden, Verfahren und Richtlinien zu entwickeln, um Daten zu schützen, zu validieren und zu beschreiben. Ziel ist es, die Qualität der Daten sicherzustellen und die potentielle Nachnutzung zu erleichtern. Gutes Forschungsdatenmanagement minimiert das Risiko von Datenverlust, sorgt für Integrität in der Forschung und erleichtert die Replizierbarkeit. Es erhöht die Datensicherheit, Forschungseffizienz und Zuverlässigkeit. Ein adäquates Forschungsdatenmanagement spart Zeit und Ressourcen und erfüllt die Anforderungen unterschiedlichster Förderorganisationen zur Dokumentation und Nachnutzung von Forschungsdaten.
Im Bereich der empirischen Bildungsforschung steht das Datenmanagement vor speziellen Herausforderungen, etwa in Bezug auf die Anonymisierung personenbezogener Umfragedaten, deren Archivierung und Nachnutzung. Daher ist es wichtig, Forschende in der Bildungsforschung für das Thema Datenmanagement zu sensibilisieren und die notwendige Kompetenz für ein adäquates Datenmanagement in der Forschungsgemeinschaft zu steigern.
Ziel des Workshops ist es, Lehrende gezielt dabei zu unterstützen, das erworbene Wissen in ihren jeweiligen Institutionen, Projektverbünden oder Netzwerken weiterzugeben. Auf diese Weise soll eine größere Aufmerksamkeit für die Notwendigkeit des Forschungsdatenmanagements geschaffen sowie Standards des Datenmanagements durch die Multiplikator*innen nachhaltig in der gesamten Forschungsgemeinschaft verankert werden.

 *************************

Marcus Eisentraut ist seit 2015 im Datenarchiv für Sozialwissenschaften bei GESIS als Mitarbeiter für den Verbund Forschungsdaten Bildung (VFDB) tätig. Im Rahmen des Verbunds wirkte er schon an mehreren Workshops zum Thema Forschungsdatenmanagement mit und unterstütze CESSDA Training bei der Weiterentwicklung von Schulungsmodulen. Seine Arbeitsschwerpunkte liegen im Bereich der Datenaufbereitung und Dokumentation quantitativer Studien sowie Beratung und Schulung zum Forschungsdatenmanagement.

Karoline Harzenetter ist seit 2017 wissenschaftlicher Mitarbeiterin im Team Archive Operations. Sie hat zuvor bei GESIS im Team Internationale Umfrageprogramme und im Team da|ra, Registrierungsagentur für sozialwissenschaftliche Forschungsdaten, gearbeitet und war in internationale Projekte wie European Values Study und gesisDataSearch involviert. Ihre Arbeitsschwerpunkte liegen im Bereich Dokumentation und Harmonisierung quantitativer Studien, Metadaten- und Forschungsdatenmanagement.

Jessica Trixa ist seit Januar 2014 Mitglied der GESIS International Data Infrastructures. Sie konzentriert sich insbesondere auf das Datenmanagement von audiovisuellen Daten und deren spezifische Herausforderungen. Zuvor war sie am GESIS Datenarchiv als wissenschaftliche Mitarbeiterin im GESIS-Panel-Projekt sowie als studentische Hilfskraft am European Data Laboratory for Comparative Social Research (EUROLAB) beschäftigt.

During the workshop, participants will learn how to efficiently handle problems of data management with Stata, and how to avoid repetition by automating (and programming) tasks. The workshop is not an introduction to Stata, but will feature "best practice" of Stata usage in order to modify existing do-files (or create new ones) to be reproducible, maintainable and efficient. The tips and tricks will refer mainly to data preparation and management, but they can also be used or automation of data analysis. The workshop will present some ideas about these topics, but focus on the interactive work where participants shall learn producing efficient Stata syntax by themselves.

*************************                                               

Daniel Bela works as a senior Data Manager for the German National Educational Panel Study (NEPS) since 2010. His main tasks are both conceptualization and implementation of automated routines for data management and preparation, metadata processing, and documentation for the study.

This course will introduce participants to some of the many topics, data and analysis tools available for cross-national comparative research on the basis of panel data. Participants will gain hands-on experience working with some of the world's most powerful panel data: the UK Household Longitudinal Study (UKHLS), the German Socio-economic Panel Study (SOEP) and a crossnationally harmonised data set of panel studies from around the world (CNEF). They will learn about the many steps involved in undertaking this type of analysis, covering the conceptual bases as well as the basic data management and modelling techniques.

************************* 

Dr. Magda Borkowska: For information on the lecturer please follow this link.

Dr. Gundi Knies: For information on the lecturer please follow this link.

Der Workshop hat zum Ziel, die Grundideen und  Strategien der Grounded-Theory-Methodologie (GTM) eine der am weitesten verbreiteten  qualitativen Forschungsmethodologien zu vermitteln und hierbei auch  unterschiedliche Positionen zur GTM vorzustellen und zu diskutieren.
Orientiert an den Fragen und dem Bedarf der Teilnehmenden werden die wesentlichen Konzepte und Schritte u.a. Theoretische  Sensibilität; Offenes, Axiales und Selektives Kodieren; Theoretisches Sampling  und Theoretische Sättigung behandelt und in Übungen erprobt.
Material der  Teilnehmenden wird auf Wunsch gerne berücksichtigt und besprochen.

*********************

Infos zum Dozenten Prof. Dr. Günter Mey finden Sie unter folgendem Link:
http://www.humanwissenschaften.hs-magdeburg.de/l/~mey

Infos zum Dozenten Paul Sebastian Ruppel finden Sie unter folgendem Link:
www.sowi.rub.de/soztheo/team/ruppel.html.de

Im Rahmen des Workshops soll in Theorie und Praxis  qualitativer Interviews als wesentliche sozialwissenschaftliche  Erhebungsinstrumente eingeführt werden.
Im Zentrum des Workshops stehen zum einen der  Überblick über gängige Interview-Verfahren und deren Einbettung in Konzepte der  Gesprächsführung und in Narrationstheorien; zudem werden Fragen des  Datenschutzes, angemessener Transkription/Datenaufbereitung und Archivierung diskutiert.
Den zweiten Schwerpunkt des Workshops bilden Übungen  zur Leitfadenentwicklung und Interviewführung (mit Videofeedback).
Materialien (Interviewleitfäden etc.) der  Teilnehmenden werden gerne berücksichtigt und besprochen.

 *************************

Infos zum Dozenten Prof. Dr. Günter Mey finden Sie unter folgendem Link:
http://www.humanwissenschaften.hs-magdeburg.de/l/~mey

Infos zum Dozenten Paul Sebastian Ruppel finden Sie unter folgendem Link:
www.sowi.rub.de/soztheo/team/ruppel.html.de

Sozialwissenschaftliche Forschung steht häufig vor dem Problem, dass soziale Phänomene wie z.B. ausländerablehnende Einstellungen nicht direkt beobachtbar sind. Solche latenten Konstrukte müssen daher mittels Messmodellen operationalisiert werden. Die Strukturgleichungsmodellierung (SEM) ist ein Verfahren, mit dessen Hilfe Messmodelle empirisch getestet sowie kausale Zusammenhängen zwischen latenten Variablen überprüft werden können.  
Der Workshop führt in die Logik der Strukturgleichungsmodellierung ein und verfolgt die anwendungsbezogene empirische Analyse (u.a. mit Daten des Allbus) mit gängiger SEM-Software (v.a. Mplus, aber auch mit Anschauungsbeispielen für R (package lavaan) und AMOS).
Zu den Themen gehören u.a.:
- Spezifikation und Schätzverfahren
- Konfirmatorische Faktorenanalyse
- Pfadanalyse
- Moderator- und Mediatoreffekte
- Multigruppenanalyse und Test auf Messäquivalenz
- Methodische Fallstricke
- Einführung in SEM-Software

*************************

Henrik Andersen ist wissenschaftlicher Mitarbeiter am Fakultät für Human- und Sozialwissenschaften, Institut für Soziologie, Fachgebiet Soziologie mit Schwerpunkt Empirische Sozialforschung an der TU Chemnitz. Zuvor war er wissenschaftlicher Mitarbeiter im Fachbereich Sozialwissenschaften, Fachgebiet Empirische Sozialforschung an der TU Kaiserslautern.

Prof. Dr. Jochen Mayerl ist Professor für Soziologie mit Schwerpunkt Empirische Sozialforschung an der TU Chemnitz. Zuvor war er Juniorprofessor für Methoden der empirischen Sozialforschung an der TU Kaiserslautern. Seit 2012 lehrt er Strukturgleichungsmodellierung an der ECPR Summer School in Ljubljana und Budapest. Zu seinen Forschungsgebieten gehören Strukturgleichungsmodelle, Surveyforschung und Einstellungs-Verhaltens-Forschung insbesondere in den Bereichen Ethnozentrismus und Umweltbewusstsein.

 

Die Analyse von Paneldaten ist ein zentrales Mittel zur Analyse von kausalen und reziproken Zusammenhängen sowie zur Analyse von Wandel und Stabilität in den Sozialwissenschaften. Die Panelanalyse mit SEM umfasst insbesondere die folgenden Modellierungsvarianten:
- latente Wachstumskurvenmodelle
- autoregressive cross-lagged Modelle
- fixed und random effects-Modelle
- Hybride Modelle: latente Wachstumskurvenmodelle mit strukturierten Residuen

Im Zentrum stehen dabei die adäquate Modellspezifikation und Ergebnisinterpretation, aber auch methodische Fallstricke der Panelanalyse und der Umgang mit typischen Problemen wie unbeobachtete Heterogenität, Messäquivalenz, zeitvariante und -invariante Prädiktoren, umgekehrte Kausalität und Feedback-Loops sowie Messfeherkorrelationen.

Der Workshop führt anwendungsorientiert (z.B. mit Daten des PAIRFAM, Gesis Panel) in die statistische Analyse von Paneldaten mit Strukturgleichungsmodellen (SEM) mit typischer SEM-Software (v.a. Mplus, aber auch R mit dem package lavaan) ein.

*************************

Henrik Andersen ist wissenschaftlicher Mitarbeiter am Fakultät für Human- und Sozialwissenschaften, Institut für Soziologie, Fachgebiet Soziologie mit Schwerpunkt Empirische Sozialforschung an der TU Chemnitz. Zuvor war er wissenschaftlicher Mitarbeiter im Fachbereich Sozialwissenschaften, Fachgebiet Empirische Sozialforschung an der TU Kaiserslautern.

Prof. Dr. Jochen Mayerl ist Professor für Soziologie mit Schwerpunkt Empirische Sozialforschung an der TU Chemnitz. Zuvor war er Juniorprofessor für Methoden der empirischen Sozialforschung an der TU Kaiserslautern. Seit 2012 lehrt er Strukturgleichungsmodellierung an der ECPR Summer School in Ljubljana und Budapest. Zu seinen Forschungsgebieten gehören Strukturgleichungsmodelle, Surveyforschung und Einstellungs-Verhaltens-Forschung insbesondere in den Bereichen Ethnozentrismus und Umweltbewusstsein.

Evaluationen, in einem weiten Sinne verstanden als jegliche Formen der Bewertung des Werts einer Sache, Person oder Maßnahme, sind in vielen gesellschaftlichen Teilbereichen fest etabliert. Evaluation in einem engeren Wortsinne meint dabei die Bewertung der kausalen Wirkungen einer Maßnahme. Dies bringt hohe methodische Anforderungen mit sich. Der Workshop vermittelt Grundlagen der Evaluation mit einem Schwerpunkt auf methodischen Fragen der Identifikation kausaler Wirkungen. Nach Einführung einiger Grundbegriffe und der Diskussion wesentlicher Entscheidungen, die vor einer Evaluation zu treffen sind, werden unterschiedliche Untersuchungsdesigns vorgestellt und hinsichtlich ihrer Brauchbarkeit für Evaluationszwecke diskutiert. Behandelt werden in diesem Zusammenhang auch Fallstricke und Grenzen von Evaluationen sowie praktische Gesichtspunkte bei deren Umsetzung. Der Workshop schließt mit einer Anwendung der vermittelten Inhalte anhand einer von den Teilnehmenden selbst gewählten Fragestellung und der Planung eines geeigneten Untersuchungsdesigns. Hervorzuheben ist, dass der Schwerpunkt des Workshops auf der Verwendung quantitativer Verfahren liegt (was die Brauchbarkeit qualitativer Verfahren für Evaluationszwecke nicht in Abrede stellen soll).

 *************************

Dr. Gerhard Krug hat an der Universität Bamberg Soziologie studiert und dort auch mit einem Stipendium des IAB Graduiertenprogrammes in Soziologie promoviert. Seit 2003 ist er wissenschaftlicher Mitarbeiter am Institut für Arbeitsmarkt- und Berufsforschung (IAB) in Nürnberg, aktuell am Forschungsbereich „Erwerbslosigkeit und Teilhabe“. Seit 2010 ist er gleichzeitig Akademischer Rat a.Z. am Lehrstuhl für empirische Wirtschaftssoziologie (ehemals Prof. Monika Jungbauer-Gans) an der Universität Erlangen-Nürnberg. 2016 hat er sich an der Universität Hannover habilitiert (venia legendi: Soziologie). Forschungs- und Interessengebiete sind statistische Methoden der Kausalanalyse, Methoden der Evaluationsforschung, Arbeitsmarktsoziologie und soziologische Netzwerkforschung.

Tobias Wolbring, Prof. Dr.; seit 2017 Professor für Empirische Wirtschaftssoziologie an der FAU Erlangen-Nürnberg. Von 2015 bis 2017 Juniorprofessur für Soziologie, insbesondere Längsschnittdatenanalyse an der Universität Mannheim. Studium der Soziologie, Volkswirtschaftslehre und Psychologie. 2013 Promotion zum Dr. rer. pol. mit der Arbeit „Methodische Fallstricke bei der Evaluation universitärer Lehre“ an der Ludwig-Maximilians-Universität München. 2013  2014 Postdoktorand an der Professur für Sozialpsychologie und Hochschulforschung, ETH Zürich. Seit 2013 Mitherausgeber der „Sozialen Welt“. Forschungs- und Interessengebiete sind Evaluationsforschung, Methoden der empirischen Sozialforschung (insbesondere Experimente, Kausalanalyse, Paneldaten), Wirtschaftssoziologie sowie Wissenschafts- und Hochschulforschung.

Open Data und der freie Zugang zu Forschungsdaten wird zunehmend zur Auflage von Förderern, akademischen Fachzeitschriften sowie von universitären und außeruniversitären Forschungseinrichtungen. Open Data dienen nicht nur der Forschung im Sinne guter wissenschaftlicher Praxis, sondern sie ermöglichen auch die Replizierbarkeit (publizierter) Forschungsergebnisse und fördern die Reputation von Forschenden ebenso wie von deren Forschungseinrichtungen. Um ihre Froschenden bei der Generierung offener Forschungsdaten bestmöglich zu unterstützen, implementieren mehr und mehr Einrichtungen die notwendige Infrastruktur zur Datenbereitstellung, etwa in Form von Forschungsdatenmanagementbeauftragten. Viele dieser Personen sind Quereinsteiger, die sich in den unterschiedlichsten Fachbereichen ebenso wie mit den verschiedensten (Forschungs-)Daten auskennen müssen.
Das Netzwerktreffen Forschungsdatenmanagement Reloaded: Open Data und die Zukunft des Forschungsdatenmanagements in den Geistes- und Sozialwissenschaften richtet sich an die (Forschungsdatenmanagement-)Beauftragten von Hochschulen und Forschungsinstituten im deutschsprachigen Raum. Ziel der Veranstaltung ist es, diese Beauftragten zusammenzubringen und ihnen so einen systematischen Austausch zu ermöglichen. Dabei geht es sowohl um eine erste Bestandsaufnahme zu Open-Data-Auflagen als auch um damit verbundene Hilfestellungen, etwa in Form von Beratungen, Handreichungen, Best-Practise-Empfehlungen, (Daten-)Repositorien oder der Datenregistrierung (persistente Identifikatoren). Aufbauend darauf werden den Teilnehmenden verschiedene Ressourcen zur Unterstützung ihrer Forschenden bei der Generierung offener Daten vorgestellt. Im gemeinsamen Diskurs sollen Handlungsempfehlungen erörtert werden, um die Forschungseinrichtungen zukünftig in der Bereitstellung offener Forschungsdaten gezielt zu fördern und zu vernetzen.
Das Vernetzungstreffen ist Teil des Projekts Facilitate Open Science Training For European Research (FOSTER Plus), unterstützt durch das 7. Rahmenprogramm der Europäischen Union für Forschung und Entwicklung (Fördernummer 612425), durch Horizon 2020 (Fördernummer 741839) und durch CESSDA ERIC.

*****************************************

Dr. Sebastian Netscher ist seit 2009 Mitarbeiter am Datenarchiv für Sozialwissenschaften von GESIS  Leibniz-Institut für Sozialwissenschaften. Seit 2014 ist er Teil von CESSDA Training und zuständig für Beratungen und Schulungen im Rahmen des Forschungsdatenmanagements. Zuvor arbeitete er für das Sekretariat der Comparative Study of Electoral Systems und war u.a. zuständig für die Aufbereitung und Harmonisierung von Nachwahlstudien aus der ganzen Welt. Herr Netscher besitzt mehrjährige Lehrerfahrung auf dem Gebiet des Forschungsdatenmanagements und ist Experte für datenschutzrechtliche Aspekte in der empirischen Sozialforschung.

Dr. Anja Perry arbeitet seit 2016 im Datenarchiv für Sozialwissenschaften von GESIS  Leibniz-Institut für Sozialwissenschaften in der Datenakquise. Von 2012 bis 2016 arbeitete sie im deutschen PIAAC-Team bei GESIS und war verantwortlich für die Verfügbarmachung und den Vertrieb der deutschen PIAAC-Daten. Frau Perry hat 2010 ihre Doktorarbeit “Decision Making in Innovation and Entrepreneurship” am Max-Planck-Institut für Ökonomik und am DFG-Graduiertenkolleg “The Economics of Innovative Change” an der Friedich-Schiller-Universität Jena abgeschlossen. Danach arbeitete sie beim Statistischen Bundesamt. Ihre Forschungsinteressen sind Kompetenzen am Arbeitsmarkt sowie die Anreize zur Datenbereitstellung.

 

Paneldaten bieten gegenüber Querschnittsdaten wichtige Vorteile. Dazu gehören insbesondere die Identifizierung kausaler Effekte mit schwächeren Annahmen und die Beschreibung individueller Entwicklungsverläufe. Um diese Vorteile zu nutzen, bedarf es jedoch spezieller Verfahren.

Der Workshop gibt eine anwendungsorientierte Einführung in grundlegende Modelle der Paneldatenanalyse. Ausgangspunkt ist das lineare Fixed-Effects (FE) Regressionsmodell. Die Vorteile im Vergleich zu alternativen Modellen (u.a. Random-Effects Modelle) werden herausgearbeitet und es werden nützliche Erweiterungen vorgestellt  (u.a. logistisches FE Modell). Die Struktur der Regressionsmodelle wird erläutert und es werden beispielhafte Anwendungen mit dem Statistikprogramm Stata vorgeführt. Für die Beispiele werden Daten des Sozio-ökonomischen Panels (SOEP) verwendet. Die Teilnehmer können die Beispiele anhand der zur Verfügung gestellten Dateien selbst nachvollziehen.

*************************

Prof. Dr. Volker Ludwig ist seit 2016 Juniorprofessor für Angewandte Soziologie an der TU Kaiserslautern. Seine Forschungsinteressen liegen auf den Gebieten der Kausalanalyse sowie der Arbeitsmarkt- und Familienforschung. Er war Stipendiat der Graduate School of Economic and Social Sciences (GESS) der Universität Mannheim und schloss 2014 seine Promotion in Soziologie ab. Zwischen 2008 und 2012 war er für das Deutsche Familienpanel (pairfam) am Mannheimer Zentrum für Europäische Sozialforschung (MZES) und am Lehrstuhl für Methoden der empirischen Sozialforschung in Mannheim beschäftigt. Von 2012 bis 2016 war er wissenschaftlicher Mitarbeiter am Institut für Soziologie der LMU München.

Dr. Klaus Pforr absolvierte ein sein Studium der Sozialwissenschaften in Mannheim und Bloomington, IN (Abschluss Diplom Sozialwissenschaften 2005). Von 2006-2012 war er Projektmitarbeiter beim deutschen Familienpanel pairfam am Mannheimer Zentrum für europäische Sozialforschung (MZES) und Lehrassistent am Lehrstuhl für Statistik und sozialwissenschaftliche Methoden, Universtiät Mannheim. Von Mai 2012 bis Juni 2015 arbeitete er als Projektberater bei GESIS -- Leibniz Institut für Sozialwissenschaft am Standort Mannheim. Im März 2013 promovierte er zum Doktor der Sozialwissenschaften an der Universität Mannheim. Seit Juli 2015 ist er wissenschaftlicher Mitarbeiter im German Microdata Lab.

Das OpenSource Software Paket R ist kostenfrei und bietet neben Standardverfahren der Datenanalyse ein umfangreiches Repertoire von hoch spezialisierten Prozeduren und Verfahren auch für komplexe Anwendungen.
Ein Schwerpunkt wird auf der Vermittlung von Methoden der grafisch gestützten Datenanalyse liegen, zu der sich R in besonderer Weise eignet.

 *************************

Dr. Jan-Philipp Kolb ist Senior Researcher am Leibniz-Institut für Sozialwissenschaften (GESIS) und arbeitet als Erhebungsstatistiker im Team des GESIS-Panels. Zuvor war er im Team der GESIS-Erhebungsstatistik und als wissenschaftlicher Mitarbeiter in der Abteilung Wirtschafts- und Sozialstatistik der Universität Trier tätig und lehrte dort Stichprobenverfahren und angewandte Statistik mit R.

Before researchers can start to analyze their data, they first have to wrangle (i.e., clean and transform) and explore them. While this can be done with base R, the syntax for this is typically verbose and not intuitive and, hence, difficult to learn, remember, and read. The tidyverse addresses this problem by providing a consistent syntax that is also easy to read, learn, and remember. The tidyverse website describes it as “an opinionated collection of R packages designed for data science” and points out that “all packages share an underlying design philosophy, grammar, and data structures” (see www.tidyverse.org/). These attributes make the tidyverse especially attractive for novice R users. In this workshop, we will introduce participants to the tidyverse and its packages and relevant concepts like tidy data and the pipe operator. In the practical parts of the workshop, we will focus on wrangling (importing, tidying, transforming) and exploring (with a focus on visualization) the data. For the exercises, we will use RStudio. The course is meant for R beginners who are looking for an accessible, hands-on introduction to the first steps of working with data in R as well as more advanced R users who want to switch from base R to the tidyverse for their data wrangling and exploration tasks.


*************************

Dr. Johannes Breuer works as a senior researcher in the team Data Linking & Data Security at the GESIS Data Archive. He received his Ph.D. in psychology from the University of Cologne in 2013. Before joining GESIS, he worked in several research projects investigating the use and effects of digital media at the universities of Cologne, Hohenheim, and Münster, and the Leibniz-Institute für Wissensmedien (Knowledge Media Research Center). His other research interests include the methods of media (effects) research, data management, and open science.

Stefan Jünger studied Sociology, Ethnology and Philosophy at the University of Cologne (Magister Artium). From 2013 to 2015 he was a member of staff for the GESIS Data Archive in the area of data ingest and curator of the data repository datorium and after that as research assistant in the DFG-project "Georeferencing of Survey Data" (GeorefUm) until 2017. Since March 2017 he is a research assistant in the DFG-project "Social-Spatial Sciences Research Data Infrastructure" (SoRa).

With the emergence of open science, big data, and new EU laws on data privacy and data protection, it can be difficult for social science research methods lecturers to keep up with it all. As part of the EU-funded SERISS project (H2020 grant number: 654221) and the CESSDA Training Working Group at GESIS data specialists are putting on a train-the-trainer course for social science research methods lecturers, to provide you with the latest information and course materials for use in your classroom. The course content is designed for both undergraduate and post-graduate students.

In this 1-day train-thetrainer course, our experts will give short lectures on a topic (e.g. FAIR data principles), identify the main points students should take away, and provide lecturers with handouts and exercises to use (or adapt for use) in their classrooms. Participants will receive digital copies of the lecture notes, handouts and related materials for their own use (under Creative Commons Attribution licenses).

The first half of the day will focus on theoretical aspects, including touching on new ethical and legal considerations post-General Data Protection Regulation, the concept of Open Science, and the FAIR principles. The second half of the workshop will examine practical case studies in large-scale cross-national data harmonisation and documentation, the European Values Survey including introduction to free software that digitizes variable harmonisation and documentation work and get to preview a newly built website that will archive the documentation of such work.

*************************

Anna K. Schwickerath works at Leibniz Institute for the Social Sciences. She is currently working on her PhD on „Corruption in the context of United Nations Peacekeeping operations“. Anna works for the Horizon 2020 projects SERISS and FOSTER Plus.

Dr. Kristi Winters works at the Department of Data Archive for the Social Sciences, GESIS - Leibniz-Institute for the Social Sciences. Kristi taught research methods to undergraduates and graduate students in the UK and oversaw the development of the harmonisation software, CharmStats and the Variable Harmonisation Hub.

The course covers the basic use of R for supervised learning. The session walks through the process of machine learning, including importing data, running an analysis, and presenting results.
We cover high-level approaches to modeling (e.g., the caret package) and provide a thorough workflow in R that can be used with many different regression or classification techniques. Case studies on real data are used as examples, and several different predictive models are illustrated.

*************************

Dr. Jan-Philipp Kolb is a senior researcher at the Leibniz Institute for Social Sciences (GESIS), working as a survey statistician in the GESIS Panel team. He previously worked in the GESIS Survey Statistics team and as a research assistant in the Economic and Social Statistics Department at the University of Trier teaching sampling techniques and applied statistics using R.

Alexander Murray-Watters is a research associate/doctoral candidate at the Leibniz institute for Social Sciences (GESIS) working as a statistics/machine learning expert. He previously worked as a Research Associate/Systems Analyst at Carnegie Mellon University in Pennsylvania, USA, where he also received a MS in Logic, Computation, and Methodology.

 

 

Stellen Sie sich die Frage ob Ihre Forschungsdaten ausreichend gesichert sind?
Wissen Sie nicht genau wie sie Ihre Daten in geeigneter Weise für die zukünftige Nutzung dokumentieren sollten?
Wollen Sie ihre Daten nach Ablauf des Forschungsprojekts anderen zugänglich machen, um die Sichtbarkeit Ihrer Arbeit zu erhöhen?
Haben Sie datenschutzrechtliche Bedenken was die Archivierung Ihrer Daten angeht?

Wenn Sie derartige Fragen beschäftigen, dann ist unser Forschungsdatenmanagement-Workshop genau das Richtige für Sie. Er adressiert die Bedürfnisse von quantitativen und qualitativen Forschern in der Bildungswissenschaft und ermöglicht es, die Herausforderungen von Horizont 2020 bezüglich Anforderungen an das Datenmanagement anzugehen.
Forschungsdatenmanagement umfasst die Pflege Ihrer Daten, d.h. den Forschungsprozess zu strukturieren und Methoden, Verfahren und Richtlinien zu entwickeln, um Ihre Daten zu schützen, zu validieren und zu beschreiben. Ziel ist es, die Qualität Ihrer Daten sicherzustellen und die potentielle Nachnutzung zu erleichtern. Gutes Forschungsdatenmanagement minimiert das Risiko von Datenverlust, sorgt für Integrität in der Forschung und erleichtert die Replizierbarkeit. Es erhöht die Datensicherheit, Forschungseffizienz und Zuverlässigkeit. Ein adäquates Forschungsdatenmanagement spart Zeit und Ressourcen und erfüllt die Anforderungen unterschiedlichster Förderorganisationen zur Dokumentation und Nachnutzung von Forschungsdaten.
Im Bereich der empirischen Bildungsforschung steht das Datenmanagement vor speziellen Herausforderungen, etwa in Bezug auf die Anonymisierung personenbezogener Umfragedaten, deren Archivierung und Nachnutzung. Daher ist es wichtig, Forschende in der Bildungsforschung für das Thema Datenmanagement zu sensibilisieren und die notwendige Kompetenz für ein adäquates Datenmanagement in der Forschungsgemeinschaft zu steigern.
Der Workshop umfasst die grundlegenden Prinzipien des Datenmanagements, z.B. im Bereich der Lizensierung von Forschungsdaten, des Datenschutzes und der Ethik für die Wiederverwendung von Daten. Er befasst sich mit der Datendokumentation, den unterschiedlichen Dateiformaten, der Datenspeicherung und Sicherung, sowie der Archivierung von Forschungsdaten. Ziel des Workshops ist es, den Teilnehmern fundierte Hilfestellung beim Verfassen Ihres eignen Datenmanagementplans anzubieten.

Veranstalter ist der Verbund Forschungsdaten Bildung (VFDB). Der Workshop wird aus Mitteln des BMBF finanziert, daher ist die Teilnahme für Sie kostenlos. Außerdem bieten wir Ihnen eine Übernahme der Fahrt- und Übernachtungskosten im Rahmen des Landesreisekostengesetzes BaWü an (es werden bis zu 200 Euro Fahrtkosten und bis zu 80 Euro Übernachtungskosten erstattet).

************************

Marcus Eisentraut ist seit 2015 im Datenarchiv für Sozialwissenschaften bei GESIS als Mitarbeiter für den Verbund Forschungsdaten Bildung (VFDB) tätig. Im Rahmen des Verbunds wirkte er schon an mehreren Workshops zum Thema Forschungsdatenmanagement mit und unterstütze CESSDA Training bei der Weiterentwicklung von Schulungsmodulen. Seine Arbeitsschwerpunkte liegen im Bereich der Datenaufbereitung und Dokumentation quantitativer Studien sowie Beratung und Schulung zum Forschungsdatenmanagement

Dr. Sebastian Netscher ist seit 2009 Mitarbeiter am Datenarchiv für Sozialwissenschaften von GESIS  Leibniz-Institut für Sozialwissenschaften. Seit 2014 ist er Teil von CESSDA Training und zuständig für Beratungen und Schulungen im Rahmen des Forschungsdatenmanagements. Zuvor arbeitete er für das Sekretariat der Comparative Study of Electoral Systems und war u.a. zuständig für die Aufbereitung und Harmonisierung von Nachwahlstudien aus der ganzen Welt. Herr Netscher besitzt mehrjährige Lehrerfahrung auf dem Gebiet des Forschungsdatenmanagements und ist Experte für datenschutzrechtliche Aspekte in der empirischen Sozialforschung.

Dr. Jonas Recker ist seit 2012 im Datenarchiv für Sozialwissenschaften bei GESIS  Leibniz-Institut für Sozialwissenschaften tätig. Dort ist er mit den Themen Forschungsdatenmanagement in den Sozialwissenschaften und Langzeitarchivierung von Forschungsdaten befasst. Er betreut verschiedene Angebote aus dem Bereich der Forschungsdatenrepositorien und beschäftigt sich als Mitglied der nestor AG Zertifizierung und Vorsitzender des CoreTrustSeal Boards mit Fragen der Zertifizierung von vertrauenswürdigen digitalen Archiven

Das Ziel des Kurses ist, dass Teilnehmende nach dem Kurs möglichst reproduzierbare Analysen in R schreiben können. Dies bedeutet, dass andere Personen den R Code unabhängig vom Autor/der Autorin verstehen und nutzen können. Die erlernten Tools und Techniken sollen langfristig auch zu einer Arbeitserleichterung führen, da Arbeitsschritte automatisiert werden und Tools erlernt werden, die bei der Fehlerbehebung hilfreich sind. Es werden allgemeine Regeln des ‚sauberen' Programmierens und Werkzeuge von R und RStudio besprochen. Ein wichtiger Bestandteil des Workshops wird die Integration von R  mit Markdown und LaTeX sein. Außerdem wird die Versionierung von R Dateien mit git (am Beispiel von GitHub) besprochen.

******************************

Dr. Tobias Heycke ist Postdoktorand bei GESIS und arbeitet an mehreren Themen im Zusammenhang mit Open Science. Er studierte Psychologie an der Universität Nijmegen und promovierte in der Psychologischen Methodengruppe der Universität zu Köln.

 

Der Workshop hat zum Ziel, die Grundideen und  Strategien der Grounded-Theory-Methodologie (GTM) eine der am weitesten verbreiteten  qualitativen Forschungsmethodologien zu vermitteln und hierbei auch  unterschiedliche Positionen zur GTM vorzustellen und zu diskutieren.
Orientiert an den Fragen und dem Bedarf der Teilnehmenden werden die wesentlichen Konzepte und Schritte u.a. Theoretische  Sensibilität; Offenes, Axiales und Selektives Kodieren; Theoretisches Sampling  und Theoretische Sättigung behandelt und in Übungen erprobt.
Material der  Teilnehmenden wird auf Wunsch gerne berücksichtigt und besprochen.

************************

Infos zum Dozenten Prof. Dr. Günter Mey finden Sie unter folgendem Link:
http://www.humanwissenschaften.hs-magdeburg.de/l/~mey

Infos zum Dozenten Paul Sebastian Ruppel finden Sie unter folgendem Link:
www.sowi.rub.de/soztheo/team/ruppel.html.de

 

Im Rahmen des Workshops soll in Theorie und Praxis  qualitativer Interviews als wesentliche sozialwissenschaftliche  Erhebungsinstrumente eingeführt werden.
Im Zentrum des Workshops stehen zum einen der  Überblick über gängige Interview-Verfahren und deren Einbettung in Konzepte der  Gesprächsführung und in Narrationstheorien; zudem werden Fragen des  Datenschutzes, angemessener Transkription/Datenaufbereitung und Archivierung diskutiert.
Den zweiten Schwerpunkt des Workshops bilden Übungen  zur Leitfadenentwicklung und Interviewführung (mit Videofeedback).
Materialien (Interviewleitfäden etc.) der  Teilnehmenden werden gerne berücksichtigt und besprochen.

*************************

Infos zum Dozenten Prof. Dr. Günter Mey finden Sie unter folgendem Link:
http://www.humanwissenschaften.hs-magdeburg.de/l/~mey

Infos zum Dozenten Paul Sebastian Ruppel finden Sie unter folgendem Link:
http://www.sowi.rub.de/soztheo/team/ruppel.html.de

 

Missing data are a pervasive problem in the social sciences. Data for a given unit may be missing entirely, for example, because a sampled respondent refused to participate in a survey (survey nonresponse). Alternatively, information may be missing only for a subset of variables (item nonresponse), for example, because a respondent refused to answer some of the questions in a survey. The traditional way of dealing with item nonresponse, referred to as “complete case analysis” (CCA) or “listwise deletion”, excludes any observation with missing information from the analysis. While easy to implement, complete case analysis is wasteful and can lead to biased estimates. Multiple imputation (MI) seeks to address these issues and provides more efficient and unbiased estimates if certain conditions are met.
The goals of the course are to introduce participants to the basic concepts and statistical foundations of missing data analysis and MI, and to enable them to use MI in their own work. The course puts heavy emphasis on the practical application of MI and on the complex decisions and challenges that researchers are facing in its course. The focus is on MI using iterated chained equations (aka “fully conditional specification”) and its implementation in the software package Stata. Participants should have a good working knowledge of Stata to follow the applied parts of the course and to successfully master the exercises. Participants who are not familiar with Stata may still benefit from the course, but will likely find the exercises quite challenging.

*************************

Dr. Ferdinand Geißler is a senior lecturer at the Chair of Social Research & Methods at the Humboldt-University Berlin, where he also earned his PhD in Sociology. From 2011 to 2013 he was a research assistant at the National Educational Panel Study (NEPS) where he worked on returns to education and the imputation of income data. His research interests include education, social inequality and quantitative methods. He regularly teaches courses on quantitative methods and has taught several specialized courses on multiple imputation.

Dr. Jan Paul Heisig is a senior researcher in the research unit “Skill Formation and Labor Markets” at WZB Berlin Social Science Center. He holds a PhD in Sociology from Freie Universität Berlin and has been a visitor at Stanford University and the University of Amsterdam. His research interests include education, labor markets, public policy, social inequality, and quantitative methods. He regularly teaches courses on multiple imputation, analysis of multilevel data, and other topics in statistics and data analysis.

 

Der Kurs lehrt, welche Fragestellungen, Designs, Samplingtechniken, Auswertungsstrategien und Validierungstechniken in mixed methods Forschungsstrategien eingesetzt werden. Hierbei wird ein spezielles Augenmerk auf die unterschiedliche Anwendung von Mixed Methods in deskriptiven und erklärenden Studien gelegt.
Die Anwendung wird anhand praktischer Beispiele und Übungen verdeutlicht. In einem umfangreichen Praxisteil werden Mixed Methods Datensätze mit Hilfe von SPSS und MAXQDA ausgewertet. Es ist möglich, eigene Forschungsprojekte und Beispiele in den Workshop zur Diskussion mitzubringen.
Die Teilnehmenden erhalten ein Skript mit allen verwendeten PPT-Folien, ein umfangreiches Literaturverzeichnis sowie Internetquellen zur weiteren Vertiefung.

*************************

Prof. Dr. Jörg Stolz ist ordentlicher Professor für Religionssoziologie an der Universität Lausanne. Er verbindet einen erklärenden soziologischen Ansatz mit empirischer Mixed Methods Forschung. Inhaltlich forscht er zu Säkularisierung, Evangelikalismus, Neuen religiösen Bewegungen und Islamophobie. Jörg Stolz ist Präsident der International Society for the Sociology of Religion (ISSR). Er ist Autor von "Soziologie der Fremdenfeindlichkeit. Theoretische und empirische Analysen" und "(Un)Believing in Moder Society. Religion, Spirituality and Religious-Secular". Er hat in führenden internationalen Zeitschriften (British Journal of Sociology, Sociology of Religion, Review of Religious Research) publiziert.

 

Data Science is the interdisciplinary science of the extraction of interpretable and useful knowledge from potentially large datasets. Due to the rapid surge of digital trace data (often as “Big Data”) in a wide range of application areas, Data Science is also increasingly utilized in the social sciences and humanities. In contrast to empirical social science, Data Science methods often serve purposes of exploration and inductive inference. In this course, we aim to provide an introduction into Data Science for practitioners. In particular, we want to impart basic understanding of the main methods and algorithms and understand how these can be deployed in practical application scenarios, focusing on the analysis of digital behavioral data found on the Web. We cover aspects of data collection, preprocessing, exploration, visualization and machine learning using basic Python and key packages like pandas, numpy and scikit- learn.
We would like to call your attention to our symposium which will take place following the second workshop day, on Tuesday, 17th September 2019. The topic of the discussion will be "Legal Challenges of Web Scraping in the Data Science Context". The venue will be Mannheim University. Further information and the possibility to sign on will be given shortly.

*************************

Dr. Arnim Bleier is a postdoctoral researcher in the Department Computational Social Science at GESIS. His research interests are in the field of Natural Language Processing and Computational Social Science. In collaboration with social scientists, he develops Bayesian models for the content, structure and dynamics of social phenomena.

Dr. Fabian Flöck studied communication sciences and sociology, and subsequently acquired a PhD in computer science. Specifically, he developed algorithmic methods to extract rich behavioral traces from Wikipedia editing data and studied them with data science methods. He is a post-doctoral researcher at the Computational Social Science department at GESIS and interested in collaborative content production, crowdsourcing and data visualization.

 

GESIS lädt ein zu einer Podiumsdiskussion zum Thema Rechtliche Herausforderungen von Web-Scraping im Data-Science-Kontext. Dr. Arnim Bleier und Dr. Fabian Flöck, unsere Gäste vom GESIS Leibniz Institut für Sozialwissenschaften und praktizierende Data Scientists, diskutieren mit Rechtsexperten Paul Vogel (Lehrstuhl für Strafrecht, Universität Würzburg) und Dr. Sebastian J.Golla (Lehrstuhl für öffentliches Recht und Informationsrecht, Johannes Guttenberg-Universität Mainz) über die rechtlichen Aspekte sowie über die Relevanz und die Herausforderungen von Web-Scraping. Es wird erläutert werden, welche rechtlichen Grundlagen von angewandt arbeitenden Wissenschaftlern beachtet werden müssen, um rechtskonform an Informationen aus dem Netz zu kommen, sie zu analysieren und zu teilen.

*************************

Dr. Sebastian J. Golla, geboren 1988 in Bonn, studierte Rechtswissenschaften in Münster und Santiago de Chile. 2015 promovierte er an der Humboldt-Universität zu Berlin im Strafrecht zu dem Thema »Die Straf- und Bußgeldtatbestände der Datenschutzgesetze«. Von 2012 bis 2015 war er wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin. Seit November 2016 ist er wissenschaftlicher Mitarbeiter von Prof. Dr. Matthias Bäcker an der Johannes Gutenberg-Universität Mainz. Seine Forschungsinteressen liegen unter anderem im Sicherheitsrecht, Informationsstrafrecht und Datenschutzrecht.

Paul Vogel studierte an der Universität Würzburg Rechtswissenschaften mit Begleitstudium im Europäischen Recht und legte im Juli 2017 erfolgreich die Erste Juristische Prüfung ab. Seit September 2017 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl von Prof. Dr. Dr. Eric Hilgendorf. Seinen Interessenschwerpunkt bildet das Technikrecht mit seinen Bezügen zum Straf-, Datenschutz- und Zivilrecht.

Investigating causal relations often leads to questions regarding the processes and mechanisms underlying a specific effect. Is an effect mediated by one or more other variables? In practice, this question is frequently assessed by analyzing changes in regression coefficients after adding the putative mediators to the model. The modern literature on causal inference demonstrates, however, that this approach yields valid conclusions regarding mediation only under specific assumptions that are rarely made explicit in applied research.

This course uses graphical causal models and counterfactual definitions of direct and indirect effects to make transparent the conditions under which mediation analysis yields valid conclusions. In addition to the discussion of classic approaches to mediation the course also introduces modern regression-based methods of causal mediation analysis as well as formal sensitivity analysis. Each section of the course is accompanied by practical exercises, including the estimation of direct and indirect effects in Stata and R. As the course concludes, interested participants will have the opportunity to present their own mediation analysis and discuss the implications of causal mediation analysis for their own research. Alternatively, further topics like multiple mediators, time-varying mediation, or alternative estimation approaches will be discussed.

*************************

Dr. Michael Kühhirt is a postdoctoral researcher and lecturer at the Institute of Sociology and Social Psychology at the University of Cologne. He studied Sociology and History and the University of Mannheim where he also attained a doctoral degree in social sciences. His research deals with the formation of inequality over the life course using quantitative methods.

 

Ziel des Workshops ist es, eine Einführung in Konzepte, Verfahren und Strategien qualitativer Inhaltsanalyse zu vermitteln. Der Schwerpunkt liegt dabei auf der thematischen bzw. qualitativ-strukturierenden Inhaltsanalyse. Ausgehend von einem kurzen Überblick über Merkmale und Ablauf des Verfahrens besprechen wir insbesondere die folgenden Themen: Aufbau von und Anforderungen an inhaltsanalytische Kategoriensysteme; Vorgehen bei der Entwicklung von Kategoriensystemen; Unterteilung des Materials in Kodiereinheiten; Probekodierung; Kodierbesprechung; Überarbeitung des Kategoriensystems. Sämtliche Schritte werden anhand von eigenem Material der Teilnehmer/innen (soweit vorhanden) in Übungen erprobt. Der Schwerpunkt der Veranstaltung liegt auf dem Verfahren der qualitativen Inhaltsanalyse, unabhängig von Software-Paketen.

**********************************

Markus Janssen ist Akademische Mitarbeiter im Fach Erziehungswissenschaft an der Pädagogischen Hochschule Weingarten und verantwortlich für die Forschungswerkstatt Qualitative Inhaltsanalyse an der PH Weingarten, die einen Rahmen zur kollegialen Diskussion methodologischer Fragen und zur gemeinsamen Arbeit an Projekten und empirischem Material bietet. Er lehrt qualitative Methoden für Bachelor- und Masterstudierende, bietet Workshops zu Verfahren und Techniken qualitativer Inhaltsanalyse an (z. B. bei der Graduiertenakademie der Pädagogischen Hochschulen Baden-Württemberg). 2016 war er hauptverantwortlich für die Ausrichtung der Tagung „Qualitative Inhaltsanalyse  and beyond?“

Christoph Stamann ist akademischer Mitarbeiter im Fach Erziehungswissenschaft an der Pädagogischen Hochschule Weingarten und verantwortlich für die Forschungswerkstatt Qualitative Inhaltsanalyse an der PH Weingarten, die einen Rahmen zur kollegialen Diskussion methodologischer Fragen und zur gemeinsamen Arbeit an Projekten und empirischem Material bietet. Er lehrt qualitative Methoden für Bachelor- und Masterstudierende, bietet Workshops zu Verfahren und Techniken qualitativer Inhaltsanalyse an (z. B. bei der Graduiertenakademie der Pädagogischen Hochschulen Baden-Württemberg). 2016 war er hauptverantwortlich für die Ausrichtung der Tagung „Qualitative Inhaltsanalyse and beyond?“

 

Der Workshop bietet eine ausführliche theoretische, methodische und praktische Einführung in die Methoden der Ereignisanalyse. Besonderes Gewicht wird auf Anwendungen in der Lebenslaufforschung, insbesondere die dynamische Modellierung sozialer Prozessen gelegt. Nach Klärung der konzeptionellen Grundlagen, werden deskriptive Ansätze wie die Sterbetafelmethode und die Kaplan-Meier Schätzung vorgestellt. Danach werden parametrische und semi-parametrische Ereignisanalysemodelle mit diskreter und kontinuierlicher Zeit vorgestellt. Die Berücksichtigung zeitveränderlicher Variablen und Effekte ist einer der wesentlichen Vorteile der Ereignisanalyse gegenüber alternativen Methoden, daher wird der Workshop vertieft darauf eingehen. Weiterhin werden im Workshop auch fortgeschrittene und viele angewandte Themen behandelt, die in der klassischen Grundlagenliteratur häufig nicht diskutiert werden. Hierzu zählen beispielsweise inferenzstatistische Aspekte der Ereignisanalyse im Kontext von Survey-Daten, Multiple-Episode Datenstrukturen, Competing-Risk Modelle, Mehrebenenmodelle der Ereignisanalyse, und Aspekte des Vergleichs von Effekten über verschiedene Modelle, Gruppen und Stichproben. Zur Illustration werden inhaltliche Problemstellungen aus der soziologischen und demographischen Forschung herangezogen. Der Workshop verwendet durchgehend das Statistikprogramm Stata. Teilnehmer werden darüber hinaus motiviert, Problemstellungen aus ihrer eigenen Forschung in dem Workshop einzubringen.

Der Fragebogen ist eines der wichtigsten Instrumente der sozialwissenschaftlichen quantitativen Datenerhebung. Ziel dieses Workshops ist es, den Teilnehmer*innen ein fundiertes Verständnis der psychologischen Prozesse zu vermitteln, die bei der Beantwortung eines Fragebogens ablaufen, sowie sie mit den wesentlichen Prinzipien vertraut zu machen, die bei der Entwicklung und Formulierung von Survey-Fragen berücksichtigt werden sollten.
Die Inhalte des Workshops orientieren sich dabei am kognitiven Antwortprozess, den Befragte bei der Beantwortung von Fragen durchlaufen und der insgesamt vier Aufgaben umfasst: Verstehen des Fragetextes, Informationsgewinnung, Urteilsbildung und Formatierung der Antwort. Thematisiert werden sowohl allgemeine Prinzipien der Fragebogengestaltung, der Frageformulierung und der Konstruktion von Antwortformaten, als auch spezielle Aspekte, die bei der Formulierung von Sach-, Einstellungs- und sensiblen Fragen von Bedeutung sind. Darüber hinaus erhalten die Teilnehmer*innen eine Einführung in verschiedene Methoden des Fragebogen-Pretestings.
Der Workshop kombiniert Vorträge mit praktischen Übungen und Diskussionen. Bitte beachten Sie, dass der Kurs nicht die psychometrischen Prinzipien der Item- oder Skalenentwicklung behandelt.

***************************

Dr. Timo Lenzner ist Senior Researcher im Bereich Fragebogen-Pretesting bei GESIS. Seine Schwerpunkte liegen in der Beratung und Durchführung von kognitiven Pretests und in der Forschung zum Design und der Evaluation von Fragebögen.

Dr. Cornelia Neuert ist Senior Researcher im Bereich Fragebogen-Pretesting bei GESIS. Neben der Durchführung kognitiver Interviews liegen Ihre Forschungsinteressen in der Konstruktion und Evaluation von Fragebögen und in der Bewertung und Weiterentwicklung kognitiver Pretestverfahren.

 

 

This two day workshop offers a well-grounded and practically oriented introduction into this sophisticated data source. Participants will be introduced to the content of the study, its data-structure, sample selection and weighting strategy and they will be provided with an overview over the study documentation. Additionally we will discuss the specific potentials for longitudinal data analyses provided by the SOEP. In a variety of “Hands-on Sessions” participants will learn to work with SOEP data, the data-management tool Paneldata.org and documentation material and thereby mimic the entire process from identifying and finding variables containing specific information in the dataset to the creation of the final dataset for analysis and first empirical investigations. The practical part of the workshop requires familiarity with methods of empirical analysis and basic programming skills in STATA.

 

 

Die Mehrebenenanalyse wird verwendet, wenn Beobachtungen auf der individuellen Ebene in Einheiten einer oder mehrerer höherer Ebenen verschachtelt sind (z.B. Schüler in Schulklassen in Schulen). Der Kurs behandelt die Logik der Mehrebenen-Modellierung, ihren statistischen Hintergrund und die Implementierung mit Stata. Beispiele kommen aus der international vergleichenden Forschung, wobei Länder als übergeordnete Einheiten behandelt werden (Studien des International Social Survey Program und dem PIONEUR-Projekt zur innereuropäischen Migration). Die Teilnehmer werden jedoch auch ermutigt, ihre eigenen Daten mitzubringen. Die Analysen werden mit Stata durchgeführt.

************************

Prof. Dr. Michael Braun ist Senior Project Consultant in der Abteilung Survey Design and Methodology (SDM) am GESIS Leibniz-Institut für Sozialwissenschaften und Lehrbeauftragter an der Universität Mannheim. Er hat sich auf die Methodik und Analyse interkultureller Befragungen spezialisiert. Er ist Experte sowohl für die Konzeption als auch für die Analyse großer vergleichender Umfragen mit modernsten statistischen Methoden. Er hat sich intensiv mit internationalen Vergleichen im Bereich Migration und Familie beschäftigt.

Genetic sensitive research and knowledge of related methods are of growing importance in many social science disciplines but are not often part of standard curricula taught in these fields. The aim of this course is to address this gap and familiarize interested social scientists with basic concepts of behavior genetics. The applied parts of the course will focus on twin studies and related quantitative methods of behavioral genetic analysis on an introductory level. To these ends, the course will mostly use statistical software known to many social scientists  Stata  and a related program package especially developed for behavioral genetic modeling  the acelong.ado (https://ideas.repec.org/c/boc/bocode/s458402.html). Throughout the course examples and exercises based on data of the German twin family panel  TwinLife (dx.doi.org/doi:10.4232/1.13208) will be used. Therefore, the course also includes an introduction to the TwinLife data which are available as a scientific use file at the GESIS data archive free of charge. Participants are encouraged to obtain the TwinLife data prior to the course. Furthermore, participants will have the opportunity to present and discuss own research related to the topic of the course. Participants should have basic knowledge about using Stata as well as regression and/or variance analysis. Additionally, basic knowledge about multilevel and/or structural equation modeling is an advantage.

**************************

Volker Lang is a researcher and data manager in the TwinLife project at Bielefeld University. He was trained as a sociologist and economist at the University of Tübingen. His methodological research interests include behavioral genetic modeling and the application of causal analytic designs in survey research. He is developer of the acelong.ado-package  a behavioral genetic modeling toolkit for Stata.

Dr. Bastian Mönkediek works as a research fellow in the TwinLife project at Bielefeld University. He was trained as a sociologist at the Universities of Osnabrück and Bremen (Germany) and attained his doctorate degree at the University of Wageningen (Netherlands). His current research focuses on family processes and their impact on status transmission. In this context, he is interested in the role of social and biological factors explaining differences in parenting and educational attainment.

The evaluation of hypotheses is a core feature of research in the behavioural, social, and biomedical sciences. In the last decade, there has been a lot of attention for inappropriate use of hypotheses testing by journals (publication bias) and authors (questionable research practices) as the main causes of the replication crisis. This 3-day workshop will use different perspectives (classical, Bayesian, information theoretic) to teach participants in a non-technical manner the theory underlying hypothesis evaluation and the appropriate application of hypothesis evaluation.

***********************

Prof. Herbert Hoijtink is professor in applied Bayesian statistics at the Faculty of Social and Behavioral Sciences of Utrecht University in the Netherlands. Using a large grant from the Netherlands Organization for Scientific Research in 2005, he was able to develop the evaluation of informative hypotheses with a group of eight researchers. Currently, he is involved as a methodologist in a nationwide consortium of twenty researchers (funded by the Netherlands Organization for Scientific Research in 2012) that is tracking the development of children into adolescents, using, among others, six independently executed cohort studies involving thousands of children each.

Prof. Rebecca Kuiper is an assistant professor at the Faculty of Social and Behavioral Sciences of Utrecht University in the Netherlands. Based on her publications in journals like Biometrika and Psychological Methods, she received a grant from the Netherlands Organization for Scientific Research to build a research group with which she can continue her research with respect to dynamical modelling, informative hypotheses, model selection using information criteria, and research synthesis.

Dr. Mariëlle Zondervan-Zwijnenburg is a post-doc at the department of Methodology & Statistics working with informative hypotheses and (longitudinal) evidence synthesis

This workshop will give an introduction to topic modeling using R. The first day of the workshop we will introduce R, Rstudio, and tidyverse. This day can be safely skipped by students or researchers with experience in using R.

*************************

Dr. Wouter van Atteveldt (PhD in Artificial Intelligence in 2008) is associate professor at the Department of Communication Science. He has published on text analysis of political communication and methodology in political science, journalism, and statistics. Van Atteveldt taught undergraduate and postgraduate courses on political communication and text analysis as wel as numerous summer schools and workshop. He developed various tools and packages for the analysis of text data in python and R. Van Atteveldt is also chairman and co-founder of the Interest Group on Computational Methods of the International Communication Association (ICA) and editor-in-chief and co-founder of the journal Computational Communication Research.

Dr. Kasper Welbers (PhD) is a postdoctoral researcher at the VU University Amsterdam. His research primarily focuses on changes in the news diffusion process due to the proliferation of new media technologies. For his postdoc on the ResTeCo project he applies computational text analysis techniques to investigate terrorism coverage on a massive scale. Next to substantive research he has published about text analysis methodology, and is the developer and maintainer of several R packages.

In the first day, we will introduce topic modeling and the principles of automatic text analysis and topic modeling. We will explain the basic assumptions of bag-of-words analysis, unsupervised clustering, and the dirichlet distribution. We will use the quanteda and topicmodels packages for doing the analyses and LDAviz and corpustools for visualization and validation.

The seciond day we will first look in depth at how fitting an LDA model with Gibbs sampling actually works and look at the various parameters and choices. We will also look at linguistic preprocessing using the spacy package. Finally, we will introduce alternative topic models, from Dynamic and Correlated topic models to Structural Topic Models. We will use the stm package to show how to estimate a structural topic model with time or source as covariates, and show how to analyse and interpret the results.

*************************

Dr. Wouter van Atteveldt (PhD in Artificial Intelligence in 2008) is associate professor at the Department of Communication Science. He has published on text analysis of political communication and methodology in political science, journalism, and statistics. Van Atteveldt taught undergraduate and postgraduate courses on political communication and text analysis as wel as numerous summer schools and workshop. He developed various tools and packages for the analysis of text data in python and R. Van Atteveldt is also chairman and co-founder of the Interest Group on Computational Methods of the International Communication Association (ICA) and editor-in-chief and co-founder of the journal Computational Communication Research.

Dr. Kasper Welbers (PhD) is a postdoctoral researcher at the VU University Amsterdam. His research primarily focuses on changes in the news diffusion process due to the proliferation of new media technologies. For his postdoc on the ResTeCo project he applies computational text analysis techniques to investigate terrorism coverage on a massive scale. Next to substantive research he has published about text analysis methodology, and is the developer and maintainer of several R packages.

In diesem Kurs wird die fundamentale Logik, die hinter bayesscher Statistik stehtvermittelt, und wie sie sich von frequentistischer Statistik unterscheidet und wie diese Unterschiede konkret in sozialwissenschaftlicher Forschung genutzt werden können.
Der Kurs deckt zunächst eine auf Intuition und Forschungslogik basierende Einführung in die Unterschiede und Gemeinsamkeiten der beiden großen Ansätze in der Statistik ab. Formalisierung und Schätzmethoden werden dabei eher am Rande behandelt.
Das erste Beispiel behandelt die Integration von externer Information (prior knowledge) in die Modellschätzung. So wird gezeigt wie Sensitivitätsanalysen für Messfehler im bayesschen Ansatz durchgeführt werden kann. Im Anschluss daran wird besprochen in welchen Anwendungen mit denen wir schon vertraut sind (im Geheimen) auch bayessche Logik angewandt wird, ohne dass wir es merken. Das zweite Beispiel bespricht die Nutzung bayesscher Statistik beim Problem der Modellidentifikation auf Grund kleiner Datensätze (z.B. in Experimenten oder Länderdatensätzen). Das dritte Beispiel zeigt wie bayessche Formulierung von Unsicherheit helfen kann Bekannte Probleme in der Interpretation von statistischer Signifikanz zu umgehen und Schlussfolgerungen aus Forschungsergebnissen zu ziehen, die stärker unserem Alltagsverständnis von Unsicherheit und Wahrscheinlichkeit entsprechen und somit einfacher an ein nicht-wissenschaftliches Publikum zu kommunizieren sind. Zum Schluss wird die Methode der Bayesian Evaluation of Infomative Hypotheses (BEIH) vorgestellt, die eine spezielle Eigenschaft der bayesschen Schätzung nutzt, um Hypothesen bei unterschiedlichen Arten der Gruppenvergleiche angemessener zu überprüfen und uns somit hilft Theorie und empirische Überprüfung klarer miteinander zu verknüpfen.
In der konkreten Bearbeitung der Beispiele wird Stan genutzt, was

*************************

Dr. Hannes Kröger hat an der Humboldt Universität in Berlin und an der Uppsala Universität Sozialwissenschaften studiert. 2010 erhielt er seinen Abschluss in Sozialwissenschaften an der Humboldt Universität. 2013 hat er seine Doktorarbeit zu dem Thema 'Gesundheitsselektion auf dem deutschen Arbeitsmarkt im sozialwirtschaftlichen und statitistischem Studienprogram (SESS) des Berliner Instituts für Sozialwissenschaften (BGSS) vervollständigt.
Während seines Studiums arbeitete Hannes als wissenschaftliche Hilfskraft am Robert-Koch-Institute (RKI) und am Deutschen Institut für Wirtschaftsforschung (DIW) in Berlin. Ebenso arbeitete er als wissenschaftliche Hilfskraft am sozioökonomischen Panel des DIW in Berlin.

This three-day workshop provides an introduction into the theoretical concepts as well as the methods of data collection and analysis for egocentric social networks. The first day is dedicated to definitions and terminologies around egocentric and complete social networks, which a focus on the history of social network analysis, influential models and their importance for the empirical collection of network data. Exemplary research is discussed, together with the advantages and disadvantages of investigating ego- versus complete networks. The second day, which has a stronger focus on quantitative methods, is dedicated to reflecting on suitable research questions and the requirements of a research design in the process of collecting egocentric network data. Different possible approaches are discussed, along with the potential pitfalls and biases of the resulting measures. Examples from survey questionnaires are also provided. The third day is reserved for the analysis of egocentric data, that is the quantitative assessment of common metrics, such as size and density of a network. This includes hands-on demonstrations and a practical computer exercise (with Stata).

**********************

Prof. Dr. Lea Ellwardt is Assistant Professor at the Institute of Sociology and Social Psychology at the University of Cologne in Germany. She received her PhD from the University of Groningen in the Netherlands, where she spent eight years as doctoral and postdoctoral researcher. Her research interests include social networks, healthy aging, and informal relationships in organizations. Research projects mostly involve the quantitative analysis of longitudinal data.

PD Dr. Markus Gamper is Assistant Professor at the Faculty of Humanities at the University of Cologne in Germany. He received his PhD from the University of Trier (Germany) and was visiting professor at the University of Autonomous University of Aguascalientes (Mexico). For many years, he has been an co-organizer and lecturer at the Trierer Summer School on social networks and co-inventor of the network software VennMaker. His research interests include social networks (qualitative and quantitative), social inequalities, sociology of religion and migration.

 

Recently, in empirical research two phenomenon have received a substantial amount of attention: p-hacking and HARKing. When running multiple analyses on the same data set and adjusting the analysis until a p-value smaller than the set alpha level is reached, we speak of p-hacking. This behavior is problematic as it (highly) increases the chance of an alpha error (Simmons, Nelson, & Simonsohn, 2011). HARKing (hypothesizing after the results are known) describes the behavior of researchers to present post-hoc hypotheses (usually based on statistically significant results) as a priori hypotheses (Kerr, 1998). Both p-hacking and HARKing can be dismissed, when the hypotheses and data analysis were preregistered before the data was collected (e.g., registration of clinical trials or experimental psychology studies).
One way to ensure we are neither p-hacking nor HARKing is to preregister our analysis plan. In this workshop we will discuss the need for preregistration, the difference between preregistration and registered reports and most importantly, we will take a look a preregistration forms for primary and secondary data analyses. Finally, we will work on individual preregistrations of our own research projects.

*******************

Tobias Heycke is a postdoctoral researcher at GESIS and working on multiple toppics related to open science. He studied Psychology at the University of Nijmegen and did his PhD at the psychological methods group at the University of Cologne.

This course will cover three interrelated topics: methods of selecting complex samples, creation of analysis weights that reduce sampling variance and adjust for nonresponse, and the analysis of weighted data collected via complex samples.
The first day will start with an introduction to the framework for design based inference and some basic sampling designs will be introduced. Common features of sampling designs such as stratification, sampling of clusters and multi-stage sampling will be discussed. For each method, students will learn the relevant formulas for point estimates and variance estimates; however, the course will emphasize application over theoretical proofs of the formulas.
The second day will focus on estimation based on survey samples and the usage of survey weights to reduce sampling variance and non-response bias. Furthermore, students will learn how complex designs and estimators alter the ways in which survey data should be analyzed. Traditional methods of analysis, usually taught in introductory statistics courses, are inapplicable to such data sets.

**********************

Dr. Christian Bruch is a postdoctoral researcher at GESIS. His consultancy focuses on complex sample surveys, variance estimation and Imputation. Prior to this, he worked at the German Internet Panel and at the Mannheim Centre for European Social Research at the University of Mannheim conducted research on imputations and weighting. His PhD thesis (Trier University, 2016) examines variance estimation under imputation and for complex sampling designs.

Dr. Matthias Sand has also been a researcher at GESIS since 2013. He is currently responsible for the harmonization efforts for sampling and weighting that are undertaken within IEDI-surveys at GESIS. Since 2013 he has also been responsible for the up keeping of the GESIS sampling frame for telephone surveys. In his doctoral thesis, he dealt with the improvement of weighting procedures in multiple-frame. His research interests include sampling and weighting procedures with multiple frames.

 

 

This course offers an introduction into working with EU-LFS data. Besides highlighting the legal and administrative aspects of data access, the course will demonstrate the possibilities of the EU-LFS in hands-on computer sessions. On day 1, there will be a general introduction into EU-LFS. The practical part, on day 2, is focused on data structure and data management (basics) and retrospective data and panel analysis (advanced). On day 3, the focus will be on the multi-level analysis (advanced). For further information, please visit the LFS-Workshop website.

Online-Befragungen scheinen auf den ersten Blick vor allem eines: schnell und einfach. Allerdings ist die Konzeption und Durchführung einer Online-Befragung nach wissenschaftlichen Standards deutlich anspruchsvoller wie der Workshop veranschaulichen wird.

Aufbauend auf der Verortung von Online-Befragungen im sozialwissenschaftlichen Befragungs- und Forschungsprozess und ihren Besonderheiten wird der Workshop Einblicke in die Fragebogen- und Fragegestaltung unter Berücksichtigung der Fehlerquellen des Total-Survey-Errors vermitteln. Neben einer Einführung in die theoretischen Grundlagen des Teilnahme- und Antwortverhaltens von Befragten werden mithilfe von Übungen und Beispielen mögliche Antwortstile veranschaulicht und Empfehlungen für ein robustes Fragebogendesign abgeleitet. Es werden die Einsatzmöglichkeiten und Potentiale von Paradaten bzw. Prozessdaten behandelt und praktische Hinweise zur Implementierung von Paradatenskripten in Online-Befragungen gegeben. Ebenso werden Aspekte der technischen Umsetzung, des Pretestings und der Feldsteuerung angesprochen und aktuelle Themen wie Online-Befragungen auf mobilen Endgeräten und Apps diskutiert. Dieser Workshop schließt mit praktischen Tipps in Form einer „Hilfe zur Selbsthilfe“ und einem Ausblick auf eng verknüpfte Themen, wie etwa Mixed-Mode-Befragungen oder die Kombination mit anderen Datentypen (z.B. administrative und digitale Daten).

Ziel des Workshops ist es, einen ersten Überblick zur Methode der Online-Befragung zu geben und die Grundlagen dafür zu schaffen, Online-Befragungen nach wissenschaftlichen Standards zu planen und durchzuführen. Da es sich bei diesem Workshop um eine Einführung in die Thematik der standardisierten Online-Befragung handelt werden lediglich Grundkenntnisse in quantitativer Sozialforschung vorausgesetzt. Zwar werden Aspekte der technischen Umsetzung von Online-Befragungen im Workshop thematisiert, es handelt sich jedoch um keine Software-Schulung. 

*********************

Jessica Daikeler hat zu evidenz-basierten Methoden in der Umfrageforschung promoviert und forscht unter anderem zu Mode-Effekten von Web und Mobile Befragungen.

Dr. Tanja Kunz  ist seit 2017 wissenschaftliche Mitarbeiterin bei GESIS. Ihre Forschungsinteressen liegen im Bereich Datenqualität in Umfragen (insb. Online), Paradaten und Fragebogenkonstruktion.

Dr. Ines Schaurer ist Projektberaterin bei GESIS mit dem Schwerpunkt Online- und Mixed-Mode-Befragungen. Darüber hinaus ist sie wissenschaftliche Mitarbeiterin und stellvertretende Teamleiterin im Team GESIS Panels. Promoviert hat Sie 2017 an der Universität Mannheim mit einer Arbeit zu "Recruitment strategies for a probability-based online panel".
Sie ist seit 2010 Mitarbeiterin bei GESIS im Bereich der Onlineforschung. Zuvor war sie am Deutschen Jugendinstitut in München tätig.

 

 

Die Schätzung kausaler Effekte ist das zentrale Anliegen der quantitativen Sozialforschung. In der Forschungspraxis stehen aber häufig nur nicht-experimentelle Daten zur Verfügung, die Kausalschlüsse aufgrund nicht-zufälliger Selektion und Heterogenität von Individuen erschweren. Die multiple Regressionsanalyse versucht diese Probleme durch eine Kontrolle von Drittvariablen zu lösen, was jedoch in vielen Fällen unzureichend ist. Zudem ist oftmals unklar, für welche Variablen überhaupt kontrolliert werden soll. In der aktuellen sozialwissenschaftlichen empirischen Forschung finden daher zunehmend Methoden der modernen Kausalanalyse Anwendung, denen ein klares Kausalitätsverständnis (kontrafaktisches Modell und kausale Graphen) zugrunde liegt und die explizit nicht-zufällige Selektion und Heterogenität modellieren. Dieser Workshop führt zunächst in die Grundlagen der modernen Kausalanalyse ein und erörtert Strategien und Probleme der Drittvariablenkontrolle in der multiplen Regressionsanalyse. Darauf aufbauend werden in einer anwendungsorientierten Einführung Verfahren des Propensity-Score Matching (u.a. auch mit Längsschnittdaten als „Differenzen-von-Differenzen Propensity-Score Matching“), Instrumentvariablenschätzer und Selektionskorrekturmodelle vorgestellt. Die Verfahren werden praxisnah am PC mit dem Statistikprogramm Stata eingeübt. Für die Praxisbeispiele werden sozialwissenschaftliche Querschnitts- und Längsschnittdaten verwendet.