Messung subtiler Diskriminierung - Ein Data Mining Ansatz zur Klassifikation von Textdaten
22.09, 09:30–10:15 (Europe/Berlin), HGD 20

Minderheiten können sowohl offen als auch verdeckt diskriminiert werden. Gerade diese subtile Diskriminierung ist häufig kaum oder nur schwer messbar. Ich zeige Ansätze der subjektiven Messung und Text Mining Möglichkeiten, welche helfen können subtile Diskriminierung zu untersuchen.


Ethnische Diskriminierung ist eine große Herausforderung für die Integration von Migranten in Gesellschaften. Experimente sind ein Werkzeug in den Sozialwissenschaften um das Ausmaß an Diskriminierung zu messen. Die Messung kann einen großen Einfluss auf die Qualität der Ergebnisse nehmen. Im Bereich der Diskriminierung werden meist Correspondence Tests verwendet, welche eine objektive Messung der Rückmeldung von Arbeitgeber o.ä. nutzen. Da Diskriminierung jedoch immer mehr verdeckt stattfindet, deckt eine objektive Messung vermutlich nicht das ganze Ausmaß des Problems ab. Eine subjektive Messung kann hier helfen, subtile Diskriminierung zu messen, jedoch ist die Durchführung dieser Messungen häufig zeit- und kostenintensiv. Machine learning tools können eine große Hilfe bei diesen Messungen sein.

Ich benutze Daten aus einem Experiment (Schmaus & Kristen forthcoming), bei welchen Schauspieler bei Arbeitgeber*innen mit offenen Arbeitsstellen anrufen. Dabei werden drei Rollen benutzt: Typ 1 verwendet einen deutschen Namen und keinen Akzent, Typ 2 verwendet einen türkischen Namen und keinen Akzent und Typ 3 verwendet einen türkischen Namen und einen türkischen Akzent. Während des Gesprächs fragt die anrufende Person, ob die Stelle noch zu vergeben sei. In der traditionellen Messung wird die Rückmeldung auf diese Frage (negativ/positiv) verwendet. Mit Hilfe von mehreren Codern klassifiziere ich die Gespräche jedoch zusätzlich subjektiv. So hat man sowohl eine objektive, als auch eine subjektive Messung.

Mit diesen Messungen kann bestimmt werden, ob der Unterschied zwischen deutschen und türkischen Anrufer*innen bei der subjektiven Messung größer ausfällt, als bei der objektiven Messung. Dies würde auf subtile Diskriminierung hindeuten. Allgemein ist der Unterschied der beiden Messungen von Interesse. In den Daten zeigt sich, dass in 12% der Fälle eine Abweichung von objektiver und subjektiver Messung auftaucht. Das zeigt, dass es sinnvoll sein kann, eine subjektive Messung vorzunehmen.

Im nächsten Schritt interessiert mich, ob ein Algorithmus die subtilen Botschaften in der Sprache der Arbeitgeber*innen erkennen kann. Hierfür trainiere ich zunächst eine naïve Bayes Klassifikation mit einem Teil der Textdaten. Ein zweiter Ansatz basiert auf einem neuronalen Netz. Es zeigt sich, dass die Algorithmen in der Lage sind einen großen Teil der Daten zu klassifizieren. Dies könnte bei einer subtilen Messung Zeit und Aufwand sparen

Literatur:

  • Schmaus, M. & C. Kristen, forthcoming: Foreign accents and the labor market prospects of immigrants– (why) do speech cues matter in hiring decisions?

Pamina Noack studierte Soziologie und Survey Statistik in Bamberg. Inhaltlich interessiert sie sich insbesondere für Migrationssoziologie und Diskriminierung. Methodisch liegen ihre Interessen im Bereich des Data Minings sowie Natural Language Processing und der Anwendung dieser Methoden in R. Ab Oktober 2020 ist sie wissenschaftliche Mitarbeiterin an der Universität Düsseldorf.