1
2
3
4
5
6

Am 31.Mai diesen Jahres fand in Potsdam die hybride Veranstaltung „Geschlechtersensible medizinische Aspekte des Trialogs Mensch (m/w/d) – Künstliche Intelligenz – Mensch in der Arbeitswelt“ statt. Es wurden Themen zur geschlechtersensiblen Medizin und der Anwendung, Potenzialen sowie Problematik von Künstlicher Intelligenz (KI) in diesem Kontext besprochen. Nach der offiziellen Begrüßung von Annegret Hofmann (Vorsitzende der G3 Arbeitsgemeinschaft für moderne Medizin e.V.) folgten sieben spannende Vorträge zu diversen Bereichen der geschlechtersensiblen Medizin und inwieweit KI mögliche Lösungen bieten kann, aber auch welche Baustellen existieren. Die Veranstaltung schloss mit einer Podiumsdiskussion ab.

Zunächst stellt sich jedoch die Frage, was geschlechtersensible Medizin beinhaltet und hierfür müssen vorerst einige Begrifflichkeiten geklärt werden. In den letzten Jahren traten die Begriffe Geschlecht und Gender vermehrt auf, dabei fungieren sie jedoch nicht als Synonym zueinander. Das Geschlecht lässt sich in zwei Bereiche gliedern. Zum einen bezieht es sich auf das biologische Geschlecht (englisch: sex), zum anderen auf das soziale Geschlecht (englisch: gender). Für das leichtere Verständnis wird im Folgenden der Begriff Gender für das soziale Geschlecht verwendet und Geschlecht für das biologische. Diese können übereinstimmen, jedoch ist dies keineswegs eine Notwendigkeit. Wenn Personen sich mit dem Geschlecht identifizieren, welches ihnen bei der Geburt zugewiesen wurde, dann wird von Cis-Personen gesprochen. Ist dies nicht der Fall sprechen wir von Trans-Personen. Geschlechtersensible Medizin umfasst somit sowohl das biologische Geschlecht mit ihren dazugehörigen Eigenschaften, als auch das Gender einer Person. Darüber hinaus ist die Betrachtung des Geschlechtes essentiell für die Behandlung von Patient*innen, weil derweil zahlreiche Behandlungsmöglichkeiten und Medikamente vorwiegend an weißen, männlichen Probanden getestet werden, sodass Frauen und farbige Menschen (People of Colour/ PoC) dadurch benachteiligt sind. Bei gleichzeitig auftretender verschiedener Diskriminierungskategorien (z.B. Gender, Ethnizität, sozialer Status) wird von Intersektionalität gesprochen.

Im Rahmen der Veranstaltung wurde geschlechtersensible Medizin in Kombination mit künstlicher Intelligenz betrachtet. Der erste Vortrag, gehalten von Prof. Dr. Dr. Bettina Pfleiderer (Leiterin der Forschungsgruppe „Cognition & Gender“ am Institut für Klinische Radiologie der Universität Münster), gab Einblicke in die aktuelle mögliche Nutzung des KI- Chatbots ChatGPT [1] im medizinischen Bereich. Hierbei wurde die Studie „Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum“ [2] präsentiert, in der Antworten von dem Chatbot und von menschlichen Ärzt*innen bewertet worden sind. Das Ergebnis zeigte, dass Patient*innen die Antworten der KI als einfühlsamer erachteten, aufgrund die der im Schnitt längeren Antworten als die der Ärzt*innen. Jedoch müssen die Datenbanken, auf denen sich ChatGPT und weitere KIs beziehen, besser trainiert werden. Die Datengrundlage ist noch weit unzureichend, insbesondere für geschlechtersensible Medizin, da sie zu homogen ist und geschlechtsspezifische Dimension und ihr Einfluss auf die Unterschiede zwischen den Menschen in Bezug auf Gesundheit und Krankheit nicht berücksichtigt wird [3]. Vor allem in Deutschland erfährt die Entwicklung der KIs in diesem Punkt eine Begrenzung, weil u.a. Krankenkassen aufgrund von Konflikten mit dem Datenschutz die Daten aufbewahren und diese nicht weitergeben [3]. Daher wird eine Demokratisierung der Daten gefordert [3], damit die alleinige Nutzung dieser Informationen nicht bei einzelnen Institutionen liegen.

Im zweiten Vortrag von Dr. Carina Vorisek (Wissenschaftliche Mitarbeiterin, Core Facility Digital Medicine and Interoperability BIH der Charité Berlin) wurde die Fairness von KI-Anwendungen diskutiert. Derzeit ist die Forschung zum Gender Bias und KI sehr gering, wodurch bewusst wird, wie unzureichend die aktuellen Chancen auf eine faire Gestaltung der Technologien ist [4]. Der Gender Bias bezeichnet die Ausrichtung der Leistung (des Outputs) eines Modells auf eine bestimme Gruppe aufgrund ihres Geschlechtes [5]. Die meisten teilnehmenden Personen an Umfragen zur Datenerhebung sind männliche Personen [6], sodass ein Mangel an gerechten Chancen, Leitlinien und Empfehlungen entsteht. Darüber hinaus muss aktiv gegen unerwünschte Bias vorgegangen werden [3] . Es sei wichtig, bestehende unerwünschte geschlechtsspezifische Vorurteile in Datensätzen, Algorithmen und Versuchsplänen zu beseitigen (vgl. Cirillo et al., 2020, S. 8). Mögliche Lösungsansätze sind die ethische Rücksichtnahme im Entwicklungsprozess und der Einsatz diverser Teams, weil diese zu einer diversen Forschung und dementsprechenden Entwicklungen führen könnten.

Darauffolgend wurden Geschlechtsunterschiede im Gehirn durch PD Dr. Susanne Weis (Leiterin „Brain Variability“, Institut für Neurowissenschaften und Medizin, Forschungszentrum Jülich) präsentiert. Es stellte sich die Frage, ob mit Hilfe einer KI funktionelle Bildgebungsdaten zum jeweiligen Geschlecht zugeordnet werden können. Durch die angewandte KI ließ sich kein sexueller Dimorphismus nachweisen [7].  Es wird vom Human Brain Mosaic gesprochen [8]. Das heißt, das Gehirn lässt sich nicht in ein männliches und weibliches Gehirn unterteilen, sondern es besteht aus einem Mosaik von Merkmalen, wobei es zu Überlappungen von Merkmalen kommt. Das Gehirn wird von biologischen Aspekten, wie zum Beispiel durch Hormone, modelliert, sowie durch soziale Aspekte, wie zum Beispiel das Gender. Dadurch zeigt sich: das Geschlecht ist nicht binär.

Der Bereich der Kardiologie und die Hormonforschung kann ebenso für KIs von Relevanz sein, wie PD Dr. Ute Seeland (Berlin Charité, CCM Vorsitzende der deutschen Gesellschaft für Geschlechtsspezifische Medizin) dies in ihrem Vortrag aufzeigte. Eine mögliche Variante Menschen in der Medizin zu betrachten, wäre aufgrund ihres Hormonhaushaltes. Anstatt der Anwendung eines binären Geschlechtssystems ist die Betrachtung der jeweiligen Hormone der Patient*innen denkbar, weil dadurch das Individuum in den Fokus gerät und die jeweilige Behandlung angepasster wird. Somit wäre die binäre Geschlechterdefinition überflüssig.

Einen kritischen Einblick in den Bereich Fairness bei KI-Systemen bezogen auf die Gendersensibilität [9] wurde von M.Sc. Bettina Finzel (Wissenschaftliche Mitarbeiterin. Otto-Friedrick-Universität Bamberg) präsentiert. KIs erfüllen aufgrund verschiedener Bias derzeit nicht die Anforderungen an ein faires System [9] und Forscher*innen und Entwickler*innen sind aufgefordert in ihren Tätigkeiten auf diese Benachteiligungen zu achten und ebenso Korrekturen in KI basierte Systeme einzubauen. Ansonsten dehnen sich die entstehenden Problematiken auf die reale Welt aus. In diesem Zuge sind Forscher*innen außerdem dazu angehalten worden auf die Interpretation erhobener Daten zu achten. Daten können anhand zahlreicher Gesichtspunkte unterschiedlich interpretiert werden und somit können teils konträre Schlüsse aus der gleichen Datenlage gezogen werden.

Die geschlechtersensible Gesundheitsversorgung kann durch entsprechende Softwareentwicklungen unterstützt werden. Antonella Lorenz (Unternehmerin und Gründerin der Initiative EqualHealthcare) stellte zunächst verschiedene Arten von Bias vor, die momentan zu einer Verzerrung der Technik führen. Problematisch hierbei seien unter anderem falsche Codierungen und homogene Datensäte. Dies kann durch Feedback, einer entsprechenden Datenstrategie sowie interdisziplinären Teams verändert werden. Verschiedene Projekte zeigen auf, dass eine Umsetzung durchführbar ist.

Den Abschluss bildete Bita Mirzaei (Managerin bei ReqPOOL im Bereich Energie) mit ethischen Leitlinien für eine vertrauenswürdige KI [10]. Damit eine KI als vertrauenswürdig gilt, sollte sie rechtmäßig, ethisch und robust sein. Im Idealfall sollten diese drei Komponenten sich gegenseitig ergänzen und sich überlappen. Bei Konflikten sollte eine Lösung entwickelt werden.

Die Veranstlatung bot zahlreiche Einblicke in KIs in Bezug auf geschlechtersensible Medizin. Durch die Vorträge wurde deutlich, wie relevant eine diverse Datengrundlage für die Entwicklung von KIs ist, damit die Ergebnisse nicht zu extremen Verzerrungen unterliegen. Des Weiteren wurde aufgezeigt, dass die Betrachtung des Geschlechtes als eine binäre Aufteilung inadäquat ist und das Gender eine bedeutsame Rolle besitzt.

https://gendermed.info/

 

[1] Introducing ChatGPT (openai.com)

[2] Ayers, J. W., Poliak, A., Dresdze, M., Leas, E.L., Zechariah, Z., Kelley, J.B., Faix, D.J.,

Goodman, A.M., Longhurst, C.A., Hogarth, M., & Smith, D.M. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA International Medicine, 183(6), 589-596, https://doi.org/10.1001/jamainternmed.2023.1838

[3] Cirillo, D., Cutuara-Solarz, S., Morey, C., Guney, E., Subirats, L., Mellino, S., Gigante, A.,

Valencia, A., Rementeria, M.J., Chadha, A.S., & Mavridis, N. (2020). Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digital Medicine, 1(3), 1-11, https://doi.org/10.1038/s41746-020-0288-5

[4] Larrazabal, A., Nieto, N., Peterson, V., Milone, D.H., & Ferrante, E. (2020). Gender

imbalance in medical imaging datasets produces biased classifiers for computer-aided diagnosis. Applied Mathematics, 117(23), 12592-12594. https://doi.org/10.1073/pnas.1919012117

[5] Shrestha, S., & Das, S. (2022). Exploring gender biases in ML and AI academic research

through systematic literature. Frontiers Artificial Intelligence, 5(976838). https://doi.org/10.3389/frai.2022.976838

[6] Brady, E., Nielsen, M.W., Andersen, J.P., & Oertelt-Prigione, S. (2021). Lack of

Consideration of sex and gender in COVID-19 clinical studies. Nature Communications, 12(1), 1-6. https://doi.org/10.1038/s41467-021-24265-8

[7] Weis, S., Patil, K.R., Hoffstaedter, F., Nostro, A., Yeo, B.T.T., & Eickhoff, S.B. (2020). Sex

Classification by Resting State Brain Connectivity. Cerebral Cortex, 30(2), 824-835. https://doi.org/10.1093/cercor/bhz129

[8] Joel, D., Berman, Z., Tavor, I., Wexler, N., Gaber, O., Stein, Y., Shefi, N., Pool, J., Urchs,

S., Margulies, D.S., Liem, F., Hänggi, J., Jäncke, L., & Assaf, Y. (2015). Sex beyond the genitalia: The human brain mosaic. Proceedings oft he National Academy of Sciences (PNAS), 112(50), 15468-15473. https://doi.org/10.1073/pnas.1509654112

[9] Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2022). A Survey on

Bias and Fairness in Machine Learning. ACM Computing Surveys, 54(6), 1-35. https://doi.org/10.48550/arXiv.1908.09635

[10] Europäische Kommission (2019). Ethik-Leitlinien für eine vertrauenswürdige KI.

Unabhängige Expertengruppe für Künstliche Intelligenz. https://data.europa.eu/doi/10.2759/22710

 


25.07.23

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.