Kontakt
Nicht alle wichtigen Informationen
stehen in Tabellen.
Nutzen Sie auch das, was sich in den Texten und Grafiken Ihrer Berichte befindet. Schreiben Sie uns!
Kontakt
Nicht alle wichtigen Informationen
stehen in Tabellen.
Nutzen Sie auch das, was sich in den Texten und Grafiken Ihrer Berichte befindet. Schreiben Sie uns!
Kurz notiert: Gender Bias lässt sich linear erfassen
Gender Bias ist das am häufigsten untersuchte Fairness-Problem in der automatischen Verarbeitung natürlicher Sprache. In ihrem EMNLP-2020-Artikel zeigen Vargas & Cotterell, dass sich Gender Bias innerhalb des Word Embedding-Raums linear erfassen lässt.
Up-and-coming: Fairness in Natural Language Processing
Fairness ist ein zentraler Aspekt der ethisch verantwortungsvollen Entwicklung und Anwendung künstlicher Intelligenz. Da Menschen möglicherweise voreingenommen sind, sind es ggf. auch Machine Learning-Modelle (ML), die auf Daten trainiert werden, die menschliche Vorurteile widerspiegeln.
Kurz notiert: Backdoors in Föderiertem Lernen
In ihrem NeurIPS-2020-Artikel besprechen Wang et al. das Einfügen sog. backdoors (dt. Hintertüren) in ein Modell während des Trainings. Im Zusammenhang mit FL besteht das Ziel einer backdoor darin, das globale Modell gezielt zu Falschvorhersagen zu zwingen.