Blog2021-03-04T16:26:14+00:00

Blog

Wir berichten

Wir fassen für Sie herausragende Artikel im Bereich Data Science, Machine Learning, Natural Language Processing und Computer Vision zusammen, beleuchten bisher zu wenig beachtete Aspekte der Künstlichen Intelligenz und berichten aus der Praxis.

Kurz notiert: Gender Bias lässt sich linear erfassen

Gender Bias ist das am häufigsten untersuchte Fairness-Problem in der automatischen Verarbeitung natürlicher Sprache. In ihrem EMNLP-2020-Artikel zeigen Vargas & Cotterell, dass sich Gender Bias innerhalb des Word Embedding-Raums linear erfassen lässt.

von |April 19, 2021|

Up-and-coming: Fairness in Natural Language Processing

Fairness ist ein zentraler Aspekt der ethisch verantwortungsvollen Entwicklung und Anwendung künstlicher Intelligenz. Da Menschen möglicherweise voreingenommen sind, sind es ggf. auch Machine Learning-Modelle (ML), die auf Daten trainiert werden, die menschliche Vorurteile widerspiegeln.

von |April 6, 2021|

Kurz notiert: Backdoors in Föderiertem Lernen

In ihrem NeurIPS-2020-Artikel besprechen Wang et al. das Einfügen sog. backdoors (dt. Hintertüren) in ein Modell während des Trainings. Im Zusammenhang mit FL besteht das Ziel einer backdoor darin, das globale Modell gezielt zu Falschvorhersagen zu zwingen.

von |März 9, 2021|

Kurz notiert: Gradienten legen Trainingsdaten offen

In ihrem NeurIPS-2019 Artikel beschreiben Zhu et al. einen Angriff auf Federated Learning (FL): Sie zeigen wie Gradienten — die entweder in einer Client-Server- oder einer Peer-to-Peer-FL-Anwendung ausgetauscht werden — (private) Trainingsdaten offen legen.

von |Februar 11, 2021|

Vielversprechend: Nachhaltige(re) KI

Nachhaltigkeit ist ein ethischer Wert der verantwortungsvollen Entwicklung und Anwendung Künstlicher Intelligenz. In ihrem Artikel, der bereits 2019 auf der ACL präsentiert zeigten Strubel et al., wie teuer es ist, große Sprachmodelle zu trainieren.

von |Dezember 29, 2020|
Nach oben