Kurz notiert: Backdoors in Föderiertem Lernen

In ihrem NeurIPS-2020-Artikel besprechen Wang et al. das Einfügen sog. backdoors (dt. Hintertüren) in ein Modell während des Trainings. Im Zusammenhang mit FL besteht das Ziel einer backdoor darin, das globale Modell gezielt zu Falschvorhersagen zu zwingen.

Von |2021-03-09T10:44:57+00:00März 9, 2021|

Kurz notiert: Gradienten legen Trainingsdaten offen

In ihrem NeurIPS-2019 Artikel beschreiben Zhu et al. einen Angriff auf Federated Learning (FL): Sie zeigen wie Gradienten — die entweder in einer Client-Server- oder einer Peer-to-Peer-FL-Anwendung ausgetauscht werden — (private) Trainingsdaten offen legen.

Von |2021-03-04T16:31:12+00:00Februar 11, 2021|
Nach oben