Home2021-04-09T09:47:22+00:00

Analytik ist
mehr als nur
Statistik.

Untermauern Sie Ihre Entscheidungen mit moderner KI, die alle Ihre Daten versteht.

Mehr erfahren
Kontakt

Analytik ist
mehr als nur
Statistik.

Untermauern Sie Ihre Entscheidungen mit moderner KI, die alle Ihre Daten versteht.

Mehr erfahren
Kontakt

Analytik ist
mehr als nur
Statistik.

Untermauern Sie Ihre Entscheidungen mit moderner KI, die alle Ihre Daten versteht.

Mehr erfahren
Kontakt

Services

Wir begleiten Sie auf Ihrem Weg von ersten Versuchen mit KI Prototypen bis hin zum produktiven Einsatz von KI Lösungen innerhalb ihrer regulären Infrastruktur.

Mehr erfahren

Technologie

Wir beschäftigen uns mit den technischen und nicht-technischen Facetten der KI und bereiten Sie auf die Themen von morgen vor.

Mehr erfahren

Technologie

Föderiertes Lernen

Wie KI durch Föderiertes Lernen erfolgreich & datenschutzkonform trainiert werden kann.

Mehr erfahren

Kontakt

Nicht alle wichtigen Informationen
stehen in Tabellen.

Nutzen Sie auch das, was sich in den Texten und Grafiken Ihrer Berichte befindet. Schreiben Sie uns!

Kontakt

Nicht alle wichtigen Informationen
stehen in Tabellen.

Nutzen Sie auch das, was sich in den Texten und Grafiken Ihrer Berichte befindet. Schreiben Sie uns!

Kurz notiert: Gender Bias lässt sich linear erfassen

April 19, 2021|

Gender Bias ist das am häufigsten untersuchte Fairness-Problem in der automatischen Verarbeitung natürlicher Sprache. In ihrem EMNLP-2020-Artikel zeigen Vargas & Cotterell, dass sich Gender Bias innerhalb des Word Embedding-Raums linear erfassen lässt.

Up-and-coming: Fairness in Natural Language Processing

April 6, 2021|

Fairness ist ein zentraler Aspekt der ethisch verantwortungsvollen Entwicklung und Anwendung künstlicher Intelligenz. Da Menschen möglicherweise voreingenommen sind, sind es ggf. auch Machine Learning-Modelle (ML), die auf Daten trainiert werden, die menschliche Vorurteile widerspiegeln.

Kurz notiert: Backdoors in Föderiertem Lernen

März 9, 2021|

In ihrem NeurIPS-2020-Artikel besprechen Wang et al. das Einfügen sog. backdoors (dt. Hintertüren) in ein Modell während des Trainings. Im Zusammenhang mit FL besteht das Ziel einer backdoor darin, das globale Modell gezielt zu Falschvorhersagen zu zwingen.

Zum Blog

Kurz notiert: Gender Bias lässt sich linear erfassen

Gender Bias ist das am häufigsten untersuchte Fairness-Problem in der automatischen Verarbeitung natürlicher Sprache. In ihrem EMNLP-2020-Artikel zeigen Vargas & Cotterell, dass sich Gender Bias innerhalb des Word Embedding-Raums linear erfassen lässt.

Up-and-coming: Fairness in Natural Language Processing

Fairness ist ein zentraler Aspekt der ethisch verantwortungsvollen Entwicklung und Anwendung künstlicher Intelligenz. Da Menschen möglicherweise voreingenommen sind, sind es ggf. auch Machine Learning-Modelle (ML), die auf Daten trainiert werden, die menschliche Vorurteile widerspiegeln.

Kurz notiert: Backdoors in Föderiertem Lernen

In ihrem NeurIPS-2020-Artikel besprechen Wang et al. das Einfügen sog. backdoors (dt. Hintertüren) in ein Modell während des Trainings. Im Zusammenhang mit FL besteht das Ziel einer backdoor darin, das globale Modell gezielt zu Falschvorhersagen zu zwingen.

Zum Blog
Nach oben