Unconscious Bias – Warum Künstliche Intelligenz diskriminieren und Vorurteile verschärfen kann

Shownotes

KI-basierte Anwendungen sind längst fester Bestandteil unseres Alltags und treffen immer mehr Entscheidungen. Das Problem: Schon während der Entwicklungs- und Designphase fließen unbewusste Voreingenommenheiten der Entwickler:innen in die Anwendungen ein. Warum Algorithmen diese Vorurteile reproduzieren und wie die Diskriminierung durch Daten minimiert oder gar verhindert werden kann, diskutieren Prof. Katharina Hölzle, Leiterin des Fachgebiets IT-Entrepreneurship und HPI-Frauenbeauftragte, und Rea Eldem, Gründerin des Unternehmens IN-VISIBLE BERLIN, in der neuen Folge des HPI-Wissenspodcasts „Neuland“.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.