Künstliche Intelligenz – Eine Frage des Vertrauens

Shownotes

Künstliche Intelligenz ist auf Mustererkennung spezialisiert und birgt daher großes Potenzial für das Gesundheitswesen – etwa bei der frühzeitigen Erkennung von Krankheiten. Doch um einer Künstlichen Intelligenz trauen zu können, muss nachvollziehbar sein, wie sie zu ihrer vorgeschlagenen Diagnose gekommen ist. „Explainable AI“ heißt das Konzept, das Entscheidungsprozesse von KI-Systemen transparenter und so vertrauenswürdiger machen soll. Warum die Frage des Vertrauens in Künstliche Intelligenz besonders im Gesundheitswesen so wichtig ist, diskutieren Prof. Bert Arnrich, Leiter des Fachgebiets Digital Health – Connected Healthcare am HPI, und HPI-Doktorand Orhan Konak in der neuen Folge des HPI-Wissenspodcasts „Neuland“.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.