Von Bildungseinrichtungen bis zu Angehörigen der Gesundheitsberufe, von Arbeitgebern bis zu Behörden werden zunehmend Technologien und Algorithmen der künstlichen Intelligenz eingesetzt, um verschiedene Aspekte unseres Lebens zu beurteilen und zu entscheiden. Es stellt sich jedoch die Frage: Sind diese Systeme wirklich unparteiisch und gerecht in ihren Urteilen, wenn sie Menschen und ihr Verhalten lesen? Unsere Antwort lautet, dass sie es nicht sind. Trotz ihres angeblichen Ziels, Objektivität und Effizienz zu steigern, bergen diese Technologien paradoxerweise systembedingte Voreingenommenheiten und Ungenauigkeiten, insbesondere im Bereich der Erstellung von Menschenprofilen. Das Human Error Project hat untersucht, wie Journalisten, zivilgesellschaftliche Organisationen und Tech-Unternehmer in Europa mit KI-Fehlern umgehen und wie sie die Auswirkungen von KI auf die Menschenrechte verhandeln und nebeneinander bestehen. Mit dem Ziel, die Debatte zwischen Wissenschaft und Öffentlichkeit zu fördern, werden in der Podcast-Reihe «Machines That Fail Us» die Stimmen einiger der engagiertesten Personen zu Wort kommen, die sich für eine bessere Zukunft mit künstlicher Intelligenz einsetzen.
«Machines That Fail Us» wird durch ein Stipendium des Schweizerischen Nationalfonds (SNF) im Rahmen von «Agora» ermöglicht. Der Podcast wird vom The Human Error Project Team produziert. Dr. Philip Di Salvo, der Hauptmoderator, arbeitet als Forscher und Dozent am Institut für Medien- und Kommunikationsmanagement der HSG.
Dieser Podcast ist auch auf wissenschaftspodcasts.de verfügbar, einer nicht-kommerziellen Plattform, die wissenschaftliche Podcasts kuratiert. Vielen Dank für die Unterstützung.