Not only humans can have racist or sexist biases. Artificial intelligence (AI) is also often subject to undesirable biases in its decisions. These can be based on inadequate data, but also on scientific models that have grown historically and for example are oriented only towards men or people with white skin. In the Human Error Project, Prof. Dr. Veronica Barassi from the School of Humanities and Social Sciences at the HSG and her team are investigating how our society deals with these fatale decisions. A recently published paper, for example, answers the question of how AI errors are dealt with in the media.
More Information:
https://thehumanerrorproject.ch/
https://thehumanerrorproject.ch/ai-errors-mapping-debate-european-media-report/
Der menschliche Fehler in der künstlichen Intelligenz
Nicht nur Menschen können rassistische oder sexistische Vorurteile haben. Auch künstliche Intelligenz (KI) unterliegt bei Ihren Entscheidungen oft unerwünschten Verzerrungen. Diese können in mangelhaften Daten gründen, aber auch in wissenschaftlichen Modellen, welche historisch gewachsen sind und sich etwa nur an Männern oder Menschen weisser Hautfarbe orientierten. Prof. Dr. Veronica Barassi von der School of Humanities and Social Sciences der HSG untersucht zusammen mit ihrem Team im Rahmen des Human Error Projects, wie sich unsere Gesellschaft mit diesen durch KI herbeigeführten Fehlentscheidungen auseinandersetzt. Ein gerade erschienenes Paper setzt sich etwa mit der Frage auseinander, wie KI-Fehler in den Medien verhandelt werden.
Comment