menu

Bias In, Bias Out

Wie Technologie diskriminiert

Algorithmische Systeme sind ein wesentlicher Bestandteil unseres Alltags: Bei Sprachassistenten, Film- und Produktempfehlungen, Jobanzeigen, aber auch in der Kreditvergabe und dem Strafgesetz kommen sie zum Einsatz und übernehmen so kleine Aufgaben, aber auch essenzielle Entscheidungen über das Leben von uns Menschen. Während ihre Einsatzbereiche immer mehr werden, verstärken sich damit auch die Risiken. Ein Hauptaspekt ist hier das Diskriminierungspotenzial, welchem mit wachsender Dringlichkeit entgegengewirkt werden muss. Während das Bewusstsein für die Problematik innerhalb von Expertenkreisen wächst, ist in der allgemeinen Bevölkerung jedoch nach wie vor viel Irrglaube und Unwissen verbreitet. Mit „Bias In, Bias Out“ soll durch ein Bookazine mit ergänzendem Online-Magazin über Potenzial und Risiko aufgeklärt und zur lösungsorientierten Diskussion angeregt werden.

Julia Pawlik
Bachelor KD · Sommersemester 2020
julia.p.96@web.de

betreut von:
Prof. Dipl.-Des. Ilka Helmig und
Prof. Dipl.-Des. Eva Vitting

Weitere Abschlussarbeiten

Climate Engineering Entwicklung einer digitalen Plattform für Climate Engineering Maßnahmen und Klimawandel-Daten
HUMAN(E) Ein Projekt zur humanisierung der Arbeitswelt
Nachhaltige Nutzung textiler Ressourcen Optimiertes Kreislaufsystem für die Wiederverwendung von Textilien
Modularer Konferenztisch für jede Form des geschäftigen Zusammentreffens
Intelligentes Verkehrssystem Mobilität im digitalen Wandel – Perspektive Fahrzeug