Ethics & Bias in Artificial Intelligence

Das Vienna Deep Learning Meetup und das Centre for Informatics and Society laden zu einem Diskussions-Abend zu Thema Ethics and Bias in AI. Auch wenn Machine Learning-Technologien großes Potential für bieten, sind sie anfällig für Bias und werfen eine ganze Reihe ethischer Fragen auf.

Machine-Learning-Systeme, von einfachem Spam-Filtering oder Recommender-Systemen bis hin zu Deep Learning und AI sind bereits in vielen Bereichen der Gesellschaft im Einsatz. Welche Suchergebnisse, Jobangebote, Werbungen und Social Media – Posts wir gezeigt bekommen, was wir für Lebensmittel, Mobilität oder Versicherungen zahlen – all das wird bereits jetzt von Algorithmen (mit-)entschieden, die zu großen Teilen auf Machine Learning-Technologien basieren. Während diese Anwendungen die Gesellschaft immer mehr durchdringen, zeigen sich auch die realen Auswirkungen dieser System aufgrund der inherenten Biases, die sie beinhalten. Zum Beispiel haben Studien gezeigt, dass die Kautions-Bewertungssysteme, die bereits in den USA zum Einsatz kommen, Menschen mit dunklerer Hautfarbe unfair benachteiligen, und Analysen von Wort-Embedding-Tools haben gezeigt, dass diese Gender-Stereotypen aufgrund unfairer Trainingsdaten tradieren. Während ein genereller Konsens über die Unvermeidbarkeit jeglichen Bias‘ existiert, sind Lösungen von einem simplen Akzeptieren dieser Biases als realistisches Abbild der Gesellschaft bis hin zu mathematischen Zugängen, die Versuchen, Biases zu identifizieren und auszugleichen , heiss diskutiert.

Neben dem Problemen, die durch solche inherenten Biases entstehen, werfen viele Machine Learning-Methoden und Anwendungen komplexe ethische Fragen auf. Sollten Regierungen Machine Learning- und AI-Technologien verwenden, um die Vertrauenswürdigkeit ihrer BürgerInnen zu berechnen? Sollten unfaire Algorithmen toleriert werden, auch wenn sie manche Bevölkerungsgruppen benachteiligen? Ist es ethisch vertretbar, AI-Technologien zu entwickeln, welche in Kürze durch Automatisierung Arbeitsplätze ersetzen werden? Und wie können wir dafür sorgen, dass AI und Automation nicht zu noch größeren gesellschaftlichen Ungleichheiten wie Digital Divides oder der Einkommensschere führen?

Diese und viele weiteren Fragen benötigen eine breite und multidisziplinäre Diskussion um eine faire und positive Zukunft für AI und verwandte Technologien zu ermöglichen. Mit diesem Event möchten wir eine Plattform für die Auseinandersetzung in Form von zwei Keynotes und einer Panel-Diskussion mit fünf internationalen Experten aus unterschiedlichen wissenschaftlichen Disziplinen schaffen.

Das Event hat bereits stattgefunden. Sehen Sie sich hier den Live-Stream an, oder werfen Sie einen Blick auf die Photos!

Keynotes

Prof. Moshe Vardi
„Deep Learning and the Crisis of Trust in Computing“

Prof. Sarah Spiekermann-Hoff
“The Big Data Illusion and its Impact on Flourishing with General AI”

Panelists: Ethics and Bias in AI

Prof. Moshe Vardi
Karen Ostrum George Distinguished Service Professor in Computational Engineering, Rice University

Prof. Peter Purgathofer
Centre for Informatics and Society / Institute for Visual Computing & Human-Centered Technology, TU Wien

Prof. Sarah Spiekermann-Hoff
Institute for Management Information Systems, WU Vienna

Prof. Mark Coeckelbergh
Professor of Philosophy of Media and Technology, Department of Philosophy, University of Vienna

Dr. Christof Tschohl
Scientific Director at Research Institute AG & Co KG

Moderator: Markus Mooslechner, Terra Mater Factual Studios

Agenda

18:30 – 19:00     Welcome
19:00 – 19:30     Deep Learning and the Crisis of Trust in Computing, Prof. Moshe Vardi, Rice University
19:30 – 20:00     The Big Data Illusion and its Impact on Flourishing with General AI, Prof. Sarah Spiekermann-Hoff, WU Wien
20:00 – 21:30     Panel Discussion
21:30 – 23:00     Networking, Buffet

Der Abend wird mit Networking und Getränken ausklingen.

Das Event wird als Kooperation zwischen dem Vienna Deep Learning Meetup und dem Centre of Informatics and Society der TU Wien veranstaltet.

Organisation:

Thomas Lidy, Alexander Schindler, Jan Schlüter und Florian Cech

Mai 7, 2018


Prechtl-Saal - TU Wien