Hauptnavigation

Proseminar Wintersemester 2021/2022

"Vertrauenswürdiges Maschinelles Lernen"

"Trustworthy Machine Learning"

Prof. Dr. Katharina Morik - Informatik LS8


Ablauf

Im Proseminar eingeschriebene Studierende senden ihre Wunschthemen mit Priorität an claudia.vonderheyden(at)tu-dortmund.de bis zum 30.09.2021. Die überschneidungsfreie Zuteilung der Themen erfolgt am 08.10.2021.

Am 12.10.2021 14 bis 16 Uhr gibt es eine Besprechung. Die Einwahldaten werden rechtzeitig per eMail versandt. Am 26.10.2021 14 bis 16 Uhr gibt es die Einführung in die Literaturrecherche. Die Einwahldaten werden rechtzeitig per eMail versandt. Für weitere Fragen zu ihrem Referat können Studierende in der Vorlesungszeit eine Mail zur Terminvereinbarung senden an katharina.morik(at)tu-dortmund.de. Wir besprechen die Fragen dann.

Am 23. und 24. November werden je 9 Vorträge gehalten. Jeder Vortrag dauert 20 Minuten, 10 Minuten sind für die anschließende Diskussion, Fragen und Bezüge zu den anderen Themen vorgesehen. Es gibt eine Mittagspause von 12 -13 Uhr und eine weitere Pause von 14 bis 14:30 Uhr. Jeder Vortrag stellt den ausgewählten Artikel vor und setzt ihn in einen Zusammenhang zu den anderen Themen.

Das schriftliche Referat muss bis zum 01.02.2022 abgegeben werden.

Den Moodle Raum finden Sie bald hier.


Lernziele und Kriterien für einen Leistungsnachweis

In Proseminaren wird geübt, wie man sich ein Thema erarbeitet, eigenständig die Literatur sucht, die Fragen zum Thema beantwortet. Dabei werden alle im Artikel verwendeten Fachbegriffe definiert und ggf. verschiedene Definitionen unterschiedlicher Autoren diskutiert. Insofern lesen die Studierenden nicht nur den ausgewählten Artikel, sondern darüber hinaus solche, die in dem Artikel zitiert werden und weitere, die zum Verständnis des Artikels beitragen. Behauptungen werden stets belegt. Jeder verwendete Artikel wird korrekt zitiert, ein Literaturverzeichnis steht am Ende der Präsentation und des Referats. Das mündliche Referat dauert 20 Minuten und erlaubt es allen, das spezifische Problem zu verstehen, das in dem Artikel behandelt wird, sowie den Lösungsansatz und die Beziehung zu den anderen Themen.

Zur Rechtschreibkorrektur wird dringend geraten.

Das schriftliche Referat umfasst etwa 15 bis 20 Seiten mit Literaturverzeichnis. Auch hier gilt die sorgfältige Definition aller verwendeten Fachbegriffe, das korrekte Zitieren sowie die Sorgfalt bei der Rechtschreibung.


Inhalt

Machine learning (ML) is a driving force for many successful applications in Artificial Intelligence. Machine learning is not just a class of algorithms but there are long and nested sequences of algorithms and, at the same time, algorithms are built upon other algorithms from libraries or tools. This makes it hard for users to understand machine learning models.

One approach to allowing an understanding of machine learning is to explain the learned model. It has been pointed out that also the data which are used for training the model need a careful inspection. Hence, the first topic is explainability. Of course, explainability of neural networks is covered here.

In addition to explanations, a comprehensive sound paper on the trustworthiness of deep neural networks is split into three parts, so that three students could study this work. All parts only need the introduction as an additional read, not the other parts.

We want to include not only pure computer science views, but also look at what psychology, sociology and ethics have to say about AI and ML in particular. Some views of the broad area of ethics and bias form the second topic.

The impact of learned models on staff selection, sales, and popularity is tremendous. The bias in data leads to a bias in real-world life. Actually, biased data may do harm to the health and success of people. Hence, the community of researchers in machine learning and other disciplines discusses how to establish fairness. The third topic is the fairness.



Literatur

Topic Publications
Explainability Interpreting Classifiers by Multiple Views
Explainability Learning to Explain: An Information-Theoretic Perspective on Model Interpretation
Explainability A Survey Of Methods For Explaining Black Box Models
Explainability Extracting Automata from Recurrent Neural Networks Using Queries and Counterexamples
Explainability Learning Important Features Through Propagating Activation Differences
Explainability Methods for Interpreting and Understanding Deep Neural Networks
Explainability A Survey of Safety and Trustworthiness of Deep Neural Networks: Verification, Testing, Adversarial Attack and Defence, and Interpretability -- Safety and Verification
Explainability A Survey of Safety and Trustworthiness of Deep Neural Networks: Verification, Testing, Adversarial Attack and Defence, and Interpretability -- Testing and Adversarial Attack
Explainability A Survey of Safety and Trustworthiness of Deep Neural Networks: Verification, Testing, Adversarial Attack and Defence, and Interpretability -- Interpretability
Explainability Benchmarking neural network robustness to common corruptions and perturbations
Ethics and Bias "Unsichtbare Frauen: Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert", Caroline Criado-Perez. Das Buch ist in der Lehrstuhlbibliothek und auch in der Uni-Bibliothek, aber nicht online verfügbar; vorzutragen ist nur das Einleitungskapitel und ein weiteres Kapitel der eigenen Wahl.
Ethics and Bias Semantics derived automatically from language corpora contain human-like biases
Ethics and Bias AI4People - An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations
Ethics and Bias Measuring Non-Expert Comprehension of Machine Learning Fairness Metrics
Ethics and Bias Adversarial examples in the physical world
Fairness Three naive Bayes approaches for discrimination-free classification
Fairness Fair-by-design matching
Fairness FA*IR: A Fair Top-k Ranking Algorithm
Fairness Fairness Beyond Disparate Treatment Disparate Impact: Learning Classification without Disparate Mistreatment
Fairness Equity of Attention: Amortizing Individual Fairness in Rankings
Fairness Unbiased Learning-to-Rank with Biased Feedback
Fairness Fair Learning-to-Rank from Implicit Feedback
Fairness Training Individually Fair ML Models With Sensitive Subspace Robustness
Fairness Angry by design: toxic communication and technical architectures