Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 

Foto: Matthias Friel

KI und die Verantwortung der Wissenschaft - Einzelansicht

Veranstaltungsart Vorlesung/Seminar Veranstaltungsnummer
SWS 4 Semester SoSe 2024
Einrichtung Institut für Informatik und Computational Science   Sprache deutsch
Belegungsfrist 02.04.2024 - 10.05.2024

Belegung über PULS
Gruppe 1:
     jetzt belegen / abmelden
    Tag Zeit Rhythmus Dauer Raum Lehrperson Ausfall-/Ausweichtermine Max. Teilnehmer/-innen
Einzeltermine anzeigen
Vorlesung Di 14:00 bis 16:00 wöchentlich 09.04.2024 bis 16.07.2024  N.N. Prof. Dr. von Grünberg  
  Bemerkung: Raum wird per Email bekannt gemacht. Bitte sich vorab unter vongruenberg@uni-potsdam.de melden.
Einzeltermine anzeigen
Seminar Di 16:00 bis 18:00 wöchentlich 09.04.2024 bis 16.07.2024  N.N. Prof. Dr. von Grünberg  
  Bemerkung: Raum wird per Email bekannt gemacht. Bitte sich vorab unter vongruenberg@uni-potsdam.de melden.
Kommentar

Vorläufiger Seminarplan (den passen wir fortlaufend an, nur zur ersten Orientierung):

Thema der 1. Sitzung (HHvG): Verantwortung 1: Das Ethos der freien Wissenschaft

Paper: Elif Özmen: Ordnung der Wissenschaft 2015 „Wissenschaft. Freiheit. Verantwortung“

Grundbegriffe einer Wissenschaftsethik. Das epistemische Ethos der Wissenschaft und seine acht Bestandteile, Robert King Merton und seine Systematisierung des Normengefüges (CUDOS Prinzipien), Tugenden des idealen Wissenschaftlers nach Cournand. Cournands neue „Ethics of development“.

Thema der 2. Sitzung (L. Engmann): KI und wie es funktioniert

Material: Lernvideos und Ausschnitte aus diversen Paper (wird noch bekannt gegeben)

Frage: Es geht zunächst darum, überhaupt zu verstehen, worum es sich beim Thema KI eigentlich handelt. …….

Thema der 3. Sitzung (HHvG): Verantwortung 2: Hans Jonas und sein Verantwortungsimperativ.

Material: Auszüge aus dem Buch von Hans Jonas "Das Prinzip Verantwortung". 

 

„Das Prinzip Verantwortung - Versuch einer Ethik für die technologische Zivilisation“ ist der Titel eines Buches von Hans Jonas (1903–1993), das 1979 erschien und als dessen ethisches Hauptwerk gilt. Jonas entwickelt darin eine Ethik, die sich den neuen Herausforderungen für die menschliche Zivilisation stellt, die sich aus modernen Technologien ergeben. Insbesondere geht es um die Vermeidung unabschätzbarer Risiken, um den Bestand der Menschheit als Ganzes nicht zu gefährden, sowie der Anerkennung der Eigenrechte der ganzen Natur, für die dem Menschen aufgrund seiner Handlungsmöglichkeiten die Verantwortung zukommt.  Normative Ergänzung der funktionellen wissenschaftlichen Selbstkontrolle und Selbstregulierung der Wissenschaft sind unumgänglich. Neue Formen der Wissenschaftsethik und -verantwortungsdiskurse. Diese sind gegenwärtig professionalisiert und institutionalisiert: Risikoabschätzung, Technikfolgenabschätzung, Ethik-Kommissionen, Gesetze, die WF einschränken, Guidelines der Wissenschaftsorganisationen).

Thema der 4. Sitzung (L.Engmann): KI und wissenschaftliche Methodologie, Transparenz und Erklärbarkeit, Reproduzierbarkeit und Vertrauenswürdigkeit

Frage: Was versteht man eigentlich wirklich, wenn KI einem wissenschaftliche Ergebnisse produziert? Verträgt sich eine KI-abhängige Wissenschaft eigentlich mit dem epistemischen Ethos der Wissenschaft?

Paper: ….NOCH FESTZULEGEN

 

 

Thema der 5. Sitzung (HHvG): KI Ethik und die Verantwortungslücke

Paper1: Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them (Filippo Santoni de Sio and Giulio Mecacci)

Paper2: Artificial intelligence and responsibility gaps: what is the problem? (Peter Königs)

 

Im Jahr 2004 hat Andreas Matthias das Problem der "Verantwortungslücke" mit "lernenden Automaten" das erste Mal ausbuchstabiert. Intelligente Systeme sind mit der Fähigkeit ausgestattet, aus der Interaktion mit anderen Agenten und der Umwelt zu lernen. Doch wer hat die Verantwortung für die Handlungen eines autonomen Systems, insbesondere dann, wenn das autonome System einen Schaden verursacht? Das hochgradig autonome Verhalten solcher Systeme, für das weder der Programmierer, der Hersteller noch der Betreiber verantwortlich zu sein scheint, erzeugt eben diese Verantwortungslücken. Der Begriff der "Verantwortungslücke" bei künstlicher Intelligenz (KI) wurde ursprünglich in die philosophische Debatte eingeführt, um auf die Sorge hinzuweisen, dass "lernende Automaten" es schwierig bis unmöglich machen könnten, Menschen moralische Schuld für unvorhergesehene Ereignisse zu geben. Die beiden Papiere von Filippo Santoni de Sio und Peter Königs bauen auf der Literatur der Moral- und Rechtsphilosophie sowie der Technologieethik auf und schlagen eine breitere und umfassendere Analyse der Verantwortungslücke vor. Die Verantwortungslücke, so wird argumentiert, ist nicht nur ein Problem, sondern eine Reihe von mindestens vier miteinander verbundenen Problemen - Lücken in der Schuldfähigkeit, der moralischen und öffentlichen Rechenschaftspflicht, aktiver Verantwortung - verursacht durch verschiedene Quellen, einige technisch, andere organisatorisch, rechtlich, ethisch und gesellschaftlich.

Thema der 6. Sitzung (HHvG/L. Engmann): Vorbereitung des Streitgesprächs zu: Dual Use Research of Concern (DURC)

PLUS: Die Grundregeln des Diskutierens

Paper1: Dual Use of Artificial Intelligence-powered Drug Discovery (Fabio Urbina et al.)

Dies ist das Paper eines Schweizer Unternehmens (Collaborations Pharmaceuticals, Inc.), die vor kurzem computergestützte Modelle für maschinelles Lernen zur Vorhersage der Toxizität in verschiedenen Bereichen veröffentlicht hat. In diesem Paper wird untersucht, wie KI für die Entwicklung toxischer Moleküle verwendet werden kann. Von der eigenen Forschung wird hier darüber nachgedacht, wie KI-Technologien theoretisch für die Arzneimittelforschung missbraucht werden könnte.

Paper 2: Die Stellungnahme des Deutschen Ethikrats „Biosi­cherheit – Freiheit und Verantwortung in der Wissen­schaft“ aus dem Jahre 2014

Forschung, die Wissen oder Technologien hervorbringt, die sowohl nützlichen, wie auch schädlichen Zwecken zuge­führt werden können. Wie geht man damit um? Könnten nicht die Methoden, Daten und Ergebnisse solcher Forschungen unveröffentlicht bleiben, deren missbräuchliche Nutzung das Leben und die Gesundheit einer Vielzahl von Men­schen gefährden würde? Kann und sollte die Freiheit der Wissenschaft, angesichts der möglichen Gefahren, die DURC-Forschun­gen mit sich bringen können, eingeschränkt wer­den dürfen?

Thema der 7. Sitzung: Aufzeichnung eines Streitgesprächs zum Thema Dual Use Research of Concern (DURC)

Aufzeichnung einer „Podiumsdiskussion“ in dem Studio des ZIM

Thema der 8. Sitzung: Analyse des Streitgesprächs zum Thema Dual Use Research of Concern (DURC)

Gemeinsame Analyse des Diskussionsverhaltens anhand des Filmmaterials.

Thema der 9. Sitzung (HHvG): Verantwortung 3: Verantwortung für die Gesellschaft

 

Paper1: ELIF ÖZMEN: „Wissenschaft. Freiheit. Verantwortung“

Paper 2: Uwe Schneidewind: „Verantwortung für die Gesellschaft“

 

Ausführungen zu „moderner“ Wissenschaft (ab Neuzeit), die gerade dann einen gesellschaftlichen Nutzen zeitigt, wenn man sie von allen Nützlichkeitsimperativen freistellt; dabei aber stets verbunden bleibt mit Hoffnung/Erwartung von Fortschritt, Wohlfahrt, Frieden, Sicherheit. Legitimität einer freien Wissenschaft wird durch wissenschaftlich-tech­nischen und ethisch/sozio-politischen Fort­schritt gerechtfertigt. Leitende Frage: Wozu ist das Gut der (freien) Wissenschaft gut? Schneidewind und eine mögliche neue Rolle der Wissenschaft.

 

Thema der 10. Sitzung (LE): Demokratie und KI

Paper1: The politics of AI: democracy and authoritarianism in developing countries (Fernando Filgueiras)

Die Entwicklung von KI-Technologien ist für Regierungen weltweit eine Priorität und mobilisiert Akteure, um Strategien und Maßnahmen zur Beschleunigung und zum Einsatz von KI in der Industrie, auf den Märkten und in den Regierungen zu entwickeln. Vor diesem Hintergrund analysiert dieses Papier den kausalen Zusammenhang zwischen der institutionellen Dynamik politischer Regime und der Entwicklung von KI. Konkret werden 30 Entwicklungsländer verglichen, um die politische und staatliche Dynamik zu verstehen, die die Ergebnisse der KI-Politik erklärt. Die Ergebnisse deuten darauf hin, dass autoritäre Länder bessere KI-Entwicklungsergebnisse erzielen.

Paper2:  Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models (Mohamed R. Shoaib et al.)

Mit dem Aufkommen hochentwickelter Technologien der künstlichen Intelligenz (AI)-Technologien sind die Verbreitung von Deepfakes und die Verbreitung von Fehlinformationen zu einer gewaltigen Bedrohung für die Integrität von Informationsökosystemen weltweit geworden. Dieses Papier bietet einen Überblick über die aktuelle Literatur. Wir beleuchten die Mechanismen, durch die generative KI, die auf großen Modellen basieren (LM-basierte GenAI), scheinbar überzeugende, aber gefälschte Inhalte produzieren. Wir erforschen die vielschichtigen Auswirkungen von LM-basierter GenAI auf Gesellschaft, Politik und individuelle Datenschutzverletzungen und unterstreichen den dringenden Bedarf an neuen Strategien.

 

Thema der 11. Sitzung (LE): Militarisierung der KI

Paper1: How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons  (M.M.Maas)

 

Viele Beobachter rechnen mit einem "Wettrüsten" zwischen Staaten, die künstlicher Intelligenz (KI) in verschiedenen militärischen Anwendungen zu nutzen verstehen. Hier gibt es eine Reihe von ethischen und rechtlichen Fragen zu diskutieren. Wie funktioniert ein Rüstungskontrollregime für militärische KI? Der Artikel von Matthijs Maas zieht Parallelen zu den Erfahrungen mit der Kontrolle von Nuklearwaffen, um die Chancen und Fallstricke bei den Bemühungen, die Militarisierung der KI.

 

 

Paper2: Dual Use: Ethics of autonomous weapons systems and its applicability to any AI systems (Angel Gomez de Agreda)

Die meisten Technologien der künstlichen Intelligenz haben einen doppelten Verwendungszweck. Sie werden sowohl für friedliche zivile Anwendungen als auch in militärische Waffensysteme eingebaut. Die meisten der bestehenden Verhaltenskodizes und ethischen Grundsätze für künstliche Intelligenz befassen sich mit Ersterem, während Letzteres weitgehend ignoriert wird. Aber wenn diese Technologien für Systeme eingesetzt werden, die speziell darauf ausgerichtet sind, Schaden zu verursachen, muss die Frage gestellt werden, ob die für militärische autonome Systeme geltenden ethischen Grundsätze auch auf alle Technologien der künstlichen Intelligenz, die für diese Zwecke eingesetzt werden können, angewendet werden müssen. Ein Vergleich zwischen ethischen Kodizes für allgemeine Zwecke und militärischen Kodizes kommt zu dem Schluss, dass die meisten ethischen Grundsätze für die menschliche Nutzung von Systemen der künstlichen Intelligenz gelten sollten. Vorausgesetzt, der Mensch behält die Kontrolle. Auf diese Weise bleibt die menschliche Handlungsfähigkeit voll erhalten und die moralische Verantwortung bleibt unabhängig vom potenziellen Doppelnutzen der künstlichen Intelligenz Technologie.

Thema der 12. Sitzung (LE/HHvG): … wird noch festgelegt…..

Paper1: …..wird noch festgelegt

Thema der 13. Sitzung (LE/HHvG): … wird noch festgelegt…..

Paper1: …..wird noch festgelegt

Thema der 14. Sitzung (LE/HHvG): … wird noch festgelegt…..

Paper1: …..wird noch festgelegt

 

 

Literatur

Wird jeweils eine Woche vor Beginn der Veranstaltung bekannt gegeben und kurz vorbesprochen. Meist ein Paper pro Veranstaltung

Bemerkung

Raum wird per Email bekannt gemacht. Bitte sich vorab unter vongruenberg@uni-potsdam.de melden.

Leistungsnachweis

Referat (ca. 15 Minuten Vortrag, 10 Minuten Diskussion, 3LP). Eine 15seitige Hausarbeit (3LP). Eine aktive Teilnahme am Seminar wird erwartet.

Lerninhalte

Im letzten Sommersemester ging es um die "Verantwortung der Wissenschaft und die SDGs". In diesem Sommersemester wollen wir über die "Verantwortung der Wissenschaft“ im Zusammenhang mit dem Auftauchen der Künstlichen Intelligenz sprechen.

Intelligente Systeme können aus der Interaktion mit anderen Agenten und der Umwelt lernen. KI gestützte Systeme werden dabei auch in der Wissenschaft eine bedeutende Rolle spielen, was eine ganze Reihe neuer Fragen aufwirft: was versteht man eigentlich wirklich, wenn einem eine KI in einem Erkenntnisprozess geholfen hat? Wie steht es um die Reproduzierbarkeit und Transparenz von wissenschaftlichen Ergebnissen, die auf KI erzeugten Analysen basieren? Und: Wer hat eigentlich die Verantwortung für die Handlungen eines autonomen Systems, wenn dieses einen Schaden verursacht? In diesem Kurs sollen zunächst einmal die Grundbegriffe der Wissenschaftsethik diskutiert werden. Es soll dabei klar werden, worin die Verantwortung der Wissenschaft für die Gesellschaft zu sehen ist und was es mit dem Imperativ von Hans Jonas auf sich hat. Vor diesem allgemeinen Hintergrund sollen dann die Möglichkeiten der KI näher besprochen werden und anhand von zwei oder drei Problemfällen herausgearbeitet werden, wie sich das Thema KI auf die Verantwortung und das epistemische Ethos der Wissenschaft auswirken könnte.

Methodisch gehen wir so vor, dass wir ausgewählte Texte gemeinsam lesen, diskutieren und unsere Seminarergebnisse wöchentlich in gemeinsamen Stichworten zusammenfassen. Es wird wieder eine Podiumsdiskussion mit den Teilnehmerinnen und Teilnehmern geben, die gefilmt und danach gemeinsam analysiert werden soll.

 

Zielgruppe

Eigentlich jeder diskutierfreundliche Studierende, der einmal grundsätzlich über Wissenschaft nachdenken will. Die Veranstaltung wird zusammen mit einem Studierenden geplant und durchgeführt.


Strukturbaum
Keine Einordnung ins Vorlesungsverzeichnis vorhanden. Veranstaltung ist aus dem Semester SoSe 2024 , Aktuelles Semester: WiSe 2024/25