Die interdisziplinäre Arbeitsgruppe behandelte die Frage nach der ethisch-juristischen Verantwortung durch maschinelles Lernen und künstliche Intelligenz im digitalen Zeitalter.
Computersysteme werden uns in Zukunft verstärkt im privaten und beruflichen Umfeld assistieren oder bisher vom Menschen ausgeführte Tätigkeiten komplett übernehmen. Der Einsatz von „intelligenten“ Systemen kann große Chancen eröffnen, weil jene dort stark sind, wo viele Menschen Schwächen aufweisen, z.B. im Erkennen von Mustern und Zusammenhängen in großen Datensätzen. Ob bei der Diagnose im Gesundheitsbereich, bei der Ressourcenoptimierung im Energiesektor oder bei der Verbesserung des Bildungswesens – die Anwendung von künstlicher Intelligenz hat großes Potential. Doch was, wenn bestimmte Menschen benachteiligt werden oder körperlich zu Schaden kommen? Wer trägt die Verantwortung für solche nicht direkt von Menschen ausgeführten Handlungen? Derjenige, der die Daten auswählt und eingibt, der den Algorithmus programmiert oder der das System nicht gut genug überwacht hat?
Müssen wir also „Verantwortung“ neu denken oder reicht das bisherige Verständnis auch für die neuen technischen Möglichkeiten aus? Welche Konsequenzen müssen wir aus der gegenwärtigen Entwicklung ziehen?
Ziel der Interdisziplinären Arbeitsgruppe (IAG) war es, konkret zu beschreiben, welche Herausforderungen sich für die Verantwortung im ethischen wie juristischen Sinne durch Automatisierung, Maschinelles Lernen und Künstliche Intelligenz im digitalen Zeitalter stellen.
Diese Erkenntnisse flossen in die Publikationsreihe „#VerantwortungKI – Künstliche Intelligenz und gesellschaftliche Folgen “ und vor allem in die Empfehlungen der IAG zum verantwortungsvollen und kompetenten Umgang mit KI ein.
Laufzeit: Juni 2018 – April 2021