KIT-Professor Christian Wressnegger
Christian Wressnegger ist Experte für intelligente Systemsicherheit am Karlsruher Institut für Technologie. | Foto: privat

Gymnasium Hohenbaden

“Lernende Systeme können Fehler verursachen”

Die Technik der künstlichen Intelligenz (KI) steckt noch in ihren Kinderschuhen. Dennoch wissen wir schon jetzt, dass sie unsere Zukunft stark beeinflussen wird. Um genaueres darüber zu erfahren, haben wir uns via Videokonferenz mit Professor Christian Wressnegger zu einem Interview getroffen. Er leitet am Karlsruher Institut für Technologie (KIT) die Forschungsgruppe für intelligente Systemsicherheit.

Was ist künstliche Intelligenz?

Wressnegger: Prinzipiell ist künstliche Intelligenz alles, bei dem eine Maschine versucht Aufgaben zu übernehmen, bei denen es eigentlich menschliche Intelligenz braucht. Strenggenommen fallen auch Expertensysteme unter KI, also Systeme, die sehr konkreten Regeln folgen, um automatisiert Probleme zu lösen.

Denken Sie, dass sich KI jemals richtig in unseren Alltag einfinden wird, und wenn ja, wie?

Wressnegger: KI hat bereits Einzug in unseren Alltag gehalten, aber nicht so, wie man es vielleicht aus Science-Fiction-Filmen kennt. KI ist nicht notwendigerweise ein selbst agierendes Etwas, das autonom Entscheidungen trifft und im schlimmsten Fall die Weltherrschaft an sich reißt. Vielmehr sollte man an Mustererkennung, Bilderkennung, Sprachsteuerungen oder Empfehlungssysteme von Onlineshops denken. All das fällt unter künstliche Intelligenz und ist bereits Bestandteil unseres digitalen Lebens.

Wirft das auch Sicherheitsrisiken auf?

Wressnegger: KI-gestützte Sprachsteuerung oder Bilderkennungssysteme nutzen sensible Eingabedaten aus unserem Alltag. Sie nehmen Ton und Bild aus unserer unmittelbaren Umgebung auf, sodass zum Beispiel die eigene Privatsphäre gefährdet ist. Gleichzeitig können lernende Systeme aber auch gezielt manipuliert werden und Fehler verursachen, die schwerwiegende Folgen haben können. Dies wirft auch gesellschaftliche und rechtliche Fragen auf. Wer ist für die Entscheidungen der KI verantwortlich? Wenn zum Beispiel ein selbstfahrendes Auto eine Person anfährt, wer trägt dann die Schuld? Da niemand am Steuer gesessen hat, vielleicht das Auto selbst – das geht aber natürlich nicht. Hier fehlen aktuell die entsprechenden rechtlichen Rahmenbedingungen.

Heißt das, KI wirft auch viele moralische Fragen auf?

Wressnegger: Ja, dies ist auf unterschiedlichen Ebenen zu sehen. Zum einen haben wir die Frage nach der Verantwortung für selbstlernende Systeme und zum anderen kann das Lernen auf Basis von großen Daten zu „Vorurteilen“ in den Vorhersagen führen. Entscheidungen sollten in der Regel nicht auf dem Geschlecht, der Hautfarbe oder der Ethnie getroffen werden. Das gilt im echten Leben, wie auch bei künstlicher Intelligenz. Wenn die Datenbasis aber nur aus Bildern von weißen Männern mittleren Alters besteht, wird das System auch nur genau das lernen. Generell gilt, dass ein selbstlernendes System nicht notwendigerweise das „lernt“, was ein Mensch lernen würde, sondern im Zweifel Artefakte, die in den Daten vorhanden sind.

Werden durch KI in manchen Branchen Arbeitsplätze gefährdet?

Ich glaube, die Jobs werden sich in Zukunft verändern. In 40 oder 50 Jahren wird es vermutlich viele Automatisierungen von heute manuellen Arbeitsweisen geben. Allerdings entstehen dadurch auch neue Arbeitsplätze, sodass sich das Aufgabenfeld verschiebt. So muss zum Beispiel die künstliche Intelligenz gewartet und überwacht werden. In Summe wird die Zahl der Arbeitsplätze also gleich bleiben.

Teilen: