Wuppertaler forschen: Was die Künstliche Intelligenz noch von uns lernen muss

Analyse : Was die Künstliche Intelligenz noch von uns lernen muss

Analyse Am Beispiel der selbstfahrenden Autos lässt sich erklären, was lernende Maschinen können und was nicht.

An der Uni Wuppertal lernen längst nicht nur Studenten – auch Maschinen werden jeden Tag schlauer. Künstliche Intelligenz (KI) heißt das, wenn Systeme neues Wissen aus Erfahrung generieren. KI soll den Menschen das Leben erleichtern. Doch in düsteren Science-Fiction-Visionen werden die intelligenten Maschinen den Menschen zum Verhängnis. Aber: Wie gefährlich ist Künstliche Intelligenz wirklich und mit welchen Herausforderungen sieht sich die Wissenschaft konfrontiert?

Hanno Gottschalk hat keine Angst vor einem Angriff der Maschinen. Er ist Professor für Stochastik an der Bergischen Uni und Gründungsvorstand des „Interdisziplinären Zentrums Machine Learning und Data Analytics“, das ein Bindeglied zwischen KI-Forschung und der regionalen Wirtschaft darstellen soll. Gottschalk sagt: „Ich habe nicht das Gefühl, dass Künstliche Intelligenz den Menschen gefährlich werden könnte. Einfach deswegen, weil sie nichts will.“ Da habe Gottschalk eher Sorgen vor Menschen, die die Möglichkeiten der KI für sich ausnutzen.

Gottschalk befasst sich lieber mit den Möglichkeiten, die künstliche Intelligenz auf dem Feld der Mobilität bietet. Das ist ein Schwerpunktthema des IZMD. Selbstfahrende Autos sind ein besonders spannendes Feld im Bereich der KI – und ein besonders schwieriges. Denn in vielen Fällen, etwa in der Produktion, arbeiten Roboter in für sie abgesteckten Bereichen und sind harmlos. „Mein Staubsaugerroboter kann mir nichts tun“, sagt Gottschalk.

Manchmal verstehen Menschen
die Ergebnisse der KI nicht

Anders ist es bei Autos, die von intelligenten Systemen unterstützt oder gar völlig autonom gelenkt werden. Sie können Menschen verletzen und sie agieren in einem nicht geschützten Umfeld. Daher können diese Systeme erst auf ihre Umwelt losgelassen werden, wenn sie sehr sicher sind. Doch dafür müssen die Forscher die „Gedankengänge“ ihrer Schöpfungen erst einmal völlig nachvollziehen können. Gottschalk: „Ein Hauptproblem ist, dass wir nicht genau verstehen, warum die KI manchmal überraschend nicht funktioniert.“

Um die Gefahren zu verstehen, muss man wissen, wie beispielsweise das selbstfahrende Auto die Welt sieht. Der Computer teilt den Straßenverkehr in Begriffe ein, die er kennt, für die er ein entsprechendes Verhalten gelernt hat. Die KI erfasst etwa Autos, Radler oder Verkehrsschilder. Sie alle erkennt das System, analysiert blitzschnell die Situation und verhält sich entsprechend. Immer mal wieder vertut sich die KI, sieht etwa ein Auto dort, wo eigentlich freie Straße ist. Doch im Auto der Zukunft sollen sich mehrere Systeme gegenseitig überprüfen, so als ob fünf Fahrer am Lenkrad sitzen und in Sekundenschnelle über die richtige Entscheidung abstimmen.

Ist der Roboter also der perfekte Autofahrer? Man müsste ihn eher einen Spezialisten nennen, der bestens mit bekannten Situationen umgehen kann. „Das Problem der KI ist, dass sie immer mit einem beschränkten Repertoire an Begriffen arbeitet. Wir können ihr nicht alles beibringen“, sagt Gottschalk. Der menschliche Fahrer ist da flexibler. Ein Beispiel: Wenn ein Lkw eine Spur der Straße blockiert, würde ein Autofahrer sich der besonderen Situation entsprechend verhalten und vorsichtig das Hindernis umfahren. Die KI würde aber die Mittellinie nicht kreuzen.

KI ist auch angreifbar. „Adversarial Attacks“ heißen Angriffe auf die intelligenten Systeme – ganz ohne Laptop. Wer weiß, wie die KI tickt, kann sie auch leicht austricksen und dem Computer ein Vorfahrtsschild vorgaukeln, wo eigentlich ein Stopp-Schild am Straßenrand steht. Dafür braucht es nur ein paar Klebestreifen, die genau an den richtigen Stellen auf das Schild geklebt werden. Schließlich „schaut“ sich der autonome Fahrer das Schild nicht an, sondern interpretiert seine Umwelt anhand von Algorithmen. Wer diese kennt, kann dem Auto praktisch alles vormachen. Bis solche Sicherheitslücken geschlossen werden, kann es noch dauern. Gottschalk arbeitet mit daran, dass das gelingt.

Ob er sich heute in ein zu 100 Prozent selbstfahrendes Auto setzen würde? „Um Gottes Willen, nein“, sagt er. Vielleicht in einigen Jahren, wenn die Technik weiter ist. In fünf Jahren sollen Autos, die teilweise alleine fahren können, die Marktreife erreichen. Schwer zu beantworten ist die Frage, ob die Zukunft wirklich einmal das komplett autonom fahrende Auto bringen wird. Ein Kernproblem wird sein, dass im Leben nicht alles vorhersehbar ist. Bis die künstliche Intelligenz das verstanden hat, müsste sie noch sehr viel lernen.

»Am 19. Mai findet auf dem Campus Freudenberg die WZ-Autoschau statt. Dort geht es bei einer Experten-Diskussion auch um das Thema Künstliche Intelligenz und autonomes Fahren.

Mehr von Westdeutsche Zeitung