Analyse : Was die Künstliche Intelligenz noch von uns lernen muss
Wuppertal Analyse Am Beispiel der selbstfahrenden Autos lässt sich erklären, was lernende Maschinen können und was nicht.
An der Uni Wuppertal lernen längst nicht nur Studenten – auch Maschinen werden jeden Tag schlauer. Künstliche Intelligenz (KI) heißt das, wenn Systeme neues Wissen aus Erfahrung generieren. KI soll den Menschen das Leben erleichtern. Doch in düsteren Science-Fiction-Visionen werden die intelligenten Maschinen den Menschen zum Verhängnis. Aber: Wie gefährlich ist Künstliche Intelligenz wirklich und mit welchen Herausforderungen sieht sich die Wissenschaft konfrontiert?
Hanno Gottschalk hat keine Angst vor einem Angriff der Maschinen. Er ist Professor für Stochastik an der Bergischen Uni und Gründungsvorstand des „Interdisziplinären Zentrums Machine Learning und Data Analytics“, das ein Bindeglied zwischen KI-Forschung und der regionalen Wirtschaft darstellen soll. Gottschalk sagt: „Ich habe nicht das Gefühl, dass Künstliche Intelligenz den Menschen gefährlich werden könnte. Einfach deswegen, weil sie nichts will.“ Da habe Gottschalk eher Sorgen vor Menschen, die die Möglichkeiten der KI für sich ausnutzen.
Gottschalk befasst sich lieber mit den Möglichkeiten, die künstliche Intelligenz auf dem Feld der Mobilität bietet. Das ist ein Schwerpunktthema des IZMD. Selbstfahrende Autos sind ein besonders spannendes Feld im Bereich der KI – und ein besonders schwieriges. Denn in vielen Fällen, etwa in der Produktion, arbeiten Roboter in für sie abgesteckten Bereichen und sind harmlos. „Mein Staubsaugerroboter kann mir nichts tun“, sagt Gottschalk.
Manchmal verstehen Menschen
die Ergebnisse der KI nicht
Anders ist es bei Autos, die von intelligenten Systemen unterstützt oder gar völlig autonom gelenkt werden. Sie können Menschen verletzen und sie agieren in einem nicht geschützten Umfeld. Daher können diese Systeme erst auf ihre Umwelt losgelassen werden, wenn sie sehr sicher sind. Doch dafür müssen die Forscher die „Gedankengänge“ ihrer Schöpfungen erst einmal völlig nachvollziehen können. Gottschalk: „Ein Hauptproblem ist, dass wir nicht genau verstehen, warum die KI manchmal überraschend nicht funktioniert.“
Um die Gefahren zu verstehen, muss man wissen, wie beispielsweise das selbstfahrende Auto die Welt sieht. Der Computer teilt den Straßenverkehr in Begriffe ein, die er kennt, für die er ein entsprechendes Verhalten gelernt hat. Die KI erfasst etwa Autos, Radler oder Verkehrsschilder. Sie alle erkennt das System, analysiert blitzschnell die Situation und verhält sich entsprechend. Immer mal wieder vertut sich die KI, sieht etwa ein Auto dort, wo eigentlich freie Straße ist. Doch im Auto der Zukunft sollen sich mehrere Systeme gegenseitig überprüfen, so als ob fünf Fahrer am Lenkrad sitzen und in Sekundenschnelle über die richtige Entscheidung abstimmen.