Gestern ist in Äthiopien ein Flugzeug mit 157 Menschen an Bord abgestürzt. Tragisch. Schnell kommen dann Vorurteile wie „afrikanische Airline“, „uralte Maschine“ und ähnliche aus der Schublade. Doch weit gefehlt. Ethiopian Airlines galt bislang als eine der sichersten Fluggesellschaften weltweit und die Unglücksmaschine war gerade einmal vier Monate alt.
Zwar kennt man die Ursache noch nicht, aber ein anderer böser Verdacht steht im Raum: Die „Künstliche Intelligenz“ (KI) des Flugzeugs könnte zur Katastrophe geführt haben. Denn erst vor vier Monaten war ein ebenfalls neues Flugzeug dieses Typs abgestürzt und zwischen den beiden Unglücken gibt es erschreckende Parallelen. Die Spekulation dreht sich um eine spezielle Software, die eigentlich einen Strömungsabriss und damit einen Absturz verhindern soll. Dabei führt das Flugzeug selbsttätig Manöver aus, wenn die Piloten nicht entsprechend eingreifen.
Ob es jetzt tatsächlich die Software war oder nicht, wird sich zeigen. Es könnte zumindest so sein und schon das sollte uns zu denken geben. Denn wir sind gerade dabei, auch in der Medizin Entscheidungen in die Hand von Maschinen zu legen. Mit möglicherweise ähnlich fatalen Konsequenzen? Künstliche Intelligenz ist ja keinesfalls unfehlbar. Wissenschaftler der Princeton University haben 2017 in einem Science-Paper (Link) gezeigt, dass lernende Systeme, die von Menschen trainiert werden, anfällig für dieselben Vorurteile und Fehler sind wie ihre „Trainer“.
Ohne schwarz zu malen: Wir müssen verhindern, dass Bots und „embedded systems“ in medizintechnischen Geräten Entscheidungen treffen, die wir nicht mehr kontrollieren können und die am Ende den Patienten schaden.