Zertifizierte CME-Fortbildung für Ärztinnen und Ärzte. CME-Punkte sammeln. Kostenfrei. service@arztcme.de

MedicalLearning – Blog zur Zukunft der medizinischen Information

Gute KI, böse KI

18. Juni 2023

Im November 2022 ging chatGPT live und füllt seitdem nicht nur die Seiten von Nachrichtenblättern und die Sendezeit der Fernsehanstalten, sondern auch diesen Blog. Ein frei zugänglicher Chatbot, der jede Menge Aufgaben für uns Internetnutzer erledigen kann. Er schreibt Texte aller Art, vom Programmcode bis zum Gedicht und unterstützt auch säumige Autoren medizinischer Fachbeiträge, wie wir auch schon feststellen mussten. Denn leider ist – bei aller Begeisterung für die Talente des Bots – die Qualität mitunter zweifelhaft.

Und schnell mussten wir auch lernen, dass öffentlich zugängliche KI-Anwendungen ein hohes Augenmerk auf die Sicherheit haben müssen. Denn Sprachmodelle, die externe Inhalte interpretieren, lassen sich mit manipulativen Eingaben zu unerwünschten für Angriffe auf Nutzer missbrauchen. Regulationen sind im Entstehen, aber neben wenig Gewissheiten gibt es vor allem eins: viele offene Fragen.

Am letzten Mittwoch (14. 6. 2023) hat das Europäische Parlament mal einen Aufschlag gemacht. Mit 499 zu 28 Stimmen bei 93 Enthaltungen wurde eine fraktionsübergreifende Verhandlungsposition zum Gesetz über künstliche Intelligenz (KI) angenommen. Hauptforderung des EU-Parlaments ist es, dass in der EU entwickelte und eingesetzte KI in vollem Umfang den Rechten und Werten der Europäischen Union entspricht. Das umfasst u.a., dass sie

  • von Menschen beaufsichtigt wird
  • Anforderungen an Sicherheit, Datenschutz und Transparenz genügt
  • niemanden diskriminiert und
  • weder Gesellschaft noch Umwelt schädigt.

Das ist gut und richtig. Bei der (Informations-)Goldgräberstimmung in der Wirtschaft wird es aber in etwa so leicht umzusetzen sein, wie ein Antidiskriminierungsgesetz im Wilden Westen des 19. Jahrhunderts ohne rauchende Colts. Als ersten Schritt hat man die Anwendungen in Gruppen aufgeteilt.

Die Gruppe 1 sind verbotene KI-Praktiken. Dazu gehören solche, die „menschliche Sicherheit in inakzeptabler Weise gefährden“, etwa für„Social Scoring“ (Klassifizierung aufgrund sozialen Verhaltens oder Persönlichkeitsmerkmalen) oder biometrische Erkennung und Kategorisierung. Auch die sogenannte vorausschauende Polizeiarbeit (Profilerstellung und Standortermittlung aufgrund früheren kriminellen Verhaltens) gehört dazu.

Die zweite Gruppe heißt hochriskante KI und beinhaltet u. a. KI-Systeme, die zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen (mit mehr als 45 Millionen Nutzern) eingesetzt werden können. Sie sollen besonderen Kontrollen unterworfen werden. Man darf davon ausgehen, dass viele System im medizinischen Umfeld auch in diese Kategorie fallen werden.

Aber auch die KI-Systeme zur allgemeinen Verwendung – wie chatGPT – müssen künftig Risiken für Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt oder für Demokratie und Rechtsstaatlichkeit abschätzen und Transparenzanforderungen erfüllen, z.B. Daten veröffentlichen, die sie zu Trainingszwecken verwendet haben.

Mit dieser Position will das Parlament in die Gespräche mit den EU-Mitgliedstaaten über die endgültige Form des Gesetzes gehen. Da diese EU-Vorschriften für die Mitgliedsstaaten bindend sein werden, lohnt sich ein Blick auf das Papier allemal – auch wenn es bis zum fertigen Gesetz noch ein weiter Weg ist.

 

Pressemeldung des EU-Parlaments

 

Weitere Beiträge …