Das Potenzial von KI-basierten Systemen ist gigantisch – wir haben hier im Blog schon viele beeindruckende Beispiele vorgestellt. Dazu gehören auch die „Clinical Decision Support Systems“ zur Entscheidungsunterstützung in der Medizin (KES). Um deren Pros und Kons ging es bei einer von der Bundesärztekammer ausgerichteten Veranstaltung zum Thema Künstliche Intelligenz in der Medizin, von der heise online letzte Woche berichtete (Link).
Klinische Entscheidungssysteme auf Basis von KI bieten erhebliche Vorteile (z. B. Präzision und Effizienz) sind aber keinesfalls ohne ethische und klinische Herausforderungen. Zu den ethischen Herausforderungen gehören:
- Datenschutz: Die Verwendung von Patientendaten in KI-Modellen kann Datenschutzprobleme aufwerfen.
- Verantwortlichkeit: Bei Fehlern oder Fehldiagnosen kann unklar sein, wer die Verantwortung trägt – der Arzt, der das System verwendet hat, oder der Entwickler des Systems.
- Bias: KI-Modelle können Fehler aus den Trainingsdaten übernehmen, was zu diskriminierenden Entscheidungen führen kann.
Wichtigste klinische Herausforderung ist die Validierung: Die klinische Wirksamkeit von KES muss rigoros getestet werden, um ihre Sicherheit und Effektivität zu gewährleisten. Dabei kann die in der Praxis noch immer schlechte Interoperabilität die Integration von KES in bestehende Systeme erheblich stören.