Wirtschaftsinformatiker der Uni Graz stellen der Arbeit von KI im Bereich der Pharmaproduktion ein gutes Zeugnis aus. An einem Beispiel der Pharmabranche haben sie aufgezeigt, dass automatisierte Entscheidung die Anforderung erfüllen kann.
KI hält zunehmend Einzug in unseren Alltag, sie birgt aber – wie viele an sich neutrale Technologien – auch Risiken. Die Anwendung von KI in Bereichen, die direkte Auswirkungen auf das menschliche Leben haben, wie etwa den Nahrungsmittelsektor oder auch die Gesundheit, hinkt die Einführung jedoch hinterher. Etwa in der Arzneimittelproduktion, in der der Prüfvorgang von Medikamenten entscheidend für Leben oder Tod der Patienten werden kann. Was passiert, wenn künstliche Intelligenz diese folgenschwere Aufgabe übernimmt? Hier sind die Interpretierbarkeit und Erklärbarkeit der Entscheidungen der KI wichtige Themen, um die Transparenz und das Vertrauen in diese Anwendungen zu stärken.
Uni Graz kooperiert mit Pharmaunternehmen
In einer Kooperation mit dem Pharma-Unternehmen Fresenius Kabi Austria hat Stefan Thalmann vom Business Analytics and Data-Science-Center (BANDAS-Center) an der Uni Graz untersucht, ob die Pharmaproduktion „denkenden“ Maschinen vertrauen und sich deren Tätigkeit zertifizieren lassen kann. In der Zusammenarbeit mit dem Produktionsunternehmen wurde die Qualitätskontrolle von sterilen Arzneimitteln mit Hilfe einer KI unter die Lupe genommen. „Künstliche Intelligenz soll automatisiert überprüfen, ob relevante Qualitätskriterien erfüllt sind oder Arzneimittel aus dem Prozess ausgeschieden werden müssen“, schilderte Thalmann die Ausgangslage.
Der Einsatz von Software solcher sensiblen Bereiche unterliegt Richtlinien und muss bescheinigt werden. KI nimmt jedoch eine Sonderstellung ein, da – abseits von einem Regulierungsentwurf der EU – aktuell noch geringe Ansätze für die Zertifizierung vorhanden sind. „Denn die Technologie lernt selbstständig Entscheidungsregeln aus vergangenen Beurteilungen, die Menschen getroffen haben und die in den sogenannten Trainingsdaten abgebildet sind“, wie der Wissenschafter zusammenfasste.
KI wird zur Blackbox
Thalmann wies zugleich auf den kritischen Punkt hin: „KI wird zur Blackbox, denn wir kennen diese Regeln nicht und wissen somit nicht, worauf sich die automatisierte Entscheidung begründet.“ KI kann demnach schon viel, aber es mangelt ihr noch an Transparenz, da nicht sichtbar ist, was sie dazu bringt, eine bestimmte Entscheidung zu treffen. Thalmann und sein Team suchen nach Wegen, die Vorgänge in dieser Blackbox erklärbar zu machen. Sie haben einen Validierungsansatz für KI in sensiblen Anwendungsfällen entwickelt, der das Verständnis des Systemverhaltens erleichtert.
„Wir setzten spezielle Erklär-Komponenten ein und mit künstlichen Sonderfällen wurde die KI gewissermaßen herausgefordert“, schilderte der Grazer Wissenschafter sein Vorgehen im jüngsten Projekt im Pharmabereich. Das habe im Rahmen des Projektes ermöglicht, die Modelle zu verstehen und Ergebnisse besser nachzuvollziehen. „Unser Ansatz hat sich als geeignet erwiesen, die erforderlichen Nachweise für eine Softwarevalidierung zu erheben, erfordert jedoch zusätzlichen Aufwand im Vergleich zu einer traditionellen Softwarevalidierung“, fasste das Grazer Team zusammen. Im Rahmen des Profilbereichs Smart Regulation arbeitet Thalmann interdisziplinär mit Juristinnen und Juristen, Psychologinnen und Psychologen sowie Ethikerinnen und Ethiker an diesem Thema weiter. (APA/red)
Die Ergebnisse wurden in einem Fachjournal veröffentlicht.