Veröffentlicht 28. Juni 2023 von Ben Skuse
KI auf Rezept: Wie Künstliche Intelligenz die Medizin revolutioniert
Warum wurde der KI-Arzt Stand-up-Comedian? Weil der Algorithmus viel Sinn für Humor hatte, seine Umgangsformen am Krankenbett waren allerdings verbesserungsbedürftig!
Ist dieser Witz schrecklich? Ja. Aber ergibt er Sinn und klingt, als käme er von einem Menschen? Möglicherweise, jedenfalls hat ChatGPT diesen Gag aus der einfachen Anfrage „Erzähle mir einen Witz über einen KI-Arzt“, generiert. Eine von wahrscheinlich Tausenden von albernen Anfragen, die Menschen quasi minütlich stellen, wenn sie mit dem großen computergesteuerten Sprachmodell experimentieren.
Anmerkung des Autors: ChatGPT hat den Titel dieses Posts und den Witz generiert. Aber alles, was von hier an folgt, wurde von einem ganz gewöhnlichen Menschen verfasst.
Potenziale und Gefahren der Künstlichen Intelligenz
Am Dienstag, 27. Juni 2023, befassten sich gleich zwei #LINO23-Sessions eingehend mit den Möglichkeiten, den Potenzialen, den Gefahren und sogar mit den existenziellen Fragen, die das „Large Language Model“ aufgeworfen hat, seitdem die Version 3.5 im November 2022 veröffentlicht wurde. Die erste Session an diesem Tag war ein Agora Talk mit dem Titel Impact of Biological Intelligence (BI), Human Intelligence (HI) & Machine Intelligence (AI) on Innovation in Science & Technology, gehalten von Michael Levitt, Chemie-Nobelpreisträger 2013.
Levitt startete mit einer Zusammenfassung seiner Ansichten über Intelligenz: „Es gibt drei Formen von Intelligenzen: die biologische Intelligenz, die meiner Meinung nach bei weitem die größte Intelligenz ist; die menschliche Intelligenz; und letztlich die maschinelle Intelligenz oder künstliche Intelligenz“, sagte er. „Und diese Intelligenzen stehen in Wechselwirkung zueinander: Die Biologie hat den Menschen geschaffen, der Mensch hat die Maschine geschaffen und die Maschine wird sowohl in die neue Biologie zurückfließen als auch zur Veränderung des menschlichen Wesens beitragen.“
Nach einem kurzen Exkurs zu den einzelnen Formen von Intelligenz, der an Levitts eigenen Beiträgen zum Verständnis von biologischer und menschlicher Intelligenz vorbeiführte, wurde der Großteil der Zeit für eine auf KI fokussierte Diskussion mit dem Publikum aufgewendet. Die Nachwuchswissenschaftler*innen standen Schlange an den im Saal platzierten Mikrofonen, um ihre Fragen an den Nobelpreisträger zu richten.
Können wir „Large Language Models“ wie ChatGPT und AlphaFold verwenden, um die Mechanismen der Proteinfaltung grundlegend zu untersuchen? „Ich würde mich über eine Erweiterung von AlphaFold freuen, bei der man tatsächlich fragen kann, warum? Dann könnte man wenigstens sehen, wo die Unterschiede zwischen dem besten und dem zweitbesten Modell liegen“, antwortete er. „Ich denke, wir müssen das lernen, weil wir das Verständnis brauchen.“
Was denken Sie über die Auswirkungen der allgemeinen Nutzung von KI-Anwendungen auf die Gesellschaft? „Ich denke, es wird Auswirkungen auf den Aktienmarkt haben. Außerdem schätze ich, dass es Auswirkungen auf das Rechtssystem geben wird“, antwortete Levitt. „Wo ich wirklich einen Einfluss von ChatGPT sehen möchte, ist im Bereich der Risikobewertung. In einer Krise ist es schwierig, eine Risikobewertung vorzunehmen, weil man die Kosten für die eine oder die andere Option abwägen muss. Computer könnten dabei sehr hilfreich sein.”
Bedeutet die rasante Entwicklung der KI, dass wir die Bedeutung des Begriffs „lebendig“ neu definieren müssen? „Die aktuellen Modelle sind nicht lebendig, weil sie ihre eigene Energiequelle nicht kontrollieren können. In gewisser Weise sind sie also vielleicht so lebendig wie ein Virus“, erwiderte Levitt. „Sollten wir uns Sorgen machen? Ich glaube, dass ein Mensch in Kombination mit KI immer besser sein wird als ein Mensch oder die KI allein.“
Nach der Fragerunde war Levitt von jungen Wissenschaftler*innen umringt, die noch ausführlicher über ChatGPT und KI sprechen wollten. Diese Gespräche setzten sich bis zum Mittagessen und bis die Glocke für die nächste Session über KI am Nachmittag ertönte fort.
Ernstzunehmende Eingriffe in die Medizinische Praxis
Angesichts der Begeisterung, die bei Levitts Agora Talk zum Ausdruck kam, war es keine Überraschung, dass die Teilnehmer*innen von #LINO23 am Nachmittag in Scharen zur Panel Discussion ‚Artificial Intelligence and Medicine‘ strömten. Begrüßt wurden sie von Moderator Bart de Witte, der sich trotz seines Geburtstags gerne Zeit nahm, um mit einem erfahrenen Podium und Publikum über die aktuellen Einsatzmöglichkeiten, Chancen und Risiken von KI in der Medizin zu diskutieren.
Auf der Bühne saßen neben die Nachwuchswissenschaftlerinnen Ang Cui (Harvard University, USA) und Aderonke Sakpere (University of Ibadan, Nigeria) sowie Shwetak Patel (Google, Referent der Heidelberg Lecture am Mittwoch, 28. Juni) und die Nobelpreisträger Aaron Ciechanover (Nobelpreis für Chemie 2004), sein Mit-Preisträger Avram Hershko und eben Michael Levitt.
KI und maschinelles Lernen halten bereits Einzug in die medizinische Praxis und helfen in vielen Bereichen, z.B. beim Brustkrebs-Screening, bei der Bestimmung von Hautkrebs und bei der Prognose des Krankheitsverlaufs von Diabetes. Darüber hinaus werden ChatGPT und vergleichbare Systeme weithin als wichtige Instrumente für die medizinische Versorgung der Zukunft angesehen. So wäre es beispielsweise möglich, dass Patient*innen sofortigen medizinischen Rat zu Symptomen erhalten oder Ärzte könnten die Gewissheit erlangen, dass Fehldiagnosen vermieden werden. Diese und andere Faktoren sind der Grund, warum die Medizin als eines der wichtigsten Anwendungsgebiete von KI angesehen wird.
Diese Einschätzung wurde von den anderen Panelists bestätigt, die alle bereits in ihrer Forschung maschinelles Lernen und KI eingesetzt und davon profitiert hatten. Nachwuchswissenschaftlerin Cui ging sogar noch weiter: „Maschinelles Lernen ist wirklich in jeden Bereich vorgedrungen… Wir alle haben es wissentlich oder unwissentlich für jeden einzelnen Bereich unserer Forschung genutzt.“
Sie ist der Auffassung, dass ChatGPT und ähnliche große Sprachmodelle Wissenschaftler*innen ermöglichen werden, komplexere Fragen als zuvor zu untersuchen. „Durch die Einführung von ChatGPT können wir meines Erachtens beginnen, mit Hilfe von KI tiefer in das mechanische Verständnis einzutauchen“, argumentierte sie. „Und dann können wir mit KI-Daten schwierigere Fragen stellen, etwa wie man Krebs heilen kann. Wir können damit beginnen, einige wirklich große Probleme zu lösen.“
Ähnlich positiv äußerte sich Patel: „Diese neuen Daten bezeichne ich als ‚kennzeichnungs-effizient‘, was bedeutet, dass man viele Daten, aber nur wenige Typen haben kann und, dass sie genauso leistungsfähig sind wie große, gekennzeichnete Datensätze“, erklärte er. „Was bedeutet das für uns im Gesundheitswesen? Nun, es heißt, dass wir in der Lage sein könnten, das nach der grafischen Darstellung benannte Long Tail-Problem zu lösen, dass wir uns also um all die seltenen Krankheiten kümmern könnten. Wenn man jetzt einen Lösungsansatz für die Problematik hat, versucht man von vorneherein, einen ausgewogeneren Lösungsansatz zu schaffen… Und deswegen bin ich überzeugt, dass KI potenziell ein mächtiger Gleichmacher sein kann.“
Natürlich müssen, wie bei jeder revolutionären Technologie, die Vorteile den Risiken gegenübergestellt werden. Alle Teilnehmer*innen der Diskussion zeigten daraufhin die größten Fallstricke auf. „Ein Problem sehe ich darin, dass man sich immer mehr auf künstliche Intelligenz verlässt. Wenn sich ein Arzt beispielsweise mehr und mehr an die Verwendung von künstlicher Intelligenz für die Stellung einer Diagnose gewöhnt, besteht die Gefahr, dass er sich zu sehr auf diese Technologie verlässt und sein eigenes Urteilsvermögen nicht mehr einsetzt“, räumte Hershko ein. „Dazu kommt noch das Problem der Haftung – was geschieht, wenn Fehler passieren? Verklagen Sie Ihren Computer? Verklagen Sie das Unternehmen?“
Globale Daten
Aderonke Sakpere vertrat hingegen die Ansicht, dass offene Daten der Schlüssel zu einer gerechten KI sind: „Solange wir Offenheit praktizieren, können wir zu globalen Gesundheitsdaten beitragen. Dadurch verringert sich die Gefahr, dass es bei der Aufbereitung globaler Daten zu Verzerrungen kommt, durch die bestimmte Personengruppen nicht repräsentiert sind.“
Um sicherzustellen, dass die medizinische KI diese und andere Gefahren vermeidet und zum Wohle der Menschheit arbeitet, waren sich alle Panelists einig, dass eine Regulierung von entscheidender Bedeutung ist. Levitt hingegen schlug sogar drei essentielle Kriterien für die Einführung vor: Verständlichkeit, Transparenz und Kontrollierbarkeit. „Nehmen wir an, Sie haben ein Instrument zur medizinischen Diagnose“, erläuterte er. „Das Instrument sollte aufzeigen, warum es zu dieser Schlussfolgerung gekommen ist; es sollte im Grunde transparent sein, woher diese Ergebnisse stammen, und man sollte in der Lage sein zu sagen: ‚Gut, jetzt versuche ich etwas anderes‘.“