KI in der Forschung
KI in der Wissenschaft

- KI-Modelle in den Naturwissenschaften: Von der Erklärung von Vorhersagen zur Erfassung kausaler Zusammenhänge.
- Foto: Abbildung: Jürgen Bajorath/Uni Bonn
Bonn (red). Künstliche Intelligenz (KI) gilt als Hoffnungsträger in vielen Bereichen der Forschung – von der Chemie über die Biologie bis hin zur Medizin. Doch wie vertrauenswürdig sind die Vorhersagen der lernenden Algorithmen wirklich? Eine aktuelle Studie der Universität Bonn warnt nun davor, sich zu sehr auf die Ergebnisse von KI-Modellen zu verlassen, ohne deren Funktionsweise wirklich zu verstehen.
„KI ist keine Zauberei – und keine allwissende Maschine“, betont Prof. Dr. Jürgen Bajorath, Chemieinformatiker an der Uni Bonn und Experte für maschinelles Lernen im Bereich der Lebenswissenschaften. Gemeinsam mit seinem Team hat er untersucht, unter welchen Bedingungen KI-Systeme in der Forschung sinnvoll eingesetzt werden können – und wann Skepsis angebracht ist.
Verlockend, aber undurchsichtig
KI-Modelle sind leistungsfähig, weil sie riesige Datenmengen auswerten können – etwa um neue Wirkstoffe zu finden oder biologische Zusammenhänge zu erkennen. Doch häufig bleibt unklar, wie die Systeme zu ihren Schlüssen kommen. Die „Black Box“ ist dabei ein bekanntes Problem: Außenstehende sehen zwar das Ergebnis, aber nicht den Denkprozess dahinter.
Bajorath erklärt das an einem einfachen Beispiel: Gibt man einer KI Tausende Fotos von Autos, kann sie meist zuverlässig neue Bilder als Auto erkennen. Aber weiß sie wirklich, was ein Auto ausmacht – oder orientiert sie sich an unwichtigen Details wie einer Antenne? Im schlimmsten Fall würde sie dann auch ein Radio für ein Auto halten.
Ein zentraler Begriff in der aktuellen Diskussion ist daher die „Erklärbarkeit“. Damit ist gemeint, dass der Algorithmus zumindest teilweise offenlegt, worauf er seine Entscheidungen stützt. „Es gibt inzwischen KI-Modelle, die andere KIs analysieren und ihre Ergebnisse verständlicher machen sollen“, sagt Bajorath.
Doch auch diese Erklärungen bergen Risiken. Denn nur weil ein Algorithmus ein bestimmtes Merkmal hervorhebt, heißt das noch lange nicht, dass dieses Merkmal auch wirklich die Ursache für einen beobachteten Effekt ist. „KIs verstehen keine Chemie“, sagt Bajorath nüchtern. „Sie erkennen Muster – aber die Gründe für diese Muster müssen wir Menschen herausfinden.“
KI in der Wirkstoffforschung: Chancen und Grenzen
Besonders im Bereich der Wirkstoffentwicklung können KI-Modelle faszinierende Vorschläge machen – etwa neue Moleküle entwerfen, die gegen eine bestimmte Krankheit helfen könnten. Solche „generativen Modelle“ haben großes Potenzial, doch auch hier gilt: Vorsicht ist besser als blindes Vertrauen.
Bajorath und sein Team empfehlen, jeden vielversprechenden Vorschlag auf seine Plausibilität zu prüfen. Denn hinter einer scheinbar logischen Vorhersage kann sich auch ein Zufallstreffer verbergen. Deshalb müsse jeder KI-Vorschlag im Labor getestet werden – ein Aufwand, der Zeit und Geld kostet.
Trotz aller Einschränkungen sieht Bajorath großes Potenzial in der Nutzung von Künstlicher Intelligenz. „KI kann die Forschung enorm beschleunigen – wenn wir ihre Grenzen kennen und verantwortungsvoll mit ihren Ergebnissen umgehen.“
Redakteur/in:RAG - Redaktion |
Kommentare