Diese Seite drucken
Artikel bewerten
(0 Stimmen)
Freitag, 09 Dezember 2022 13:43

Arbeitsgruppe im Portrait: Ignacio Tripodi – Computer-Toxikologie statt Tierversuche Empfehlung

InVitro+Jobs stellt regelmäßig Wissenschaftler und ihre innovativen Forschungen als „Arbeitsgruppe im Portrait“ vor. Im Fokus stehen neu entwickelte Methoden, ihre Evaluation sowie der Ausblick, welche tierexperimentellen Versuchsansätze gemäß dem 3R-Prinzip (reduce, refine, replace) nach Möglichkeit reduziert und bestenfalls ersetzt werden können.


Grafik: Pixabay.


In dieser Ausgabe thematisieren wir Dr. Ignacio Tripodi vom Unternehmen Sciome LLC. mit Sitz in Research Triangle Park, North Carolina. Der Bioinformatiker entwickelt Computerprogramme für eine zeitgemäße Risikobewertung, die zur Reduktion und hoffentlich langfristig zu einem Ersatz von Tierversuchen führen wird.

Der Wissenschaftler hat ein Computersystem entwickelt, mit dem die akute Toxizitätsmechanismen ohne Tierversuche aufgeklärt werden können. Das System heißt MechSpy. Es erzeugt die wahrscheinlichsten Toxizitätsmechanismen, indem Daten der Humanbiologie, Toxikologie und Biochemie mit solchen der Genexpressionen aus Zellen menschlichen Gewebes kombiniert werden. Das Modell ist in der Lage, einfache, übersichtliche Toxizitätsmechanismen sowohl für gut untersuchte Verbindungen als auch für andere Chemikalien, für welche der Toxizitätsmechanismus nicht so bekannt war, vorherzusagen. Das Computermodell MechSpy kann um zusätzliche Toxizitätsmechanismen oder um andere Mechanismen der Humanbiologie erweitert werden.(1)

Auf dem EUSAAT-Kongress in Linz hat der Wissenschaftler eine weitere aktuelle Arbeit vorgestellt. Dafür nutzt er Informationen von sogenannten Adverse Outcome Pathways und lässt den Computer die Auswirkungen von Chemikalien auf den Organismus analysieren.

Beim Konzept der Adverse Outcome Pathways (AOP) führen biologische Vorgänge wie Zellrezeptorbindungen von Molekülen über mehrere Teilschritte zu schädlichen Effekten im Organ, Organismus oder einer Population.

Schematische Darstellung eines Adverse Outcome Pathways mit hypothetischen Ereignissen.
Nach AOP-Wiki, CC BY-SA 3.0.


Ein AOP beschreibt eine Abfolge von Ereignissen, die mit einer anfänglichen Interaktion eines Stressors mit einem Biomolekül in einem Organismus beginnt, das eine Störung in seiner Biologie verursacht (d. h. ein molekulares auslösendes Ereignis, MIE), die durch eine abhängige Reihe von dazwischenliegenden Schlüsselereignissen (KE) fortschreiten und in einem schädlichen Ergebnis (AO) kulminieren kann. Dieser Vorgang wird für die Risikobewertung oder die Entscheidungsfindung bei der Regulierung als relevant angesehen. Dabei muss die biologische Veränderung messbar und die Störung in Bezug auf Stärke, Dauer und Häufigkeit schwer genug sein, um den Weg bis zum schädlichen Ergebnis zu beschreiten. Das AOP-Konzept beschreibt nicht jedes Detail der Biologie, sondern nur die kritischen Schritte oder Kontrollpunkte auf dem Weg zur Störung.

Mit dem Konzept lassen sich die sogenannten Molekularen auslösenden Ereignisse (molecular initiating events, MIE) sowie die Schlüsselereignisse (Key events, KE) in Zellen, Geweben oder Organen identifizieren, um die Reaktion von Chemikalien z.B. zu verstehen. Ein molekulares auslösendes Ereignis ist eine spezielle Art von Schlüsselereignis, das den Ausgangspunkt einer Interaktion zwischen einer Chemikalie und einem Stressor auf molekularer Ebene innerhalb des Organismus darstellt, die zu einer Störung führt, die einen AOP in Gang setzt. Das Key Event dagegen ist eine Veränderung des biologischen oder physiologischen Zustands in der Zelle oder im Gewebe, die gemessen werden kann und wesentlich für das Fortschreiten einer definierten biologischen Störung ist, die zu einem bestimmten schädlichen Ergebnis (Adverse outcome) führt.

Die Identifizierung der AOPs basiert auf einer internationalen Zusammenarbeit von Wissenschaftler:innen, hiernach werden die gefundenen Pathways von der Extended Advisory Group on Molecular Screening and Toxicogenomics (EAGMST) der OECD einer Revision unterzogen. Die bereits erforschten Daten sind über AOP-Wiki(2) frei zugänglich. Die AOP-Konzeption ist auch eine wichtige Grundlage für die derzeit erarbeitete neue Vorgehensweise für die Risikobewertung und wird als einer der größten wissenschaftlichen Fortschritte der letzten 10 Jahre betrachtet. Sie soll auch zu einer stärkeren Nutzung tierfreier Methoden wie Zellkulturen, Organoide, Organ-on-a-Chip-Modelle oder in silico-Verfahren am Computer führen.


In silico
Unter in silico versteht man Vorgänge, die im Computer ablaufen. Computerprogramme sollen hier bei der Aufklärung von biochemischen Prozessen lebender Organismen, vor allem des Menschen, helfen. Derartige Methoden sind zunehmend auch geeignet, um Tierversuche zu reduzieren oder gar zu ersetzen. War früher der Computer nur ein Datenspeicher, so können heutzutage neue Einsichten über die Funktionalität der Natur, der Physiologie der Zellen, Organe, lebenden Systeme gewonnen werden, die sich so ohne Weiteres nicht beobachten oder entdecken ließen. Computergestützte Simulationen werden mit dem Ziel durchgeführt, z.B. ablaufende Prozesse in Zellen zu finden, die dann in vitro nachgebildet und möglichst bestätigt werden können. Umgekehrt werden Befunde in Zellen im Computer entweder bestätigt oder widerlegt.

Es gibt mittlerweile eine Vielzahl an verschiedenen Computermodellen. Der klassische Fall aus der Bioinformatik sind Sequenzanalysen, bei denen eine DNA-Sequenz z.B. mit Hilfe von Sequenzdatenbanken zunächst durch Vergleich identifiziert werden kann, z.B. BLAST.(3) So will die Computerchemie z.B. mit Hilfe von Computern die Eigenschaften von Molekülen berechnen. Dafür werden Softwareprogramme entwickelt.(4) Ziel ist es, mit Hilfe von Computermodellen nach einer Behandlungsmethode o.ä. zu suchen.

Mit Hilfe dieser Identifizierung und weiterer, wie z.B. durch die sogenannte QSAR-Toolbox(5) lassen sich dann die Eigenschaften ähnlicher Chemikalien finden, ohne auf den Tierversuch zurückgreifen zu müssen. Die QSAR Toolbox ist eine frei zugängliche Software, die die Identifizierung und Schließung von Datenlücken bei der (Öko-)Toxizität zur Gefahrenbewertung von Chemikalien unterstützt. Chemikalien werden dabei in Kategorien eingeordnet. Chemikalien können auf der Grundlage vom Benutzer ausgewählter Interaktionsmechanismen oder molekularer Merkmale identifiziert werden.

Der Bioinformatiker Dr. Ignacio Tripodi nutzt derartige Datenbanken und lässt, damit der Computer die richtigen Schlussfolgerungen zieht, den Computer die natürliche Sprache des Menschen mit dem sogenannten Natural Language Processing (NLP) verarbeiten. NLP ist ein Teilbereich der Künstlichen Intelligenz (KI). Der Rechner wird dadurch in die Lage versetzt, alle bereits erforschten und als richtig bestätigten Adverse Outcome Pathways in testbare Hypothesen umwandeln zu können. Ziel ist es, das Informationspotenzial der AOPs zu maximieren.


 

Grafik: Gerd Altmann, Pixabay.


Dies ist eine realistische Perspektive, um mit der Vielzahl an Substanzen umgehen zu können, die im Rahmen des europäischen „Green Deal“ nachgeprüft werden sollen. Dies könnte aufgrund der zeitlichen Ressourcen, der Kosten, des Umfanges und aus ethischen Gründen niemals an Tieren geschehen.


Europäischer Green Deal
Die Europäische Kommission hat am 14. Oktober 2020 ihre Chemikalienstrategie für Nachhaltigkeit verabschiedet. Die Strategie ist Teil des Null-Schadstoff-Ziels der EU – eine zentrale Verpflichtung des European Green Deals. Es zielt darauf ab, die Bürgerinnen und Bürger sowie die Umwelt besser vor schädlichen Chemikalien zu schützen und Innovationen durch die Förderung der Verwendung sichererer und nachhaltigerer Chemikalien voranzutreiben.
Die Umstellung auf Chemikalien und Produktionstechnologien, die weniger Energie benötigen, soll zu einer Begrenzung der Emissionen führen. Das bedeutet, dass der Grüne Deal die „richtige“ Chemie benötigt.(6) Eines ihrer ehrgeizigen Ziele der Chemikalienstrategie ist es, die Menge der verfügbaren Informationen über potenziell gefährliche Chemikalien zu erhöhen und gleichzeitig innovative Methoden ohne Tierversuche bestmöglich zu nutzen. Dazu gehören Techniken, die menschliche Zellen, Computermodelle und Organ-on-Chip-Geräte verwenden.(7)

Überhaupt werden die nächsten Jahre ganz im Zeichen der sogenannten Computational Toxicology stehen. Davon ist nicht nur Dr. Tripodi überzeugt, sondern dem stimmen viele Forscher:innen weltweit zu. Zunächst sind aber noch zahlreiche Herausforderungen zu meistern hinsichtlich der Qualität der entwickelten Modelle und der Verfügbarkeit von Informationen in Datenbanken. So stammen die meisten Daten in Datenbanken traditionell aus früheren Tierversuchen.
Auf der Basis der molekularen auslösenden Ereignisse entwickeln Forscher:innen Plattformen, die sie mit anderen Wissenschaftler:innen teilen und deren Qualität überprüfen. So gibt es auch verfügbare Datenbanken in den USA wie z.B. das CompTox Chemicals Dashboard. Deren Entwickler:innen sind sich sicher, dass sie aus den Giftigkeitsprüfungen am Tier aussteigen können und statt dessen das CompTox Chemicals Dashboard nutzen können.(8) Man habe genügend Daten zusammen, hieß es in einem im Herbst zum Thema durchgeführten Webinar. CompTox bietet einfachen Zugang zu Informationen über Chemie, Toxizität und Exposition für über 900.000 Chemikalien.

Über das Dashboard können die Nutzer auf hochwertige chemische Strukturen, experimentelle und vorhergesagte physikalisch-chemische Eigenschaften von Chemikalien, Umweltverhalten und -transport sowie Toxizitätsdaten zugreifen. Die Daten stammen sowohl aus traditionellen Tierversuchen als auch aus dem Hochdurchsatz-Screening. Letztgenannte Informationen basieren auf Untersuchungen mit lebenden Zellen oder Proteinen, die den Chemikalientests unterzogen worden waren. Das Dashboard kann nach Chemikaliennamen oder anderen Identifikatoren, Verbraucherproduktkategorien oder auch nach den Hochdurchsatz-Screening-Daten suchen. CompTox ist für Informationen über Toxizitäten von Chemikalien gedacht und nicht für Informationen über die Wirksamkeit von Arzneimitteln.

Je intensiver mit Expertensystemen, Datenbanken oder KI gearbeitet wird, desto notwendiger ist es, dass junge Wissenschaftler:innen auch in Informatik geschult sind und möglichst auch diese Disziplin beherrschen lernen. Daher sind Entwickler wie der junge Wissenschaftler Ignacio Tripodi dringend notwendig. Ein wesentliches Problem besteht derzeit noch darin, den Laien den Umgang mit derartigen Programmen zu erklären.

"... KI kann die Beziehungen heute mit beeindruckenden Präzisions- und Erinnerungswerten ableiten."

InVitro+Jobs führte ein Interview mit Dr. Ignacio Tripodi über seine Arbeit und Perspektiven der Computertoxikologie.

InVitro+Jobs: Welche Erfahrungen haben Sie dazu gebracht, Bioinformatiker zu werden?

Dr. Tripodi: Ich habe mit einer Informatikkarriere begonnen, in der ich das Glück hatte, an immer anspruchsvolleren und komplexeren Problemen zu arbeiten, aber obwohl ich mich in einer sehr angenehmen Position befand, hatte ich am Ende des Tages das Gefühl, dass ich nicht alles, was ich gelernt hatte, zur Lösung großer, globaler Probleme nutzen konnte. Ich war auch neugierig auf Biologie, aber nach einer etablierten Karriere in der Informatik dachte ich, das Schiff sei abgefahren. Nachdem ich mich jedoch zunehmend für örtliche Tierschutzvereine und Tierschutzfragen im Allgemeinen (z. B. Umfang und Art des Einsatzes von Tieren in der Forschung) engagierte, entdeckte ich die Welt der Bioinformatik und der computergestützten Modellierung zur Beantwortung von Fragen in der Biologie und Chemie, und meine Karriere nahm einen Umweg über die Wissenschaft, um einen Beitrag zur Reduzierung und zum Ersatz von Tiermodellen zu leisten. Ich hatte das große Glück, zum interdisziplinären PhD-Programm für quantitative Biologie an der University of Colorado zugelassen zu werden, wo ich neben meiner Informatik-Forschung und den Anforderungen auch Kurse wie z.B. Molekularbiologie, Genetik oder Mikroskopie belegen und ein zehnwöchiges Praktikum im Nasslabor absolvieren musste. All das gab mir die Möglichkeit, mich sowohl in der Welt der Computertechnik als auch in der Welt der Biologie "zweisprachig" zu bewegen, gab mir das Rüstzeug, um etwas über Toxikologie zu lernen, und befähigte mich, die Nuancen der Probleme, die ich zu lösen versuche, weit über die rechnerischen Details hinaus zu verstehen.

InVitro+Jobs: An welcher Forschungsfrage arbeiten Sie derzeit?

Dr. Tripodi: Es gibt mehrere Fragen, mit denen ich mich derzeit beschäftige, aber ich könnte sagen, dass die allumfassende Frage lautet: Wie weit können wir die automatische Generierung einer mechanistischen Hypothese aus einer Kombination von experimentellen Ergebnissen und unserem vorhandenen kuratierten Wissen vorantreiben? Wie weit kann uns eine Kombination aus modernsten Techniken des maschinellen Lernens und traditioneller semantischer künstlicher Intelligenz bringen, um unsere Beobachtungen zu erklären?

InVitro+Jobs: Welche regulatorischen Prozesse werden mit Ihrer Entwicklung unterstützt, welche Endpunkte werden angesprochen?

Dr. Tripodi: Für regulatorische Anwendungen befasse ich mich sowohl mit der Entwicklung von neuen Adverse Outcome Pathways (AOPs) als auch mit der Verifizierung/Anwendung dieser AOPs. Wir geben Toxikologieforschern ein Werkzeug an die Hand, mit dem sie auf reproduzierbare Weise ein quantitatives Messverfahren für die Anreicherung eines AOP (und einzelner AOP-Ereignisse) im Gewebe erhalten und auf der Grundlage ihrer experimentellen Daten eine mutmaßliche Erklärung für dieses Ergebnis liefern können. Diese Werkzeuge helfen sowohl bei der Hypothesenbildung als auch bei der Erforschung neuer kleiner Moleküle, um besser zu verstehen, warum eine bestimmte Art der Exposition zu einem nachteiligen Ergebnis in bestimmten Geweben führt. Dieser mechanistische Inferenzrahmen ist nicht auf einen bestimmten Endpunkt beschränkt und lässt sich über AOPs hinaus auch auf andere Pathway-Definitionen übertragen.

InVitro+Jobs: Automatisierte Arbeitsabläufe in Kombination mit menschlicher Kontrolle sind doch eher Expertensysteme als KI, oder wie sehen Sie das?

Dr. Tripodi: Heutzutage wird der Begriff "KI" in sehr unterschiedlichen Kontexten als Schlagwort verwendet, mit einer sehr großen Bandbreite an Interpretationen. Expertensysteme sind auch eine Art von KI, ebenso wie die Methoden des maschinellen Lernens, die ich anwende, um eine computerfreundliche Darstellung von Konzepten aus riesigen semantischen Wissensgraphen(a) zu extrahieren, oder die Methoden der Computerlinguistik zur Abbildung von AOP-Ereignissen auf diese Konzepte. Man könnte sagen, dass es sich um eine Kombination verschiedener Arten von KI-Techniken handelt, die von traditionellen Wissensrepräsentations-Frameworks bis hin zu Sprachmodellen und Deep Learning reichen. Die menschliche Kontrolle wird immer vorhanden sein, es handelt sich nicht um ein Werkzeug, das den Forscher ersetzen soll, sondern eher um einen "virtuellen Assistenten", mit dem man zusammenarbeiten kann.

InVitro+Jobs: Wer kontrolliert die Qualität der Daten in den Datenbanken? Kann die KI dies im Vergleich dazu selbst tun?

Dr. Tripodi: Verschiedene öffentliche Ressourcen haben unterschiedliche Annotationskriterien.(b) Viele der offenen biomedizinischen Ontologien(c), die wir verwenden, stützen sich beispielsweise auf die Zustimmung mehrerer menschlicher Kuratoren, um Verbindungen zwischen Proteinen und den in ihrer Ontologie dargestellten Konzepten zu annotieren. Viele verwenden auch rechnerisch abgeleitete Beziehungen, die aus einem breiten Spektrum von Methoden abgeleitet werden (z. B. rechnerische Vorhersagen von Wechselwirkungen zwischen Proteinen, Beziehungen zwischen Genen und Phänotypen, die aus dem Parsing(d) der Literatur unter Verwendung natürlicher Sprachverarbeitung abgeleitet werden, usw.). Es wird zwar nie möglich sein, eine perfekte Genauigkeit und Unvoreingenommenheit der von der KI abgeleiteten Beziehungen zu gewährleisten (dasselbe gilt allerdings auch für die manuellen Annotationen!), aber die KI kann dies heute mit beeindruckenden Präzisions- und Erinnerungswerten leisten. Für die Wissensrepräsentationssysteme, die wir aufbauen, verwende ich nur Annotationen, die von Menschenhand überprüft wurden, und verfeinere sie mit unseren eigenen datengesteuerten Methoden nur auf einem sehr hohen Vertrauensniveau, statistisch gesehen.

InVitro+Jobs: Wie kann sichergestellt werden, dass die KI am Ende nur leicht daneben liegt?

Dr. Tripodi: Es ist immer hilfreich, mit menschlichen Validierern zu arbeiten, die die Ergebnisse zumindest stichprobenartig überprüfen können, soweit es die Datenmenge zulässt. Die Berechnungsmethoden selbst bieten auch Möglichkeiten, um eine "Überanpassung" des Modells an einen bestimmten Trainingsdatensatz zu verhindern und es so verallgemeinerbar wie möglich zu machen.

InVitro+Jobs: Nach meinen Informationen werden inzwischen immer noch Tierdaten verwendet, weil es nicht genügend Humandaten gibt, um die Modelle zu erstellen. Wie gehen Sie mit der Tatsache um, dass die meisten Daten immer noch von Tieren stammen (Stichpunkt: Artenunterschiede)?

Dr. Tripodi: Wie der Statistiker George Box, der schrieb, "alle Modelle sind falsch, aber einige sind nützlich". Wir machen einfach das Beste aus den vorhandenen Daten von nichtmenschlichen Tieren, indem wir das, was wir können, aus der Homologie herausholen. Die Annahme, dass unsere Beobachtungen aus Tiermodellen in 'omics'-Daten durch Homologie direkt auf den Menschen übertragbar sind, ist angesichts unserer vielen Unterschiede in der Physiologie ein großer Irrtum. Wir verlieren immer Informationen, wenn wir diese Ergebnisse auf die menschliche Biologie projizieren. Es gibt jedoch auch eine Menge menschlicher Daten, die für eine Vielzahl von Gewebetypen in öffentlichen Quellen verfügbar sind, und meine gesamte Arbeit im Bereich der mechanistischen Inferenz(e) konzentriert sich seit Jahren auf humanspezifische Daten. In der Toxikologie zum Beispiel stammen viele Expositionsdaten traditionell aus In-vivo-Tiermodellen, doch die Zahl der verfügbaren In-vitro-Daten aus menschlichem Gewebe nimmt jedes Jahr zu. Die Qualität von Organoid- und "Tissue-on-a-Chip"-Modellen hat sich in nur wenigen Jahren enorm verbessert, und sie liefern Daten, die zuverlässig, physiologisch relevant und direkt auf den Menschen anwendbar sind.

InVitro+Jobs: Was sind die kommenden Herausforderungen in der computergestützten Toxikologie?

Dr. Tripodi: Ich denke, der wichtigste nächste Schritt ist vielleicht nicht technischer Natur, sondern eher ein Paradigmenwechsel: Für jede Art von Computermodell ist eine der wichtigsten Komponenten ein "Goldstandard"-Datensatz, auf den man sich verlassen kann, um die Leistung des eigenen Modells zu bewerten und mit anderen zu vergleichen. Jahrelang wurden die Daten von Tiermodellen als Goldstandard verwendet, trotz der Probleme bei der Übertragung auf die Humanbiologie und der Tatsache, dass sie sich oft nicht einmal zwischen verschiedenen Labors reproduzieren lassen. Daher besteht die Notwendigkeit, einen qualitativ hochwertigen, öffentlichen, auf den Menschen ausgerichteten "Omics"-Standarddatensatz für verschiedene Arten von Störungen unter Verwendung der richtigen Gewebe zu kuratieren, der von Informatikern zur Erstellung und Bewertung von Modellen verwendet werden kann. In einem idealen Szenario würden diese Experimente auch als Zeitreihen durchgeführt, um den mechanistischen Schlussfolgerungsprozess zu unterstützen, und - unter Verwendung von Organoiden.

InVitro+Jobs: Vielen Dank für das Gespräch.

Dr. Tripodi: Vielen Dank für die Gelegenheit, über diese Forschung mit einem breiteren Publikum zu sprechen!

Literatur:

1 Tripodi, I.J., Callahan, T.J., Westfall, J.T., Meitzer, N.S., Dowell, R.D. & Hunter, L.E. (2020). Applying knowledge-driven mechanistic inference to toxicogenomics. Toxicol In Vitro. Aug;66:104877. doi: 10.1016/j.tiv.2020.104877. Epub 2020 May 6. PMID: 32387679; PMCID: PMC7306473.
2 https://aopwiki.org/
3 Dandekar, T. & Kunz, M. (2021). Bioinformatik. 2. Auflage, Springer Verlag.
4 http://www.chemgapedia.de/vsengine/glossary/de/computerchemie.glos.html
5 https://www.oecd.org/chemicalsafety/risk-assessment/oecd-qsar-toolbox.htm
6 Europäische Chemikalienagentur (ECHA). Chemikalienstrategie für Nachhaltigkeit. https://echa.europa.eu/de/hot-topics/chemicals-strategy-for-sustainability
7 https://joint-research-centre.ec.europa.eu/jrc-news/jrc-supporting-alternatives-animal-testing-2022-04-07_en
8 https://www.epa.gov/chemical-research/comptox-chemicals-dashboard


Anmerkungen:

(a) Ein Wissensgraph (Knowledge Graph) ist im Kern ein wissensbasiertes System, das aus einer Wissensdatenbank und einer Maschine besteht, die deduktive Logik über die Wissensdatenbank ausführen kann, um Wissen abzuleiten, das sonst verborgen wäre (https://blog.vaticle.com/what-is-a-knowledge-graph-5234363bf7f5).
(b) Im Annotationsprozess werden einige Oberbedeutungen durch Entscheidungsbäume repräsentiert. Diese Entscheidungsbäume dienen einerseits dazu, durch die Anwendung einzelner Kriterien zu spezifischen Unterbedeutungen zu gelangen, ermöglichen aber durch diese Entscheidungen gerade auch die Festlegung auf die Oberbedeutung. (aus: Kiss, Tibor et al. 2020. Ein Handbuch für die Bestimmung und Annotation von Präpositionsbedeutungen im Deutschen. ISSN: 2700-8975)
(c) Eine Ontologie im Datenmanagement ist die meist sprachlich gefasste und formal geordnete Darstellung einer Menge von Begriffen und deren Beziehungen zwischen ihnen.
(d) Parsing: Syntaxanalyse.
(e) Inferenz: Wird mithilfe bereits bekannter Fakten etwas über noch unbekannte Sachverhalte ausgesagt, spricht man von einer Inferenz.