Lernender Computer sagt Giftigkeit von Chemikalien voraus
- Pressemitteilung
Riesige Datenbank
Intelligente Computer errechnen die Giftigkeit von neuen Chemikalien anhand von Daten einer riesigen Datenbank. Das geniale System hat ein Team um den Toxikologen Dr. Dr. med. Thomas Hartung von der Johns Hopkins Bloomberg School of Public Health in Baltimore entwickelt. Hartung ist auch Redner bei unserem WIST-Kongress – Wissenschaft statt Tierversuche am 27.10. in Köln.
Facebook, Google und Co. nutzen Computer-Algorithmen, um gigantische Datenmengen der Internetnutzer zu analysieren und Prognosen zu erstellen, was uns gefällt, was uns dann als Newsfeed oder Werbung vorgesetzt wird. Jetzt könnte diese so genannte künstliche Intelligenz helfen, Hunderttausende Tierversuche zu verhindern.
Millionen Tiere wie Mäuse, Kaninchen, Hunde und Affen müssen jedes Jahr in Laboren auf der ganzen Welt für Giftigkeitstests leiden und sterben. Allein in Deutschland sind es rund 230.000 Tiere pro Jahr. Teilweise sind diese Tierversuche angeblich „zum Schutz der Verbraucher“ gesetzlich vorgeschrieben. Dabei sind sie nicht nur extrem teuer und bedeuten für die Tiere ein immenses Leid, sondern ihre Ergebnisse sind aufgrund der schlechten Reproduzierbarkeit und Übertragbarkeit auf den Menschen mehr als fraglich.
An der Johns Hopkins Bloomberg School of Public Health in Baltimore hat sich ein Team rund um den Toxikologen Dr. Dr. med. Thomas Hartung diesem Problem angenommen. 2016 wurde dafür bereits die weltweit größte maschinenlesbare toxikologische Datenbank entwickelt. Diese enthält Informationen über Strukturen, Eigenschaften und möglichen Wirkungen von 10.000 chemischen Verbindungen, die auf 800.000 toxikologischen Tests, d.h. überwiegend Tierversuchsstudien, basieren.
Jetzt wurde diese Datenbank durch Algorithmen des maschinellen Lernens erweitert, um die Daten besser lesen zu können und eine „Karte“ bekannter chemischer Strukturen und der damit verbundenen giftigen Eigenschaften zu erstellen. Auch Vergleiche mit Chemikalien ähnlicher Struktur mit bekannter Wirkung werden herangezogen. Damit ist das Computerprogramm innerhalb kürzester Zeit in der Lage für noch nicht getestete Substanzen sowohl strukturell verwandte Chemikalien zu finden als auch eine Vorhersage über mögliche toxische Effekte auf Haut und Schleimhäute oder DNA-Schäden zu machen.
Neben der Fähigkeit dieses neuartigen Systems zuverlässig gesundheitsschädliche Wirkungen von Substanzen vorherzusagen, ist die computergestützte Methode in der Anwendung viel günstiger und schneller als der Tierversuch. Für die Testung einer neuen Chemikalie wird üblicherweise eine Palette von Versuchen an verschiedenen Tierarten durchgeführt. Das ist nicht nur ethisch falsch, sondern kostet auch viel Geld und Zeit. Die Durchführung von 30 Standard-Tierversuchen für zum Beispiel ein neues Pestizid kann 17 Millionen Euro kosten und mehrere Jahre dauern.
Die US-amerikanische Gesundheitsbehörde (FDA) und Umweltschutzbehörde haben bereits mit der formellen Evaluierung der Methode begonnen. Bei der Entwicklung der Datenbank kam heraus, dass dieselbe Chemikalie oft Dutzende Male auf die gleiche Art und Weise getestet wurde. Beispielsweise wurden zwei Substanzen 90 Mal und 69 Chemikalien 45 Mal im sogenannten Draize-Test auf ihre Verträglichkeit getestet. Bei diesem extrem schmerzhaften Test werden Kaninchen Chemikalien in die Augen geträufelt. Anhand der Entzündungsanzeichen der Augen erfolgt anschließend die Beurteilung der Reizwirkung der Substanzen.
Bei unserem REACH-Projekt, bei dem wir rund 60.000 Ratten, Kaninchen und Fische vor einem qualvollen Gifttod bewahren konnten, machten wir uns die bereits vorhandenen riesigen Datenmengen über Chemikalien zu nutze. Zahlreiche Tierversuche konnten wir verhindern, weil wir belegen konnten, dass es Daten zu einer Chemikalie bereits gab oder Strukturähnlichkeiten zu verwandten, bereits getesteten Substanzen vorlagen (so genanntes read across). Mit Hartungs Computer-Algorithmen werden solche Überprüfungen jetzt sehr viel einfacher. Von der Industrie und Regulierungsbehörden eingesetzt, werden so mit Sicherheit sehr viele Tierversuche eingespart werden können.
Den Leiter der Studie, Dr. Dr. Thomas Hartung, dürfen wir am 27. Oktober 2018 als Referenten auf unserem WIST–Kongress – Wissenschaft statt Tierversuche - in Köln begrüßen. Dort wird er zu einem anderen sehr spannenden Thema, den Mini-Gehirnen, sprechen.
Quellen:
- Johns Hopkins Bloomberg School of Public Health, News Release, 11. Juli 2018 “Database analysis more reliable than animal testing for toxic chemicals” >>
- Süddeutsche.de, 15. Juli 2018, “Viele Tierversuche könnten durch Software ersetzt werden“ >>