Big Data in der Medizin: Bei der Auswertung der in klinischen Studien anfallenden Datenmengen stößt die Computertechnik an ihre Grenzen. In besonderem Maße trifft das auf die Demenzforschung zu. Das Deutsche Zentrum für Neurodegenerative Erkrankungen in Bonn hat im März 2018 einen neuen Hochleistungsrechner von Hewlett Packard Enterprise in Betrieb genommen, der mit seiner neuartigen Rechnerarchitektur Memory-Driven Computing die Datenanalyse von Demenzerkrankungen wesentlich beschleunigen wird.
Medizinische Forschung: Wohin mit den Datenbergen?
Zusehends zeichnet sich ab, dass die Medizin viel stärker als bisher die individuellen Merkmale jedes einzelnen Patienten berücksichtigen muss. Eine solche personalisierte Medizin setzt die schnelle Verarbeitung sehr großer Datenmengen des Erkrankten voraus.
Diese stammen beispielsweise aus der Genomanalyse der DNA eines Patienten, der Untersuchung der Gesamtheit von DNA-Transkripten (Transkriptom) oder allen Eiweißen (Proteom), Bakterien (Mikrobiom) und epigenetischen Vorgängen (Epigenom) – alles Vorgänge, die bei Krankheitsentstehung, Verlauf und Therapiemöglichkeiten eine tragende Rolle spielen. Ob Genomics, Proteomics oder Epigenomics: Bioinformatiker beklagen schon heute, dass alles, was mit –omics endet, außerordentlich speicher- und rechenintensiv ist.
Noch größer wird die zu verarbeitende Informationsflut, will man anhand klinischer Studien die Daten nicht nur eines einzelnen Patienten analysieren, sondern die Datensätze vieler Personen miteinander vergleichen. Nur mithilfe solcher umfangreicher Analysen ist es möglich, einem Krankheitsgeschehen auf die Spur zu kommen und neue Ansatzmöglichkeiten für Therapien zu finden. Allein schon Speicherung und Aufbewahrung der anfallenden Datenmengen stellen ein wachsendes Problem dar, von deren Auswertung ganz zu schweigen.
Demenzforschung: Auch volkswirtschaftlich wichtig
Das gilt in besonderem Maße für die Demenzforschung, denn hier zeigen die demographischen Daten, dass Alzheimer und vaskuläre Demenz auf dem Vormarsch sind. In den kommenden Jahren wird sich die Behandlung solcher neurodegenerativer Erkrankungen als volkswirtschaftlich wichtige Rechengröße von zunehmender Wichtigkeit erweisen.
Der steigende Altersdurchschnitt sorgt dafür, dass es immer mehr ältere Menschen gibt und immer mehr davon an Demenz leiden. Als umso dringlicher erweist sich die Notwendigkeit, die Hintergründe der Krankheitsentstehung zu verstehen, Risikofaktoren zu identifizieren und geeignete neue Therapien zu finden. Ansonsten ist schon heute absehbar, dass die Finanzierbarkeit von Kranken- und Pflegeversicherung einem Kollaps erliegen wird.
Große Datenmengen schnell verarbeiten
Große Datenmengen in möglichst kurzer Zeit verarbeiten: DAS Wunschziel der Computertechnik. Der Quantencomputer mit fast unendlicher Rechenleistung ist trotz Fortschritten immer noch ein theoretisches Konzept und wird es auch lange Zeit bleiben. Daher müssen sich die IT-Experten mit den üblichen Digitalrechnern begnügen und versuchen, das Maximum an Leistung aus diesen Maschinen herauszuholen.
Warum sind unsere aktuellen Computer zu langsam? Sie arbeiten alle nach der klassischen von Neumann-Architektur, die der namensgebende Mathematiker bereits 1945 beschrieb. Herzstück jeden Rechners ist der Prozessor, die Central Processing Unit (CPU), die Programme ausführt und Daten verarbeitet. Arbeitsspeicher (RAM) und schneller Pufferspeicher (Cache) vermitteln die Daten aus einem Festspeicher wie etwa einer Festplatte.
Alle Daten müssen vom Speichermedium ausgelesen und in den Arbeitsspeicher geladen werden, damit die CPU darauf zugreifen kann. Diese Ladezeit ist Flaschenhals aller aktuellen Rechner. Bis der mechanische Schreib-Lese-Kopf einen Sektor gefunden und die notwendigen Daten ausgelesen hat, dauert gefühlte Ewigkeiten. Jeder wird das bestätigen, der seinen Computer mit einer Solid State Disk (SSD) ohne mechanische Bauteile anstelle von einer klassischen Festplatte hochfährt.
The Machine: HPEs Supercomputer
Hewlett Packard Enterprise (HPE) entwickelt seit 2014 eine neue Rechnerarchitektur, The Machine. Beim Memory Driven Computing steht nicht der Prozessor im Mittelpunkt, sondern der Arbeitsspeicher. Dadurch entfällt der Flaschenhals zwischen Festspeicher, Arbeitsspeicher und Prozessor.
Entsprechende DRAM-Speicherbausteine dienen als Grundlage für neuronale Netzwerke, die ähnlich wie unser Gehirn arbeiten: Sie sind außerordentlich schnell und in der Lage zu lernen. Muss man einem herkömmlichen Computer die Regeln vorgeben, nach denen er zu arbeiten hat, folgt ein neuronales Netzwerk beim maschinellen Lernen einer Art künstlicher Intelligenz, mit der es nach einem Lernprozess komplexe Muster zu erfassen vermag.
Ein solches System benötigt völlig neue Konzepte in Betrieb und Software, hat aber einen gewaltigen Vorteil: Es ist fast beliebig skalierbar. HPE spricht von Arbeitsspeichern in Exabyte-Größe – ein Exabyte sind 1018 Bytes oder eine Billion Megabyte. Grundsätzlich möglich wären bis zu 4.096 Yottabytes (4.096 x 1024 Bytes). Dagegen erscheinen die heute in Computern meist üblichen acht Megabyte RAM geradezu lächerlich. Auf diesen riesigen einheitlichen Arbeitsspeicher können praktisch beliebig viele Prozessoren gleichzeitig zugreifen.
Forscher des DZNE nutzen die Technik von The Machine
Am Standort Bonn hat das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) im Frühjahr 2018 den ersten HPE Superdome Flex in Betrieb genommen, nachdem man in Fort Collins in Colorado den Prototyp der neuen Rechnerarchitektur mit 160 TByte RAM testen konnte. Der Geschwindigkeitsvorteil ist immens: Was vorher 22 Minuten Rechenzeit benötigte, lauft auf dem Superdome Flex in 13 Sekunden. Zudem benötigt die neue Technologie 60 Prozent weniger Energie als die alten Systeme.
Das DZNE ist eines der wichtigsten Forschungszentren auf dem Gebiet der Demenzforschung. Sein Forschungsverbund mit über 80 Forschergruppen arbeitet an zehn deutschen Standorten unter dem Dach der Helmholtz-Gesellschaft.
Wichtige Aspekte der Arbeit der Wissenschaftler des DZNE sind die Analyse der Mechanismen der Entstehung von Demenz und die Erstellung von Modellsystemen, die die Entwicklung einer Demenz simulieren. All das setzt eine Menge Rechenpower voraus, mit der sich die Daten aus klinischen Studien erst analysieren lassen. Die dem DZNE bereits vorliegenden Datenmengen sind schon jetzt riesig: Prof. Joachim D. Schulze spricht von 30 Jahren Datensammlung von 30.000 Probanden.
Was bringt die neue Rechnerarchitektur der Demenzforschung?
Die Forscher des DZNE stellen ihre Datenbanken in einem Netzwerk zur Verfügung, das Wissenschaftler weltweit für Analysen nutzen können. Damit wird es in Zukunft möglich, die Entstehung von Alzheimer und anderen Demenzerkrankungen besser zu verstehen, Risikofaktoren zu erkennen und vorbeugende Therapien zu entwickeln.
In Zukunft wird man anhand von –omics-Daten gezielter für den individuellen Patienten geeignete Medikamente einsetzen und der personalisierten Medizin einen Schritt näher kommen. Für Früherkennung, Therapie und möglicherweise sogar zur Vorbeugung wäre ein solcher Fortschritt ein Meilenstein.
Quellen, Links und weiterführende Literatur
- Deutsches Zentrum für Neurodegenerative Erkrankungen (DZNE) – Pressemitteilung vom 28.03.2018: Neue Computer-Architektur: Zeitraffer für die Demenzforschung.
- Heise online: HPE „The Machine“: Zweiter Prototyp mit 160 TByte Arbeitsspeicher.
- ZDNet: HPE und das DZNE kooperieren bei der Demenzforschung.
- VDI Nachrichten: Memory Driven Computing – Rechnen inmitten der Datenmassen.