Keine Zeit mehr für Quick-Wins

Im digitalen, lernenden Gesundheitssystem von morgen müssen Gesundheitsversorgung und Forschung Hand in Hand gehen. Damit sich dieser Anspruch erfüllt, bemühen sich die aktuellen, nationalen Projekte auch um internationale Harmonisierung und Interoperabilität.

Die Anstrengungen sind enorm, aber alternativlos, wenn die Sammlung und Nutzbarmachung von Gesundheitsdaten europäischen Werten entsprechend vonstatten gehen soll. Es ist nicht verwunderlich, wieso derzeit (endlich) ein Ruck durch die europäische Medizininformatik geht. Noch ist Zeit, auch wenn sie knapper wird, nationale Forschungsdatenbanken so in Position zu bringen und auszustatten, dass die Bürger keine Angst vor einem Ausverkauf haben müssen.

Datengetriebene Forschung ermöglichen
In einem Umfeld, in dem sich große Unternehmen und ganze Länder in Stellung bringen, wächst jedoch auch der Anspruch der Bevölkerung, dass die eigenen Daten zu etwas Nutze sind bzw. sein werden. Angesichts der enormen Menge an heutzutage verfügbaren Gesundheitsdaten sollten Entscheidungen in der Gesundheitsversorgung eben nicht mehr nur auf Durchschnittswerten der Bevölkerung basieren, sondern individuelle Patientencharakteristika mitberücksichtigen. Doch nur die Analyse einer Vielzahl von Patientendaten aus der Routineversorgung sowie aus anderen Quellen birgt das Potenzial, relevante Veränderungen in der Medizin tatsächlich voranzutreiben. Die Rede ist hier beispielsweise von einer wirksameren Prävention, einer effizienteren Versorgung sowie neue, personalisierte Therapien durch datengetriebene Forschung zu ermöglichen.

In der Schweiz hat das Parlament insgesamt 68 Millionen Franken dafür bereitgestellt, Gesundheitsdaten besser für die Forschung nutzbar zu machen. Im Rahmen des «Swiss Personalized Health Network», einer nationalen Forschungsinfrastruktur-Initiative (Laufzeit: 2017-2020) – ähnlich der Medizininformatik-Initiative in Deutschland – arbeiten wir nun seit drei Jahren unter anderem daran, klinische Routinedaten, Bilddaten sowie Daten aus molekularen und genomischen Untersuchungen unserer fünf Universitätsspitäler interoperabel zu machen. Eine zweite Förderperiode bis 2025 wird folgen.

Auch wenn die Zusammenführung von Daten in der föderalen Schweiz an sich schon anspruchsvoll ist, verfolgen wir mit der SPHN-Initiative zudem eine einheitliche semantische Interoperabilitätsstrategie. Denn die Datenpunkte sind nur dann für Menschen (d.h. in unserem Falle für Forschende unterschiedlichster Fachdisziplinen), aber eben auch für Maschinen verständlich, wenn sie präzise formuliert sind. Hinsichtlich Strukturiertheit und Vergleichbarkeit (und damit Kombinierbarkeit) von Daten, spielen Terminologien und die Einigung auf Standards eine wichtige Rolle, insbesondere für die Wissenschaft – und dies geschieht in der heutigen Welt idealerweise in Anlehnung an internationale Harmonisierungsbemühungen.

«Digitalisierung ist mehr, als nur die Umwandlung von analog zu digital. Ihr Ziel sollte sein, einen Mehrwert und Nutzen für die Gesundheitsversorgung zu erreichen, in Abstimmung mit nationalen und internationalen Standardisierungsinitiativen.»

Die Zukunft gehört der nachhaltigen Interoperabilität
Für den Datentransport und die Datenspeicherung braucht es eine flexible, technische Lösung, die den Transport von Daten ohne Beeinträchtigung ihrer semantischen Bedeutungen ermöglicht und ein Höchstmass an Flexibilität bei der Datenwiederverwendung erlaubt. Idealerweise ist das Transportformat Datenmodell-unabhängig, da die Wahl eines solchen Modells (wie z.B. OMOP, i2b2 oder CDISC) stark von den Anforderungen und Bedürfnissen der Datennutzung abhängt und deshalb nicht vom Lieferanten, sondern vom Empfänger bestimmt werden sollte. Um dies zu erreichen, evaluiert SPHN momentan das Ressource Description Framework (RDF), ein häufig verwendeter Ansatz, der zur Bewältigung einer ähnlichen Herausforderung im World Wide Web entwickelt wurde.

Eine kollektive Herkulesaufgabe
Die Festlegung semantischer Vorgaben ist eine (kollektive!) Herkulesaufgabe, soll sie doch am besten alle Fachbereiche und Indikationen abdecken. Den Forschenden, die darauf warten, dass die Daten für ihre Forschungsprojekte aus den Spitälern geliefert werden – der Datenaustausch passiert im Rahmen von SPHN stets unter Achtung aller datenschutzrechtlicher Vorgaben und ethischer Standards – würde es prinzipiell ausreichen, dass die Daten innerhalb ihres Projektes interoperabel sind. Wenn wir jedoch eine nachhaltige Interoperabilität anstreben – über Projekte hinweg, über Systeme hinweg, über Ländergrenzen hinweg und über die Zeit – bringen uns Kompromisslösungen bzw. Quick Wins nur sehr begrenzt weiter. Zu Beginn der Schweizer Initiative sind wir davon ausgegangen, dass unsere Treiberprojekte, die uns dabei helfen, die Infrastrukturen aufzubauen und zu validieren, vor allem die in den Spitälern bereits vorhandenen Daten für ihre Forschungsprojekte nutzen werden. Wir mussten jedoch bald feststellen, dass die meisten Projekte einen prospektiven Ansatz wählten und projektspezifisch definieren, welche Daten welcher Patientengruppen sie für die Beantwortung Ihrer Fragestellungen einschließen möchten. Das stellt das System in der Tat vor zusätzliche Herausforderungen, denn mancherorts werden die gewünschten Daten in der Routineversorgung gar nicht oder wenigstens nicht in der gewünschten Art und Weise erhoben, was für die Forschung gleichbedeutend mit nicht-verfügbar ist.

«Digitalisierung ist mehr, als nur die Umwandlung von analog zu digital, und sollte mit dem Ziel eingesetzt werden, Mehrwert und Nutzen für die Gesundheitsversorgung zu erreichen.»

Spätes Mapping birgt Fehlerpotenzial
Eine weitere Herausforderung besteht darin, dass die verfolgte Standardisierung erst ganz am Ende der Datenverarbeitungskette ins Spiel gebracht wird. Das heißt, die Daten werden in den verschiedenen Quellsystemen der Kliniken erfasst – und zwar nicht in der für die Forschung optimalen Form – möglichst strukturiert und standardisiert –, sondern in der für die Versorgung gewohnten Art und Weise, nämlich größtenteils in Form von Freitext und ohne Nutzung einheitlicher Standards. Innerhalb der Universitätsspitäler fließen strukturierte wie unstrukturierte Daten meist in einen sogenannten data-lake, also einen großen, gemeinsamen Speicherort. Erst wenn die für die Forschung angefragten Daten aus diesem See oder auch direkt aus den Primärsystemen herausgefischt und aufbereitet werden, kommen die von SPHN empfohlenen Interoperabilitätsvorgaben ins Spiel. Liegen die Daten an den jeweiligen Standorten nicht in den vereinbarten Standards oder Terminologien vor, ist also ein zusätzliches Mapping erforderlich. Dies ist möglich, wenn die Primärdaten genügend feingranular vorliegen und Datenbeschreibungen (data dictionaries) mitgeliefert werden. Da diese Voraussetzungen oft nicht gegeben sind, kann das „späte“ Mapping zu großen Aufwänden führen und birgt ein gewisses Fehlerpotential.

Die Anforderungen, welche wir aus Forschungssicht an die Daten haben, hinsichtlich Strukturiertheit und Standardisierung, aber auch mit Blick auf ihre Qualität, also ihre Vollständigkeit, Konsistenz, Gültigkeit und Genauigkeit, sind auch für die Nutzung von Big Data Analysen und künstlicher Intelligenz zur direkten Wissensgewinnung in der Patientenversorgung relevant. Das System hat also durchaus ein über die Forschung hinausgehendes Interesse daran, dass die Prozesse rund um die Datenerfassung an vorderster Front optimiert werden.

Digitalisierung ist mehr, als nur die Umwandlung von analog zu digital, und sollte nicht zum Selbstzweck, sondern mit dem Ziel eingesetzt werden, Mehrwert und Nutzen für die Gesundheitsversorgung zu erreichen, in Abstimmung mit nationalen und internationalen Standardisierungsinitiativen. Diesbezüglich haben wir – in der Schweiz wie in Deutschland – einiges aufzuholen.

Beitrag von Dr. Katrin Crameri im miracum, Ausgabe März 2020

 

Scroll to Top