E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Big Data im Gesundheitswesen

Auch im Gesundheitswesen steht der Daten-Tsunami bevor: Nutzer wollen in Nahezu-Echtzeit Daten aus der steigenden Datenflut und so unterschiedlichen Datenquellen wie telemedizinischen Sensoren, Patienten und Fallakten, Krebsforschung oder Verwaltungsdaten der Versicherten analysieren. Welche Herausforderungen und Chancen bieten Healthcare Analytics für die Gesundheits-IT-Branche, Kliniken und Krankenkassen?

 

Es herrscht Goldgräberstimmung, wenn es um das Thema Big Data geht. Schon kursieren Begriffe wie „Erdöl der Zukunft” in Bezug auf die unerschöpflichen Potentiale, die die Analyse der enormen Datenmengen verspricht, die mittlerweile durch neue Technologien wie Sensorik, RFID, Ambient Intelligence, Smartphones etc. erhoben werden. 

 

Und auch der Safer Internet Day, der kürzlich in Berlin stattfand, trug bezeichnenderweise den Titel "Big Data  – Goldmine oder Dynamit?“  Auf der Veranstaltung, gemeinsam organisiert vom Bundesverbraucherministerium und dem Hightech-Verband BITKOM, wurde das Thema Big Data auf bundespolitischer Ebene diskutiert. Dabei hoben die Veranstalter besonders die Frage der Datensicherheit hervor. „Big Data-Anwendungen bringen nicht nur große Potenziale für die Wirtschaft, sondern können auch zur Lösung gesellschaftlicher Probleme beitragen. Die Akzeptanz der Verbraucherinnen und Verbraucher für umfangreiche Daten-Analysen lässt sich aber nur gewinnen, wenn der Datenschutz auf hohem Niveau sichergestellt wird“, so Bundesverbraucherministerin Ilse Aigner bei der Veranstaltung.

 

Das gilt im Besonderen für den Gesundheitsbereich – denn egal ob Krankenversicherer, Kliniken oder Forschungsinstitutionen, es geht dabei immer um sensible Patientendaten. Doch nicht nur die Art der Daten, sondern auch die enorme Menge der erhobenen Daten, stellen besondere Herausforderungen. Durch die expandierende Nutzung von Informationssystemen in Krankenhäusern und Forschungseinrichtungen, wurde in den letzten Jahren ein überwältigendes Datenvolumen gesammelt.

 

Allein die AOK, mit 24 Millionen Versicherten Deutschlands größte gesetzliche Krankenversicherung, sammelt Daten zu jährlich sechs Millionen Behandlungsfällen in 2.000 Krankenhäusern, sowie die jeweils dazugehörigen 55 Millionen Diagnosen, 18 Millionen Prozeduren und 55 Millionen Entgeltinformationen. Für die Forschung und Entwicklungsarbeit mit diesen Daten unterhält sie ein eigenes wissenschaftliches Institut, das WIdO. Dort wird beispielsweise erforscht, wie viele Versicherte ein erhöhtes Risiko tragen, in naher Zukunft ins Krankenhaus zu müssen. Oder wie viele Praxiskontakte ein chronisch Kranker im Vergleich zu einem Gesunden hat. Und ob zu viele Antibiotika fälschlich verschrieben werden. Um Antworten auf diese Fragen zu finden, braucht es sowohl statistisch ausreichendes und aussagekräftiges Datenmaterial als auch moderne Analysetechnologien und Data Warehouse-Lösungen, die die große Datenmengen aus unterschiedlichen Quellen schneller und sicherer verarbeiten.

 

Auch die medizische Versorgung kann ganz konkret von Healthcare Analytics-Ansätzen profitieren. Eine neue Datenbank-Technologie, die personalisierte Medizin flächendeckend nutzbar machen soll, hat das deutsche Hasso-Plattner-Institut für Softwaresystemtechnik (HPI) in Potsdam Ende letzten Jahres präsentiert. Die Krankenhaus-Software Oncolyzer wurde in Kooperation des HPI mit der Charité – Universitätsmedizin Berlin entwickelt. Die In-Memory-Technologie, die ursprünglich für Unternehmenssoftware entwickelt und mit dem Deutschen Innovationspreis 2012 ausgezeichnet wurde, soll künftig helfen, riesige Mengen medizinischer Daten in Echtzeit zu analysieren und auszuwerten. Komplizierte und teure Behandlungen, zum Beispiel bei Krebserkrankungen, können dann schneller und passender auf jeden Patienten individuell zugeschnitten werden.

 

Dr. Christian Regenbrecht, Leiter der Arbeitsgruppe Tumorstammzellen am Institut für Pathologie an der Charité, hat den Oncolyzer mitentwickelt. Er erklärt, dass in Zukunft die sogenannte personalisierte Medizin immer häufiger zum Einsatz kommen werde. „Menschen mit derselben Erkrankung reagieren zum Teil sehr unterschiedlich auf ein und dieselbe Behandlungsmethode. Mit zunehmenden Kenntnissen über individuelle Unterschiede der Patienten werden deshalb gezielte und effektive Behandlungsstrategien unter Vermeidung belastender Nebenwirkungen möglich“, betont Dr. Regenbrecht.

 



„Die personalisierte Medizin zielt darauf ab, Behandlungsentscheidungen auf Basis aller patientenspezifischen Informationen zu treffen. Dazu müssen künftig mehr und mehr Daten bei der Behandlung verarbeitet und zum Beispiel der ‚Bauplan‘ eines jeden Menschen, die DNS, auf genetische Veränderungen untersucht werden“, sagt HPI-Direktor Prof. Christoph Meinel. Dabei fallen nach Angaben des Informatikwissenschaftlers riesige Datenmengen an, denn jeder Mensch trägt rund 3,2 Mrd. Erbinformationen in sich.

 



Diesen enormen Datenvolumen rücken die Forscher rund um Dr. Matthieu-Patrick Schapranow aus dem Fachgebiet des HPI-Stifters Prof. Hasso Plattner  mit einem 1.000-Kerne-Hochleistungsrechner zu Leibe, einem von weltweit drei Exemplaren dieser Art. „Um genetische Veränderungen in Echtzeit zu analysieren, kombinieren wir die Forschungsergebnisse weltweiter medizinischer Datenbanken in einer Wissensdatenbank. Hochleistungsrechner kombiniert mit riesigen Arbeitsspeichern helfen uns so, bekannte genetische Dispositionen zu identifizieren und behandlungsrelevante Zusatzinformationen interaktiv binnen Sekunden statt wie bisher manuell über Tage hinweg zu ermitteln“, berichtet Schapranow, der sehr eng mit der Charité zusammenarbeitet. Die Folge: Genomdaten können über eine Cloud- Anwendung blitzschnell analysiert werden.



 

Dass das Gesundheitswesen ein boomender Markt für Big Data-Lösungen ist, zeigt auch die Studie „Big Business dank Big Data? Neue Wege des Datenhandlings und der Datenanalyse in Deutschland 2012“ des Marktforschungs- und Beratungsunternehmen IDC. Diese hatte im September 2012 eine Befragung unter 254 deutschen Unternehmen mit mehr als 100 Mitarbeitern durchgeführt. Ziel der Untersuchung war es, die aktuellen Herausforderungen und Lösungsansätze für das neue IT-Paradigma Big Data zu untersuchen. Dabei gaben 13 Prozent der Firmen, die u.a. überdurchschnittlich aus dem Gesundheitswesen  kommen, an, mit einem Datenzuwachs von 25 bis 50 Prozent zu rechnen.

 

Doch bei allem Hype gilt es, die besonderen Herausforderungen im Gesundheitswesen zu bedenken, handelt es sich doch um die Erhebung und Analyse sensibler Patientendaten. Und so kann man dem BITKOM-Präsidenten Prof. Kempf nur zustimmen, der auf dem eingangs erwähnten Safer Internet Day in Berlin erklärte: „Der Wert digitaler Infrastrukturen liegt in der sinnvollen, kontrollierten Nutzung von Daten zum Wohl des einzelnen Menschen sowie der Gesellschaft insgesamt.“