HPE en Jungla maken precisiegeneeskunde mogelijk via Memory-Driven Computing

Hewlett Packard Enterprise (HPE) kondigt vandaag een samenwerking aan met Jungla, een start-up in biotechnologie en artificial intelligence (AI). De samenwerking moet bijdragen aan realtime gepersonaliseerde medische zorg. Door de toepassing van HPE’s Memory-Driven Computing Sandbox op de datasets van Jungla, helpt HPE om de overzichtelijkheid en het gebruik van klinische genetische en genomische testen te versnellen. De HPE MDC Sandbox maakt grote capaciteit en exponentiële performanceschaling mogelijk.
Het decoderen van het eerste menselijke genoom kostte $2,7 miljard en duurde maar liefst 15 jaar. Door de ontwikkelingen in sequencing-technologie zijn de kosten van genoomsequencing gedaald naar $1.000. Dit maakt de weg vrij naar persoonlijke genomen en betaalbare, wereldwijde beschikbaarheid. Met de betreffende data wordt het mogelijk inzichten te verkrijgen en richtlijnen te bieden voor te nemen acties; dit is een kritische stap richting het realiseren van betaalbare zorg die geheel op de individuele patiënt is afgestemd: ‘pre medicine’. Het helpt onderzoekers om antwoorden te vinden op vragen als:
• Wat is de relatie tussen de drie miljard ‘base pairs’ die het menselijk genoom en ons welzijn omvatten?
• Welke impact hebben genoomvariaties op de waarschijnlijkheid van ontwikkeling van kanker of hartaandoeningen?
• Hoe kunnen onderzoekers mechanistische inzichten vertalen van observaties uit hun diagnoses naar daadwerkelijke therapieën?
Een duidelijk inzicht over genomische informatie op iedere schaal is essentieel voor het realiseren van precisiegeneeskunde: betaalbare zorg, afgestemd op individuele behoeften. Of het nu gaat om variatiepatronen in wereldwijde populaties of over moleculaire mechanismen die door variaties bij individuele patiënten worden beïnvloed. Maar de genetische uniekheid van de mens vormt een grote uitdaging voor klinische zorg. Zelfs binnen delen van het genoom waarvan de relevantie voor de ziekte al bekend is, wordt minder dan één procent van de genetische varianten in de populatie klinisch begrepen.
Het verwerven van genetische en genomische data is tegenwoordig relatief eenvoudig, maar het gebruiken van deze informatie is in veel lifesciencegebieden het grote knelpunt. De bestaande processen en standaarden om deze informatie in klinische laboratoria te interpreteren zijn in hoge mate afhankelijk van handmatige patroonherkenning en correlatie. Deze barrière vertraagt medisch onderzoek en beperkt de schaalbaarheid, bruikbaarheid en integratie van genomische informatie in klinische workflows voor realtimediagnose en beheer.
Jungla heeft een computationeel en experimenteel Molecular Evidence Platform (MEP) ontwikkeld om problemen systematisch te genereren, evalueren en controleren. Het platform deelt vervolgens relevante richtlijnen voor klinische interpretatie van testbevindingen. Naarmate de performance en het bereik van het platform toeneemt, integreert Jungla steeds meer mechanistische benaderingen om tot resultaten te komen, bijvoorbeeld hi-res moleculaire analyses.
“Traditionele computersystemen maakten het Jungla onmogelijk om datasets op grote schaal te vergelijken”, aldus Michael Woodacre, HPE Fellow. “Zelfs nadat de systemen de data hadden geanalyseerd, moesten onderzoekers handmatig door de steeds grotere datasets om patronen te identificeren. Onze MDC-architectuur – en de ongekende dataverwerkingscapaciteit – vermindert het risico op menselijke fouten en zorgt voor snellere resultaten. Jungla benadert Memory-Driven Computing als een wetenschappelijk instrument in plaats van een computersysteem en gebruikt het voor automatisering van medisch onderzoek om snelheid en medische precisie te winnen.”
Om Jungla te helpen bij de ontwikkeling van een ‘genometics insights engine’, laadde HPE enorme datasets van Jungla in op de 48TB MDC Sandbox. Deze operating- en ontwikkelomgeving werd in juni 2018 voor klanten geïntroduceerd.
Met de MDC Sandbox kunnen hi-res moleculaire analyses via het Molecular Evidence Platform ongeveer 250 keer sneller worden geleverd dan traditionele hardware. Het MEP maakt uniforme beoordeling van genomische varianten op moleculaire, cellulaire en evolutionaire processen mogelijk.
“Wij denken dat als we de waarde van genomische data willen realiseren, we verder moeten kijken dan de veranderingen in de sequentie van het genoom van een patiënt. We moeten kijken naar veranderingen in de moleculaire en cellulaire functie”, aldus Carlos L. Araya, CEO van Jungla Inc. “Om dit te doen hebben we computationele en experimentele systemen gebouwd die ongekende inzichtniveaus aan klinische teams kunnen bieden. Deze teams willen genomische informatie gebruiken voor patiëntenzorg. Dit vereist een enorme datatoename en benodigde processen om de data te genereren en te analyseren.”
“Het werk met HPE vertegenwoordigt een verbintenis om grenzen te verleggen en vooruitgang te boeken op het gebied van wetenschap en techniek, zodat we individuele patiënten klinisch kunnen testen”, stelt Araya. “De complete genoomsequentie van een patiënt, met honderdduizenden varianten uit duizenden genen, vertegenwoordigt ongeveer vijf gigabyte aan informatie. De gedetailleerde data van onze workflows met HPE kunnen meer dan 40TB voor een enkel gen verwerken. We moeten niet alleen zorgen voor successen in de wetenschap, we moeten ook de infrastructuur en processen bouwen die schaalbaar genoeg zijn om wetenschappelijke inzichten door te vertalen in klinische resultaten. Met HPE’s Memory-Driven Computingsystemen kunnen we nieuwe bevindingen van een patiënt in de context van moleculaire kenmerken van alle klinisch varianten brengen, en ook nog eens on-demand. Deze ontwikkelingen gaan niet van de ene op de andere dag, maar het is waar we uiteindelijk heen moeten als we zowel snelheid als nauwkeurigheid in de zorg willen nastreven. ”
Realtime en personalized medical care
Naast de samenwerking met Jungla, werkt HPE ook met andere onderzoekers in life sciences en klinische geneeskunde samen. Bijvoorbeeld het Living Heart Project, het Duitse centrum voor neurodegeneratieve ziekten (DZNE) en het Blue Brain Project, allemaal om de technologische potentie te ontdekken voor de transformatie van life sciences.
Iedere research community is baanbrekend voor nieuwe benaderingen in gezondheidswetenschap. Het doel is om antwoorden te vinden die nu nog niet voor mogelijk worden gehouden. Momenteel worden barrières gevormd door verschillende silo’s in wetenschappelijke disciplines en het gebrek aan schaalbare computerinfrastructuren. Nieuwe computerplatforms versnellen niet alleen wetenschappelijk onderzoek, ze veranderen ook de manier waarop de wetenschappers handelen.
“Precisiemedicatie is niet mogelijk zonder de meest geavanceerde computerinfrastructuren”, aldus prof. Joachim Schultze, directeur PRECISE Platform voor Single Cell Genomics en Epigenomics bij DZNE en de Universiteit van Bonn. “Memory-driven computing lijkt mij het ideale compute-ecosysteem voor deze enorme taak.”
Geïnspireerd door deze projecten, de mogelijkheden om conventionele medische testen te transformeren en de potentiële impact van deze transformatie, introduceerde HPE vandaag de tweede Tech Impact 2030-uitdaging: het creëren van realtime gepersonaliseerde medische patiëntenzorg. Tech Impact 2030 is het samenwerkingsprogramma tussen HPE en het World Economic Forum (het Forum). Onder Tech Impact 2030 brengen HPE en het Forum experts uit de publieke en private sector samen om betekenisvolle veranderingen teweeg te brengen in een aantal belangrijke maatschappelijke uitdagingen.
HPE verwacht een fundamentele verschuiving voor medische onderzoekers als ze toegang hebben tot geavanceerde simulaties waarin aanstaande eigenschappen van complexe biologische systemen zijn meegenomen. Niet alleen gaat de technologie zorgen voor sneller onderzoek tegen lagere kosten, het zorgt ook dat ze hun relatie met patiënten, hun data en hun wetenschap kunnen verbeteren. Hun rol verandert van ‘dataverzamelaar’ naar ‘inzichtjager’.
“In een traditionele setting beginnen onderzoekers met een eenvoudig model en voegen ze complexiteit toe, om het vervolgens te laten corresponderen met hun observaties”, aldus Kirk Bresniker, VP, HPE Fellow en chief architect voor Memory-Driven Computing. “Wanneer iets wordt waargenomen dat niet verklaard kan worden door het model, wordt het model vaak weggegooid. Maar wat als een onderzoeker op het meest basale niveau kan beginnen en modelleringsniveaus zou kunnen samenstellen door atomen samen te voegen om moleculen te maken, door moleculen samen te voegen tot nieuwe structuren en dan vervolgens cellen, organen, ecosystemen te bouwen. Onderzoekers kunnen zo het onzichtbare visualiseren en een duidelijk ‘voor en na-beeld’. Dit is essentieel in de wetenschap.”
Tech Impact 2030
Eerder dit jaar kondigden HPE en het Forum de eerste uitdaging aan: “Help Solve World Hunger by 2030”. Dit is geïnspireerd op resultaten uit de 1400 hectare grote onderzoeksfarm van de Purdue University en de toepassing van precisielandbouw voor efficiënte oogstvelden. Door gebruik te maken van enorme hoeveelheden data – verzameld door verbonden platforms en apparaten – en door deze data aan de rand van het netwerk al te verwerken, biedt HPE snel inzichten waardoor boeren sneller beslissingen kunnen nemen.
In de komende maanden introduceren HPE en het Forum additionele uitdagingen in belangrijke sectoren, waaronder financiële dienstverlening, transport en productie. Elke uitdaging vormt een sociaal, economisch of milieuprobleem dat kan worden aangepakt door deskundigen bij elkaar te brengen en bestaande en innovatieve technologie op nieuwe manieren toe te passen.
Deelnemen aan Tech Impact 2030
HPE en het Forum geloven dat partnerships essentieel zijn om echte verandering tot stand te brengen. Organisaties die willen deelnemen in het Tech Impact 2030-programma, kunnen meer informatie vinden op https://news.hpe.com/tech-impact-2030/ of contact opnemen via TechImpact2030@hpe.com.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.