Big Data en Medicina: La inteligencia artificial que viene
El big data tiene importantes dimensiones y todas ellas comienzan convenientemente con la letra “v”
( http://www.datasciencecentral.com/forum/topics/the-3vs-that-define-big-data ):
1) Volumen – se calcula que los volúmenes de datos recientes están en petabytes (1015) y exabytes (1018) y estarán en zettabytes (1021) en un futuro cercano (la unidad más alta es el yottabyte que es 1024) ( http://www.theopenstrategist.com/2012/10/big-data-growthchart.html ). Estos datos incluyen registros médicos electrónicos, dispositivos de monitorización del hogar, datos genómicos, reclamaciones a seguros, información sobre medicamentos, y datos de imágenes (de ecocardiogramas, angiogramas y RMN/TAC)
2) Variedad – la consideración de los datos estructurados y no estructurados en numerosas formas y combinaciones; y
3) Velocidad – la transferencia de datos y el análisis ahora deben estar en fracciones de segundos e incluso en tiempo real, especialmente con transferencia de estudios de imágenes en telemedicina Unas “v” adicionales incluyen también:
4) Veracidad: la precisión y confiabilidad de big data y sus análisis acompañantes y finalmente
5) Valor – determinación de cuánto vale esta información para la institución y el usuario.
El Big Data biomédico
El big data biomédico actual, acumulado por registros médicos electrónicos y el archivo de imágenes digitales (alrededor de 20 megabytes o MB por imagen), alcanza la asombrosa cifra de 100-250 exabytes con una tasa de crecimiento anual de 1.2 a 2.4 exabytes. Este big data biomédico, sin embargo, está aún muy fragmentado y desorganizado. Nuestros datos tradicionales con un enfoque de “arriba hacia abajo” hasta ahora implica o bien 1) unas bases de datos sobre salud o registros (eso implica el ingreso manual de datos con sus limitaciones inherentes de precisión e integridad, seguido de análisis de datos con herramientas estadísticas básicas) o bien 2) una investigación convencional impulsada por hipótesis y ensayos controlados aleatorios (ECA) que se han vuelto costosamente prohibitivos, de un alcance limitado y, a menudo, sin respuestas definitivas a las preguntas clínicas planteadas.
Recientemente, este nuevo paradigma de big data se ha aplicado con éxito a la ciencia biomédica principalmente en forma de medicina genómica y su escalada de big data en la transcripción genética [7]. La gran magnitud y la adquisición rápida de este big data genético es increiblemente vertiginosa, como ejemplifica Michael Snyder, un genetista de Stanford que ha generado 30 terabytes de datos con solo sus propios datos biológicos. A pesar de este desalentador desafío, algunos se han enfrentado al mismo con éxito, avanzando en el impacto positivo en la atención del paciente [8] [9]. La piedra angular de todo este esfuerzo de transformación de datos en Medicina genómica es el ENCyclopedia Of DNA Elements (proyecto ENCODE), un proyecto internacional de colaboración entre grupos de investigación financiados por el Genome Research Institute con el objetivo de delinear la totalidad de elementos funcionales codificados en el genoma humano...
Lee el artículo completo en DocTUtor