Page 46 - Revista 2018 ultima
P. 46
Revista de la Facultad de Ingeniería, Año 5, Número 1
Esta conclusión puede trasladarse a nuestro País, donde, la adopción de las historias
clínicas electrónicas por la mayor parte de los proveedores de salud, permite
identificar dos niveles de desafíos. A nivel de los centros de atención médica,
considerados localmente, uno de los retos más importantes lo constituye el
almacenamiento y procesamiento (sanitación de los datos) de registros generados
principalmente en las consultas y en la digitalización de estudios clínicos como las
tomografías computadas y resonancias magnéticas, entre otros, para su posterior
analítica.
Los datos pueden ser estructurados (responden a un esquema), semi estructurados
(responden a una estructura jerárquica, por ejemplo: html y json) o no estructurados
(documentos, videos y audios entre otros). Tal variedad de datos presentan un reto
importante para los prestadores de salud al momento de identificar patrones o
tendencias a partir de ellos. El procesamiento del lenguaje natural (NLP), la
búsqueda de correlaciones, la descripción de agrupamientos y determinar
tendencias, son, en contextos en los cuales se generan datos en "forma tradicional",
métodos que resultan difíciles de aplicar y extraer conocimiento de utilidad (nos
referimos a "forma tradicional" de generar datos cuando éstos se pueden almacenar
en bases de datos relacionales). Si el escenario consiste en aplicar dichas técnicas a
diferentes tipos de datos, que generan grandes datasets, las dificultades aumentan.
El segundo nivel de desafío implica, si la analítica se pretende hacer a nivel nacional,
la integración de los datos de todas las mutualistas. A las dificultades que se
presentan a nivel local de cada institución, se agrega la diversidad de de origen de
los datos. En este nivel el volumen, velocidad y variabilidad de los datos implicarían
incursionar en big data para su análisis, debiéndose considerar varios aspectos.
La colección de los datos deberá ser atendida considerando el volumen y velocidad
de creación. Puede ocurrir que los datos pudieran transportarse a un storage central
(considerando el bajo costo del almacenamiento en la actualidad y la tendencia a la
reducción prevista de sus precios en el futuro). Este escenario implicaría un costo de
transporte que puede transformarse en un "cuello de botella", característico en big
data. Si los datos permanecen en las instituciones (que sería la opción más
adecuada), se deberá llevar el procesamiento a los datos a través de modelos
computacionales desarrollados a tal fin. El modelo más adecuado sigue siendo Map
Reduce. Los servidores o commodities que aportan cada institución médica es una
estación que efectuaría operaciones Map. Luego se debe contar con un equipo
centralizado que hará la operativa Reduce (considerando la cantidad de centros
asistenciales en Uruguay y comenzando con un prototipo, un equipo sería
suficiente, previendo que se deba escalar en caso de un aumento de la demanda de
los servicios prestados).
46