Page 46 - Revista 2018 ultima
P. 46

Revista de la Facultad de Ingeniería, Año 5, Número 1


            Esta conclusión puede trasladarse a nuestro País, donde, la adopción de las historias
            clínicas  electrónicas  por  la  mayor  parte  de  los  proveedores  de  salud,  permite
            identificar  dos  niveles  de  desafíos.  A  nivel  de  los  centros  de  atención  médica,
            considerados  localmente,  uno  de  los  retos  más  importantes  lo  constituye  el
            almacenamiento y procesamiento (sanitación de los datos) de registros generados
            principalmente en las consultas y en la digitalización de estudios clínicos como las
            tomografías  computadas  y  resonancias  magnéticas,  entre  otros,  para  su  posterior
            analítica.

            Los datos pueden ser estructurados (responden a un esquema), semi estructurados
            (responden a una estructura jerárquica, por ejemplo: html y json) o no estructurados
            (documentos, videos y audios entre otros). Tal variedad de datos presentan un reto
            importante  para  los  prestadores  de  salud  al  momento  de  identificar  patrones  o
            tendencias  a  partir  de  ellos.  El  procesamiento  del  lenguaje  natural  (NLP),  la
            búsqueda  de  correlaciones,  la  descripción  de  agrupamientos  y  determinar
            tendencias, son, en contextos en los cuales se generan datos en "forma tradicional",
            métodos  que  resultan  difíciles  de  aplicar  y  extraer  conocimiento  de  utilidad  (nos
            referimos a "forma tradicional" de generar datos cuando éstos se pueden almacenar
            en bases de datos relacionales). Si el escenario consiste en aplicar dichas técnicas a
            diferentes tipos de datos, que generan grandes datasets, las dificultades aumentan.
            El segundo nivel de desafío implica, si la analítica se pretende hacer a nivel nacional,
            la  integración  de  los  datos  de  todas  las  mutualistas.  A  las  dificultades  que  se
            presentan a nivel local de cada institución, se agrega la diversidad de de origen de
            los datos. En este nivel  el volumen, velocidad y variabilidad de los datos implicarían
            incursionar en big data para su análisis, debiéndose considerar varios aspectos.
            La colección de los datos deberá ser atendida considerando el volumen y velocidad
            de creación. Puede ocurrir que los datos pudieran transportarse a un storage central
            (considerando el bajo costo del almacenamiento en la actualidad y la tendencia a la
            reducción prevista de sus precios en el futuro). Este escenario implicaría un costo de
            transporte que puede transformarse en un "cuello de botella", característico en big
            data.  Si  los  datos  permanecen  en  las  instituciones  (que  sería  la  opción  más
            adecuada),  se  deberá  llevar  el  procesamiento  a  los  datos  a  través  de  modelos
            computacionales desarrollados a tal fin. El modelo más adecuado sigue siendo Map
            Reduce. Los servidores o commodities que aportan cada institución médica es una
            estación  que  efectuaría  operaciones  Map.  Luego  se  debe  contar  con  un  equipo
            centralizado  que  hará  la  operativa  Reduce  (considerando  la  cantidad  de  centros
            asistenciales  en  Uruguay  y  comenzando  con  un  prototipo,  un  equipo  sería
            suficiente, previendo que se deba escalar en caso de un aumento de la demanda de
            los servicios prestados).























            46
   41   42   43   44   45   46   47   48   49   50   51