El crecimiento en el volumen de datos generados por diferentes sistemas y actividades cotidianas en la sociedad ha forjado la necesidad de modificar, optimizar y generar métodos y modelos de almacenamiento y tratamiento de datos que suplan las falencias que presentan las bases de datos y los sistemas de gestión de datos tradicionales. Respondiendo a esto aparece Big Data, término que incluye diferentes tecnologías asociadas a la administración de grandes volúmenes de datos provenientes de diferentes fuentes y que se generan con rapidez [1]. Como mencionamos anteriormente, gran parte de la capacidad analítica desarrollada en los últimos años ha ocurrido en el seno de grandes empresas, plataformas que operan como intermediarios que registran y producen los grandes volúmenes de datos. En este sentido, existe una tensión entre los derechos de propiedad sobre la información entre quienes la producen (los usuarios) en interacción con estas plataformas privadas y aquellos que disponen de los datos y los usan para fines comerciales.

A pesar de esto, las dimensiones de Big Data entregan al lector un sólido punto de partida para entender y discutir estos desafíos. Esta cantidad masiva de datos, coloquialmente referida como Big Data, es parte de la metodología discutida previamente; los datos son la materia prima a partir de la que deseamos extraer información útil. Sin embargo, definir Big Data exclusivamente en términos del volumen de los datos ofrece una visión parcial y limitada que no explica su potencial, ni evidencia los desafíos que presenta su manipulación. La velocidad refiere tanto a la rapidez de generación de los datos, por ejemplo, señales fisiológicas adquiridas en tiempo real por sensores vestibles, como al tiempo en que el procesamiento de los datos debe ser realizado, por ejemplo, al correlacionar señales en tiempo real para determinar el riesgo de un paciente y así poder asignar recursos en una unidad de cuidado intensivo. La variedad refiere a la naturaleza diversa de los datos que se adquieren hoy en día, incluso de un mismo paciente, como por ejemplo imágenes radiológicas, pruebas de laboratorio, e información cualitativa presente en fichas médicas.

Cómo Amazon colabora con la dura política migratoria de EE. UU.

Los temas tratados en esta contribución son la pun ta de iceberg, puesto que son una ínfima parte de los desafíos y oportunidades que involucra la puesta en valor de la producción de datos en el ámbito de la sa lud. Sin embargo, da luces sobre el avance tecnológi co de tratamiento y análisis de datos a gran escala, así como también de sus aplicaciones en la pediatría. Pero es importante tener en cuenta que estos promisorios avances también conllevan situaciones de conflicto o de riesgos potenciales, algunas de las cuales se discuti rán a continuación.

articulos cientificos de big data

Las fuentes de datos autónomas con control distribuido y descentralizado son, según los autores, la principal característica de las aplicaciones de Big Data. Al ser autónomas, cada fuente de datos tiene la capacidad de generar y recopilar información sin la participación de un ente de control centralizado. Se plantea, además, que un marco de trabajo para el procesamiento de Big Data presenta ciertos desafíos de investigación, los cuales se pueden reunir en una estructura de tres niveles. La parte central, la “plataforma de minería de Big Data” (nivel I), que se enfoca en el acceso a los datos de bajo nivel y computación. Los desafíos https://laverdad.com.mx/2023/12/unico-en-mexico-y-el-mundo-el-bootcamp-de-programacion-de-tripleten/ en el intercambio de información y la privacidad, los dominios de aplicación de Big Data y el conocimiento forman el nivel II, que se concentra en la semántica de alto nivel, las aplicaciones de dominio de conocimiento y los problemas de privacidad del usuario. Como se mencionó al inicio de este trabajo, es común encontrar en la literatura relacionada al derecho internacional y el big data el tema recurrente de la protección de datos y la privacidad, ya que los análisis de grandes cúmulos de datos requieren de la materia prima que representan los datos generados por los individuos para recolectarlos y, posteriormente, tratarlos.

Territorio Big Data recibe a Belén Ruiz para conocer la relación de Repsol con los datos

También se emplea para el desarrollo más rápido de medicamentos, incluyendo el estudio de reutilización de medicamentos que han sido probados para el tratamiento de otras enfermedades. Con esto en mente, los costos de investigación y desarrollo se reducen ostensiblemente, viéndose reflejados en el valor final del medicamento para el paciente y sector salud en general. Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas. Existen tecnologías disruptivas como la inteligencia artificial y la computación inteligente, manifiestas a través del aprendizaje máquina (Machine Learning) y el aprendizaje profundo (Deep Learning).

En cualquier caso, se remarca el carácter profundamente transdisciplinar de la aproximación que requieren los fenómenos aquí estudiados. Este trabajo intenta comprender las prácticas documentales en el contexto del big data y del open data; una cuestión que se desarrolla siempre en el marco de una creciente automatización en diversos frentes. No obstante, la posibilidad de compartir datos supone un nuevo reto en las tareas básicas de
selección, análisis y difusión que realiza el documentalista. En este contexto,
Peset, Único en México y el mundo: el bootcamp de programación de TripleTen Ferrer-Sapena y Subirats-Coll
(2011) plantean el open data como una eficaz vía para
detectar duplicados documentales, eliminar las posibles ambigüedades terminológicas
y suministrar la información y datos a usuarios de otras especialidades
profesionales, como es el caso particular de los periodistas. David Gómez-Ullate es investigador distinguido en la Universidad de Cádiz y profesor titular de Matemática Aplicada en la Universidad Complutense de Madrid, actualmente en excedencia.

Leave a Reply

Your email address will not be published. Required fields are marked *