El acoso en línea y las campañas de troleo e intimidación han contaminado algunas secciones de Internet y plantean amenazas muy reales fuera del mundo virtual, con efectos desproporcionados sobre las mujeres. En el caso más trágico, los mensajes contra la comunidad rohingya de Myanmar precedieron a las violaciones y masacres de 2017. Los investigadores en materia de derechos humanos llegaron a la conclusión de que Facebook, con su caudal de noticias alimentado por algoritmos, contribuyó a difundir el discurso del odio y la incitación a la violencia (Bachelet, 2019, p. 1). La calidad de los datos es otro factor que incide y debe de ser considerado pues hay tres situaciones en las que la pureza de los datos puede afectar los resultados. Esto influye por la manera en que se realiza el análisis de los grandes cúmulos de datos; por ello, es preciso entender que, por un lado, se encuentra quien recoge los datos de manera bruta y los vende.
Con esto en mente, los costos de investigación y desarrollo se reducen ostensiblemente, viéndose reflejados en el valor final del medicamento para el paciente y sector salud en general. Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas. Aprendizaje máquina es un área de investigación Conviértete en un científico de datos exitoso con el bootcamp de ciencia de datos de TripleTen bastante reconocida en las ciencias de la computación, principalmente comprende el descubrimiento de modelos, patrones y regularidades en los datos [37]. Los primeros trabajan aprendizaje inductivo de descripciones simbólicas, mientras que los segundos se centran en los métodos de reconocimiento de patrones o en la estadística. En los últimos años, el uso del aprendizaje máquina se ha extendido con rapidez [38], se ven aplicaciones en dominios como detección de fraudes, sistemas de recomendación [39], detección de spam [40], predicciones financieras [41], comercio y mercadeo [42], [43], entre otros.
Journal Big Data
En el momento actual, en muchos países se está expandiendo el término periodismo de datos, que sugiere una forma especializada de recogida y análisis de datos en la línea del trabajo realizado por analistas o investigadores, en donde el componente informático es una parte central de la elaboración, en ocasiones automatizada, de la producción de noticias. Tomando el big data como eje fundamental del texto, debemos recordar que está presente en múltiples acciones de la vida cotidiana, como las vinculadas a la búsqueda de información, a la personalización de información y de la publicidad, al reconocimiento de patrones de información, al teclado predictivo, o al desarrollo de la investigación de dominios como el de las smart cities. Otro tipo de aplicación del aprendizaje automático ronda entorno a la predicción de riesgos de infección, basado en características específicas de una persona, tales como edad, ubicación geográfica, nivel socioeconómico, hábitos sociales y de higiene, condiciones preexistentes e interacción humana, entre otros. Con estos datos se puede establecer un modelo predictivo sobre el riesgo que puede traer consigo un individuo o grupo de personas de contraer COVID-19 y factores asociados a desarrollar complicaciones (Jiang et al., 2020) e incluso, predecir los resultados de un tratamiento. Map Reduce [8] es un modelo de programación asociado a las implementaciones que requieren procesamiento y generación de grandes bases de datos.
- En pacientes pediátricos hospitalizados, sin enfermedades críticas, las e-alertas han sido usadas en sistemas de vigilancia de nefrotoxina relacionadas con IRA, lo cual ha permitido reducir la intensidad de IRA en 42% de los casos27, aunque hay autores que ad vierten que la evidencia científica es aún limitada como para establecer con certeza que las e-alarmas sean de utilidad clínica28.
- A pesar de que el término Big Data se asocia principalmente con cantidades de datos exorbitantes, se debe dejar de lado esta percepción, pues Big Data no va dirigido solo a gran tamaño, sino que abarca tanto volumen como variedad de datos y velocidad de acceso y procesamiento.
- Por otro lado, en el aprendizaje no supervisado, el algoritmo del equipo no posee la respuesta correc ta, por lo que debe generar los perfiles o predicciones solo con la información histórica que se le entrega.
- Estas directrices apenas se discutieron el año 2019 y es este año 2020 cuando se podrán tener datos derivados de esta experiencia.
- Finalmente, los impactos sociales, particularmente las implicaciones que el uso de datos tiene para la privacidad personal.
En consecuencia, si nuestra comprensión sobre las brechas entre el diseño y el funcionamiento de los algoritmos y sus implicaciones éticas carece de una postura crítica, se generarán graves consecuencias que afectarán tanto a individuos como a grupos y sociedades enteras. Sin lugar a dudas, los cambios que experimentamos hoy en día están modificando el mapa que permite organizar nuestro conocimiento sobre la realidad. Al mismo tiempo, debido al acceso masivo de datos como nunca antes había ocurrido, se experimenta un profundo cambio sobre las posibilidades de conocer.
Localización, ‘big data’ e inteligencia artificial, germen del nuevo científico de datos
Destaca que la acción clasificatoria sea
colaborativa, realizada por periodistas, con filtros efectuados por expertos con
vistas a evitar la sinonimia y la polisemia, y enriqueciendo esta herramienta
mediante relaciones de “parentesco”. Los datos abiertos se denominan así porque son de libre acceso y pueden ser utilizados, reutilizados y distribuidos https://aquinoticias.mx/conviertete-en-un-cientifico-de-datos-exitoso-con-el-bootcamp-de-ciencia-de-datos-de-tripleten/ por cualquier persona con la única obligación de presentar la atribución de autoría y sabiendo que pueden compartirse sin restricciones tecnológicas en la línea de la Open Knowledge Definition. En el fondo, subyace la exigencia del mayor nivel de autodescripción posible, siempre pensando en los más diversos contextos de uso y de aplicaciones.