Ciclo de Conferencias 2016 - 2017

Análisis de Datos

Descargar Cartel de las Conferencias

 

Hora: 13:00 horas
Lugar: Salón de Actos Juan Béjar, Facultad de Estudios Estadísticos, UCM

 

 

Calendario de conferencias

 


Descripción de las conferencias

04/10/2016, El rol del estadístico en estudios de investigación clínica

Dra. Teresa Pérez Pérez

Dpto. de Estadística E.I.O. III, Facultad de Estudios Estadísticos, UCM

La labor profesional de un estadístico es, para muchos, un gran misterio. ¿Es una ciencia muy sencilla porque solo se dedican a construir tablas o gráficos y a calcular medias y porcentajes? o ¿Es compleja, aburrida y alejada de la realidad? Probablemente ni un extremo ni otro. En esta conferencia se van a presentar interesantes soluciones a problemas encontrados en distintos estudios de investigación clínica y que nos ayudarán a entender mejor el papel destacado que ocupa el estadístico.


25/10/2016, Análisis Probabilista de Seguridad de una Línea Ferroviaria Basado en Redes Bayesianas

Dr. Enrique Castillo Ron

Department of Applied Mathematics and Computational Sciences, UC

En la charla se explica con detalle cómo se construye una red bayesiana para realizar un análisis probabilístico de seguridad de una línea ferroviaria. Las variables son los elementos que el tren y el conductor se encuentran cuando circulan a lo largo de la línea. Dado que los errores humanos son muy relevantes para la evaluación de la seguridad, la atención del conductor y su evolución en el tiempo se reproducen también en la red bayesiana. Los nodos de la red, sus enlaces y las tablas de probabilidad condicional asociadas se construyen automáticamente en función de los datos de la línea, una vez que ésta ha sido cuidadosamente analizada. Las tablas de probabilidades condicionales se reproducen mediante fórmulas cerradas lo que facilita el modelado y los análisis de sensibilidad. El método permite identificar los elementos más peligrosos de la línea y ordenarlos por peligrosidad. Esto permite reducir notablemente el número de accidentes y tomar decisiones sobre los cambios necesarios para mejorar la seguridad y realizar las operaciones de mantenimiento de la línea, reduciendo los costes de mantenimiento. Finalmente, se ilustra la metodología propuesta mediante su aplicación a varios casos que incluyen líneas reales.


08/11/2016, Oportunidades de trabajo y principales proyectos en el Instituto Nacional de Estadística

D. Miguel Ángel Martínez Vidal

Departamento de metodología y desarrollo de la producción estadística, INE

La estadística oficial se encuentra en un momento clave debido a diversos retos que confluyen al mismo tiempo y a los que debe dar solución en los próximos años. Quizá el más llamativo, aunque no el único, sea la llamada revolución de los datos. El rastro digital que ciudadanos y empresas vamos dejando en nuestra vida cotidiana es una fuente de información que debería permitir la producción de nuevas estadísticas relevantes para la sociedad o la mejora de las actuales en términos de puntualidad y de profundización en la información que se facilita. El uso de estos datos tendría incidencia muy favorable en la eficiencia del sistema estadístico y en la reducción de la carga de trabajo a los informantes.  Pero su uso puede requerir una modificación del paradigma estadístico que se ha venido utilizando hasta el momento.

Otras facetas que habrán de abordarse en la modernización de los sistemas estadísticos de los países europeos son la elaboración de metodologías y herramientas estándares para diversas fases del proceso de producción de encuestas y la potenciación de los sistemas de metadatos.

Para afrontar esta situación, el INE necesita de nuevos profesionales que aporten conocimientos renovados y que se incorporen a los equipos que están trabajando en estos proyectos. El cauce para ello son las oposiciones a los Cuerpos de Diplomados y de Estadísticos Superiores del Estado, cuyas convocatorias han ido creciendo en los últimos años en el número de plazas ofertadas. También hay otras opciones de iniciar la formación laboral a través de las becas para graduados.


14/12/2016, Aprendizaje automático y Big Data

Dr. Rafael Caballero Roldán

Dpto. de Sistemas Informáticos y Computación, Facultad de Informática, UCM

Los almacenes masivos de datos han cambiado la perspectiva clásica del análisis estadístico. Hablamos de datos que se obtienen en cantidades ingentes desde fuentes tan dispares como internet o desde sensores y dispositivos móviles. Estas enormes cantidades de datos han creado nuevas oportunidades para el análisis estadístico y en particular para el aprendizaje automático. Pero estas nuevas oportunidades vienen acompañadas de nuevos retos: algunos de los métodos clásicos deben ser modificados, bien para adaptarlos a la naturaleza distribuida de los datos o para el análisis de datos en streaming. En esta charla analizaremos las arquitecturas distribuidas utilizadas en Big Data y algunas de las soluciones propuestas en el campo del aprendizaje automático.


10/01/17, Un paseo por la dinámica de poblaciones

Dr. Daniel Franco Leis

Dpto. de Matemática Aplicada I, E.T.S. de Ingenieros Industriales, UNED

La ecología estudia las relaciones de los seres vivos entre sí y con el medio. En particular, esta rama de la biología trata de comprender por qué y cómo varía el número de individuos de una determinada especie, es decir, la dinámica de la población de esa especie. Para conseguirlo, como es natural, recurre a modelos teóricos y a herramientas matemáticas que permiten analizarlos. Durante la charla comentaremos de forma amena algunos de los avances que han sucedido, y algunos de los muchos interesantes problemas que siguen abiertos, en dinámica de poblaciones.


13/02/2017, Geoestadística y multifractalidad

Dra. Ana Mª Tarquís Alfonso

Dpto. de Matemáticas aplicadas a la agronomía. E. T. S. de Ingenieros Agrónomos, UPM

La interpolación del Kriging se utiliza muy comúnmente en la geoestadística para caracterizar la estructura espacial de los datos y se establece, en general, sobre la base de supuestos de estacionariedad; sin embargo, la consecuencia de esta aproximación de segundo orden es que las singularidades locales (o extremos) pueden ser suavizados.

A diferencia del Kriging, la teoría de los multifractales proporciona una descripción más completa de la estructura de los datos, considerando una serie de órdenes de momentos estadísticos. De esta manera, no sólo caracteriza la medida en el valor medio sino que estudia los valores extremos que en algunos casos de la geología y la ciencia del suelo son de gran importancia. En este seminario mostraremos la relación entre el análisis multifractal y la interpolación de Kriging viendo como éste último utiliza sólo una parte de la información que se incluye en el análisis multifractal.


14/03/2017,Dos ejemplos de Estadística aplicada a la investigación biomédica

Dr. Jesús Villoria Morillo

Administrador/Responsable de Diseño Estadístico y Redacción Científica, MEDICxact

Se presentarán y contextualizarán los análisis estadísticos realizados dentro del marco de desarrollo clínico de una prueba de medicina de precisión para el tratamiento de las leucemias agudas, y de una nueva molécula para el tratamiento del dolor neuropático. Se expondrá, a título divulgativo, los métodos de análisis estadístico empleados y los resultados obtenidos en cada uno de los estudios, y se explicará su relevancia dentro del plan de desarrollo correspondiente. Cada estudio constituye un ejemplo de una de las dos grandes ramas de la investigación biomédica: el desarrollo de pruebas o dispositivos médicos, y el desarrollo de nuevos fármacos. El objetivo de la conferencia es aportar un ejemplo de la gran área de aplicación de los Estudios Estadísticos que constituye la investigación biomédica.


06/04/2017,Modelar para decidir

Dr. Miguel Angel Goberna Torrent

Dpto. de Estadística e Inv. Operativa, Facultad de Ciencias, Universidad de Alicante

Decidir consiste en elegir una alternativa entre las disponibles, a los efectos de resolver un problema actual o potencial. El método de la matemática aplicada ayuda a tomar decisiones racionales que eviten acabar confesando, como el presidente Harry S. Truman, que “toda mala decisión que tomo va seguida de otra mala decisión”. La clave de dicho método es la construcción de modelos matemáticos ad hoc, que no es una actividad propiamente matemática -puesto que no requiere la derivación de proposiciones a partir de una lista de axiomas utilizando las reglas de la lógica- pero que requiere entrenamiento matemático y una buena dosis de ingenio. La charla reivindica un lugar para la modelación en los programas de matemáticas de todos los niveles mediante la discusión de ejemplos orientados y casos prácticos.


24/05/2017,Modelización medioambiental basada en herramientas estadísticas de control de procesos

Dra. María Villeta López

Dpto. de Estadística e I. O. III, Facultad de Estudios Estadísticos, UCM

La modelización de los eventos climáticos ha captado la atención de muchos estudiosos durante las últimas décadas, debido a la gran repercusión que tiene la evolución de dichos procesos a diversos niveles, agrícola, de entidades aseguradoras, de decisiones políticas, etc. El principal objetivo de esta conferencia es describir cómo se pueden estudiar procesos climáticos mediante la utilización de herramientas estadísticas de control de procesos. La metodología descrita se ilustrará mediante una aplicación sobre datos climáticos de una región de la Península Ibérica.