Tema 3: Correlación: caso discreto

Los alumnos del curso de humanidades “Ciencia para pensar mejor” podéis dejar aquí comentarios, observaciones, preguntas… todo lo que penséis que puede aclarar cuestiones o aportar algo a los demás.

Anuncios

  1. Adrián González Cajigas

    Aprovechando que hemos hablado hoy en clase sobre correlaciones estadísticas, he recordado un artículo que leí justamente sobre que correlación no implica causalidad. La frase en sí viene a significar que el hecho de que dos eventos se den habitualmente de manera consecutiva no implica que uno sea causa del otro. Así, cuando llueve es más probable que truene, pero no es la lluvia la que causa los truenos. Aquí os lo dejo:
    http://www.jotdown.es/2016/06/correlacion-no-implica-causalidad/

    En él se puede ver un par de ejemplos sobre correlaciones absurdas. En el primero habla sobre la correlación que existe entre el calentamiento global y el número de piratas que existen. En el segundo, la página web Spurious Correlations, que se dedica a buscar en distintas bases de datos correlaciones absurdas entre series de datos, representa a través de los años tanto el número de ahogamientos en piscina producidos en los Estados Unidos como el número de películas realizadas por Nicolas Cage. La correlación es clara. Cuantas más películas hace el bueno de Nicolas más gente muere ahogada. Lo mejor será que el pobre se retire y así ahorrará sufrimiento al mundo.

    Al final del artículo se habla sobre el big data. Donde algunos analistas especializados analizan cantidades ingentes de datos y buscan correlaciones que nadie espera. Después, se dedican a analizar la probabilidad de que sea azar o no, y si no parece serlo lo analizan con más profundidad. Puede que dos eventos en apariencia desconectados tengan una relación causal demasiado difícil de apreciar a simple vista. Si encuentras este tipo de correlaciones, puedes llegar a ganar mucho dinero al ser capaz de predecir movimientos de los mercados que nadie más puede ver.

  2. Javier Delgado Donoso

    Buenas tardes compañeros.
    De acuerdo a lo tratado en la clase de hoy sobre las correlaciones y leyes me gustaría añadir ciertos matices y ejemplos de informaciones que nos llegan a diario que tomamos como verdaderas y nos dan impresiones equívocas sobre la realidad.
    Lo más común es leer una noticia, artículo o investigación y fiarnos de la fuente que nos proporciona esta información o por prestigio, por familiaridad (como hablábamos en el primer tema del S1 y la facilidad cognitiva), por ideología política o simple pereza de contrastar dicha información. Como vimos en la primera clase, con datos estadísticos es muy fácil resaltar un dato al que se quiere dar importancia, o positiva o negativamente. De esto se pueden encontrar miles de artículos en los que puede observarse un claro fin de engaño o de simple ignorancia a la hora de realizar el gráfico.
    Centrándome en el tema nombrado, quiero destacar varios ejemplos sobre lo mencionado hoy en cuanto a correlaciones.
    El primero de ellos nos habla sobre un fármaco que aumenta la supervivencia de pacientes con cáncer de colon:
    http://ccaa.elpais.com/ccaa/2015/04/13/catalunya/1428942376_522272.html
    En ella nos aportan el dato en su titular de que la efectividad de dicho fármaco es el aumento del 16% de la supervivencia. Nos omiten datos como el número de pacientes que tenía la muestra, el número de pacientes en los que el tratamiento no fue efectivo, el número de pacientes del grupo de control que no fueron tratados (y sobrevivieron o no más) y en el caso de que no hubiera un grupo de ellos, quedaría en entredicho la mejora producida por el medicamento. Con la omisión de estos datos no podemos contrastar si es cierto o no esto, el dato del 16% no nos aporta nada sin el resto de datos mencionados. En la mayoría de ensayos clínicos ocurre esto y nos hacen esperanzarnos con algo que puede que no sea real. Otro asunto también mencionado en clase es que sólo son publicadas noticias sobre ensayos efectivos (a priori) y no sobre ensayos malos o no concluyentes, de ahí que en ocasiones se falseen o se omitan datos para ensalzar el medicamento o hacer llegar la noticia a la audiencia.
    Al igual que en ensayos clínicos, esto puede ocurrir en test o pruebas que nos intenten aportar información sobre la realidad. Basándonos en la definición de fiabilidad, en un test de embarazo con una fiabilidad del 99%, podríamos obtener falsos positivos o falsos negativos por no ser del 100%. Llevando el ejemplo al absurdo de hacer el test a 100 hombres, podríamos obtener el caso de que en uno de ellos diera que está embarazado. Esto nos dice que no podemos fiarnos nunca de estos test al 100% ya que solo son capaces de darnos una visión sobre la realidad que puede ser falsa en algunos casos. De esto también se aprovechan ciertos medios al publicar resultados sobre estas pruebas.
    Por último me gustaría añadir una cita muy significativa de Homer en Los Simpsons que hace de crítica a los datos estadísticos y su uso en la sociedad.

  3. Jorge Erustes

    Buenas a todos;

    He encontrado un vídeo que ilustra perfectamente el tema de los Verdaderos Positivos, Falsos Positivos y demás (FN, VN…) con un ejemplo similar al tratado en clase: la veracidad que le podemos dar al resultado de un test para una enfermedad.
    En este caso trata la probabilidad de estar enfermo sabiendo que hemos dado positivo en el test usando el archiconocido Teorema de Bayes. Me parece, en efecto, curioso como un teorema tan antiguo y que se suele impartir a unos niveles tan bajos en muchos casos puede llegar a tener implicaciones desde el primer examen de Estadística, pasando por análisis de la fiabilidad de una prueba médica hasta procesos tan avanzados como los aprendizajes máquina y estimaciones estadísticas de alto nivel.
    Sin más rollo, os dejo con el vídeo, que ilustra con una especie de matemática gráfica algo con un significado y efecto tan amplio:

  4. Ana María Sánchez de la Nava

    ¡Hola a todos!

    Retomando la clase del otro día en la que hablamos de como las publicaciones de medicina no presentaban todos los datos que se necesitaban para extraer conclusiones totalmente reales, quería dar a conocer las fases por las que tiene que pasar un medicamento para poder ser producido en masa y aceptado para el consumo humano. Quizás así, nos hagamos una idea de lo que falla en el proceso.

    La viabilidad de una investigación científica y, por consiguiente, el resultado del mismo, depende íntimamente de la disponibilidad de los recursos materiales, económicos, financieros, humanos, del tiempo y de la información previa que tengamos sobre el estudio que realizamos.

    En el mayor de los casos, la producción de un nuevo fármaco incluye varias fases previas antes de que un organismo como la Agencia Española de Medicamentos y Productos Sanitarios o la Food and Drug Administration (FDA) lo apruebe.

    Para que un fármaco pueda ser probado en humanos, previamente se debe realizar un estudio a nivel celular en un laboratorio. Una vez que se concluye que este tipo de estudio es válido, se traspasa el estudio a animales, generalmente ratas de laboratorio. Como comprenderéis, aunque compartimos el 99% de los genes, el proceso de cuidado de las ratas está estandarizado y controlado hasta el punto de que todas las ratas del laboratorio respiran el mismo aire filtrado y comen el mismo tipo de comida.

    Si el estudio en ratones (u otro animal) resulta relevante con el fármaco usado, es posible que se conceda un estudio o ‘trial’ en humanos que estén dispuestos a probar el tratamiento en fase de desarrollo. Como comprenderéis, las mutaciones presentes en nuestro genoma son mucho mayores que las de los ratones y, por supuesto, nuestro día a día no está estandarizado como el suyo. De este hecho se pueden derivar muchos de los falsos positivos o errores que se producen durante la toma de un medicamento o la prueba de un nuevo test de diagnóstico.

    Cuando, finalmente, los investigadores demuestran de manera cuantitativa que el medicamento en cuestión produce un beneficio o una mejora en los pacientes, es cuando la FDA o el correspondiente organismo de cada país se encarga de aprobar la producción del medicamento para el uso humano en el mercado.

    Con esto no pretendo justificar la poca viabilidad de algunos medicamentos o el poco rigor científico para publicar un artículo en una revista, pero a veces es una verdadera odisea disponer de los medios económicos y de cumplir los plazos para el desarrollo del medicamento. Para que os hagáis una idea, la vacuna del zika no ha podido ser probada en humanos hasta agosto pasado y muchos científicos sostenían que para cuando llegase la vacuna, la epidemia habría pasado.Os dejo aquí el artículo:
    http://elpais.com/elpais/2016/08/05/ciencia/1470391324_640351.html

    Quizás, la solución a todos estos problemas, sería agilizar los procesos internos que se requieren para aprobar las distintas fases de la investigación, conservando las fases para asegurarnos de que el medicamento sea seguro cuando llegue a los humanos. ¿Qué pensáis al respecto?

    Os dejo la página de la FDA por si os interesase:
    http://www.fda.gov/Drugs/DevelopmentApprovalProcess/

  5. David Villegas Prados

    Buenos días!

    Antes de avanzar esta tarde un poco mas con el temario, me gustaría comentar un tema que se trato en la clase anterior. Se habló brevemente de él. Se trata del demonio de Laplace.

    Se trate de una entidad de gran capacidad intelectual, que podía predecir el comportamiento de un objeto o incluso de una persona dentro de un periodo de tiempo, si simplemente conocíamos las fuerzas actuando en él y su posición, Esto se debía a que Laplace estaba convencido de que el universo se regía por la Leyes de Newton. De tal manera, si se conoce la posición tomando la derivada es posible saber la velocidad y la segunda derivada la aceleración, esto sumado a las fuerzas que actuaban en él podía predecir por ejemplo el movimiento de ‘algo’ dentro de un año.
    Así es como el mismo Laplace lo describía:

    “We may regard the present state of the universe as the effect of its past and the cause of its future. An intellect which at a certain moment would know all forces that set nature in motion, and all positions of all items of which nature is composed, if this intellect were also vast enough to submit these data to analysis, it would embrace in a single formula the movements of the greatest bodies of the universe and those of the tiniest atom; for such an intellect nothing would be uncertain and the future just like the past would be present before its eye.”

    Esto, tal y como pensamos hoy y la manera de concebir el mundo, se nos hace demasiado extraño y podemos penar en multitud de razones en por qué esto no es así. Pero a decir verdad, no podemos saber con exactitud si de verdad existe el demonio de Laplace. ¿Quizás la vida en la que vivimos esta ya determinada y lo que haremos dentro de un día, una semana, un año es simplemente el algoritmo que seguimos de acuerdo con esta gran entidad inteligente? ¿Significaría que el futuro esta escrito? Pues no lo podemos saber, pero nos da una idea de como se pensaba hace años y de como el pensamiento ha ido evolucionando hasta el día de hoy.

    PD: Adjunto un video en el que explica brevemente este concepto por si alguien esta interesado.

  6. Adrian Vaquero García

    Buenas tardes,

    Cuando en clase comenzamos a hablar de probabilidad, a mi cabeza vino un clásico que se suele usar de ejemplo parecido al de los taxis, de como la mente tiende a engañarnos con las probabilidades. El problema del que hablo esta basado en un concurso estadounidense presentado por Monty Hall, y de ahí recibe su nombre: El problema de Monty Hall.

    “Estás en un concurso televisivo frente a tres puertas cerradas. Detrás de dos de ellas hay una cabra, y en una se esconde 1 millón de dólares. Sin saber lo que hay detrás de cada una has de eligir una de las puertas. Ganarás lo que haya detrás.
    Una vez has elegido, el presentador del concurso revela una cabra que hay detrás de una de las que no elegiste. De este modo quedan dos puertas, una con una cabra y otra con el dinero. En este momento el presentador nos ofrece cambiar nuestra elección.¿Tú qué harías?”

    La suposición más común es que una vez se ha desvelado una de las cabras, la probabilidad de tener el dinero detrás de cualquiera de las otras dos es del 50%, la misma en las dos, así que no habría razón lógica en cambiar tu elección, ¿no?.

    Pensando bien en qué probabilidades han cambiado al desvelar la cabra el presentador, es fácil darse cuenta de que en verdad nada ha cambiado, ya que el presentador abre la puerta una vez ya has elegido. La apertura no es un suceso aleatorio. Nos quedan entonces tres posibilidades:

    Si inicialmente has elegido el dinero (33,33% de las veces), el presentador te muestra una de las otras dos puertas. Si cambias pierdes.

    Si inicialmente has elegido una cabra (66.66% de las veces), el presentador te muestra la otra. Si cambias ganas.

    En resumen, vemos que si cambiamos nuestra elección, ganaremos un 66,66% de las veces, lo cual suena mejor que quedarse con tu puerta.

    Espero haberme explicado bien y que os haya parecido interesante, un saludo.

  7. Javier Álvarez Sanz

    Hola a todos,

    hoy en clase hemos tratado el tema de la probabilidad condicionada y lo fácil que es llegar a equivocarse cuando interviene esta probabilidad en cualquier cálculo estadístico.

    Nuestro profesor ha comentado en clase el caso de la falacia del fiscal y he de decir que dicho caso me ha llamado poderosamente la atención, ya que se utilizó una “trampa” estadística para condenar a una mujer de un robo que sucedió en Estados Unidos. Me he puesto a investigar sobre esta falacia y consistía en lo siguiente:

    El 18 de junio de 1964, Juanita Brooks se encontraba en un callejón de Los Ángeles y cuando se agachó a recoger un objeto del suelo notó que alguien la empujó. Al instante se dio cuenta que la habían robado el monedero. Lo único que pudo distinguir de su agresor era que era una mujer joven de unos 65 kg, llevaba algo oscuro y tenia el pelo entre rubio oscuro y claro. Aparte, un vecino de la zona pudo ver tras escuchar gritos provenientes de dicho callejón, a la presunta agresora subiéndose a toda prisa a un coche amarillo conducido por un hombre negro con barba y bigote.

    En los meses siguientes se celebró un juicio sobre el robo y el letrado de la acusación apuntó como principal y única sospechosa a Janet Collins, una mujer rubia que se le relacionaba con un mirado de color negro con barba y bigote que poseía un coche amarillo. Llegados a este punto nos preguntamos, ¿es suficiente para condenar a Janet Collins el hecho de que haya tantas coincidencias entre ella y la presunta agresora?

    Para el fiscal la respuesta fue que si. Para respondar a dicha pregunta simplemente obtuvo una serie de porcentajes y estadísticas relacionados con el número de mujeres en Los Ángeles cuyos maridos poseía un coche amarillo, tenían barba y bigote, etc. Tras echar cálculos, el fiscal llegó a la conclusión de que sólamente 1 persona entre 12 millones y medio poseía todas las características relativas al aspecto del presunto agresor. Y como en Los Angeles en aquella época solo vivían 3 millones y medio de personas, el hecho de encontrar una posible sospechosa indicaba que tenía que ser necesariamente la culpable del robo.

    Tras esta exposición de los hechos, parecía que Janet Collins era culpable.

    Sin embargo, el abogado de la defensa apeló a la Corte Suprema de California argumentando que el fiscal se había aprovechado de una falacia estadística al no interpretar correctamente la probabilidad condicionada.

    El abogado de la defensa expuso que si suponemos que existiera otra mujer aparte de Janet Collins que compartiera las mismas características (nuestra condición para aplicar la probabilidad condicionada), el resultado numérico que se obtenía era radicalmente diferente, obteniendo que para una muestra de 2 millones de personas, la posibilidad de encontrar a una mujer con las mismas características era del 7,86 % que a priori no puede parecer demasiado. Pero si lo comparamos con el porcentaje de 0’0000083% que defendía el fiscal vemos que la diferencia es más que notable.

    Finalmente, Janet Collins fue puesta en libertad por falta de pruebas sólidas.

    P.D: Adjunto un link sobre el tema por si quedara alguna duda:
    http://masscience.com/2014/09/20/probabilidad-derecho-y-estatiscidio/

  8. Mario Sanchez Martin

    Hola a todos, el martes en clase hablamos sobre las correlaciones, un ejemplo que tratamos fue el tema de las antenas de televisión que había en una región y los casos de mortalidad por cáncer infantil (creo recordar). Explicamos que las personas somos propensas a asociar ideas, a veces erróneas, sobre la realidad. Pues en referencia a esto, he encontrado una página del CSIC donde te explican los errores cometidos habitualmente. Uno de los ejemplos te pone en esta situación: “Un estudio realizado en un colegio, representamos la longitud del pie respecto de la puntuación obtenida en un test de CI, el gráfico indica claramente una relación entre el tamaño del pie y el CI, ¿los niños con un pie grande son más listos que los niños con un pie pequeño?” La respuesta es NO. La razón es que el estudio se ha realizado en un colegio dónde hay diferentes cursos, por lo tanto es lógico que los alumnos más mayores, y por lo tanto con un número de pie mayor, obtengan resultados mayores en el test de CI. Hay otro caso muy gracioso en el que se relaciona el aumento de la natalidad en una población con el aumento de la aparición de nidos de cigüeña, y te pregunta si la razón es que a los niños les trae una cigüeña. Parece paradójico este último caso pero tiene todo el sentido, echadle un vistazo a la web que os adjunto abajo, son casos llamativos.

    http://humanidades.cchs.csic.es/cchs/web_UAE/errorcomun/errorcomun.htm

  9. JuanMS

    Adrián, el artículo está bien y tiene razón al llamar la atención sobre el hecho de que tampoco debemos usar como un mantra “Correlación no implica causalidad” para echar por tierra cualquier argumento. Igual que el hecho de que no se pueda demostrar una teoría no significa que no haya teorías mejores que otras, que la correlación no siempre implique causalidad no quiere decir que no sea a veces signo de una causalidad subyacente, y que no haya correlaciones más significativas que otras.

    Javier, después de leer la noticia veo que al menos sí dan el número de pacientes del estudio, aunque no dicen nada de todo lo demás: tamaño del grupo de control y resultados sobre éste. El estudio lo han publicado en una buena revista así que seguramente allí sí que darán toda la información, el problema es que en los medios de información general eso se omite siempre. Lo que más me llama la atención a mí es que el titular es engañoso: cuando uno lee que el fármaco aumenta la supervivencia en un 16%, lo que interpreta es que el número de pacientes que sobreviven al cáncer aumenta en un 16%. Pero luego resulta que lo que ocurre es que los meses que sobreviven pasan de 11,7 a 13,3… pero todos se mueren:_ ( Por otra parte tendrían que explicar qué significan esos números: ¿son la media aritmética, la mediana, o qué? No da lo mismo en absoluto (recomiendo leer un artículo muy famoso sobre esto: The median is not the message)

    Hay otra cuestión importante: ¿qué es lo que hace que a un medio como “El País” llegue este estudio y no otro? Seguro que cada año salen 50 o 60 fármacos que prometen unas mejoras comparables. Este sale (apostaría algo) porque el hospital Vall d’Hebron tiene un departamento de relaciones públicas que se mueve y tiene dinero para conseguir que publiquen la noticia. Como norma, las noticias médicas de los periódicos son desinformación: está uno mejor si no las lee. Si le interesa el tema, puede irse al Investigación y Ciencia, que cuesta más de leer, pero al menos aprenderá algo.

    Jorge, con ese video me podía haber ahorrado el trabajo de dar la clase (eso sí, los únicos subtítulos están en ruso 🙂 pero no es difícil el inglés) Los vídeos de ese canal son realmente buenos y fiables.

    Ana María, es muy oportuna la información que nos traes. Cuando he citado artículos como el famoso de Ioannides, Why Most Published Research Findings Are False, no pretendo sugerir que la mayoría de los medicamentos puedan ser ineficaces. Pero la razón de que nos podamos fiar bastante de los medicamentos que están a la venta es precisamente todos esos requisitos que pueden parecer burocráticos (y es muy populista criticarlos) pero me parecen imprescindibles. Lo que no sé es cuanto se podrían agilizar los permisos, etc. Sí que sospecho que más perjudiciales para la innovación pueden ser los intereses creados y el corporativismo…

    David, lo que ha hecho inverosímil al demonio de Laplace es la mecánica cuántica, que ha demostrado que las leyes físicas no son deterministas. En el vídeo lo mencionan, y añaden la teoría del caos, que en este sentido es menos importante. Pero por mucho que a Einstein no le gustara el indeterminismo cuántico, de momento no hay ninguna razón para dudar de él. Aquí hay un artículo (denso pero muy bueno) que explica el estado de la cuestión.

    Adrián, pensé en contaros en clase el problema de Monty Hall porque es muy representativo de lo que nos cuesta entender la probabilidad. La historia del propio problema es muy interesante (puedes buscar “Marilyn Vos Savant Monty Hall” en Google. Pero si lo hubiéramos discutido en clase creo que nos habría llevado una hora. Y el caso es que si haces el experimento (yo lo he hecho) se ve claro cuál es la respuesta correcta, por antiintuitiva que parezca… Y por cierto, aquí en España deberíamos llamarlo “problema del un dos tres”, pero es que no tenemos memoria histórica…

    Javier, gracias por explicarnos el origen de la expresión “falacia del fiscal”. Por desgracia, ha habido muchos más casos, y los sigue habiendo.

    Mario, el ejemplo del pie es muy bueno. Y lo curioso es que si hubieran medido en vez del tamaño del pie el de la cabeza, mucha gente no le encontraría nada raro al resultado…

  10. Juan Soto

    Buenas tardes a todos;
    en una de las últimas clases hablamos de los errores que comete la prensa a la hora de publicar estadísticas. Os adjunto un enlace a un blog en el que aparecen muchos de estos errores bien explicados y comentados:
    http://erroresestadisticosenprensa.blogspot.com.es/
    Estos ejemplos nos demuestran que hay que leer y analizar las noticias con cuidado ya que muchas tienen fallos que se te pueden pasar si no muestras la debida atención.

  11. Celia Nieto Agraz

    Hola a todos,
    Durante esta semana hemos estado estudiando y analizando en profundidad la idea de que correlación no implica causalidad. Para demostrar esta afirmación se nos puso en clase el ejemplo del aumento de los beneficios por ron importado y el aumento del salario de los pastores.
    Intrigada por este tipo de correlaciones absurdas que se comentó, me he dedicado a investigarlas, encontrando una página donde hay múltiples correlaciones a cada cual más irracional.
    http://tylervigen.com/spurious-correlations
    En otro artículo que he encontrado toma como ejemplo una de las gráficas del enlace anterior (ahogamientos en piscinas vs número de películas de Nicolas Cage) para reafirmar la idea que se estuvo defendiendo en clase.
    En él se explicaba que si A (películas) no era la causa de B (ahogamientos), pero existe una fuerte correlación entre ellos puede ser debido a cuatro posibilidades:
    -Que A cause B (Nicolas Cage hace más películas para animar a la gente por los ahogamientos)
    -Que B cause A (La gente quiere ahogarse al ver las películas de Nicolas Cage)
    -Existe un tercer fenómeno que provoca A y B
    -El azar.
    Este último es el punto más importante, ya que existe tal cantidad de datos en el mundo que si nos ponemos a compararlos en algún momento encontraremos alguna correlación aunque esta no significa nada.
    Sin embargo, hay que tener en cuenta que las correlaciones varían de unos casos a otros, pudiéndose encontrar algunos con unas muy altas y otras más bajas. Esto es debido a que con una cantidad tan grande de datos analizados lo improbable sería que no se encontrase una correlación falsa de este tipo.
    Este análisis de grandes datos donde se buscan correlaciones que más tarde se investigan si son debidas al azar o no es a lo que se dedican los analistas del big data, quienes si encuentran una correlación que no es debida al azar la investigan más a fondo para intentar conseguir predecir los movimientos de los mercados que nadie más puede ver y así conseguir mucho dinero.
    Como conclusión podríamos sacar que aunque es cierto que la correlación no implica causalidad hay que saber distinguir entre correlaciones más y menos probables para decidir si se debe indagar más en él o no.
    Por último os dejo el enlace al segundo artículo donde explica de forma mucho más extensa esto y da algún otro ejemplo que sirve de ilustración:
    http://www.jotdown.es/2016/06/correlacion-no-implica-causalidad/
    ¡Saludos!

  12. IGNACIO TIRADO GARCIA

    Hola compañeros,

    ¿alguno sabría decirme cuál de estas correlaciones es falsa y cuál no? En caso de que fuera verdadera, ¿a qué se debe la relación entre las variables?

    1- Toneladas de ladrillo vendidas VS. Abandono escolar temprano
    2- Número de jeringuillas vendidas en una ciudad VS. Numero de participantes en una competición de culturismo amateur
    3- GB de datos moviles consumidos en un país VS. Numero de fallecidos por VIH en ese pais.
    4- Ventas de aparatos de telefonía VS. Número de fallecidos en la Rep. Demo. del Congo.
    5- Ventas de jeans desgastados en la quinta avenida VS. Fallecidos por Silicosis en Turquía.

    • Estefanía Alvar

      Hola Ignacio,

      He buscado información sobre la 5, Ventas de jeans desgastados en la quinta avenida VS. Fallecidos por Silicosis en Turquía.
      Parece ser verdadera.

      La fabricación de estos pantalones se lleva a cabo en países como Turquía y se realizan con una técnica denominada “sandblasting”, la cual está prohibida en España, que consiste en aplicar un chorro de arena sobre la tela vaquera para dar el efecto de desgaste. Se estima que 5000 empleados del sandblasting están afectados de Silicosis, que es una enfermedad ocasionada por el sílice de arena, muy común en la minería.

    • Aitor Tovar Rodriguez

      Buenas Ignacio,
      Yo he buscado información sobre la correlación 4 porque es la que más me impactó y también parece ser verdadera.

      La razón es porque en el Congo se encuentra el 80% de un mineral llamado Coltán que es imprescindible para todos los móviles. Debido a ello, cuando comenzó a usarse este mineral para la tecnología, una serie de grupos armados lo usaron para poder financiar una serie de guerrillas. Por lo tanto, cuando se produjo el boom tecnológico la violencia se disparó.

      • IGNACIO TIRADO GARCIA

        Así es, ambas explicaciones son correctas.

        Gracias Estefanía y Aitor.

    • Sergio Fernández Sánchez

      Hola Ignacio,

      Me ha gustado tu propuesta de las correlaciones. He buscado por todos lados la número tres pero no he encontrado nada sólido… ¿Es correcta esa correlación? A priori no parece tener mucho sentido…

      La que si he comprobado que es cierta es la número 1. En realidad es bastante razonable, cuando se vende más ladrillo es porque hay más trabajo en la construcción, y por tanto muchos estudiantes abandonan antes los estudios para aprovecharse de la situación y ganarse sus primeros sueldos.

      Aquí la noticia que lo confirma (supongo que con datos verídicos); http://www.publico.es/espana/auge-del-ladrillo-disparo-fracaso.html

      Es curioso ver como el fracaso escolar aumenta en una situación económica más favorable que la actual. Seguramente esta crisis previa en la educación ha influido enormemente a la crisis laboral que vivimos.

      • IGNACIO TIRADO GARCIA

        Efectivamente, Sergio. La primera correlación es totalmente cierta. Algunos piensan que la burbuja inmobiliaria solo afectó a la economía, pero lo triste es que también favoreció el que los jóvenes abandonaran los estudios por dedicarse a la construcción. De hecho, cobraba más un albañil que un médico recién salido de la carrera. Esperemos que esto jamás se vuelva a repetir.

        En cuanto a la tercera, destacar que es completamente falsa. De hecho, en los países más desfavorecidos en los que no existe casi el consumo de datos móviles es donde más concentración de muertes por enfermedades como el VIH hay.

        Gracias por tu comentario.

    • Estefanía Alvar

      Hola de nuevo, repasando la asignatura y viendo comentarios en el blog he pensado en completar la propuesta de Ignacio con la explicacion de la segunda correlación, el número de jeringuillas vendidas en una ciudad frente al número de participantes en una competición de culturismo amateur.

      Muchos de los culturistas toman el camino fácil para conseguir ese aspecto, los esteroides. Estos aumentan la masa muscular, la fuerza y disminuyen la grasa corporal. Los esteroides suelen inyectarse, para lo cual necesitamos una jeringuilla. De ahí nuestra correlación. En una competición de culturismo se venderán más jeringuillas.

  13. Pablo Monteagudo Guerrero

    Hola compañeros,
    Retomando el tema de la estadística y las correlaciones, me dispongo a explicar algunos mitos, que se pueden escuchar en la calle y dar por ciertos cuando no es así.
    Tras la situación que recientemente vivimos en nuestro país con los datos electorales, conviene especificar y explicar la creencia de que: ”Las encuestas electorales fallaron. Eso demuestra que la estadística no sirve”.
    Puede resultar curioso que el mismo argumento que lleva a personas afirmar eso sea del tipo estadístico ya que tras una observación empírica se termine con una característica general del universo. Pero analicemos por qué pudo haber tanta diferencia entre la estadística y la realidad en las pasadas elecciones.
    -La primera razón pudo darse por “falla por implementación” que no es otra cosa que una mala práctica a la hora de realizar las encuestas, ya bien sea por mala interpretación de los encuestados o una mala administración a la hora del muestreo y del registro de datos.
    – Otra razón y con más peso que la anterior es lo que llamamos ”falla al azar” que afirma que es inevitables que datos obtenidos al azar den una conclusión atípica o simplemente apunten en una dirección equivocada. Hay que destacar que ningún método estadístico puede evitar la ”falla del azar”, sin embargo sí que puede acotarlo. Problamente en el caso de las elecciones no se acotó correctamente.
    Tras estos dos argumentos podemos concluir que se seguramente se cometieron fallos en la metodología pero no en la la Estadística. Tenemos que superar el escepticismo que se vuelve en contra de la disciplina entera.

    Otro mito. que me pareció hilarante fue: ”Un estadístico podría meter la cabeza en el horno y los pies en el hielo y
    decir que en promedio se encuentra bien”.
    Este mito sirve para cariturizar a los estadísticos pero es incorrecto en cuanto las bases estadísticas se refieren. Ningún estadístico en su sano juicio, contrastaría casos extremos porque el resultado no representaría a ninguno de ellos. Sería como si en matemáticas sumamos ”peras” con ”manzanas”. El estadístico podría alomejor recurrido a la variación de temperatura entre cabeza y pies, y analizar tal magnitud. Otro mito parecido es: Pedro tiene 0 euros y Alberto 1000; entonces tienen un promedio de 500 euros cada uno. Al igual que en el caso anterior, el resultado no representa a ninguno de los dos.
    Por tanto, debemos tener en cuenta que los estadísticos trabajan con números de la misma población y delimitados en el mismo espacio y tiempo. Y sólo en ese caso se puede hablar de promedios para tomar una decisión.

    Un saludo!

  14. Javier Álvarez Sanz

    Buenas a todos,
    ,
    como alguna vez hemos comentado en clase, es más o menos frecuente encontrarte con algún caso, en los periódicos o en otro medio de información escrita u online, de ciertos gráficos que no reflejan correctamente la información que nos muestran en ellos.

    Bien, pues hoy navegando por Internet he encontrado un gráfico acerca de las oficinas de campaña abiertas por cada uno de los 2 candidatos a la presidencia de los Estados Unidos: Hillary Clinton y Donald Trump. Llama la atención enseguida del gráfico, que emplea círculos para representar un número mayor o menor de oficinas de campaña en cada estado.

    Como sabemos y vimos en clase, esto es un error muy frecuente en la prensa, ya que las cantidades a representar no son proporcionales con las áreas de los círculos sino con su radio. Es decir, que si representamos en dicho gráfico una cantidad el doble que otra, aumentaríamos el radio de los círculos el doble, y al estar representando las áreas y elevar al cuadrado el radio (Pi*r^2), estarámos representando visualmente el cuádruple no el doble, lo cual nos podría engañar si simplemente echamos un vistazo rápido con el sistema S2 desconectado.

    Por tanto si no queremos que nos den gato por liebre, tenemos que estar en alerta permanente.

    Adjunto el link de la noticia:
    http://www.malaprensa.com/2016/10/tu-tambien-nate-silver.html

  15. Jesús Herrera López

    Buenas noches compañeros.
    El teorema de Bayes es un teorema bastante interesante, tanto que hoy me gustaría explicar sus aplicaciones en otros campos. He venido a hablar de juegos de azar y estrategia, y qué mejor juego que el póquer para representarlo. El teorema de Bayes, aplicado al póquer, se utiliza principalmente para intentar predecir las jugadas de los oponentes que te están intentando dejar sin blanca. Básicamente tu intención es comparar las jugadas y contrastar resultados de estas, es decir: las veces que empieza con una apuesta base y después la sube, las que se planta, las que apuesta fuerte desde el principio, etc. Reuniendo todos esos datos podemos sacar probabilidades interesantes a la hora de hacer nuestro siguiente movimiento, ya que al fin e al cabo, nuestro dinero esta en juego. En os este blog propone la situación de la que he hablado con datos:

    http://isabella70.blogspot.com.es/2009/05/matematicas-no-tan-basicas-teorema-de.html

    Pero, ¿por qué quedarnos solo con el teorema de Bayes? Vamos a investigar sobre más teoremas estadísticos aplicados al póquer. Por ejemplo, el uso de las “odds” o “probabilidades” si seguimos la traducción literal. El uso de Odds es sopesar los casos favorables contra los casos desfavorables dependiendo de las cartas que estén en juego. Esta estrategia es muy potente dado a que, dependiendo del dinero en mesa , nos deja bastante clara la jugada que debemos hacer. En este vídeo nos explica un ejemplo de como utilizar las odds.

    Como resumen : el uso de odds,( consiste en mejorar nuestra jugada), y el teorema de Bayes,( intenta predecir la jugada contraria). Hay multitud de estrategias basadas en la estadística, el caso más significativo es el conteo de cartas en el black jack, prohibido en todos los casinos. Por todo esto, quien domine la estadística, puede convertirse en una persona bastante rica si le gustan los juegos de azar.

  16. Adrián Rubio García

    Buenas compañeros.

    Aprovecho este comentario para dejaros el link de un blog en el cual se explica claramente qué es una falacia numérica o estadística.

    http://teoriamal.blogspot.com.es/2014/04/informacion-y-datos-la-falacia.html

    Propone una definición de información como “mensaje que cambia el estado de conocimiento del sujeto” y explica que, lamentablemente, los datos son usados frecuentemente para desinformar, confundir e, incluso, engañar dándose varios tipos de falacias estadísticas que enumera y explica en la página ya citada.
    Entre ellas destacan la falacia del jugador (o de Montecarlo), que se comete al creer que existe una correlación entre hechos independientes desde el punto de vista de la probabilidad, y la paradoja de Simpson (o efecto Yule-Simpson), que es el error al establecer la tendencia de una estadística como combinación del resultado de varios grupos de datos.

    Por último me gustaría dejaros una página, la que seguro muchos de vosotros ya conocíais, en la que día a día se publican multitud de falacias estadísticas que no hacen otra cosa sino desinformarnos, confundirnos y engañarnos.

    http://www.malaprensa.com/

    A día de hoy en esta página están publicados errores como confundir los “billions” en inglés con los billones en castellano, el mal uso de gráficas, etc.

    Un saludo.

    • Pablo Martin-Artajo Garcia

      Hola Adrián,

      He mirado el Blog de las falacias estadísticas y me ha parecido particularmente anti-intuitiva la falacia del jugador. En wikipedia y en el blog “El Topo lógico” viene muy bien explicada: los sucesos pasados no afectan a la siguiente tirada si son independientes entre ellos. No obstante si lanzamos por ejemplo una moneda, el hecho de que el número de caras y cruces tengan a tendencia a la larga de igualarse al 50% hace que pensemos que se tengan que compensar las próximas tiradas también.
      Si suponemos que han salido cuatro caras seguidas, la falacia del jugador diría: «Si en el siguiente lanzamiento saliese cara, habrían salido cinco consecutivas. La probabilidad de que esto suceda es 0’5^5=0,03125, así que por tanto en el siguiente lanzamiento la probabilidad de que salga cara es sólo 1 entre 32.»
      Aquí se encuentra el fallo en el razonamiento. Si la moneda está equilibrada entonces por definición la probabilidad debe ser siempre 0,5 tanto para cara como para cruz. Antes de que la moneda se tire por primera vez la probabilidad de lograr una serie de cinco caras consecutivas es de sólo 1 cada 32 (0,03125). Pero después de los primeros cuatro lanzamientos los resultados ya no son desconocidos, y por tanto no cuentan. La probabilidad de lograr cinco caras consecutivas es la misma que la de cuatro caras seguidas de una cruz. Las cruces no son más probables. Cada uno de los dos posibles resultados tiene la misma probabilidad independientemente del número de veces que la moneda se haya lanzado antes y de los resultados obtenidos.

      Atentos la próxima vez que apuesten en la ruleta al rojo porque lleve mucho sin salir!

      Un saludo

      https://es.wikipedia.org/wiki/Falacia_del_apostador
      http://eltopologico.blogspot.com.es/2013/11/una-respuesta-la-falacia-del-jugador.html

  17. Pablo Martín Muñoz

    Buenos días a todos.

    Retomando el tema iniciado por Juan sobre los errores estadísticos que aparecen en la prensa a diario, tras hablar de ello en clase, me interese por los errores que comete la prensa a la hora de presentar datos estadísticos y principalmente, de divulgar estudios científicos realizados por investigadores especializados.

    Los periódicos y revistas así como radios y televisiones, tienden a menudo a presentar noticias basadas en estudios científicos de una manera muy atractiva para el lector o espectador aunque en algunas ocasiones no tan veraz. Basándose en la confianza de gran parte de la población hacia la comunidad científica, la prensa utiliza estudios científicos hechos por profesionales para dar noticias que, a menudo, o bien carecen de veracidad o bien confunden al lector o espectador por presentarse dichos estudios parcialmente y no en su totalidad.

    Otro error muy común en la prensa, principalmente escrita, es la representación de gráficos que, como hablamos en clase, presentan una información que carece de sentido, ya sea por la errónea utilización de la información por parte del periodista o por la manipulación de los resultados para obtener unos más acordes y favorables con los intereses de este o del periódico.

    Para finalizar, adjunto un artículo que se inicia con un vídeo del programa Buenafuente en el que se tratan estos errores estadísticos en un tono humorístico y posteriormente trata de quien debería llevar a cabo la labor de divulgación científica.

    http://www.divestadistica.es/es/2012_01/universo_estadistico_los_errores_estadisticos_de_la_prensa.html

    Saludos!

  18. Sara Andrés Caballero

    ¡Hola a todos!
    Tratando el tema de la correlación y la causalidad me gustaría hablaros sobre cómo en muchas ocasiones se aplica una correlación tratando de buscar una causalidad. Para ello me gustaría utilizar el polémico tema de las vacunas y el autismo. Parece evidente para cualquier persona con una educación científica básica que las vacunas no producen autismo. ¿Entonces en qué se basan todos los argumentos de las asociaciones anti vacunas? Buscando información en internet he encontrado varios estudios “científicos” en los que se demuestra una clara correlación entre los niños con autismo y la vacuna triple vírica. Leyendo detenidamente los procesos de selección de la muestra sobre la que se realiza el estudio, podemos observar que en todos ellos se toma un porcentaje mucho mayor de niños autistas del que se encuentra presente en la muestra total de población. Resumidamente, si para hacer un estudio sobre la relación entre las vacunas y el autismo tomas una muestra de niños con este problema puedes demostrar que las vacunas causan autismo, de hecho puedes demostrar lo que quieras, pero eso no implica que tu conclusión sea buena.
    Otro argumento utilizado es el aumento de casos de autismo con el aumento de las vacunas, en este caso si se puede apreciar una correlación clara, pero de nuevo esto no implica causalidad. La principal causa del aumento de los casos diagnosticados de autismo es la mayor presencia de pruebas psicológicas en edades tempranas así como el aumento de las vacunas es debido al avance de la medicina. Por ello podemos determinar que aunque exista correlación entre el número de casos de autismo y el incremento de las vacunas no existe ningún tipo de causalidad entre ambas.
    Aquí os dejo algunos enlaces de artículos antes mencionados:
    https://www.ncbi.nlm.nih.gov/pubmed/12145534
    https://www.hindawi.com/journals/jt/2013/801517/
    https://www.ncbi.nlm.nih.gov/pubmed/21058170
    http://omsj.org/reports/tomljenovic%202011.pdf

  19. Jorge Erustes

    Buenas a todos,

    En un momento del curso hablamos de cómo las estadísticas pueden llevar a estimaciones más o menos acertadas y éstas a algotimos de predicción. Este fenómento automatizado se conoce como machine learning. Es un campo amplísimo y dudo que todavía lleguemos a ser conscientes de hasta qué punto puede mejorar miles de aspectos en la vida de todos.
    Sin embargo hoy os traigo un vídeo sobre un hombre, no una máquina en este caso, que lleva a cabo una ingeniería inversa de este tipo para llevar a cabo una predicción de como sería la charla TED perfecta. Usando datos sobre el tema, la acogida de la charla y los comentarios que ésta tenía, lleva a cabo un estudio para determinar las características, puntos a tratar, presentación y hasta frases específicas que una charla exitosa tiene. El humor es la tonalidad dominante en la charla ya que todo este estudio pasa por la exposición de multitud de correlaciones absurdas entre características que se producen en charlas con peor acogida e incluso los colores que tienden a utilizar las presentaciones en función del “humor” transmitido en la conferencia.
    Por último, el ponente acaba desarrollando una tabla de frases para ir ligando unas con otras que llevarían a la conferencia definitiva y me gustaría que probaseis a asociar algunas de estas y ver si sois capaces de forjaros una carrera en la ponencia a partir de esto.

    Saludos!

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s