Tema 3: Correlación: caso discreto

Los alumnos del curso de humanidades “Ciencia para pensar mejor” podéis dejar aquí comentarios, observaciones, preguntas… todo lo que penséis que puede aclarar cuestiones o aportar algo a los demás.

Anuncios

  1. DAVID MESA LOPEZ

    Muy buenas, este comentario no tiene tanto que ver con la asignatura en si, pero es una peculiaridad que me resulto sumamente interesante al saber de ella. En clase el otro dia estuvimos hablando sobre los estudios farmacéuticos de diferentes medicamentos y hablamos sobre los placebos que se administran a algunos individuos de forma secreta para estudiar los resultados.

    He estado investigando sobre este efecto y me pareció sumamente interesante lo grave que puede llegar a ser, el ejemplo mas liviano que he encontrado es que muchos de los pacientes que se van a someter a quimioterapia experimentan nauseas antes de introducirse el tratamiento, pues son conscientes de que tal tratamiento provoca eso síntomas.

    En Japón se llevo a cabo un ejemplo práctico con seres humanos, fue un experimento realizado con un grupo de escolares japoneses, los cuales habían sufrido con anterioridad sarpullidos de ortigas. Los participantes fueron conducidos a una sala y se les taparon los ojos. A continuación les frotaron con una serie de plantas, que ellos pensaron que eran ortigas, pero lo cierto es que no lo eran. A pesar de no ser vegetales venenosos, los escolares desarrollaron las mismas reacciones alérgicas que presentaron con las hiedras venenosas.

    Otro estudio que he encontrado se realizo con cobayas pero según Richard Arder, el biólogo que realizo el experimento, el resultado es extrapolable a los seres humanos. Alimentó a un grupo de cobayas durante semanas con una mezcla de agua y azúcar, más adelante, introdujo en la solución una sustancia que causaba náuseas y terminaba matando a las cobayas.
    En la segunda parte de este experimento, el biólogo dejó de introducir la sustancia nociva en el agua con azúcar, sin embargo, las cobayas seguían muriendo al alimentarse de ella.

  2. Miguel Ángel Pérez Naranjo

    Buenas a todos

    El jueves pasado estuvimos discutiendo la correlación y como se caracterizaba con las propiedades de falsa alarma y deteccón mediante su curva ROC. También el profesor señaló que esto era muy importante en ingeniería de Telecomunicaciones, y como alumno de dicha carrera me gustaría ampliar un poco más estos conceptos y dar un ejemplo de aplicaciones realmente interesantes, sobre todo de dichas probabilidades.

    Primero, señalar que estos conceptos de probabilidad de falsa alarma y detección (y su complementaria, la cuál sería la probabilidad de pérdida) tiene gran relevancia en el campo de estudio de teoría de la señal. En concreto, aparecen para el estudio de la decisión y la detección, así aparecen por ejemplo la construcción de decisores, que se utilizan bastante en sistemas radar. El ejemplo más claro serían las técnicas CFAR: un tipo de algoritmos adaptativos que suelen emplearse en sistemas radar con el objetivo de detectar blancos en presencia de ruido, clutter e interferencias. Aquí os dejo un vídeo donde se muestra el funcionamiento de estos detectores:

    Me parece interesante comentar como algo tán abstracto que en clase usabamos para calcular probabilidades, puede ser la base para un proyecto bastante grande, en nuestro caso construir un radar.

  3. Silvia Andueza

    Buenas tardes a todos,

    La semana pasada estuvimos hablando en clase de que correlación no implica causalidad, es decir, que aunque haya correlación entre dos variables no necesariamente una tiene que ser provocada por la otra.

    Es muy habitual encontrarnos con correlaciones absurdas cuando leemos un artículo de un periódico o escuchamos una noticia en la televisión. Muchas veces no nos paramos a pensar en las barbaridades que leemos o escuchamos, a pesar de no tener sentido, ya que tomamos la fuente de la que proceden como válida debido a su prestigio y popularidad.

    He estado buscando sobre esto y he encontrado gran cantidad de páginas web con ejemplos de correlaciones absurdas que nos encontramos a diario. A continuación les pongo el enlace de una de ellas:

    http://naukas.com/2012/08/01/correlacion-no-implica-causalidad/

  4. Manuel Fernandez Blanco

    Buenas tardes a todos,
    Quería hablar de las estimaciones de las órdenes de magnitud que hablamos en clase y es que en la vida cotidiana tomamos referencias sin pensar y formamos una idea aproximada de las medidas, formas y tamaños, en general de los objetos que nos rodean. Para ello nos basamos en nuestra experiencia vital y la percepción que hemos adquirido al relacionarnos con dichos objetos. Mis estimaciones son las siguientes:
    – Masa de la Tierra: 6×10^24 kg
    – Masa de la humanidad: 3×10^5 kg
    – Gente que cabe en la Puerta del Sol: 3×10^4 personas
    – Desgaste del neumatico por cada milimetro: 2.66×10^-4 mm
    – Personas que mueren en España al año: 3.7×10^5 personas
    Me he informado un poco antes de hacer las estimaciones, como por ejemplo, la vida útil de un neúmatico son de 30000km y si el neumatico es nuevo tiene un dibujo de 8mm pues se puede hallar lo que se desgasta en cada kilometro.
    Pero es dificil que podamos coincidir todos en los resultados y es frecuente que discutamos sobre lo acertado del razonamiento, ya que dos o más personas van a poner resultados diferentes. Por tanto cabe preguntarse si ciertamente tenemos una captación suficiente para valorar adecuadamente las cosas que nos rodean o, por el contrario, estamos muy lejos de hacernos una idea cercana a la realidad de los mismos.

  5. Alfonso de la Vega Esteban

    Buenas noches compañeros:
    En este tema de las correlaciones hemos hablado de los test diagnósticos. Hemos visto que hay que distinguir entre fiabilidad y valor predictivo positivo. Pues bien, hoy quiero compartir con vosotros un ejemplo real de esto.
    Para detectar posibles anomalías cromosómicas en el feto durante el embarazo, se suele realizar una prueba denominada amniocentesis. La ventaja de esta prueba sobre otras que tienen el mismo objetivo, es que no conlleva ningún riesgo para el embarazo, ya que solo requiere extraer sangre de la embarazada. Su precio de unos 700€ y el aumento de clientes, ha provocado un gran incremente en las empresas que lo comercializan. Estas empresas lo venden asegurando una fiabilidad prácticamente del 100%, sin prácticamente confirmarlo. Como ya hemos visto, una fiabilidad del 100% es casi imposible, y lo que probablemente están buscando es engañar a la gente aprovechando el desconocimiento de la diferencia entre fiabilidad y valor predictivo positivo de una prueba de este tipo.
    Os dejo por aquí el artículo de La Vanguardia en el que se explica con más detalle:
    http://www.lavanguardia.com/salud/20150716/54433427760/mala-praxis-venta-test-amniocentesis.html
    Gracias por vuestra atención y un saludo a todos.
    Alfonso

  6. María Pizarro Medina

    Buenos días.
    El otro día en clase, hablando de que correlación no implica causalidad, vimos varios ejemplos de correlaciones que a simple vista parecían ridículas y no guardaban ninguna relación lógica. Esto me llamó mucho la atención y me dio que pensar.
    En los ejemplos que vimos en clase era obvio que los datos estaban relacionados puramente por azar, pero quise indagar más en este tema ya que creo que en nuestro día a día podemos encontrarnos con correlaciones que a priori damos por válidas ya que nos parecen lógicas, pero que igualmente están relacionadas únicamente por azar.

    Buscando información encontré estos dos ejemplos:

    El primero relaciona el aumento de la temperatura global con el número de piratas. Esto es un estudio realizado por Bobby Henderson.
    En este ejemplo vemos claramente que los datos no guardan ninguna relación, la disminución del número de piratas no hace que aumente el calentamiento global.

    Pero, ¿si viéramos el siguiente artículo en un periódico, llegaríamos tan rápidamente a la conclusión de que estos datos no guardan relación?

    Si al leer el periódico nos encontramos con este artículo, probablemente un gran número de personas dejaría de comprar yogures de esa marca, ya que, de forma errónea, daríamos por válido el argumente de que esos yogures contienen algún tipo de sustancia que hace que la gente que los tome muera.
    En este caso, se podrían analizar los yogures para ver si contienen alguna sustancia que haya producido las muertes o, por el contrario, ha sido el azar el responsable, pero lo que está claro es que, a priori, la gran mayoría habríamos creído que este artículo está en lo cierto.

    Esto me da que pensar en la cantidad de ejemplos como este que nos podemos encontrar en nuestro día a día y damos por válidos sin darnos cuenta de que correlación no implica causalidad.

    En esta página podéis encontrar más información acerca de estos ejemplos: http://www.jotdown.es/2016/06/correlacion-no-implica-causalidad/

  7. Ivan Lopez Pacheco

    Buenas días a todos,

    Hace unos días comentamos en clase cómo funcionaba el Teorema de Bayes para el cálculo de probabilidades, y me llamó la atención el potencial que podría tener para otras ramas de la ciencia como el desarrollo de la inteligencia artificial, la cual tiene su base en este teorema.

    Documentándome sobre el tema he descubierto que en campos como la robótica se experimenta con el Teorema de Bayes al diseñar los sistemas artificiales comprobando qué tan lejos puede llegar un robot con tareas complejas en el mundo real (como fue el caso del robot Asimo en el 2000). Se basan en la posibilidad del Teorema de Bayes de dar un juicio racional cuando solo se cuenta con información incierta o incompleta. El teorema de Bayes es aplicable a todas las cuestiones relacionadas con el aprendizaje a través de la experiencia.

    Por otra parte, en las pruebas diagnósticas, sirve para estimar de mejor manera la probabilidad de que un individuo presente o no una enfermedad. Los test diagnósticos son una aplicación del teorema en base a los conceptos de sensibilidad y especificidad, valores que son estimados previamente.

    En el campo de la ingeniería, se utiliza la estadística para cualquier proyecto o experimento, ya que se deben calcular las probabilidades de que los resultados sean fiables o se presente algún error.
    Por ello, los métodos bayesianos ofrecen una teoría basada en principios que combinan los conocimientos previos y evidencias inciertas para hacer inferencia de factores ocultos y predicciones. Estos son cada vez más relevantes en la era digital del Big Data para proteger los modelos de alta capacidad contra el overfitting (efecto de sobreentrenar un algoritmo de aprendizaje con unos ciertos datos para los que se conoce el resultado deseado), y para permitir que los modelos actualicen su capacidad de forma adaptativa. Sin embargo, la aplicación de métodos bayesianos para grandes datos se encuentra con el problema de un cuello de botella de cálculo que debe ser abordado con nuevos métodos de inferencia.

    Las redes bayesianas, junto con los árboles de decisión y las redes neuronales artificiales (Deep Learning), han sido los tres métodos más usados en aprendizaje automático durante estos últimos años en tareas como la clasificación de documentos y patrones. La idea de usar el teorema de Bayes en cualquier problema de aprendizaje automático es que podemos estimar las probabilidades a posteriori de cualquier hipótesis con el conjunto de datos de entrenamiento, para escoger así la hipótesis más probable.

    Espero que con este enfoque más práctico del teorema se vea la gran utilidad del mismo en nuestro entorno.

    Un saludo

  8. Miguel Ángel Pérez Naranjo

    Buenas compañeros,

    Aquí os dejo mis aproximaciones con la justificación lo mejor detallada posible para que veáis de donde saco el orden de aproximación final:

    • La masa de la Tierra la he calculado un poco más científicamente ya que es complicado aproximarla sin conocer algunas constantes o fórmulas de gravitación, no obstante, solo conociendo la densidad que es aproximadamente 5×10^3 (Km/metro cúbico) y con la fórmula sencilla del volumen de una esfera donde necesitamos el radio, pero estuvimos hablando en clase que se aproximaba a 6×10^3 (Km), luego más o menos tenemos que el volumen de la Tierra sería de 10^12 (Km cuadrados). Finalmente con la relación sencilla de densidad = (masa)/(volumen) despejamos la masa y nos queda con los datos que tenemos 5 x10^24 (Kg)
    • Un humano medio pesa 70 (Kg) de media, y estuvimos hablando en clase también que en el mundo había 7.000 billones de personas, aunque redondeo directamente a 10.000 billones que en notación científica es 10^10 personas, multiplicando tenemos que el peso total de la humanidad aproximada es de 7×10^11 (Kg)
    • La Puerta del Sol tiene a ojo un área de 400×100 (metros cuadrados) donde resulta un área de 4×10^4 (metros cuadrados). Ahora suponemos que una persona de pie ocupa medio metro de espacio en la manifestación, estableciendo la relación, concluimos que la Puerta del Sol se llenará cuando se reúnan aproximadamente 10^5 personas
    • La vida útil de un neumático no se mide con la etiqueta de la DOT como mucha gente piensa, ya que esos 4 dígitos solo establecen semana y año cuando se fabricaron, pero si tomamos el consejo de cambiarlos cada 10 años a partir de esa fecha, y una persona de media, según mi experiencia y de personas cercanas, hacen 30.000 (Km), hacemos una proporción y en un año el neumático recorre 3×10^3(Km/año). Ahora bien, el límite legal está en un desgaste un poco menor a 2 (mm), y por km se desgastará aproximadamente 80.000(Km), que son casi 3 años, luego según los cálculos anteriores tenemos que se desgastan 2/3(mm por año), redondeando: 1(mm/año)
    • Para la mortalidad en España, en las noticias vemos como se dice que la tasa de mortalidad es muy alta y supera al de nacimientos, luego si en España hay aproximadamente 10^4 nacimientos en España, para que la diferencia sea considerable, mínimo será 1 exponente más, luego nuestra aproximación de gente que muere en España es de 10^5 personas

    Por supuesto habrá datos que se alejen más o menos de la realidad pero he intentado hacer la aproximación con los datos más sencillos posibles para mí y trabajar con operaciones matemáticas muy fáciles que se simplificaban más si cabe con la notación científica.

  9. Narciso Soto

    ¡Buenas a todos!
    En clase ya es todo un clásico hablar sobre la efectividad de las pruebas diagnósticas en términos estadísticos y de cómo la sensibilidad, el parámetro que suele usarse para “vendernos” la efectividad de la prueba, puede dar una primera impresión equívoca acerca de la precisión del resultado. Hemos visto qué debemos mejorar en una prueba diagnóstica para mejorar los resultados, pero esto no es algo que esté en manos de un paciente, por tanto, quería explorar la opción que en el mundo real cualquier persona tomaría al ser diagnosticada con una enfermedad como el VIH, pedir una segunda opinión.
    Los datos que voy a usar a continuación son reales y los he obtenido de una guía para el diagnóstico precoz del VIH publicada por el ministerio de sanidad en 2014, link: http://www.msssi.gob.es/ciudadanos/enfLesiones/enfTransmisibles/sida/docs/GUIA_DX_VIH.pdf y de la revista “Clinical Infectious Diseases”, publicada por Oxford Academic, link: https://academic.oup.com/cid/article/52/2/257/374340/Evaluation-of-the-Performance-Characteristics-of-6. Para realizar estos cálculos, usaré el Teorema de Bayes, de la siguiente forma:

    Probabilidad de padecer VIH habiendo dado positivo en el test = (Sensibilidad de la prueba*Prevalencia de la enfermedad)/(Sensibilidad*Prevalencia + (1 – Especificidad) * (1 – Prevalencia))

    Donde la prevalencia es una medida de lo probable que es padecer la enfermedad (Típicamente, el porcentaje de enfermos, que en España es de 0.4% para el VIH), la sensibilidad se corresponde con la tasa de verdaderos positivos (Esto es, Verdaderos positivos / Personas enfermas) y la especificidad se corresponde con la tasa de verdaderos negativos (Análoga a la de verdaderos positivos).

    Para un test de laboratorio, llamado ELISA (Enzyme-Linked ImmunoSorbent Assay), normalmente realizado a personas que pertenecen a un grupo de riesgo, la especificidad es del 99.91% y la sensibilidad es del 99.78%. Usando estos valores, la probabilidad de estar enfermo habiendo dado positivo en el test es de 81.65%. Nada nuevo hasta aquí, la probabilidad de estar enfermo no se corresponde con el valor de la sensibilidad (Aunque resulta bastante alta, indicativo de la fiabilidad de este test). ¿Pero que pasaría si repitiéramos el test al mismo paciente y volviera a dar positivo? En este caso, la probabilidad de tener la enfermedad ya no se corresponde con la prevalencia, ya que el paciente no es un sujeto aleatorio de la población, sino alguien que ya ha dado positivo en una prueba, por tanto, la probabilidad de que esta persona esté enferma es la calculada anteriormente usando anteriormente el Teorema de Bayes. Haciendo los cálculos, nos sale una probabilidad de estar enfermo del 99.97%. Por tanto, podríamos usar tests que a priori no fueran tan buenos para diagnosticar una enfermedad. En el caso del test ELISA, que es un test de laboratorio realizado en sangre, este resultado no resulta impresionante, ya que, de entrada, dando positivo la primera vez, la posibilidad de estar enfermo es bastante alta.

    Usando los datos de la revista mencionada anteriormente, he elegido dos tests rápidos, del estilo de los test que a veces se realizan en las campañas de la Universidad, los cuales son:
    Oraquick Advance HIV-1/2 (Realizado en saliva): Sensibilidad: 99.3% y especificidad: 99.8%.
    Reveal G3 HIV-1 (Realizado en plasma sanguíneo): Sensibilidad: 99.% y especificidad: 98.6%

    Y los resultados para estos test son, en un primer diagnóstico positivo, unas probabilidades de estar enfermo del 66.6% y del 22.26% respectivamente. Sin embargo, en un segundo diagnóstico, las probabilidades crecen hasta un 99.89% en el primer caso y hasta 95.33% en el segundo.

    Me resulta sorprendente como, teniendo exactamente la misma prueba (La cual no tiene porqué dar unos grandes resultados a la primera) y usando la estadística, podemos alcanzar los mismos resultados que podrían alcanzarse con miles de euros invertidos en la mejora de las pruebas diagnósticas actuales. Por otro lado, me ha impresionado el hecho de que desde el ministerio de sanidad advierten de este fenómeno y avisan de que es necesario confirmar los resultados mediante la repetición de la prueba o con la realización de un test diferente.

    ¡Espero que os parezcan interesantes estos resultados y también os sirvan para afianzar estos conceptos para el examen!

  10. Carlos Carretero Mariblanca

    Me resultó curioso el término de ROC ya que me sonaba de haberlo oído a lo largo de la carrera que estoy realizando y, aunque no tenga que ver directamente con el tema dado me gustaría compartirlo pues me parece interesante: uno de los funcionamientos de este instrumento en el ámbito de señales,

    La ROC es uno de los instrumentos más útiles en la Teoría de Detección de Señales, en ella representamos la relación que hay entre sensibilidad (el acierto) y la probabilidad de especificidad (detectar los casos negativos de las variables asociadas). Un detector de señales mediocre representaría una linea recta entre ambas, lo que conlleva que se decidan respuestas aleatoriamente, no será ni sensible ni específico.

    Sin embargo su comportamiento puede ser mucho mejor y verse caracterizado por una curva que, en función de cuánto de bueno queremos que sea el detector, se ira acercando a la esquina superior izquierda más. Cuanto más se acerque a esta esquina menor será la probabilidad de falsas alarmas y mejor se empeñará la principal tarea de nuestro sistema que es reconocer la señal que recibe.

    También en otros campos como la oftalmología se emplearía las curvas ROC para avanzar y ayudar a poblaciones normales con hipertensión ocular y el diagnóstico perimétrico del glaucoma de las personas.

    links de referencia: http://psicoteca.blogspot.com.es/2009/04/la-teoria-de-deteccion-de-senales.html
    https://es.wikipedia.org/wiki/Teor%C3%ADa_de_detecci%C3%B3n_de_se%C3%B1ales

  11. Victoria del Pozo Franco

    Buenas tardes a todos,
    Hace unos dias hablamos en clase que la correlación no implica casualidad, me gustaria mostraros una imagen que he encontrado sobre algunos ejemplos absurdos mostrando que la correlación no implica casualidad. Entre estos ejemplos existe una correlacion, pero no una relación de causa y efecto.

  12. Christian Durán González

    Buenas tardes compañeros,

    Durante este tema hemos estudiado que los test sobre las enfermedades puedan dar lugar a errores debido a los Falsos Negativos y Falsos Positivos. He encontrado en Internet un artículo de la BBC que trata este tema entrevistando a un doctor. Este doctor indica un hecho muy importante: ¿Qué pasa si es un falso negativo lo que obtenemos en un test? Algunos podrán pensar que es bueno porque no está enfermo, pero el doctor no piensa así y da un argumento muy convincente, declara que cuando das positivo en la prueba inmediatamente estás seguro de que estás enfermo, lo que conlleva una ansiedad e inquietud que puede afectar a la salud del paciente, pero también realizarse más pruebas pueden afectarle al paciente en la salud gravemente.
    Por ello es importante destacar la importancia de dar a conocer a la población que hay probabilidad de error en estas pruebas y que si se tratan de enfermedades raras esta probabilidad será muy alta. Esto solamente se puede realizar desde la Educación.

    A continuación les indico el enlace del artículo: http://www.bbc.com/mundo/noticias/2015/12/151120_diccionario_medico_falso_positivo_negativo_finde_dv

    Espero que os sea útil esta información.

    Un saludo,

    Christian

  13. JuanMS

    Ordeno las respuestas por temas, que quizá sea más útil:

    *** Sobre el efecto placebo

    David Mesa, es verdad que el efecto placebo es muy real y por eso todo estudio médico que no tenga grupo de control es inútil. De todos modos, estaría bien que nos dieses las referencias de los experimentos que citas.

    *** Sobre la teoría de detección de señales, curvas ROC, etc

    Carlos Carretero nos ha traído dos enlaces que son una buena introducción a la teoría de detección de señales. Esto está relacionado con el comentario de Miguel Ángel Pérez: el vídeo es curioso pero no explica lo que es el CFAR thresholding, aquí pongo el enlace de la Wikipedia en el que cuentan que lo que se busca es tener una tasas de falsas alarmas constante, para lo que, si el ruido no es constante, hay que ajustar el umbral adaptativamente.

    *** Sobre “correlación no implica causación”

    Silvia Andueza, está bien el enlace, sencillo y con bastantes ejemplos. He aprendido que la falacia de confundir la causación con la correlación se llama “Cum hoc ergo propter hoc”, el latín siempre luce mucho 🙂 También sobre “correlación no implica causalidad” está bien el enlace de María Pizarro… aunque le pongo una pega a la gráfica de los piratas: los datos en el eje x están en orden decreciente, y además los dos primeros están desordenados (35000, luego 45000 pero después 20000). Y un comentario más, el de Victoria del Pozo, con algunas gráficas divertidas (pero estaría bien que hubieras puesto el enlace).

    *** Sobre tests diagnósticos, falsos positivos, etc

    Alfonso de la Vega, en realidad la amniocentesis es una prueba invasiva (hay que sacar líquido amniótico a la embarazada) y lo que se propone en la noticia que nos traes es una técnica llamada “cribado de DNA fetal en sangre materna” que consistiría en un simple análisis de sangre. Pero, como señalas, aparece la típica confusión entre sensibilidad y valor predictivo positivo, y fíjate que en el propio artículo que pretende informar sobre esto no lo aclaran demasiado tampoco (no se menciona para nada la prevalencia de las anomalías que se pretenden detectar). Cada vez estoy más convencido de que esto es algo que se debería enseñar en el bachillerato o en la ESO incluso (realmente no hacen falta casi matemáticas).

    Narciso Soto, buena idea: cuando has dado positive en un test, el VPP puede usarse como la nueva probabilidad a priori (=una especie de prevalencia eficaz) para un segundo test, que ahora no hace falta que sea tan bueno, porque ya estás en un grupo de riesgo. ¿Es tuya la idea o la has leído en alguna referencia? Esto sería aplicable al caso que nos comentaba Alfonso de la Vega sobre tests alternativos a la amniocentesis. Buen trabajo también haberte buscado los datos de Sensibilidad y Especificidad reales.

    Christian Durán, en efecto, los falsos positivos no son tan inocuos como se pudiera pensar porque llevan un coste importante en ansiedad, gastos médicos innecesarios y posibles efectos secundarios de pruebas invasivas. Un buen artículo de divulgación el que nos enlazas

    *** Sobre el teorema de Bayes en general

    Ivan Lopez, en efecto, el teorema de Bayes y todos los métodos que se basan en él son totalmente básicos para todo el campo de la inteligencia artificial y el big data. La idea es que Bayes permite cuantificar cuanta información te aporta cada experiencia nueva (como comentamos en clase, cuanto ha aumentado la probabilidad de que una hipótesis sea cierta después de obtener cierta información, conocida la probabilidad a priori).

    *** Sobre órdenes de magnitud

    Manuel Fernandez y Miguel Ángel Pérez en realidad vuestros comentarios sobre órdenes de magnitud tendría que ir en el siguiente tema…

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s