Datos Datos: Análisis e interpretación

por Anne Egger, Ph.D., Anthony Carpi, Ph.D.

¿Sabia usted que los científicos no siempre están de acuerdo en el significado de datos? A diferentes científicos se les ocurren diferentes explicaciones acerca de los datos y el desacuerdo entre científicos no significa que es ciencia equivocada.

Resumentoggle-menu

El análisis de datos esta en el centro de cualquier investigación científica. Utilizando el estado del tiempo por ejemplo, este modulo le lleva a través de los pasos de la recolección de datos, el análisis, la interpretación y la evaluación. Usted vera como los científicos (1) recolectan datos, (2) encuentran patrones en los datos, (3) explican esos patrones y (4) comparten su investigación con la comunidad científica mas grande.

Términos que usted debe sabertoggle-menu

  • análisis = estudio cuidadoso de datos para buscar patrones
  • datos = pedazos de información recolectados por medio de observaciones y medidas.
  • conjunto de datos = una colección de medidas y observaciones que pueden ser analizadas
  • interpretación = una explicación de patrones observados en los datos

Tabla de Contenidotoggle-menu

Antes de decidir que se va a poner en la mañana, usted considera una variedad de datos: la temporada del año, el pronóstico meteorológico, cuáles prendas de su ropa están limpias o sucias, y lo que hará durante el día. Después, analiza los datos. Tal vez piensa, “Es verano así que suele estar cálido.” Este análisis le ayuda a determinar la mejor acción a seguir y toma la decisión sobre la ropa que se pondrá, a partir de su interpretación de la información. Puede que elija una camiseta y un short en un día de verano, cuando sabe que estará afuera, pero que lleve un sweater, si sabe que estará en un edificio con aire acondicionado.

A pesar de que este ejemplo pueda parecer simplista, refleja la manera en la que los científicos recogen datos, los analizan y los interpretan. Los datos son observaciones y medidas científicas que, una vez que han sido analizados e interpretados, pueden ser desarrollados como evidencia para tratar una cuestión. Los datos ocupan el centro de las investigaciones científicas y todos los científicos recogen datos de una u otra manera. El pronóstico meteorológico que le ayudó a determinar qué ropa ponerse, por ejemplo, es una interpretación realizada por un meteorólogo que analizó los datos recogidos por los satélites. Los datos pueden tomar la forma de varias colonias de bacterias que crecen en el caldo de la sopa (vea nuestro módulo Los métodos de investigación: experimentación), una serie de dibujos o fotografías de diferentes capas de una roca que forman una cordillera (vea nuestro módulo Los métodos de investigación: descripción), un recuento de víctimas de cáncer de pulmón en la población fumadora y no fumadora (vea nuestro módulo Los métodos de investigación: comparación) o los cambios en el promedio anual de la temperatura pronosticada por un modelo de clima global (vea nuestro módulo Los métodos de investigación: modelaje). La acumulación de datos científicos requiere más cuidado del que usted le asignaría a una rápida mirada al termómetro para ver que ropa se pondrá. Debido a que los científicos construyen sobre su propio trabajo y el trabajo de otros, es importante que sean sistemáticos y consistentes en sus métodos de acumulación de datos y que hagan registros detallados para que otros puedan ver y usar los datos que acumulan.

Sin embargo, la acumulación de datos es sólo un paso de la investigación científica y el conocimiento científico es mucho más que una simple recopilación de datos. El mundo está lleno de datos que se podrían observar, pero no todas las observaciones constituyen un dato útil. Por ejemplo, el meteorólogo puede registrar la temperatura externa cada segundo del día, pero ¿sería este pronóstico más exacto que si lo registrase cada hora? Probablemente no. Todos los científicos eligen qué datos son los más relevantes para su investigación y qué hacer con ellos: cómo convertir una acumulación de medidas en conjuntos de datos a través del procesamiento y análisis, y cómo interpretar esos datos analizados en el que contexto de lo que ya saben. La atenta y sistemática acumulación, análisis e interpretación de los datos permite que sean presentados en evidencias que confirmen ideas, argumentos e hipótesis científicas.

Colección de datos, análisis e interpretación: Estado de Tiempo y Clima

Durante mucho tiempo el clima meteorológico ha sido objeto de una amplia acumulación, análisis e interpretación de datos. La medición acertada de la temperatura del aire, permitió a Gabriel Fahrenheit, en los años 1700s, la invención del primer termómetro de mercurio estandarizado, en 1714. (vea nuestro módulo Temperatura) Para los marineros de los océanos, la temperatura del aire, la velocidad del viento y la dirección del viento constituyen información marítima crítica, pero al final de los años 1700s y principios de los 1800s, a medida que las expediciones marítimas se hacían más comunes, no era fácil obtener esta información. A Matthew Fontaine Maury, el superintendente del Depósito de Mapas e Instrumentos de la Marina de Estados Unidos (Depot of Charts and Instruments of the U.S. Navy), la falta de datos fidedignos le preocupaba enormemente. Como consecuencia, Maury organizó la primera Conferencia internacional marítima, que tuvo lugar en Bruselas, Bélgica, en 1853. En esta reunión, se establecieron los estándares internacionales para medir el tiempo en los barcos y se creó un sistema para compartir esta información entre los países. Definir estándares uniformes para la recopilación de datos fue un paso importante en la producción de un conjunto de datos de la información meteorológica verdaderamente global. Esto permitió que los datos recopilados por mucha gente en diferentes lugares del mundo pudiesen reunirse en un único conjunto de datos. En la Figura 1 se puede ver la recopilación de Maury de los datos estandarizados de los vientos y corrientes de los marineros (ver el enlace Investigación para el texto original). La temprana cooperación e inversión en la recopilación de datos del tiempo produjo un valioso registro de la temperatura a largo plazo, que se remonta hasta los años 1850.

Enlarge
Figura 1: Placa XV de Maury, Matthew F. 1858. Los vientos. Capítulo: Explicaciones y direcciones marítimas. Washington: Hon. Issaac Toucey.
Esta vasta reserva de información está considerada como datos “crudos”: tablas de números (fechas y temperaturas), descripciones (nubosidad), localización, etc. Los datos crudos pueden ser útiles por sí mismos – por ejemplo, si usted quiere saber qué temperatura hacía en Londres el 5 de junio de 1801. Pero los datos solos, no le dirán nada sobre cómo ha cambiado la temperatura en Londres en los últimos doscientos años, o cómo ha cambiado la información relacionada con la escala climática global. Para poder ver patrones y tendencias en los datos, éstos deben ser interpretados y analizados ante todo. Los datos analizados e interpretados pueden ser entonces usados como evidencia en argumentos científicos, para corroborar una hipótesis o teoría. Los datos buenos son un tesoro oculto potencial, que pueden ser extraídos por los científicos en cualquier momento, por lo que una parte importante de cualquier investigación científica es el registro preciso y consistente de datos y de los métodos utilizados para acumularlos. Basados parcialmente en los estándares establecidos por Matthew Maury, los datos climáticos acumulados desde los años 1850 han sido un tesoro oculto. Estos estándares proveyeron pautas para la recopilación y el registro de datos que aseguraron la consistencia del conjunto de datos. En ese momento, los capitanes navieros pudieron utilizar los datos para determinar las rutas más fiables para navegar los océanos. Muchos científicos modernos que estudian el cambio climático, han aprovechado este mismo conjunto de datos para entender cómo la temperatura global ha cambiado en el pasado reciente. En ninguno de estos casos se puede simplemente mirar la tabla de números y observaciones y contestar la pregunta de qué ruta tomar o cómo la temperatura global ha cambiado. Ambas preguntas requieren el análisis y la interpretación de los datos.

Control de Comprensión

Data are most valuable when they are collected

A pesar de que puede sonar sencillo tomar el registro acumulativo de la temperatura de 150 años para describir cómo ha cambiado el clima global, el proceso de analizar e interpretar estos datos es bastante complejo. Considere la gama de temperaturas en el mundo en cualquier día de enero (vea la Figura 2): en Johannesburgo, Africa del Sur, dónde es verano, la temperatura ambiental puede llegar a los 35° C (95° F), y en Fairbanks, Alaska en el mismo momento del año, es la mitad del invierno y la temperatura puede ser de -35° C (-31° F). Ahora considere los inmensos espacios en el océano donde no hay ninguna medida consistente. Simplemente se podría tomar el promedio de todas las medidas disponibles en un sólo día para obtener la temperatura global promedio de ese día, pero ese número no toma en cuenta la variabilidad natural dentro de la distribución impar de estas medidas.
Enlarge
University of Wisconsin-Madison Space Science and Engineering Center
Figura 2: Imágen de satélite compuesta de temperaturas (en grados Celsius) promedio a través del mundo el 2 de enero del 2008.

Los científicos necesitan tomar varias decisiones sobre la manera de procesar todos estos datos en un conjunto de números significativos para definir una temperatura promedio de la superficie global. En el año 1986, los climatólogos Phil Jones, Tom Wigley, y Peter Wright publicaron uno de los primeros intentos para evaluar los cambios en la temperatura promedio global desde 1861 a 1984 (Jones, Wigley, & Wright, 1986). La mayor parte de este trabajo – tres de cinco páginas – describe las técnicas de procesamiento que usaron para corregir los problemas e inconsistencias en los datos históricos que no están relacionados con el clima. Por ejemplo, los autores notan que las “primeras temperaturas de la superficie marítima (TSM) se medían usando agua recogida en baldes de tela no impermeables, mientras que los datos más recientes provenían de baldes impermeables con medidas tomadas de agua fría que está considerada entre 0.3-0.7° C más cálida que las medidas de baldes no impermeables.” Corregir este sesgo parecería sencillo, solamente haría falta añadir ~0.5° C a las primeras medidas de los baldes de tela, pero es más complicado que eso porque, según los autores, la mayoría de los TSM no incluye una descripción de qué tipo de balde o sistema se usó.

Se ha encontrado algunos problemas similares con los datos de la temperatura marítima. Históricamente, las temperaturas del océano se tomaban en un barco, pero el tipo y tamaño del barco podía afectar la medida, porque el tamaño “determina la altura en la que fueron hechas las observaciones.” La temperatura puede cambiar rápidamente con la altura sobre el océano. Por lo tanto, los autores hicieron una corrección en sus datos tomando en cuenta el tamaño del barco. Una vez que Jones, Wigley, y Wright habían hecho varias correcciones de este tipo, analizaron sus datos, usando una técnica espacial promedio que coloca las medidas en los cuadros de una cuadrícula puesta sobre la superficie de la tierra para dar cuenta de la razón de por qué había más medidas tomadas sobre tierra, que sobre los océanos. Desarrollar esta cuadrícula requirió muchas decisiones sobre la base de su experiencia y juicio, tales como el tamaño de cada cuadro y la distribución de cada uno sobre la Tierra. Después, calcularon la temperatura media dentro de cada cuadro y combinaron todos estos promedios para calcular el promedio de la temperatura global para cada año. Técnicas estadísticas como el promedio son usadas comúnmente en los procesos de investigación, y pueden ayudar a identificar tendencias y relaciones dentro y entre conjuntos de datos (ver nuestro módulo Datos: Estadísticas)

Una vez que se calculó el promedio espacial de esta temperatura promedio global, los autores compararon el promedio en el tiempo, de 1861 a 1984. Un método común para analizar los datos que ocurren en una serie, tales como las medidas de la temperatura a través del tiempo, es observar las anomalías o las diferencias con un valor de referencia predefinido. En este caso, los autores compararon sus valores de la temperatura al promedio de los años 1970 a 1979 (ver la Figura 3). Este promedio de referencia se obtiene de cada promedio anual para producir las líneas dentadas en la Figura 3, que expone anomalías positivas y negativas (valores mayores o menores a cero). A pesar de que esta pueda parecer una manera compleja o circular de exponer los datos, es útil porque la meta es demostrar los cambios en las temperaturas promedio en vez de los valores absolutos.

Enlarge
Figura 3: La línea negra muestra anomalías globales de temperatura o diferencias entre medidas de temperatura promediadas anualmente y el valor de referencia para el globo entero. La línea roja suave es un promedio filtrado de 10 años. (Basado en Figura 5 en Jones et al., 1986)

Colocar los datos en un formato visual puede facilitar análisis adicionales (ver nuestro módulo Los datos: usando datos gráficos y visuales). La Figura 3 muestra mucha variabilidad en los datos: hay ciertos picos y caídas en la temperatura global durante el periodo examinado. Puede ser un desafío ver alguna tendencia en los datos que muestran tanta variabilidad; nuestros ojos se dirigen a los valores extremos en las líneas dentadas, como el gran pico en la temperatura alrededor de 1876 o la significativa caída alrededor de 1918. Sin embargo, estos extremos no reflejan necesariamente las tendencias a largo plazo en los datos. Para poder ver patrones y tendencias a mayor largo plazo, Jones y sus co-autores usaron otra técnica de procesamiento y aplicaron un filtro a los datos al calcular un promedio de diez años para pulir los mismos datos. Las líneas alisadas en el gráfico representan los datos filtrados. La línea alisada corresponde aproximadamente a los datos, pero no alcanza los valores extremos.

Algunas veces se malinterpreta el procesamiento y análisis de datos como una manipulación de los mismos para alcanzar los resultados deseados, pero, en realidad, la meta de estos métodos es aclarar los datos, no cambiarlos fundamentalmente. Tal como se describió con anterioridad, los científicos informan sobre los métodos de procesamiento y análisis de datos que usan además de los datos mismos cuando publican su trabajo (ver nuestro módulo Comunicación Científica: Entendiendo Revistas y Artículos Científicos). Así permiten que sus colegas tengan la oportunidad de evaluar los datos sin procesar, y las técnicas usadas para analizarlos.

Luego, el análisis de los datos puede ser interpretado y explicado. En general, cuando los científicos interpretan los datos, tratan de explicar patrones y tendencias descubiertos a través del análisis, usando todo su conocimiento previo, experiencia, destrezas para analizar la cuestión, relacionando sus datos a las ideas científicas existentes. Debido a la característica personal del conocimiento que usan, este paso puede ser subjetivo, pero esta subjetividad es observada por colegas en un proceso de revisión (ver nuestro módulo Comunicación Científica: Revisión de Pares). Basándose en las curvas alisadas, Jones, Wigley, y Wright interpretaron sus datos para demostrar una tendencia a largo plazo de calentamiento. Ellos observaron que los tres años más cálidos en el total conjunto de datos eran 1980, 1981, y 1983. No van más allá en su interpretación para sugerir las posibles causas para el incremento de las temperaturas, pero simplemente plantean que los resultados son “extremadamente interesantes cuando se los observa a la luz de las recientes ideas sobre las causas de los cambios climáticos.”

Control de Comprensión

There is only one correct way to analyze and interpret scientific data.

Los datos presentados en este estudio fueron comúnmente aceptados dentro de la comunidad científica, en gran parte debido a la cuidadosa descripción de los datos y de su proceso de análisis. Durante los años 1980, sin embargo, unos cuantos científicos permanecieron escépticos sobre esa interpretación de la tendencia al calentamiento. En 1990 Richard Lindzen, un meteorólogo del Massachusetts Institute of Technology, publicó un trabajo expresando su preocupación sobre la interpretación del calentamiento (Lindzen, 1990). Lindzen resaltó varias cuestiones que él creía que debilitaban los argumentos para el aumento de las temperaturas. Primero, argumentó que la recopilación de datos era inadecuada, sugiriendo que las estaciones de la red de recopilación de datos actuales eran insuficientes para corregir la duda inherente en los datos con tanta variabilidad natural (considere cuán diferente es el clima en la Antártica y en el desierto del Sahara durante cualquier día). Segundo, argumentó que el análisis de datos era fallido y que la brecha sustancial en la cobertura, particularmente sobre el océano, planteaba interrogantes sobre la capacidad de este conjunto de datos para representar adecuadamente el sistema global. Finalmente, Lindzen sugirió que la interpretación de los datos de la temperatura promedio es inapropiada, y que no hay una tendencia en los datos. El notó un descenso en la temperatura promedio de 1940 a 1970 en un momento cuando los niveles atmosféricos de CO2, una causa propuesta para explicar el incremento de las temperaturas, aumentaron rápidamente. En otras palabras, Lindzen usó unos conocimientos y una serie de experiencias e ideas para explorar el mismo conjunto de datos y alcanzó unas conclusiones muy diferentes.

Este tipo de desacuerdo es común en la ciencia y generalmente conduce a mayor recopilación e investigación de datos. De hecho, las diferencias en la interpretación sobre la presencia o ausencia de una tendencia motivaron a los científicos climáticos a extender los registros de las temperaturas en ambas direcciones, retrocediendo en el pasado y continuando en el tiempo, con la creación de estaciones climáticas alrededor del mundo. En 1998, Michael Mann, Raymond Bradley y Malcolm Hughes publicaron un trabajo que expandió los registros originalmente citados por Jones, Wigley, y Wright (Mann, Bradley, & Hughes, 1998). Por supuesto, no pudieron usar registros de la temperatura de termómetros para retroceder al año 1000 de nuestra era; sin embargo, usaron los datos de otras fuentes, como el grosor de los anillos de árboles, los datos del centro del hielo y los registros del crecimiento coral, que podían proveer información sobre la temperatura para reconstruir el pasado climático (Figura 4, línea azul).

Enlarge
IPCC
Figura 4: Las diferencias entre la temperatura promedio anual y la temperatura promedio durante el periodo de referencia 1961-1990. La línea azul representa los datos los registros de los anillos de árboles, centro del hielo, y el crecimiento coral. La línea anarajanda representa los datos medidos con instrumentos modernos. Gráfico adaptado de Mann et al. publicado en IPCC Third Assessment Report.

Mann, Bradley, y Hughes usaron muchas de las mismas técnicas de análisis que Jones y sus co-autores, tales como el promedio de diez años consecutivos, y adicionalmente, incluyeron una medida de incertidumbre en su gráfico: la zona gris expuesta en la Figura 3. Informar sobre los errores y las dudas de los datos no implica que las medidas sean erradas o fallidas, más bien, es todo lo contrario. La magnitud del error describe cuán seguros están los científicos de la exactitud de los datos, así que los mayores errores informados indican menor seguridad (vea nuestro módulo Datos: incertidumbre, errores, y confiabilidad). Ellos notaron que la magnitud de la duda aumenta cuando se retrocede en el tiempo, pero se limita bastante alrededor de 1900. En su interpretación, los autores describen varias tendencias observadas en los datos: varios periodos más cálidos y fríos a través del registro (por ejemplo, compare los datos alrededor de los años 1360 a 1460 en la Figura 3), y una tendencia pronunciada al calentamiento en el siglo 20. De hecho, ellos notan que todos los años antes del siglo 21 [están] por debajo del promedio del siglo 20”, y éstos muestran una tendencia lineal hacia la disminución de la temperatura (Fig. 3, línea discontinua rosada). Es interesante que así como Jones et al. informaron que los tres años más calientes estaban dentro de la última década de su registro, lo mismo ocurre en un conjunto de datos mucho más amplio. Mann et al. informan que los tres años más cálidos en su conjunto de datos, que va hasta 1998, fueron 1990, 1995, y 1997.

El debate sobre la interpretación de los datos relacionados con el cambio climático y el interés de las consecuencias de estos cambios ha conducido a un aumento enorme en el número de los estudios de investigación científica que tratan el cambio climático y, ahora, múltiples líneas de evidencia científica confirman las conclusiones inicialmente realizadas por Jones, Wigley, y Wright a mediados de 1980. Todos estos resultados fueron resumidos en el Fourth Assessment Report (AR4) of the Intergovernmental Panel on Climate Change (IPCC), hecho público en 2007 (IPCC, 2007). Basado en la correspondencia entre estos múltiples conjuntos de datos, el equipo de contribuyentes científicos escribió que "El calentamiento del sistema climático es inequívoco, tal como se evidencia ahora de las observaciones del aumento en las temperaturas promedio globales del aire y del océano, el derretimiento generalizado del hielo y la nieve, y el aumento global del promedio del nivel del mar.” La corta frase “ se evidencia ahora” refleja la acumulación de datos a través del tiempo, incluidos los datos más recientes, hasta el 2007.

Un nivel superior de la interpretación de los datos consiste en determinar las razones del aumento de la temperatura. El AR4 continúa diciendo que “La mayoría de los aumentos observados en las temperaturas promedio globales desde la mitad del siglo XX son probablemente debidos al aumento observado en las concentraciones antropogénicas de los gases de invernadero.” Este planteamiento se apoya en muchas de las fuentes de datos además de los datos de temperatura, incluidos datos tan diversos como el cronometraje de la primera aparición de los retoños de los árboles en primavera, la concentración de gases de invernadero en la atmósfera y las medidas de isótopos de oxígeno e hidrógeno de los centros de hielo. Analizar e interpretar una gama tan diversa de conjuntos de datos requiere la maestría combinada de muchos científicos que contribuyeron al informe IPCC. Este tipo de amplia síntesis e interpretación de datos es crítica para el proceso científico, y resalta como los científicos individuales construyen sobre el trabajo de otros y potencialmente inspiran colaboraciones para investigaciones posteriores entre los científicos de diferentes disciplinas.

La interpretación de datos no es una actividad sin lógica, ni todas las interpretaciones son igualmente válidas. La interpretación consiste en construir un argumento científico lógico que explica los datos. Las interpretaciones científicas no son ni verdades absolutas ni opiniones personales: son inferencias, sugerencias, o hipótesis sobre lo que significan los datos, basadas en el conocimiento científico y la maestría individual. Cuando los científicos empiezan a interpretar los datos, usan su conocimiento personal y colectivo, usualmente discutiendo los resultados con un colega en el pasillo o en otro continente. Ellos usan la experiencia, lógica, y parsimonia para construir una o más explicaciones plausibles para los datos. Como en cualquier empresa humana, los científicos pueden errar o hasta intencionalmente engañar a sus colegas (ver nuestro módulo Ética científica), pero la gran mayoría de los científicos presenta interpretaciones que ellos creen son razonables y confirmadas por los datos.

Control de Comprensión

If scientists disagree on how a set of data is interpreted, this generally

La disponibilidad de datos

El proceso de la recopilación, análisis e interpretación de datos ocurre a múltiples escalas. Puede ocurrir en el curso de un día, de un año, o muchos años, y puede involucrar uno o muchos científicos cuyas prioridades cambien en el tiempo. Uno de los componentes fundamentales de la práctica científica es, por consiguiente, la publicación de los datos en la literatura científica (vea nuestro módulo Scientific Literature). Los datos recopilados y acumulados apropiadamente continúan siendo útiles a medida que emergen nuevas interrogantes de investigación. De hecho, algunas investigaciones consisten en el re-análisis de datos con nuevas técnicas, diferentes maneras de observar los datos, o la combinación de los resultados de varios estudios. Por ejemplo, en 1997 el Grupo Colaborativo sobre Factores Hormonales en el Cáncer de Seno (Collaborative Group on Hormonal Factors in Breast Cancer) publicó un estudio ampliamente divulgado en la prestigiosa revista médica The Lancet titulado, “Breast cancer and hormone replacement therapy: collaborative reanalysis of data from 51 epidemiological studies of 52,705 women with breast cancer and 108,411 women without breast cancer” (Collaborative Group on Hormonal Factors in Breast Cancer, 1997). La conexión posible entre el cáncer de seno y la terapia de sustitución hormonal (HRT) había sido estudiada durante años con resultados mixtos: algunos científicos sugerían un pequeño aumento del riesgo de cáncer asociado con esta terapia desde 1981 (Brinton et al., 1981), pero investigaciones posteriores no sugerían ningún aumento de riesgo ((Kaufman et al., 1984). Al reunir resultados de numerosos estudios y reanalizar los datos, los investigadores concluyeron que las mujeres que habían sido tratadas con terapia de sustitución hormonal tenían más probabilidades de desarrollar cáncer de seno. En la descripción de la razón por la que usaron el reanálisis, los autores escribieron que “El aumento en el relativo riesgo de cáncer de seno asociado a cada año de terapia recibida en consumidoras actuales y recientes es pequeño, así que, inevitablemente, algunos estudios pueden, solamente por azar, mostrar asociaciones significativas mientras que otros no. La combinación de resultados de muchos estudios presenta la obvia ventaja de reducir estas fluctuaciones azarosas.”

En muchos casos, los datos acumulados para otros propósitos pueden ser usados para tratar nuevas cuestiones. La razón inicial para acumular los datos climáticos, por ejemplo, era para predecir mejor los vientos y las tormentas para poder asegurar el viaje de los navíos comerciantes. Es sólo recientemente que el interés se dirigió hacia cambios a largo plazo en la temperatura. Sin embargo, los mismos datos contribuyen fácilmente a responder ambas cuestiones. Por esta razón, uno de los avances más emocionantes en la ciencia de hoy en día es el desarrollo de los conjuntos de datos de información científica públicos que pueden ser consultados por cualquiera. Por ejemplo, los datos climáticos y oceanográficos, que generalmente son muy caros de obtener porque requieren operaciones a gran escala como taladrar centros de hielo o establecer una red de boyas a través del océano Pacífico, son compartidos en línea a través de varios sitios de internet manejados por agencias responsables de mantener y distribuir esos datos, como el centro Carbon Dioxide Information Analysis Center manejado por el Departamento de Energía de Estados Unidos(ver los enlaces de Investigación). Cualquiera puede bajar o descargar los datos para conducir su propio análisis e interpretarlo. De la misma manera, el Proyecto del Genoma Humano, tiene una base de datos de búsqueda del genoma humano, donde los investigadores pueden cargar y bajar sus datos (ver los enlaces de Investigación). El número de conjuntos de datos disponibles ha crecido tanto que el National Institute of Standards and Technology mantiene, actualmente, una base de datos de la base de datos. Algunas organizaciones requieren que sus participantes hagan públicos sus datos, como el Incorporated Research Institutions for Seismology (IRIS): la rama de instrumentación del IRIS provee apoyo a los investigadores al ofrecer instrumentación sísmica, mantenimiento y entrenamiento de equipos y apoyo logístico de campo para sus experimentos. Cualquiera puede usar los instrumentos, si le proporciona al IRIS los datos que recopila durante los experimentos sísmicos. Luego, el IRIS los pone a disposición del público. Proporcionar datos a otros científicos no es una idea nueva, pero la posibilidad de obtener esos datos en la Internet en un formato que se pueda buscar, ha revolucionado la manera en la que los científicos pueden interactuar con los datos, permitiendo que haya esfuerzos conjuntos que hubiesen sido imposibles con anterioridad. Este fondo común de datos colectivo también permite que haya nuevos tipos de análisis e interpretación a escalas globales y a través de largos periodos de tiempo. Adicionalmente, proporcionar datos fácilmente accesibles ayuda a promover la investigación interdisciplinaria, al abrir las puertas a la exploración de diversos científicos en muchos campos.

Conceptos Clavetoggle-menu

  • La recopilación de datos es el registro sistemático de la información; el análisis de datos supone el trabajo de descubrir patrones y tendencias en las series de datos; la interpretación de datos supone la explicación de esos patrones y tendencias.
  • Los científicos interpretan los datos sobre la base de su experiencia y conocimiento de fondo, por tanto diferentes ciéntificos pueden interpretar los mismos datos de maneras diferentes.
  • Al publicar sus datos y las técnicas que usaron para analizarlos e interpretarlos, los científicos le dan a la comunidad la oportunidad de revisar los datos y de usarlos en investigaciones futuras.

Lectura Adicionaltoggle-menu

Referenciastoggle-menu

Anne Egger, Ph.D., Anthony Carpi, Ph.D. “Datos: Análisis e interpretación” Visionlearning Vol. POS-1 (1), 2008.

La meta es transformar los datos en información y la información en entendimiento.
-Carly Fiorina
  • The Process of science book

    The Process of Science, Revised Edition

    By Anthony Carpi and Anne Egger

    $15.99 - Buy Now

¿Quiere contenido sin publicidad? Registro gratuito »