Métodos de Investigación Métodos de Investigación: Modelaje

por Anne Egger, Ph.D., Anthony Carpi, Ph.D.

¿Sabia usted que modelos científicos pueden ayudarnos a ver dentro del átomo mas pequeño o examinar todo el universo en un solo vistazo? Los modelos les permiten a los científicos estudiar cosas muy pequeñas para que nosotros podamos ver, y comenzar a entender cosas muy complejas para imaginar.

Resumentoggle-menu

La modelación científica es un método de investigación que utilizan los científicos para replicar sistemas verdaderos, ya sea como el modelo conceptual de un átomo, un modelo de un delta fluvial, o un modelo computacional de cambio climático. Este módulo describe los principios que utilizan científicos cuando construyen modelos y también muestra como la modelación contribuye al proceso de la ciencia.

Términos que usted debe sabertoggle-menu

Módulos de información de fondotoggle-menu

Tabla de Contenidotoggle-menu

Los ladrillos de LEGO han sido un producto básico en el mundo de los juguetes desde que fueron inventados en Dinamarca en 1953. Los ladrillos de plástico que se entrelazan se pueden unir para formar una interminable variedad de objetos (vea la Figura 1). Algunos niños (y hasta muchos adultos) están interesados en construir el modelo perfecto – encontrando los ladrillos del color, forma y tamaño indicado, y armarlos en una réplica de un objeto familiar del mundo real, como un castillo, una nave espacial o el puente de Londres. Algunos prefieren usar el objeto que construyen, moviendo las piezas (o caballeros) del LEGO dentro y fuera del castillo que se ve en la Figura 1, por ejemplo, o representando una misión a Marte de una nave espacial. Otros aún puede que no tengan un resultado final en mente cuando empiezan a juntar los ladrillos y sólo quieren ver qué pueden hacer con las piezas que tienen.
Figura 1: En la izquierda, los ladrillos individuales de LEGO®y cómo se entrelazan. A la derecha, un modelo de un castillo, completo con fosos y guardias de castillo, construido con los ladrillos LEGO®.

En el nivel más básico, los científicos usan muchos modelos de la misma manera que los usa la gente cuando juega con los ladrillos de LEGO. Los modelos científicos pueden o no pueden ser entidades físicas, pero los científicos los construyen por la misma variedad de razones: para replicar o reproducir los sistemas del mundo real, a través de la simplificación, para realizar un experimento que no puede ser realizado en el mundo real, o para asociar varias ideas conocidas en algo coherente para construir y probar hipótesis. En el Laboratorio St. Anthony Falls de la Universidad de Minnesota, por ejemplo, un grupo de ingenieros y geólogos ha construido una réplica física de un delta de río, del tamaño de una habitación, similar al delta del río Mississippi en el Golfo de Méjico (Paola et al., 2001). Los investigadores han incorporado exitosamente en sus modelos, los procesos claves que controlan los deltas de los ríos (es decir, la variabilidad del flujo acuático, la deposición de los sedimentos transportados por el río y la compresión y subsidencia del litoral bajo la presión del constante añadido de sedimentos) para poder entender mejor cómo interactúan estos procesos. Con su modelo físico pueden imitar el escenario general del delta del río Mississippi y luego hacer cosas que no pueden hacer en el mundo real, tales como tomar una tajada a través de los depósitos sedimentarios restantes, para analizar las capas dentro de los sedimentos. O pueden experimentar con los parámetros que fluctúan, como el nivel del mar y el aporte de sedimentos, para ver cómo estos cambios afectan la deposición de los sedimentos en el delta, de la misma manera que uno “experimentaría” con la ubicación de los caballeros en el castillo de LEGO.

National Center for Earth-surface Dynamics Data Repository
Figure 2: Una fotografía del modelo del delta del río del laboratorio de St. Anthony Falls, que muestra el sistema con el agua teñida de azul fluyendo sobre los sedimentos. La imágen es cortesía del National Center for Earth-surface Dynamics Data Repository http://www.nced.umn.edu/Data_Repository.html [accesado en September, 2008]

No todos los modelos que se usan en la investigación científica son modelos físicos. Algunos son conceptuales y suponen ordenar todos los componentes conocidos de un sistema en un todo coherente. Esto es como construir una escultura abstracta a partir de ladrillos de Lego, en vez de construir un castillo. Por ejemplo, en el curso de los últimos cien años, los científicos han desarrollado una serie de modelos para descifrar la estructura de un átomo. El primer modelo conocido del átomo lo comparaba con una bola de billar, y reflejaba lo que los científicos sabían en ese momento: que era la pieza más pequeña de un elemento que mantenía las propiedades de ese elemento. A pesar de que este era un modelo puramente conceptual, podía ser usado para predecir alguno de los comportamientos que exhibe el átomo. Sin embargo, no explicaba todas las propiedades de los átomos exactamente. Con el descubrimiento de las partículas subatómicas como el protón y el electrón, el físico Ernest Rutherford propuso un modelo de “sistema solar” del átomo, en el que los electrones giraban alrededor de un núcleo que incluye protones (para más información vea nuestro módulo Atomic Theory I: The Early Days). A pesar de que el modelo de Rutherford es útil para entender las propiedades básicas del átomo, eventualmente, probó ser insuficiente para explicar todo el comportamiento de los átomos. El actual modelo quántico del átomo representa electrones no como partículas puras, sino como con propiedades de ambas partículas y ondas, y estos electrones están ubicados en nubes de densidad de probabilidad específicas alrededor del núcleo del átomo.

Ambos modelos físico y conceptual, continúan siendo importantes componentes de la investigación científica. Adicionalmente, muchos científicos ahora construyen modelos matemáticos a través de programas de computación. Estos modelos basados en computadoras tienen muchos de los mismos propósitos que los modelos físicos, pero son definidos numéricamente. Estas relaciones matemáticas son como ladrillos individuales de Lego: son ladrillos de construcción básicos que pueden ser armados de muchas maneras diferentes. En este caso, los ladrillos son conceptos y teorías fundamentales como la descripción matemática de un flujo turbulento en un líquido, la ley de la conservación de energía, o las leyes termodinámicas, que pueden ser armadas en una amplia variedad de modelos para, por ejemplo, representar el flujo de contaminantes liberados en una reserva de agua subterránea o para el cambio climático global.

Control de Comprensión

All models are exact replicas of physical things.

El modelaje como un método de investigación científica

Ya sea en el desarrollo de un modelo conceptual como el modelo atómico, un modelo físico como el delta del rio en miniatura, o un modelo de computadora como el modelo del cambio climático global, el primer paso es definir el sistema que hay que modelar y los objetivos para el modelo. “Sistema” es un término genérico que se puede aplicar a algo muy pequeño (como un átomo único), algo muy grande (la atmósfera de la Tierra) o algo entre los dos, como la distribución de los nutrientes en un arroyo local. De manera que la definición del sistema supone generalmente dibujar las fronteras (literales o figurativas) alrededor de lo que usted quiera modelar y luego determinar las variables claves en la relación entre esas dos variables.

A pesar de que este paso inicial pueda parecer sencillo, puede ser bastante complicado. Inevitablemente, hay muchas más variables dentro de un sistema que pueden incluirse en un modelo realista, así que los científicos necesitan simplificar. Para hacerlo, forman suposiciones sobre qué variables son más importantes. Al construir un modelo físico del delta de un río, por ejemplo, los científicos supusieron que los procesos biológicos como las grandes almejas no eran importantes para la gran estructura del delta, a pesar de que son un componente claro del sistema real. La determinación de cuándo es apropiada la simplificación, requiere una comprensión detallada del sistema real – y de hecho, a veces se usan los modelos para ayudar a determinar los aspectos del sistema que puedan ser simplificados. Por ejemplo, los científicos que construyeron el modelo del delta del río no incorporaron grandes almejas en su modelo porque sabían por su experiencia que éstas no afectarían la estratificación general de las capas sedimentarias en el delta. Por otra parte, eran conscientes que la vegetación afecta drásticamente la forma del canal del río (y por ende la distribución de los sedimentos), y por eso realizaron un experimento para determinar la naturaleza de la relación entre la densidad de la vegetación y la forma del canal del río (Gran & Paola, 2001).

Figura 3: La bola de Dalton y el modelo con gancho del átomo.
Una vez que se construye un modelo (ya sea conceptual, en un espacio físico o en una computadora), puede ser probado usando una serie de datos determinados. Los resultados de estas pruebas pueden ser luego comparados con la realidad para validar el modelo; en otras palabras, ¿cuán acertado es el modelo en la comparación con lo que vemos en el mundo real? En el modelo físico de los sedimentos del delta, los científicos que construyeron el modelo buscaron características como la estratificación de las capas de arena vistas en el mundo real. Si el modelo muestra algo muy diferente de lo que los científicos esperan, puede que se necesite redefinir las relaciones entre variables o puede que los científicos hayan simplificado excesivamente el sistema. Entonces se revisa el modelo, se lo mejora, se lo prueba una vez más y se lo compara de nuevo con las observaciones en un proceso en curso y de forma reiterada. Por ejemplo, el modelo conceptual de la “bola de billar” del átomo usado a principios de los años 1800 funcionó para algunos de los aspectos del comportamiento de los gases, pero cuando se probó esa hipótesis para las reacciones químicas, el modelo no explicó bien cómo ocurrían – las bolas de billar normalmente no interactúan entre ellas. John Dalton imaginó una revisión del modelo en el que añadió “ganchos” al modelo de la bola de billar para explicar el hecho de que los átomos podían unirse en reacciones, como está conceptualizado en la Figura 3.

Control de Comprensión

Once a model is built, it is never changed or modified.

A pesar de que los modelos conceptuales y físicos han sido durante mucho tiempo un componente de todas las disciplinas científicas, el modelaje basado en la computadora es un desarrollo más reciente, y malentendido frecuentemente. Los modelos de computadora están basados exactamente en el mismo principio que los modelos conceptuales y físicos, sin embargo, se aprovechan de los recientes avances relativos en el poder computacional para imitar los sistemas reales.

El inicio del modelaje computacional: la predicción numérica del clima

A finales del siglo XIX, Vilhelm Bjerknes, un matemático y físico noruego, se interesó en derivar ecuaciones que gobiernan la gran escala del movimiento del aire en la atmósfera. En gran medida, reconoció que la circulación era la consecuencia no sólo de las propiedades termodinámicas (como la tendencia del aire caliente a elevarse), sino también de las propiedades hidrodinámicas, que describen el comportamiento del flujo líquido. A través de sus investigaciones, desarrolló una ecuación que describía el proceso físico de la circulación atmosférica, publicado en 1897. La complejidad de la ecuación reflejaba la complejidad de la atmósfera, y Bjerknes pudo usarla para describir porqué se desarrollan y se mueven los frentes climáticos.

Sin embargo, Bjerknes tuvo otra visión en su trabajo matemático: quería pronosticar el clima. Se dio cuenta que el objetivo del pronóstico climático, no es conocer el camino de las moléculas individuales de aire en el tiempo, sino ofrecerle al público los “valores promedio de grandes áreas y durante largos periodos de tiempo.” Ya que su ecuación estaba basada en principios físicos, vio que introduciendo los valores de las variables atmosféricas actuales como la presión de aire y la temperatura, podía resolverla para predecir la presión de aire y la temperatura en algún momento en el futuro. En 1904, Bjerknes publicó un corto trabajo en el que describía lo que llamaba “el principio de la metodología predictiva” (Bjerknes, 1904) (ver los enlaces de Investigación para el trabajo completo). En él, dice:

“Sobre la base de las observaciones que se han hecho, el estado inicial de la atmósfera está representado por un número de gráficos que ofrecen la distribución de siete variables de nivel a nivel en la atmósfera. Con estos gráficos como punto de partida, se dibujaran nuevos gráficos de tipo similar, que representan el nuevo estado de hora a hora.”

En otras palabras, Bjerknes imaginó que se podía dibujar varios gráficos climáticos para el futuro basados en el uso de principios cuánticos y físicos conocidos. Propuso que la solución de la compleja ecuación podía hacerse más manejable si se quebraba en una serie de cálculos más pequeños y secuenciales, donde los resultados de un cálculo se usan como aporte del siguiente. Como un ejemplo simple, imagine que tiene que predecir el tráfico en su barrio. Empieza dibujando un mapa de su barrio que muestra la ubicación, la velocidad y la dirección de cada automóvil dentro de la milla cuadrada. Usando estos parámetros, luego calcula dónde están esos automóviles un minuto después. Y después de dos minutos. Sus cálculos probablemente se verán muy bien después del primer minuto. Después del segundo, tercer y cuarto minuto, sin embargo, los cálculos empezarán a ser menos exactos. Otros factores que no había incluido en sus cálculos empiezan a ejercer una influencia, como dónde quiere ir la persona que maneja el automóvil, las vueltas a la derecha o izquierda que haga, los atrasos en los semáforos y los signos para parar y cuántos nuevos conductores entran en la calle. Introducir toda esta información simultáneamente sería matemáticamente difícil, así que, como propuso Bjerknes, el problema puede resolverse con cálculos secuenciales. Para hacerlos, necesita tomar el primer paso, como se describe con anterioridad: use la ubicación, la velocidad y la dirección para calcular dónde están los automóviles después de un minuto. Después use la información de las vueltas a la derecha e izquierda para calcular los cambios de dirección, después use la información de los atrasos de tráfico por los semáforos y el tráfico nuevo para calcular los cambios en la velocidad. Después que haya dado estos tres pasos, otra vez podrá resolver su primera ecuación para la secuencia de tiempo del segundo minuto, usando ubicación, velocidad, dirección para calcular dónde están los automóviles después del segundo minuto. A pesar de que sería ciertamente bastante cansador hacer esto a mano, esta serie de cálculos secuenciales ofrecería una manera manejable para estimar los patrones de tráfico en el tiempo. A pesar de que este método hace que los cálculos sean tediosos, Bjerknes imaginó “que no habría dificultades matemáticas irresolubles” en el pronóstico del clima. El método que propuso (pero que nunca usó) se conoció como pronóstico numérico del clima, y representa uno de los primeros enfoques hacia el modelaje numérico de un sistema dinámico y complejo. El desafío de Bjerknes para el pronóstico numérico climático fue retomado 16 años más tarde, en 1922, por el científico inglés Lewis Fry Richardson. Richardson relacionó siete ecuaciones diferenciales que se basaban en la ecuación de la circulación atmosférica de Bjerknes e incluían procesos atmosféricos adicionales. Una de las grandes contribuciones de Richardson al modelaje matemático fue resolver las ecuaciones para los cuadrados dentro de una cuadrícula; dividió la atmósfera de Alemania en 25 cuadrados que correspondían con los datos disponibles del centro climático (ver figura 4). Después dividió la atmósfera en cinco capas, creando una cuadrícula tridimensional de 125 cuadrados. Este fue el primer uso de una técnica que hoy en día es común en muchos tipos de modelaje. Para cada cuadrado, calculó cada una de las nueve variables en siete ecuaciones para tener un único paso temporal de tres horas. Esta no era una simple ecuación secuencial, ya que los valores de cada cuadrado dependen de los valores en los cuadrados adjuntos, en parte porque el aire de cada cuadrado no se queda solamente ahí, sino que va de cuadrado a cuadrado.
Enlarge
Brian Hayes, American Scientist
Figura 4: Los datos para el pronóstico climático de Richardson incluían medidas de los vientos, presión barométrica y temperatura. Los datos iniciales fueron registrados en 25 cuadrados, cada uno de 200 kilómetros por un lado, pero se pronosticaron las condiciones solamente para los dos cuadrados centrales delineados en rojo.

El intento de Richardson de hacer un pronóstico de seis hora le tomó casi seis semanas de trabajo con lápiz y papel y fue considerado un fracaso total, ya que resultó en presiones barométricas calculadas que excedían cualquier valor medido históricamente (Dalmedico, 2001). Probablemente influenciado por Bjerknes, Richardson atribuyó el fracaso a la entrada de datos inexactos, cuyos errores se habían magnificado a través de los cálculos sucesivos (para más información sobre la propagación de los errores, vea nuestro módulo Data: Uncertainty, Error, and Confidence).

Enlarge
Figura 5: Una estampilla noruega con una imagen de Vilhelm Bjerknes.

Además de sus preocupaciones sobre los parámetros de las entradas inexactas, Richardson se dio cuenta que el pronóstico del clima estaba limitado en gran medida por la velocidad en la que los individuos podían calcular a mano. Por lo tanto, imaginó una “fábrica de pronósticos,” en la que miles de personas podían completar una pequeña parte de los cálculos necesarios para el pronóstico rápido del clima. En cierto sentido, su visión se hizo realidad con el nacimiento de la computadora, que calculaba mucho más rápidamente y con menores errores que los humanos. La computadora que se usó en 1950 para el primer pronóstico climático de un día, se llamó Computadora e Integradora Numérica Electrónica, con las siglas en inglés ENIAC (Electronic Numerical Integrator and Computer), medía 8 pies de altura, 3 pies de ancho y 100 pies de largo – un mastodonte comparado a los estándares modernos, pero era tanto más rápida que los cálculos a mano de Richardson que para el año 1955, los meteorólogos la usaban para hacer pronósticos dos veces al día (Weart, 2003). Con el paso del tiempo, la exactitud del pronóstico aumentó a medida que había mejores datos de todo el planeta a través de la tecnología del radar y, eventualmente, de los satélites.

El proceso del pronóstico climático numérico desarrollado por Bjerknes y Richardson estableció los cimientos no solamente para la meteorología moderna, sino para el modelaje matemático basado en la computadora tal como lo conocemos actualmente. De hecho, después que Bjerknes muriese en 1951, el gobierno noruego reconoció la importancia de sus contribuciones a la ciencia de la meteorología al emitir una estampilla con su retrato en 1962 (Figure 5).

Control de Comprensión

Weather prediction is based on _____________ modeling.

El modelaje en la práctica: el desarrollo de los modelos climáticos globales

El deseo de modelar el clima de la tierra a una escala global y a largo plazo, surgió naturalmente del pronóstico climático numérico. El objetivo era usar las ecuaciones para describir la circulación atmosférica para entender no solamente el clima del día siguiente, sino los patrones a gran escala en el clima global, incluidas las características dinámicas como el chorro de aire y los grandes cambios climáticos históricos, como la edad de hielo. Inicialmente, tres cosas le dificultaron a los científicos el desarrollo de modelos válidos: la falta de datos de los componentes más inaccesibles del sistema, como la atmósfera superior, la pura complejidad de un sistema que suponía tantos componentes que interactúan y el poder limitado de las computadoras. Inesperadamente, la segunda guerra mundial ayudó a resolver uno de los problemas cuando el novedoso desarrollo de la tecnología de los aviones de gran altura ofreció una ventana hacia la atmósfera superior (para más información sobre el desarrollo de los aviones, vea nuestro módulo Technology). El chorro de aire, actualmente una característica familiar del pronóstico climático en las noticias, fue de hecho, documentado por primera vez por unos bombarderos americanos que volaban hacia el oeste para llegar a Japón.

Como consecuencia, los modelos atmosféricos globales empezaron a parecer estar más al alcance. Al principio de los años 1950, Norman Phillips, un meteorólogo de la Universidad de Princeton, construyó un modelo matemático de la atmósfera basado en las ecuaciones termodinámicas fundamentales (Phillips, 1956). Definió 26 variables relacionadas a través de 47 ecuaciones, que describían cosas como la evaporación de la superficie de la tierra, la rotación de la tierra, y el cambio en la presión del aire con la temperatura. En el modelo, se calculaba cada una de las 26 variables en cada cuadrado de la cuadrícula de 16 x 17 que representaba una parte del hemisferio norte. La cuadrícula representaba un paisaje extremadamente simple – no tenía continentes o océanos, ni cordilleras o topografía alguna. Esto no se debía a que Phillips creía que era una representación exacta de la realidad, sino porque simplificaba los cálculos. Empezó su modelo con la atmósfera “en reposo,” sin ningún movimiento de aire predeterminado, y con promedios anuales de parámetros de entrada, como la temperatura del aire.

Phillips ejecutó el modelo durante 26 ciclos día-noche simulados usando el mismo tipo de cálculos secuenciales propuesto por Bjerknes. Con un solo “día”, se desarrolló un patrón en la presión atmosférica que se parecía mucho a los sistemas climáticos típicos de partes del hemisferio norte que él estaba modelando (vea la Figura 6). En otras palabras, a pesar de la simplicidad del modelo, Phillips pudo reproducir las características claves de la circulación atmosférica, mostrando que la topografía de la Tierra no era de una importancia primaria en la circulación atmosférica. Su trabajo puso los cimientos para toda una sub-disciplina dentro de la ciencia climática: el desarrollo y refinamiento de los Modelos Generales de Circulación (GCM).
Enlarge
Figura 6: El resultado de un modelo del trabajo de 1956 de Phillips. El cuadrado en la parte inferior derecha muestra el tamaño de un cuadrado de la cuadrícula. Las líneas sólidas representan la elevación de la presión millibar de 1000, por lo que la H y la L representan áreas de presión alta y baja, respectivamente. Las líneas intermitentes representan líneas de temperatura constante, indicando una disminución de la temperatura a altas latitudes. Ese es el 23er día simulado.

Hacia los años 1980, el poder computacional había aumentado al punto donde los modeladores podían incorporar la distribución de los océanos y continentes en sus modelos. En 1991, la erupción del Monte Pinatubo en las Filipinas ofreció un experimento natural: ¿cómo se vería afectado el clima global con la suma de un significativo volumen de ácido sulfúrico, dióxido de carbón y ceniza volcánica? Tras la erupción, se usaron los métodos descriptivos (vea nuestro módulo Research Methods: Description) para documentar sus efectos en el clima global: se tomaron medidas mundiales de ácido sulfúrico y otros componentes, junto con las medidas usuales de la temperatura del aire. Los científicos podían ver que la gran erupción había afectado el clima, y cuantificaron la magnitud con la que lo había hecho. Esto proveyó una prueba perfecta para los Modelos Generales de Circulación (GCM): dadas las entradas de la erupción, ¿podían reproducir los efectos que la investigación descriptiva había mostrado? En unos cuantos años, los científicos habían demostrado que los GCM podían efectivamente, reproducir los efectos climáticos inducidos por la erupción, y aumentó la confiabilidad en las habilidades de los GCM para ofrecer escenarios razonables para el clima futuro. La validez de estos modelos ha sido sustanciada aún más por su habilidad para simular eventos del pasado, como la edad de hielo, y por el acuerdo de muchos modelos diferentes sobre la gama de posibilidades para el calentamiento del futuro, uno de los cuales se puede ver la Figura 7.

Figura 7: El cambio proyectado en el promedio anual de la superficie de la temperatura del aire desde el final del siglo 20 (promedio de 1971-2000) a la mitad del siglo 21 (promedio de 2051-2060). La imagen es cortesía de NOAA Geophysical Fluid Dynamics Laboratory.

Las limitaciones y los errores de los modelos

El amplio uso del modelaje también ha resultado en amplios errores sobre los modelos, particularmente en lo que respecta a su habilidad para predecir. Algunos modelos son ampliamente usados para la predicción, como el pronóstico del clima y el flujo fluvial. Sin embargo, sabemos que los pronósticos climáticos están errados frecuentemente. El modelaje todavía no puede pronosticar exactamente que le pasará al clima de la Tierra, pero nos puede ayudar a ver la gama de posibilidades con una serie de cambios dados. Por ejemplo, muchos científicos han modelado que le pasaría a las temperaturas globales si la concentración del dióxido de carbón (CO2) en la atmósfera se duplica de los niveles pre-industriales (pre-1950). A pesar que los modelos individuales difieren en los resultados exactos, todos caen en la gama de un aumento de 2-6° C (IPCC, 2007).

Todos los modelos también están limitados por la disponibilidad de datos del sistema real. A medida que aumenta la cantidad de datos de un sistema, también lo hará la exactitud del modelo. Es por eso que para el modelaje climático, los científicos continúan a reunir datos sobre el clima en el pasado geológico y monitorean cosas como la temperatura oceánica con satélites – todos los datos ayudan a definir parámetros dentro del modelo. Lo mismo también pasa con los modelos conceptuales y físicos, bien ilustrado por la evolución de nuestro modelo del átomo a medida que aumentaba nuestro conocimiento sobre las partículas subatómicas.

Control de Comprensión

__________ can result in a flawed model.

El modelaje en la práctica moderna

Los varios tipos de modelaje tiene roles importantes en casi todas las disciplinas científicas, desde la ecología a la química analítica y desde las dinámicas poblacionales a la geología. Los modelos físicos como el del delta del río, aprovechan de la tecnología de punta para integrar procesos múltiples a gran escala. A medida que han aumentado la velocidad y el poder de los procesamientos computacionales, también lo ha hecho la habilidad de ejecutar modelos en las computadoras. Desde la computadora ENIAC del tamaño de un cuarto en los años 1950 a la supercomputadora Cray del tamaño de un closet en los años 1980 a la laptop actual, la velocidad de procesamiento ha aumentado más de un millón de veces, permitiéndole a los científicos ejecutar modelos en sus propias computadoras en vez de tener que pedir cita para usar una de las pocas supercomputadoras del mundo. Nuestros modelos conceptuales continúan evolucionando, y una de las más recientes teorías en la física teórica investiga aún más la estructura del átomo para proponer que lo que una vez creíamos eran las partículas más fundamentales – los quarks – en realidad están compuestos de filamentos que vibran o de hilos. La teoría de los hilos es un modelo conceptual complejo que podría ayudar a explicar la fuerza gravitacional de una manera que no se ha hecho con anterioridad. El modelaje también ha dejado el mundo de la ciencia para entrar en el del entretenimiento, y muchos juegos de computadora como SimCity suponen ambos modelos conceptuales (contestar la pregunta, ¿Cómo sería gobernar una ciudad?) y computacionales, usando el mismo tipo de ecuaciones que se usan en los modelos de los patrones de flujo de tráfico en las ciudades reales. El acceso del modelaje como un método de investigación permite que sea combinado fácilmente con otros métodos de investigación científica, y los científicos incorporan frecuentemente el modelaje en los estudios experimentales, descriptivos y comparativos.


Conceptos Clavetoggle-menu

  • El modelaje supone el desarrollo de representaciones de sistemas físicos, conceptuales o computacionales.
  • Los científicos construyen modelos para replicar sistemas en el mundo real o para armar varias ideas conocidas en un todo coherente para formular y probar hipótesis.
  • El modelaje computacional es un método científico relativamente nuevo, pero se basa en los mismos principios que el modelaje físico y conceptual.

Lectura Adicionaltoggle-menu

Referenciastoggle-menu

Anne Egger, Ph.D., Anthony Carpi, Ph.D. “Métodos de Investigación: Modelaje” Visionlearning Vol. POS-1 (8), 2008.

El Dr. Richardson dijo que la atmósfera se parecía a Londres ya que siempre había muchas más cosas que hacer que a las que cualquiera hubiese podido asistir.

-George C. Simpson, 1929
  • The Process of science book

    The Process of Science, Revised Edition

    By Anthony Carpi and Anne Egger

    $15.99 - Buy Now

¿Quiere contenido sin publicidad? Registro gratuito »