Los modelos de ecuaciones simultaneas, fundamentadas en modelos estructurales, tienen un auge durante el cambio tecnológico de los procesos computacionales. Recordemos previamente que en 1930 se funda la Sociedad Econométrica. Así, los modelos previos fueron basados en metodologías estadísticas, desarrolladas en el entorno de la Comisión Cowless en los años de 1951, donde destacaba el doctor en economia Tjallin C. Koopmans. (en realidad su formación profesional fué como físicomatematico), holandés de nacimiento y nacionalizado norteamericano. El Dr. Koopmans y su equipo desarrollaron las metodologías de planteamiento y solución óptima de las ecuaciones simultaneas con varias variables económicas, para la asignación óptima de los recursos económicos; compartió el premio nobel con el ingeniero y economista ruso Leonid Kantorovich en 1975.
La crisis del petróleo en los primeros años de 1970, desmoronan los modelos estructurales, los mismos que tampoco servian para explicar el comportamiento de las variables que modelan los instrumentos financieros y las tendencias de las Bolsas de valores. Sin embargo las economías todavía utilizan modelos econométricos estructurales, como es el caso de la vigencia hasta entonces del modelo Klein-Golberger, del cual derivaron dos conocidos modelos con los cuales se analizaba la economía norteamericana (Brookings Model y Wharton Econometric Forecasting Model). Según la Comisión Cowles (Una fundación creada por el Millonario Alfred Cowless), el modelo sustentado por la teoría económica clásica vigente y los conceptos macroeconomicos Keynesianos, representaba con suficiencia el conjunto de observaciones posibles que se observaban en los mercados bajo estudio. Así, el modelo consideraba el carácter de una hipótesis nula, que se fundamentaba en:
1) Una hipótesis principal , a la luz de la teoría económica vigente.
2) Un conjunto de hipótesis auxiliares (ad hoc) que formalizaban los supuestos sobre la distribución de los términos de error .
Entonces la Econometría buscaba modelizar los fenómenos económicos, diseñando metodologías para lograr estimaciones con alto grado de precisión de los parámetros y luego contrastar la hipótesis nula contra las observaciones reales. Entonces, se ensayaban diferentes especificaciones como transformación a las variables del modelo, agregación de nuevas variables para mejorar los valores de los parámetros, eliminar algunas variables que presentan problemas de multicolinealidad ó cambiar la metodolgía de estimación econométrica para mejorar las especificaciones de las perturbaciones aleatorias.
Para 1944, el Dr. Trigve Haavelmo muestra la dirección que tomaría la Fundación Cowles, la cual fue apoyada por la Universidad de Chicago. Así los modelos básicos multecuacionles basadas en la estadísticas fueron notablemente exitosas y luego aproximan las bases de los modelos de Máxima Verosimilitud aplicados a mediados de 1950.
Históricamente desde 1959, hubieron importantes avances teóricos, como el desarrollo del modelo general para la estimación de Variables Instrumentales (VI) (D.Sargan 1958) y el de los Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962). Algunos desarrollos en las pruebas de diagnóstico, como el trabajo sobre las pruebas de heterocedasticidad y estabilidad (G.Chow 1960), muestran un mayor énfasis en probar los modelos que estaban surgiendo por entonces, promovidos por los Bancos Centrales, que buscan constrastar los modelos Macroeconométricos de la década de los 60´s.
Para los economístas científicos, la utilización de variables auxiliares, representa la modificación ad hoc del modelo y por lo tanto rompe con la tradición Popperiana, dado que resultaría algo así como un atajo al proceso de falsación del modelo, de allí las críticas a la forma como se construyen estos modelos y al concepto de exogeneidad e independencia.
El Dr. Robert Lucas, basándose en la Teoría de las Expectativas Racionales, encuentra que hay fallas en los modelos estructurales ("Econometric Policy Evaluation: A Critique") en 1976. Para el Dr. Lucas; si los agentes económicos son capaces de prever las futuras acciones de la política económica, entonces toman decisiones para neutralizar sus posibles efectos, por ello los cambios previstos no sólo modifican la trayectoria de las variables sino también el orden de causalidad, luego el modelo (o sus ecuaciones) también son modificados y el modelo inicial estructural ya deja de representar al fenómeno y esto es un error de especificación.
Por los años de 1980, la crítica de Lucas, reformula los modelo econométricos, puesto que se desarrollan modelos invariantes ante cambios en la política económica, como los desarrollos teóricos basados en la ecuación de Euler y los estimadores del método generalizado de momentos de Alvin Hansen.
Luego por esos años, el trabajo del Dr. Christopher A. Sims (Matemático y Economista) sobre los modelos de los Vectores Autorregresivo (VAR), crea muchos expectativas sobre estas metodologías, creciendo el interés en los modelos de variables dinámicas y en las propiedades de largo plazo (Long run) de los modelos econométricos. La propuesta del Dr. C. Sims parte de la consideración de la forma en que se aplica un conjunto de medidas como política económica, no es una elección entre diferentes reglas de política, sino es un proceso de predicción de los efectos de pequeños ajustes a los valores de ciertas variables relevantes para los agentes económicos, así; la crítica de Lucas (según el Dr. Sims) operaría solo en casos excepcionales. Una crítica sobre las expectativas racionales, es que son variables no observables y por lo tanto sus transformaciones no necesariamente son invariantes, de allí que para muchos economistas modernos, prefieran no utilizarlas en sus modelos.
Para 1990, el Dr.Clive Granger, premino Nobel de economía, desarrolla un modelo econométrico, basado en Cointegración, Raíces Unitarias y consigue mejorar tremendamente las condiciones de estabilidad de las variables, cuando se desarrollan los modelos a largo plazo. Muchas variables macroeconómicas, como el consumo y el ingreso, poseen una tendencia definida, lo que permite analizar en el tiempo a ambas variables, de la manera como ambas se comportan a largo plazo, equilibrándose mutuamente.
Ahora con los aportes del Dr.David Hendry (Universidad de Oxford), se consigue probar la estabilidad de los modelos estructurales, donde el punto crítico es la exogeneidad de las variables. Surgen ciertas condiciones que validan los modelos macroeconometricos estructurales, como son Consistencia Teórica y replicabilidad del modelo, se definen asi los conceptos de exogeneidad debil y exogeneidad fuerte, que permiten considerar la construcción de un modelo que tiende a ser invariante ante cambios en la política económica.
El futuro de la macroeconometría, va por la reevaluación de los modelos estructurales mas avanzados, incluso el ya fallecido Dr. Grainger, decía "...en series de tiempo, los modelos univariados no pueden considerarse relevantes para la mayoria de los propositos practicos de la econometria...", asi, los modelos que han querido aplicar desarrollos matemáticos deducidos de modelos que desde su formación tenían inconsistencias con la economia positiva, por ello, en el caso de las tecnicas de Data Mining, estas fueron duramente criticadas por llevar los datos a desarrollos polinomiales de haste tercer grado y con ello, perder la veracidad real de estos, obteniendose resultados consistentes matematicamente, pero que no explicaban adecuadamente los fenómenos economicos del mundo real.
Finalmente, la econometria es una ciencia joven, que es pleno proceso de desarrollo, busca explicar y predecir los complejos fenómenos socioeconómicos, mucho mas complejos que los de las ciencias exáctas y fácticas, debido a que modelizar el comportamiento del agente económico sugiere el uso de un conjunto de variables que en ese momento de análisis le corresponde a determinado perfil de agente económico. En Verdad, nada fácil, pero tampoco imposible.