Thursday, July 30, 2009

Argentina: Poder de Compra cáe, pero Salario Mínimo es el mas Alto Históricamente Julio 2009


Argentina, después de 12 meses del último incremento escalonado y de 8 meses de hacerse efectivo el aumento acordado por empresarios y sindicalistas,la capacidad adquisitiva del salario mínimo se contrajo un 16,4% en términos de paridad de poder adquisitivo (PPA), similar al nivel de agosto del 2007. Esto significa que en términos de PPA, el nivel salarial argentino tiene el mismo poder de compra que 598 dólares americanos, lo que representa un 16,4% menos que hace un año.
Ubicado todavía en 1.240 pesos, el salario mínimo vital y móvil representa la menor paga que puede percibir un trabajador registrado, sin embargo la Señora Presidenta logró el acuerdo del Consejo del Empleo, Productividad y el Salario Mínimo, Vital y Móvil, a través del cual se ha establecido un nuevo salario mínimo de 1.500 pesos.
El gobierno argentino espera que se recupere el poder adquisitivo perdido y con ello se busca incentivar nuevamente el motor de la demanda interna, para estimular el crecimiento del PBI, que muestra bastante retraso en sus cifras reales con respecto a las proyectadas.
Para el Presidente del Banco Central de la República Argentina, Eco. Martín Redrado "Superar los problemas financieros llevará bastante tiempo, en buen romance, este año quedará sumergido en la crisis"

Argos: Cementera compra mas Plantas fuera de Colombia 2009


Colombia, a pesar de estar en franca recesión económica, después de haber registrado mas de dos trimestres con crecimiento negativo continuados; muestra sin embargo que el sector construcción es un motor de crecimiento y la exportación de capitales hacia el Caribe es una de la opciones.
La compañía cementera ARGOS anunció una operación de US$157 millones con la cual ampliará su operación en los países de la zona Caribe, comprando la participación (%)que compartía con la compañía suiza Holcim en Panamá, en Haití y en República Dominicana.
El representante legal de la compañía antioqueña, Carlos Raúl Yepes, explicó que desde 2001, la suiza Holcim y Argos producían, de manera compartida con una participación de 50% cada una; en las plantas Cemento Panamá, en Panamá, Cementera Nacional de Haití y Cemento Colón de la República Dominicana.
Bien por ARGOS que muestra que si se puede.

Complex Dynamics in the Neoclassical Growth Model with Differential Savings and Non-Constant Labor Force Growth



Las Doctoras Serena Brianzoni, Cristiana Mammana, and Elisabetta Michetti de la Universidad de Macerata (Italia) miembros del Departamento de Ecoomía e Instituciones Financieras, en el 2007 publicaron un paper muy interesante.
A decir del Berkely Press, este paper analiza la dinámica del modelo neoclásico del crecimiento del un sector con ahorros diferenciados como lo sugiere Bohm y Kaas (2000), utilizando la función de producción de CES y el la fuerza de trabajo dinámica descrita por la ecuación de Beverton Holt (véase Beverton y a Holt, 1957).
El sistema dinámico resultante es bidimensional, autónomo y triangular. La investigación abarca sus características dinámicas, cualitativas y cuantitativas; así el paper presenta como objetivo que el sistema puede exhibir ciclos o un patrón dinámico caótico.

En palabras de las autoras:

"El papel de la elasticidad de substitución de la función de producción y de su relación con la característica de monotonicidad de la renta de capital, se ha relacionado con la creación y la propagación de una compleja dinámica. De hecho como la elasticidad de CES del parámetro de la substitución baja debajo de uno, la renta de capital no es seguramente monotónica y las fluctuaciones pueden ocurrir. El coeficiente fijo en el caso de la función de producción es apenas el ejemplo extremo de esta observación. "

Aquí el Enlace al documento de investigación.
http://www.bepress.com/snde/vol11/iss3/art3/

Tuesday, July 28, 2009

Grupo Brescia compra Planta Cementera Chilena Lafarge




El grupo francés Lafarge acordó la venta de activos de cemento, agregados y concreto al grupo empresarial peruano Brescia, en una operación valorizada en US$555 millones.
El grupo Brescia, posee importantes acciones en sectores como la minería, la pesca industrial, el sector hotelero e inmobiliario en el Perú.
La cementera chilena, muestra en su memoria del 2008, una venta de 1.631 millones de toneladas de cemento y 2.787 millones de toneladas de hormigón premezclado en el mercado chileno, habiendo alcanzado utilidades brutas por unos $16.000 millones de pesos chilenos.
Asimismo, en el 2008, la cementera Lafarge, inauguró una planta de molienda de cementos en la costera ciudad de Puerto Montt , que aportará 300.000 toneladas anuales, ese mismo año, inició las operaciones de su planta de áridos de San Bernardo y aperturó 6 nuevas plantas de hormigón en todo Chile.
Bueno, el capital es Global y ahora los empresarios peruanos empiezan a comprar fuera de sus fronteras.
Aquí la noticia en Reuters:
http://www.reuters.com/article/marketsnews/idARN2817807620090728?rpc=444

Macroeconomic Models for Monetary Policy 2009

El Banco de la Reserva Federal de San Francisco, el 20 de julio último publicó un resúmen interesante sobre los avances en materia de modelos monetarios, sobre el comportamiento de los ciclos y de los precios en la economía norteamericana.
En el sitio web del Banco, se presentan cinco (5) trabajos de economistas que buscan identificar los cambios últimos y mostrar modelos basados en nuevas concepciones, como las de De Fiori y Tristani, introducen las fricciones crediticias en un modelo macroeconómico, analizando los procesos de bancarrota de los bancos, en la línea de análisis de la actual crisis global.
Pero mejor les alcanzo el enlace para que puedan descargar los papers.

Memorándum de Acuerdo sobre Cambio Climático


Contraviniendo opiniones caducas y extraviadas, que sugieren que en los EE.UU no se debe viabilizar los permisos de emisión (como se practica en Europa - Ver http://cienciaeconomica.blogspot.com/2009/07/un-enemigo-del-planeta-las-medidas.html)
en este sentido, los gobiernos de EE.UU y la China, han firmado un memorándum de acuerdo sobre el cambio climático. Este acuerdo es previo a la reunión de Copenhague, en diciembre próximo. La Sra. Clinton, indicó que este acuerdo acelera la transición hacia un economía de bajo carbono, en la búsqueda de metas conjuntas.
Aquí la información en Infobae.

Sunday, July 26, 2009

Hoy Recomendamos el Blog del Economista Felipe Larraín - Chile


El prestigioso economista chileno, Dr. Felipe Larraín, en su blog del Mercurio (Chile) considera que países como Perú y Brasil de este lado de América, tendrían cifras positivas en su PIB del 2009.
Textualmente dice"...Chile no estaba blindado, no evitó la recesión y tampoco está saliendo antes que los demás. Varios países proyectan ya crecimiento positivo para el segundo trimestre de 2009, entre ellos Brasil y Perú, China, Corea, India, Indonesia, Hong Kong, Malasia, Singapur, Tailandia y Taiwán. Tampoco lo estamos haciendo mejor que el promedio mundial."
El Dr. Felipe Larraín es profesor de la Universidad Católica de Chile e investigador del Instituto de Investigaciones Económicas de esa casa de estudios.
Aquí el enlace a su excelente Blog:

Bear Stearns: La caida de un Gigante



Hace mas de un año, el quinto banco de inversiones mas grande de los EE.UU; se desplomó financieramente, por entonces su rival JP Morgan Chase lo adquirío a un precio realmente muy bajo.
El Banco de Inversiones Bear Stearns es uno de los que han dominado a Wall Street durante varias generaciones. Fue fundado en 1923 por Joseph Bear, Robert Stearns, and Harold Mayer y era una de las más importantes compañías bancarias a nivel mundial.
Su campo de acción incluye la compra y venta de acciones y de bonos corporativos y del Estado, inversiones, servicios de compensación global, gestión de activos y asistencia a clientes privados, opera con los gobiernos de algunos países emergentes e inclusive con países europeos.
Su capitalización de mercado hacia diciembre del 2007, era de US$17.000 millones, gestionaba activos por un monto de US$385.000 millones y su planilla era de unos 15.000 empleados en todo el mundo.
Sus acciones capitalizadas en bolsa a un valor deUS$169 en abril del 2007 , se desplomaron hasta US$2 en marzo del 2008, perdiendo más de 98% de su valor bursátil.
Pero ya habían algunos indicios de que algo andaba mal en temas de gestión de cartera e inversiones en bolsa, hacia 1996, un inversionista nombrado Henry de Kwiatkowski demandó a Bear Stern por negligencia y contra el secreto y control del inversionista, finalmente la corte de Distrito dictaminó en el favor de de Kwiatkowski, en última instancia concediéndole $164.5 millones por reparación de daños.
Sin embargo la historia dentro de Bear Stern muestra que uno de los núcleos de ganancias del Banco, era una pequeña división de fondos de cobertura. La firma la creó con una inversión de capital relativamente pequeña (US$ 45 millones). Ralph Cioffi, un vendedor senior de valores de renta fija del Bear Stearns se convirtió en el director de los fondos de cobertura. Los fondos eran parte del pequeño negocio de gestión de activos, denominado BSAM. La división BSAM se subordinaba a Warren Spector, quien como miembro del directorio de la firma era responsable de supervisar el 90% de sus ingresos, que incluían su negocio masivo de valores de renta fija.
Bueno, la historia cuenta mucho mas y para ello les recomendamos el libro de William D. Cohan titulado "House of Cards: A Tale of Hubris and Wretched Excess on Wall Street" de marzo del 2009.
Aquí encontrarán mayor información del mismo: http://www.librarything.es/work/8016016

Un enemigo del Planeta; Las Medidas contra el cambio climático son muy costosas

La posición de este "economista" que considera costosos los programas de protección contra el cambio climático, muestra una vez mas que hay interesados en proteger a las industrias contaminantes y seguramente financiados por ellos.
El expositor danés, al puro estilo mercantilista considera que el valor del "dinero" invertido en proteger nuestro planeta, es muy caro y costoso frente a otras soluciones, como aumentar el costo del combustible.
Pero hay que recordar en economía, que el costo adicional al combustible, insumo de producción de muchas industrias, será pagada por los consumidores, costo transferido a través del mecanismo de los precios.
Si estuviese en el Perú, seguramente lo nombran Director Presidente de empresas mineras como DOE RUN, cuyo contaminante trabajo ha dañado la vida de muchísimas personas y la naturaleza circundante de lo que fue alguna vez ese ecosistema.
Pero mejor escucharlo y cuidarnos de algunas de sus recomendaciones.

The Wall Street Journal (21/julio/2009)


Friday, July 24, 2009

Prof. Elvis Espinoza y su Guía Didáctica de EViews



En el Youtube podemos encontrar algunos temas sobre econometría, así que si recordamos algunos textos básicos, por ejemplo el clásico libro "Introducción a la Econometría" del profesor D Gujarati, hay un sitio youtube que contiene el siguiente enlace, del profesor de Economía de la Universidad Nacional Federico Villarreal, de Lima, Eco. Elvis Espinoza.
El profesor Espinoza a insertado un videopost, donde se aprecia una guía supersencilla de uso para quienes no conocen el EViews, de manera tan sencilla y didáctica, que considero muy relevante introducirlo en este post.
Aquí el enlace:

Thursday, July 23, 2009

Los Agentes y la Modelación Computacional


La Ciencia Económica, estudia los comportamientos de los agentes en sus procesos de transacciones económicas, pero esto involucra necesariamente un entorno social, donde los agentes asumen diversos roles dentro de un grupo social y su interacción entre ellos y otros agentes de otros grupos sociales.
Los agentes económicos, tienden a tener algunas regularidades que permite clasificarlos y poder realizar modelaciones con estas particularidades como son: la adaptación social, la comunicación social, el aprendizaje de las reglas del grupo, la autonomía en las desiciones.
El científico social busca modelar un entorno real, observando la realidad económica y abstrae una "imagen" de la situación, siendo este su objeto de estudio, sobre la cual plantea hipótesis basadas en modelos teóricos de la ciencia económica, el mismo es sometido a pruebas e inferencias y sus resultados analizados y comparados contra la realidad observable.
Muchas veces la sola presencia del observador puede distorsionar el proceso de abstracción del objeto a investigarse, sin embargo, con criterios sólidos, el investigador puede librarse de la subjetividad propia y concentrarse en hechos reales, aunque estos difieran de lo que el investigador busca.
La utilización de herramientas computacionales, ha permitido la modelación de sistemas complejos, donde al esquema descritos líneas arriba, con presencia de un experto, se asocia ahora un modelador informático, que convierte en algoritmos computacionales, los elementos aportados por el experto. Surge así la modelación de sistemas complejos.
Una de las técnicas mas modernas de simulación social, la constituye la simulación basada en agentes, donde los individuos, bajo patrones de comportamiento económico (en nuestro caso) interactúan con otros agentes en entornos predeterminados, se usan esquemas de teoría de los juegos y de desiciones racionales para estas simulaciones. Fundamentalmente se analizan las relaciones establecidas entre agentes como elementos individuales y su entorno grupal.
Esta técnica de simulación, difiere de la conocida Técnica denominada Dinámica de Sistemas, donde el análisis está centrado en las variables del problema y que son retroalimentadas (feedback) constantemente por los resultados y van variando en el tiempo.
Los sistemas basados en agentes comprenden a varios agentes que pueden ser en mayor o en menor grado autónomos, heterogéneos e independientes, cada uno con sus propias metas y objetivos y que son capaces de interaccionar entre sí y con el entorno donde se les ha situado para la investigación. Estos pueden evolucionar a sistemas complejos a lo largo del tiempo para adaptarse a nuevas condiciones del entorno o a nuevos objetivos.
Un ejemplo típico aplicado a esto, son los mercados financieros y los inversionistas, estos empieza solos o agrupados y luego van evolucionando, algunos desaparecen del mercado, otros se fusionan (crean alianzas entre ellos) y otros mutan a nuevos agentes.
El caso de los mercados de retail y el de los mercados de energía eléctrica son típicos del análisis de simulación basado en agentes.
Los trabajos del Profesor Robert Axelrod en estas técnicas aplicadas al comportamiento social y a la teoría de las desiciones, son muy importantes y considero que estas técnicas, ayudaran a encontrar nuevas relaciones económicas complejas y a ayudarnos a analizarlas.
Aquí algunos enlaces importantes en la Modelación Basada en Agentes.
Página WEB del Profesor Robert Axelrod:
http://www-personal.umich.edu/~axe/
Pagina WEB del Profesor Scott Benett:
http://www.personal.psu.edu/dsb10/index.html
Página WEB sobre Modelamiento Basado en Agentes:
http://www.econ.iastate.edu/tesfatsi/ace.htm
Página WEB del Profesor Luis Izquierdo:
http://www.luis.izqui.org/index.html
NOTA.- "La aplicación más emblemática de esta forma de estudio la llevaron a cabo Axelrod y Scott Bennett (en el año 2003) emulando el contexto social previo a la Segunda Guerra Mundial en un sistema computacional e ingresando la información de 17 paises europeos involucrados en ese conflicto bélico. El objetivo fue ver como el modelo computacional realizaba las alianzas estratégicas, basado en la información real de la época ingresada a un sistema que hiciera referencia a la compatibilidad de ellos en muchos aspectos (sistema económico de cada país, información de sus relaciones diplomáticas, regimenes políticos, etc.) e identificar su similitud con las alianzas realmente establecidas en el tiempo previo y durante la guerra.
Los resultados fueron sorprendentes incluso para los mismos investigadores, ya que las alianzas establecidas en la simulación tuvieron una similitud superior al 90% con las efectivamente dadas en la realidad europea de las décadas del 30 y 40. Esto es sorprendente ya que en el modelado existían más de un millar de posibilidades de alianzas. El estudio significó un concluyente apoyo empírico al modelo y además demostró el poder predictivo (o postdictivo en este caso) para la investigación de la formación de alianzas y toma de decisiones de grupos de intereses."
http://www.neuroeconomia.cl/blog/2008/06/complejidad_cooperacion_modelando-alianzas-politicas/#more-62

Tuesday, July 21, 2009

Definiendo los Objetivos de la Sustentabilidad: Un Marco Teórico


En el diseño de políticas ecoambientales, la elección de modelos que integren variables que definan la sostenibilidad son vitales, estos son dinámicos (se prefieren a los estáticos) y se basan en variables

El trabajo de Vincent Martinet pretende un modelo que incorpora las restricciones de sostenibilidad asociados a umbrales predeterminados bajo los conceptos de equidad intergeneracional al puro estilo Rawlsiano.

Este importante trabajo lo podemos apreciar en el siguiente enlace:

Monday, July 20, 2009

Arquitectura de Negocios


Los negocios evolucionan y así como los modelos de finanzas y los modelos de administración basados en paradigmas teóricos vigentes en las ciencias sociales, por ello dentro del tema microeconómico de los agentes y del mercado, vamos a dar un vistazo a estos nuevos temas.
La arquitectura de Negocios, analiza la estructura de un negocio, como un conjunto sistémico de funciones, procesos y tecnología asociada, en un marco de estrategia empresarial y por esta última partimos para dar una muestra breve de estos nuevos conceptos de los negocios.
La creación de una estrategia requiere del análisis preciso y detallado de las variables en el tiempo, análisis de los posibles escenarios futuros. A partir de estos, se diseña el marco general de la operación del negocio, cuyo enfoque debe ser fuertemente práctico y fundamentado en un sólido conocimiento teórico
Esto nos conlleva a diseñar y realizar un Análisis del Valor para los stakeholders (todos los agentes involucrados en el negocio). Los agentes que participan en el negocio deben de conocer la cadena de valor del negocio, para saber cual es su relación con el negocio, como interactúan con las funciones del negocio y en que parte del proceso intervienen.
Hay varias estrategias, por ejemplo una de ellas en el tema de lanzamiento del negocio, esta dentro del ámbito del marketing y se le conoce como GTM (Go-to-Market Strategy), El como ingresamos (entry) al mercado objetivo es el núcleo de análisis del GTM, aquí se desarrollan los elementos y conceptos que nos permitirán evaluar:
- Conocimiento de las necesidades de los clientes-objetivos.
- Interacción respecto a la competencia (facilidades y dificultades);
- Costos de la competitividad en el mercado-objetivo.
- Posibilidades de alianzas adecuadas, con proveedores, con empresas de productos y/o servicios complementarios.
Definición de la Estratégia, para realizar la propuesta de la cadena de valor del negocio, basado en las necesidades y en el grado de valor que otorgan los agentes que intervienen en el negocio.
Diseño del Modelo de Negocios, donde se definen los canales de negocios, las variables del negocio (precios, cantidades, finanzas,etc), el portafolio de los productos y servicios y finalmente el modelo Comercial.
Análisis de Campo, implica la utilización de medios estadísticos para la evaluación de impacto del portafolio de productos y/o servicios en el mercado, por parte de los agentes.
Las áreas funcionales del negocio. Básicamente una operación de negocios tienen las siguientes funciones:
- Comercialización y Ventas (M/S)
- Administración de la cadena de suministros (SCM)
- Contabilidad y Finanzas (C/F)
- Recursos Humanos (HR)

El proceso de negocios, es un conjunto de actividades que toma uno o más insumos y crea un producto que es de valor para el cliente.
El cliente puede ser el cliente externo tradicional que compra el producto o el servicio o un cliente interno (negocios entre empresas de la misma corporación).
La perspectiva del cliente está basada en la descripción del proceso del negocio.
El cliente debe ser indiferente a las funciones del negocio, por lo tanto no debe de estar afecto a las ineficiencias de las funciones.
Los negocios tienen diferentes procesos, según el giro del negocio mismo, pero podemos mostrar algunos comunes a muchas operaciones de negocios:
- Administración de la cadena de demanda.
- Administración de la cadena de suministros.
- Finanzas
-Tecnología de la información
¿Que ocurre cuando la empresa confunde funciones y procesos?
Muchas operaciones de negocios, cuentan con gente experimentada pero mal entrenada y aplican técnicas que hace muchos años eran excelentes y entregaban buenos resultados, sin embargo con la actual dinámica global de los negocios, las técnicas estan cambiando. Por ejemplo el tratamiento de la información (bases de datos) ahora son indispensables para las relaciones entre los stakholders (agentes económicos que intervienen en el negocio), por ello tenemos a las tecnologías de la información como uno de los procesos de los negocios y las herramientas como ERP (Enterprice resource planning), que engloba de manera integral a los sistemas de información gerenciales que integran y manejan muchas de las operaciones de producción y de los aspectos de distribución de una compañía comprometida en la producción de bienes o servicios.
CRM (Customer Relationship Management), es parte de la estrategia de relación con los clientes, que busca dar valor a las relaciones de negocios entre los agentes en el mercado (por ello también se dice orientado al mercado), se basa en la formación y estructuración e una base de datos de clientes y sus relaciones con el negocio.
Data Wharehouse, Es un almacén de datos de acceso organizado, alimentado de numerosas fuentes relacionadas a los negocios y a los agentes que intervienen en el, las transformaciones en grupos de información sobre temas específicos de negocios (Compras, ventas, producción, almacén; etc), para permitir nuevas consultas, análisis, reportes y ayuda a la toma de decisiones.
Data Mining (minería de datos), es la extracción de información oculta o análisis de datos mediante técnicas estadísticas de grandes bases de datos. Las herramientas de data mining o minería de datos pueden responder a preguntas de negocios empresariales a priori no planteadas o que pueden consumir demasiado tiempo para ser resueltas, Las técnicas de data mining se centran en analizar el gran volumen de datos, que en una primera selección pueden ser pertinentes, pero que la aplicación de técnicas de selección ceñida a unas determinada demanda, reduce el tamaño de los datos eligiendo las variables más influyentes en el problema.
Un tema aparte es la Reingeniería, que busca la transformación de las estructuras empresariales ex ante, basados en los procesos de negocios y las estrategias de la empresa.
Bueno, algunas universidades peruanas están implementando especialidades que concentran la arquitectura de negocios dentro de sus currículos, una empresa moderna debe incluir equipos de procesos, además de las áreas funcionales, para estar acorde con la globalización de los negocios.

Friday, July 17, 2009

Segunda Reunión de Ministros de Hacienda de América Latina y el Caribe


En Chile, se ha realizado la Segunda Reunión de Ministros de Hacienda de América Latina y el Caribe, donde asisten los ministros de Hacienda de Antigua y Barbuda, Argentina, Barbados, Belice, Bolivia, Brasil, Canadá, Colombia, Costa Rica, Dominica, Ecuador, El Salvador, Estados Unidos, Grenada, Guatemala, Guyana, Haití, Honduras, Jamaica, México, Nicaragua, Panamá, Paraguay, Perú, República Dominicana, Saint Kitts y Nevis, Santa Lucía, San Vicente y las Granadinas, Surinam, Trinidad y Tobago, Uruguay y Venezuela y el anfitrión Chile.
Asimimo, a ellos se suman los representantes del Fondo Monetario Internacional (FMI), del Banco Mundial (BM), del Banco Interamericano de Desarrollo (BID) y de la Comisión Económica para América Latina y el Caribe (CEPAL).
Las sesiones fueron inauguradas por la Señora Presidente de Chile, Michelle Bachelet, quien agradeció la participación de los asistentes e indicó el reconocimiento de parte de las Instituciones Financieras internacionales hacia el gobierno de Chile.
La Presidenta solicitó a los países miembros que también participan en el G-20 (Brasil, México, Argentina Canadá y Estados Unidos) llevar las principales conclusiones que salgan del foro. "Queremos que ustedes lleven la voz de la región a esa instancia que poco a poco ha ido demostrando que con voluntad política se han ido logrando avances".

Asimismo, el Banco Mundial (BM) emitió un informe en el que señala que Perú y Panamá serán los únicos países de la región que evitarán la caída de su Producto Bruto Interno en el año 2009.
En 2009 pocos países, salvo Perú y Panamá, escaparán a la caída de su PIB, aunque el próximo año el crecimiento (en la región) volverá pero es probable que sea lento (1-2% anual) y no uniforme", dice el reporte del Banco Mundial.
El informe fue resultado del marco de la Segunda Cumbre de Ministros de Hacienda de América y el Caribe, donde este último jueves, el presidente del Banco Mundial, Dr. Robert Zoellick, destacó la mejor posición de Perú para enfrentar la crisis económica, entre otros de los países más grandes de América Latina, sobre todo gracias a su presupuesto más fuerte y el desarrollo de políticas sociales. Indicó asimismo que esta mejor posición influyeron aspectos como presupuestos fiscales más fuertes, mayores reservas internacionales, una mejor posición comercial y un manejo flexible del tipo de cambio, pero también una buena base en lo que tiene que ver con el tema de la protección social.
Sin embargo el panorama económico de los demás participantes no es nada buena, por ejemplo para el anfitrión de la II reunión, cuyo Banco Central (Chile) sostuvo esta semanas que la economía de su país seguirá cayendo en los próximos meses, tras conocerse que la actividad económica registró una contracción de -4,4% en mayo/2009, respecto al mismo período de 2008.
México no es ajeno a similar situación, La economía mexicana, la segunda de América Latina, entró en recesión en el primer trimestre de este año con un desplome de -8.2% y el gobierno estima una reducción de alrededor de -6.3% a final de año.

Precisiones: ¿Quien acuño el término MACROECONOMIA?

El Premio Nobel en Economía 2008, Dr. Paul Krugman, realiza una precisión sobre el término Macroeconomía.
Y es que en un artículo muy interesante de la revista The Economist, del 16 de julio último, aparece la información que sigue: "Macroeconomics began with Keynes, but the word did not appear in the journals until 1945, in an article by Jacob Marschak" dando al economista Jacob Marschak la autoría del término. (http://www.economist.com/displaystory.cfm?story_id=14030288)

Para el Dr.Krugman el iniciador del término Macroeconomía, es Ragnar Frisch, nacido en Oslo, Noruega en 1895, uno de los precursores de la econometría. En 1969 recibe el primer Premio Nobel de Economía junto al Gran economista Jan Tinbergen, por sus trabajos en modelos dinámicos sobre el análisis de los procesos económicos. Es así que en su trabajo "Propagation and Impulse Problems in Dynamic Economies", en 1933, utilizó el término macroeconomía
(http://krugman.blogs.nytimes.com/2009/07/17/who-coined-the-term-macroeconomics/) y está referenciado también en el libro de texto del Krugman-Wells "Principles of Economics"

Thursday, July 16, 2009

Burbujas y más Burbujas - Interesantes Blogs sobre las Burbujas


Encontramos en la blogosfera un tema interesante. Las Burbujas.
La revista on line Omnibus, en su número No. 24 (2009) publica un artículo de fácil lectura y muy instructivo del autor Santiago Egido, bajo el nombre de "Estafas basadas en el crecimiento".
http://www.omni-bus.com/n24/estafas.html


Pero también encontramos en otro blog, un artículo que se preguntas:
"¿Es posible detectar Burbujas?"

(http://baselinescenario.com/2009/07/15/is-it-possible-to-detect-bubbles/)
En el Blog The Baseline Scenario, encontramos el artículo en mención que hace referencia a Leigh Cadwell y al Blog "Knowing and Making"

(http://www.knowingandmaking.com/2009/07/bubble-detection-technology.html) donde se parodia la posibilidad de tener una tecnología para la detección de burbujas en la economía, como las inmobiliarias que nos han llevado a la actual crisis.

Wednesday, July 15, 2009

El Gasto Eficiente local o la Incompetencia de las Municipalidades



En países donde la falta de dinero para poder desarrollar proyectos de inversión pública, las asignaciones por parte del gobierno central, constituyen un alivio.
El Ministerio de Economía y Finanzas del Estado Peruano, publica los niveles de inversión en proyectos, por parte de los municipios en todo el Perú. Si tomamos solamente el caso del departamento de Lima, podemos ver que los niveles de inversión en Proyectos al 30 de Junio 2009, son muy pobres y los municipios tienen solo hasta el 15 de diciembre, de lo contrario los recursos retornan al tesoro público.
La inversión de los municipios limeños (son 43 distritos) sólo han invertido un 25,8% al primer semestre del 2009, Si consideramos que el gobierno ha transferido S/. 1.139 Millones de nuevos soles, la inversión en 6 meses sólo alcanza a S/.294 millones, esto es un muestra de la incompetencia profesional de los municipios limeños y de su incapacidad para promover inversiones en sus comunas. Si Ud., circula por algunas calles de la ciudad, encontrará que existen huecos denominados "baches" por los conductores, no hay playas de estacionamiento en algunos distritos, la seguridad no cuenta en los conos, las veredas son cosa de otro mundo, los servicios sanitarios en casi todas las comunas son inexistentes, y tenemos una lista para mostrar tanto que hay que hacer por cada comuna.

Solamente 14 municipalidades alcanzaron a realizar proyectos en un rango desde el 30% al 40%, de su presupuesto anual. Extremamente encontramos algunos distritos, cuya comunas no hacen nada por quienes los eligieron,por ejemplo la municipalidad de San Miguel, sólo ha ejecutado el 4,2% del presupuesto anual, otro triste ejemplo es la Municipalidad de Breña que apenas alcanzó a ejecutar 9,2%, la Municipalidad de San Martín de Porres con 12,3% y la Municipalidad de Puente Piedra con apenas 14,5%.
Realmente con estas cifras hay que preguntarse:
¿Que hacen o en que invierten su tiempo los Señores Alcaldes?
Al parecer no es en el desarrollo comunal, puesto que las cifras son una muestra de lo poco o casi nada hacen, a excepción de pintar paredes o colocar paneles publicitarios con sus nombres, como si el Marketing político, pudiese ocultar las tristes caras de su fracasada gestión municipal, basta con visitar físicamente estos distritos y encontraremos una realidad cercana a lo que las cifras muestran.
En provincias tampoco es distinto el panorama. Considero que el Gobierno debiera ir pensando en exigir ciertas características de perfil profesional a los candidatos y a su plancha, dado que en el tema de proyectos, definitivamente no sabe nada.
Pobres nosotros los ciudadanos que somos afectados, porque se pierden los recursos y sobre todo el recurso mas valioso que es el tiempo, en la triste espera de ver llegar algún día alcaldes y regidores que realmente sean profesionales y que les interese su comuna.

http://ofi.mef.gob.pe/transparencia/mensual/default.aspx?y=2009&ap=Proyecto

Monday, July 13, 2009

Manuel Area Moreira y su Temática del elearning


El Profesor Manuel Area Moreira, tiene una página web muy interesante y un blog similar.
El está dedicado a la didáctica educativa y con uso de las nuevas tecnologías de la Información (TIC´s), que permite mejorar los aspectos cognitivos de cada tema en cuestión.
Ahora que se ha puesto de moda los estudios de Maestría y de Doctorado vía elearnig (virtual), conocer cuales son las bases y fundamentos formales nos permitirá conocer mejor cual es el alcance de estos cursos.
Por ejemplo, muchos de nosotros estamos acostumbrados a escuchar en vivo a los docentes, a consultar en persona y a aportar lo nuestro en clases.
Sin embargo encontramos ahora una variedad de vídeos y archivos multimedia, con cursos completos hasta de Econometría y de Economía matemática, pasando por Macroeconomía, Microeconomía y Teoría del Desarrollo.
Cual será la nueva propuesta de la Ciencia Económica en cuanto a la didáctica universitaria y como se integraran los nuevos cursos "en línea" dentro de las currículas universitarias actuales.
La dirección del sitio Web del Profesor Area Moreira es: http://www.manuelarea.net/
y Su blog es: http://ordenadoresenelaula.blogspot.com/

Hoy Recomendamos: Blog Economía-Excel



Este Blog presenta información muy interesante de como utilizar el Microsoft Excel para implementar el calculo y la gráfica de los aspectos financieros y económicos que pueden utilizarse con ayuda del computador.
Los artículos posteados por Artemio, en su Blog "Economía-Excel" buscan un nexo entre la aplicación práctica y la fundamentación teórica que subyace a las fórmulas y ecuaciones relativas a cada caso.

Sunday, July 12, 2009

¿Existe Una Teoría Plausible para las Desiciones Riesgosas? : Paper del Dr. James C. Cox



El Dr. James C Cox, Director del Centro de Economía Experimental, Universidad Estatal de Georgia, se ha especializado en temas sobre economía experimental, donde el riesgo y las motivaciones que generan situaciones riesgosas, pueden establecer prioridades que influyen en las desiciones de los agentes económicos.
Para el Dr. James C. Cox, existe vasta literatura que se ocupa de análisis de las teorías de toma de decisiones en entornos arriesgados. Por ejemplo, la teoría del valor esperado se ha conocido durante muchos años y hasta que los argumentos de la paradoja de San Petersburgo se hicieron evidentes ciertos fallos en su concepción acerca del modelamiento del comportamiento de los agentes económicos. Las teorías de aversión de riesgos han sido dúramente criticadas por sus argumentos acerca de como calibran sus transformaciones con base en las probabilidades.
El trabajo del Dr. JAmes C. Cox, analiza de manera interesante las nuevas teorías sobre la aversión al riesgo e inclusive plantea condiciones sobre la neutralidad del riesgo.
El enlace donde encontraran este excelente trabajo es:
Aquí está una presentación muy interesante sobre el tema de elección bajo riesgo:

Saturday, July 11, 2009

La Bancarización y la Telefonía Móvil. Un estudio de Telefónica Grupo y el BID




¿Es posible que el servicio tecnológico de las comunicaciones móviles (Telefonía celular) permita incrementar el coeficiente de bancarización en los países emergentes de América Latina?
Así lo sugiere un estudio realizado por la Fundación Telefónica y el Banco Interamericano de Desarrollo; que presentó este trabajo en España.
Los primeros párrafos de este interesante estudio dice
"Si bien la telefonía móvil supone un paso hacia la democratización del acceso a información y comunicaciones, existen todavía grandes retos de cara a mejorar las condiciones de la mayoría de la población en la región. Entre ellos destaca la falta de acceso a servicios financieros, que impide a las personas explotar su potencial y llevar adelante sus proyectos personales y profesionales. Mientras que en 2008 la telefonía móvil alcanzó al 80% de la población de América Latina y el Caribe, únicamente el 30% de la población tenía acceso a servicios financieros básicos, incluyendo apenas al 13% de los microempresarios de la región. "
Efectivamente, se han identificado algunos obstáculos que dificultan la penetración bancaria hacia las zonas rurales y hacia los microempresarios, algunos de estos son:
- Lento crecimiento de la cobertura e infraestructura bancaria, incluido los cajeros automáticos.
- Costos de los servicios financieros elevados
- Tasas activas muy elevadas, debido al riesgo por el crédito.
- Concentración oligopólica de la banca. Segmento vertical.
- Debilidad de las instituciones financieras, segmento horizontal.
- Distorsiones regulatorias en el mercado financiero.

Aquí les dejo el enlace para vuestra lectura:

http://www.fundacion.telefonica.com/debateyconocimiento/media/publicaciones/moviles_y_bancarizacion.pdf

Este estudio, plantea una hipótesis muy interesante, aquí la expongo para vuestro análisis:
"Por su parte, un crecimiento del 1% en los servicios de telecomunicaciones genera un crecimiento cercano al 3% en la economía, siendo mayor el efecto en los países emergentes."

Friday, July 10, 2009

Modelos en Econometría: Una Revisión Histórica


Los modelos de ecuaciones simultaneas, fundamentadas en modelos estructurales, tienen un auge durante el cambio tecnológico de los procesos computacionales. Recordemos previamente que en 1930 se funda la Sociedad Econométrica. Así, los modelos previos fueron basados en metodologías estadísticas, desarrolladas en el entorno de la Comisión Cowless en los años de 1951, donde destacaba el doctor en economia Tjallin C. Koopmans. (en realidad su formación profesional fué como físicomatematico), holandés de nacimiento y nacionalizado norteamericano. El Dr. Koopmans y su equipo desarrollaron las metodologías de planteamiento y solución óptima de las ecuaciones simultaneas con varias variables económicas, para la asignación óptima de los recursos económicos; compartió el premio nobel con el ingeniero y economista ruso Leonid Kantorovich en 1975.
La crisis del petróleo en los primeros años de 1970, desmoronan los modelos estructurales, los mismos que tampoco servian para explicar el comportamiento de las variables que modelan los instrumentos financieros y las tendencias de las Bolsas de valores. Sin embargo las economías todavía utilizan modelos econométricos estructurales, como es el caso de la vigencia hasta entonces del modelo Klein-Golberger, del cual derivaron dos conocidos modelos con los cuales se analizaba la economía norteamericana (Brookings Model y Wharton Econometric Forecasting Model). Según la Comisión Cowles (Una fundación creada por el Millonario Alfred Cowless), el modelo sustentado por la teoría económica clásica vigente y los conceptos macroeconomicos Keynesianos, representaba con suficiencia el conjunto de observaciones posibles que se observaban en los mercados bajo estudio. Así, el modelo consideraba el carácter de una hipótesis nula, que se fundamentaba en:
1) Una hipótesis principal , a la luz de la teoría económica vigente.
2) Un conjunto de hipótesis auxiliares (ad hoc) que formalizaban los supuestos sobre la distribución de los términos de error .
Entonces la Econometría buscaba modelizar los fenómenos económicos, diseñando metodologías para lograr estimaciones con alto grado de precisión de los parámetros y luego contrastar la hipótesis nula contra las observaciones reales. Entonces, se ensayaban diferentes especificaciones como transformación a las variables del modelo, agregación de nuevas variables para mejorar los valores de los parámetros, eliminar algunas variables que presentan problemas de multicolinealidad ó cambiar la metodolgía de estimación econométrica para mejorar las especificaciones de las perturbaciones aleatorias.
Para 1944, el Dr. Trigve Haavelmo muestra la dirección que tomaría la Fundación Cowles, la cual fue apoyada por la Universidad de Chicago. Así los modelos básicos multecuacionles basadas en la estadísticas fueron notablemente exitosas y luego aproximan las bases de los modelos de Máxima Verosimilitud aplicados a mediados de 1950.
Históricamente desde 1959, hubieron importantes avances teóricos, como el desarrollo del modelo general para la estimación de Variables Instrumentales (VI) (D.Sargan 1958) y el de los Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962). Algunos desarrollos en las pruebas de diagnóstico, como el trabajo sobre las pruebas de heterocedasticidad y estabilidad (G.Chow 1960), muestran un mayor énfasis en probar los modelos que estaban surgiendo por entonces, promovidos por los Bancos Centrales, que buscan constrastar los modelos Macroeconométricos de la década de los 60´s.
Para los economístas científicos, la utilización de variables auxiliares, representa la modificación ad hoc del modelo y por lo tanto rompe con la tradición Popperiana, dado que resultaría algo así como un atajo al proceso de falsación del modelo, de allí las críticas a la forma como se construyen estos modelos y al concepto de exogeneidad e independencia.
El Dr. Robert Lucas, basándose en la Teoría de las Expectativas Racionales, encuentra que hay fallas en los modelos estructurales ("Econometric Policy Evaluation: A Critique") en 1976. Para el Dr. Lucas; si los agentes económicos son capaces de prever las futuras acciones de la política económica, entonces toman decisiones para neutralizar sus posibles efectos, por ello los cambios previstos no sólo modifican la trayectoria de las variables sino también el orden de causalidad, luego el modelo (o sus ecuaciones) también son modificados y el modelo inicial estructural ya deja de representar al fenómeno y esto es un error de especificación.
Por los años de 1980, la crítica de Lucas, reformula los modelo econométricos, puesto que se desarrollan modelos invariantes ante cambios en la política económica, como los desarrollos teóricos basados en la ecuación de Euler y los estimadores del método generalizado de momentos de Alvin Hansen.
Luego por esos años, el trabajo del Dr. Christopher A. Sims (Matemático y Economista) sobre los modelos de los Vectores Autorregresivo (VAR), crea muchos expectativas sobre estas metodologías, creciendo el interés en los modelos de variables dinámicas y en las propiedades de largo plazo (Long run) de los modelos econométricos. La propuesta del Dr. C. Sims parte de la consideración de la forma en que se aplica un conjunto de medidas como política económica, no es una elección entre diferentes reglas de política, sino es un proceso de predicción de los efectos de pequeños ajustes a los valores de ciertas variables relevantes para los agentes económicos, así; la crítica de Lucas (según el Dr. Sims) operaría solo en casos excepcionales. Una crítica sobre las expectativas racionales, es que son variables no observables y por lo tanto sus transformaciones no necesariamente son invariantes, de allí que para muchos economistas modernos, prefieran no utilizarlas en sus modelos.
Para 1990, el Dr.Clive Granger, premino Nobel de economía, desarrolla un modelo econométrico, basado en Cointegración, Raíces Unitarias y consigue mejorar tremendamente las condiciones de estabilidad de las variables, cuando se desarrollan los modelos a largo plazo. Muchas variables macroeconómicas, como el consumo y el ingreso, poseen una tendencia definida, lo que permite analizar en el tiempo a ambas variables, de la manera como ambas se comportan a largo plazo, equilibrándose mutuamente.
Ahora con los aportes del Dr.David Hendry (Universidad de Oxford), se consigue probar la estabilidad de los modelos estructurales, donde el punto crítico es la exogeneidad de las variables. Surgen ciertas condiciones que validan los modelos macroeconometricos estructurales, como son Consistencia Teórica y replicabilidad del modelo, se definen asi los conceptos de exogeneidad debil y exogeneidad fuerte, que permiten considerar la construcción de un modelo que tiende a ser invariante ante cambios en la política económica.
El futuro de la macroeconometría, va por la reevaluación de los modelos estructurales mas avanzados, incluso el ya fallecido Dr. Grainger, decía "...en series de tiempo, los modelos univariados no pueden considerarse relevantes para la mayoria de los propositos practicos de la econometria...", asi, los modelos que han querido aplicar desarrollos matemáticos deducidos de modelos que desde su formación tenían inconsistencias con la economia positiva, por ello, en el caso de las tecnicas de Data Mining, estas fueron duramente criticadas por llevar los datos a desarrollos polinomiales de haste tercer grado y con ello, perder la veracidad real de estos, obteniendose resultados consistentes matematicamente, pero que no explicaban adecuadamente los fenómenos economicos del mundo real.
Finalmente, la econometria es una ciencia joven, que es pleno proceso de desarrollo, busca explicar y predecir los complejos fenómenos socioeconómicos, mucho mas complejos que los de las ciencias exáctas y fácticas, debido a que modelizar el comportamiento del agente económico sugiere el uso de un conjunto de variables que en ese momento de análisis le corresponde a determinado perfil de agente económico. En Verdad, nada fácil, pero tampoco imposible.

Thursday, July 09, 2009

Blog que Recomendamos: QUANTUM ECONOMICO



Muy interesante el link que aparece en el Blog del colega Domingo Sifontes (Venezuela) de la Universidad de Carabobo, donde hace referencia al nuevo libro del profesor Richard Thaler "Nudge. Improving Decisions about Health, Wealth, and Happiness" , donde el Dr. Thaler y el coautor Cass R. Sunstein, plantean la hipótesis de que no existen escenarios neutros, cuando de tomar decisiones se trata, esto es que hasta los detalles aparentemente mas insignificantes, pueden tener una enorme influencia en las decisiones que toman los agentes económicos.

Felicitaciones a Domingo Sifontes por alcanzarnos esta nueva propuesta del Dr. Thaler.
http://quantumeconomico.blogspot.com/2009/07/sobre-behavioral-economics.html

En el Sector de la Energía Eléctrica: ¿El Despacho eficiente es Despacho Económico?


En el Perú se está discutiendo, con mayor incidencia ahora, la disponibilidad energética en el tema de la generación eléctrica, su transmisión y su distribución a los consumidores (individuos y empresas).
Para los Ingenieros electricistas, este tema pasa por la eficiencia técnica, desde la generación, transmisión y distribución, con la menor pérdida posible de la energía eléctrica (en Kilovatios/hora) y una alta disponibilidad del servicio (valor estadístico conocido también como MTTR = Mean Time To Recovery) que es la media de tiempo de recuperación o de reparación necesaria para poner un componente defectuoso o sistema en funcionamiento.
Para los economistas, nos lleva al tema de la regulación y de la Teoría de la Economía Industrial; así el despacho eficiente en términos económicos es también conocido como Despacho Económico, que finalmente se muestra como un problema de optimización de un conjunto de variables asociadas a la mejor distribución en el tiempo, de precios y cantidades (recordando que la energía eléctrica es instantánea y no se puede almacenar económicamente, debido a sus altos costes y poca disponibilidad tecnológica aún en este siglo).
Entonces, cuando deseamos generar energía eléctrica de manera económica, para el caso de que contemos únicamente con Producción térmica (Quemando combustible fósil como petróleo, carbón, gas), el panorama de elección del precio óptimo y de la cantidad óptima, se relaciona con un problema de Minimización de costes de operación.
Los especialistas en regulación desarrollan modelos, donde cada unidad de producción (central térmica) tiene una ecuación de coste de operación, de capacidad disponible y finalmente el precio de mercado. Estas ecuaciones son ordenadas considerando las centrales mas eficientes económicamente (menor costo operativo) a las de menor eficiencia (mayor costo operativo). Esto se hace así, para que cuando la Demanda supera a la capacidad ofertada, entran en acción las centrales marginales, cuyos costes son los mas altos. Por ejemplo en el Perú, cuando se supera la Demanda en horas punta, las centrales térmicas que operan con Petróleo diesel entran para cubrir la diferencia (Oferta (capacidad instalada) -demanda instantánea), pero el coste operativo es mayor y este debe de ser cubierto por el usuario final, lo que es estipulado en los contratos de suministro de energía eléctrica. Este problema se resuelve con la técnica usual de la optimización restringida y los multiplicadores lagrangianos y finalmente encontramos una solución al despacho económico.
Pero nuestro parque generador eléctrico cuenta también con centrales que utilizan la fuerza del agua para producir energía eléctrica, esto se denomina Producción hidráulica, estas centrales son muy costosas y utilizan grandes depósitos de agua (lagunas artificiales o represas) para conseguir un flujo constante de agua hacia los generadores eléctricos. Nuestras variables a considerar son los costes del agua almacenada, del agua que ingresa a las turbinas de generación y el coste del agua desperdiciada (que se reingresa a un canal o lecho de río). Así el coste de la energía en épocas de sequías puede ser mayor que en épocas de abundancia de agua. El detalle aquí estriba en que para poder ponerle un coste al agua, este se le compara (en términos de producción de energía eléctrica KW/h) con su equivalente térmico (como vimos en el párrafo precedente).
Finalmente el despacho económico analiza al sistema nacional de producción de energía eléctrica combinada, esto es hidrotérmico. Aquí las restricciones del sistema de ecuaciones a optimizarse (minimizar los costes) incluyen la parte hidráulica (energía eléctrica producida por agua) y la parte térmica (energía eléctrica producida por combustibles fósiles) y la solución del sistema busca el precio óptimo para una demanda dada. Así entonces el valor del agua, es en realidad el costo de oportunidad de uso del agua en la operación y para calcularla se considera el peor escenario (cuando el embalsamiento de agua en la represa está en su nivel operativo mas bajo) y el coste futuro (cuando se considera que el embalse está totalmente lleno de agua).
¿Cuanta agua se de almacenar para considerar un despacho económico?
Realmente esto depende mucho del nivel de pluviosidad (cantidad de lluvias) y del ciclo de las lluvias en los afluentes de las fuentes de agua que alimentan a los embalses o represas. Existen modelos matemáticos que utilizan el principio de optimalidad de Bellman, para encontrar una trayectoria óptima en el diseño de un sistema de almacenamiento de agua, para las centrales hidráulicas, esto significa la utilización de las técnicas de optimización por programación dinámica. En el Perú la energía eléctrica de origen hidráulico alcanza los 1.829,3 GWh (al mes de abril) y la de origen térmico alcanzó en abril último 851,8 GWh; así el 59% del mercado eléctrico se genera con hidroelectricidad, el 31% se produce con gas, el 5% con Diesel residual, el 3% con carbón y sólo el 2% con Diesel Industrial.
Finalmente el Despacho eficiente (en términos de Ingeniería) difiere del Despacho Económico, que relaciona un problema de optimización de costes (precios y cantidades), entendiéndose que la generación eléctrica en si misma, tiende a ser eficiente a nivel físico (ingenieril), pero la eficiencia técnica se aproxima a la eficiencia teórica, dado que no existe máquina 100% eficiente, ya que toda máquina consume algo de energía (en sus diversas formas) para poder operar.
Ahora bien. Podemos tener una Producción eléctrica que mejore el despacho económico?
La respuesta es SI. Y esto incluye la utilización de Centrales de generación Eólica y Solar. Las centrales de generación eléctrica eólica, son mas económicas y con menores costes de operación, lamentablemente en el Perú se está demorando demasiado permitir su ingreso al mercado eléctrico, aunque ya se ha fijado una cantidad de participación en el mercado local que alcanza los 500 Megavatios.
Otro caso que raya con la ignorancia más intrépida, sucede en el caso del Cusco, donde un minúsculo grupo de habitantes, dirigidos por políticos cuyas creencias ideológicas son fracasadas y fuera de tiempo, se oponen a la construcción de la Central hidroeléctrica de Salcca Pucará que se encuentra ubicada en la cuenca del río Vilcanota, sub-cuenca del río Salcca, en la Provincia de Canchis, en la Región Cusco. Lo real es que la existencia de la Central aportaría a la región, ingresos por canon, estabilidad en el uso del recurso agua, promoción del riego tecnificado, mejoras tecnológicas en técnicas de riego y de agricultura y finalmente energía barata para electrificación rural, iluminación de pueblos y esto permitiría un crecimiento económico de la zona.

Tuesday, July 07, 2009

Organismos Reguladores Peruanos: Una nueva perspectiva para el 2009


En el Perú se ha puesto sobre el tapete jurídico, la intención del gobierno de centralizar los organismos reguladores.
Es concocido que el Gobierno aprista tiene siempre la voluntad de centralizar las entidades, como ocurrio con las Policias de Investigaciones, Civil y republicana, ahoea Policia Nacional.
Quiza en el caso policial, uno de los temas primordiales era la superposicion de funciones y el desequilibrio ded los presupuestos asignados por el gobierno.
En el caso de los reguladores, el tema es algo diferente, debido a la alta especialización con que se debe contar para cada caso, así en el Perú hay:
Osiptel (Organismo Supervisor de Inversión Privada en Telecomunicaciones )
Osinergmin (Organismo Supervisor de la Inversión en Energía y Minería)
Ositran (Organismo Supervisor de Inversión en Infraestructura de Transporte de Uso Público )
Sunass (Superintendencia Nacional de Servicios de Saneamiento (SUNASS)
Desde el punto de vista institucional, la formulación de contratos entre el Estado y las empresas cuyo mercado las convierte en monopolios u oligopolios, tienen ciertas similitudes, debido fundamentalmente a que están basados en deberes y obligaciones legales, dentro del territorio nacional y las contraprestaciones del Estado para estas. De acuerdo al enfoque teórico de Coase, los derechos vigentes, permíten que se limiten las externalidades en el mercado y entre los agentes económicos.
Desde el punto de vista económico, los cuatro reguladores utilizan la teoría de la regulación de los mercados, en en cuerpo de la Economía Industrial, parte de la Microeconomía, en ella se encuentran los fundamentos para el cálculo y la determinación de los precios y cantidades óptimas que se acuerdan en los mercados regulados.
Pero un punto que los diferencia es la técnica especializada. Aquí no ingresan ni abogados (juristas) como tampoco los economistas, sino los ingenieros encargados de la supervisión y la vigilancia del cumplimiento de los acuerdos prescritos en los contratos.
Por ejemplo, la supervisión de las Oficinas Centrales (Telecomunicaciones), salas de transmisión y estaciones terrenas (satelital) corre a cargo de los ingenerieros electrónicos, al igual que la supervisión de las actividades técnicas mineras, estará cargo de geólogos, de ingenieros de minas y de ingenieros metalúrgicos, el tema de la supervisión técnica en temas de saneamiento, implica la participación de especialistas en ingenieria sanitaria, biología y química.
Sin embargo un punto central está en la autonomía de los reguladores, estos debieran seguir siendo entidades autónomas, relacionadas directamente con la secretaría del primer ministro, de modo que no dependa de las políticas del gobierno de turno, sino que respondan a lineamientos generales a favor de la ciudadanía. Precisamente; la existencia de los reguladores es para controlar un mercado donde el poder de decisión lo tiene el monopolio u oligopolio, entonces debido a esta externalidad, el agente economico demandante del servicio o bien, está a merced de ellos. Sugiero revisar el tema de los mercados con regulación eficiente, en mi post. http://cienciaeconomica.blogspot.com/2009/05/la-regulacion-de-los-mercados.html
Un de los puntos que no son adecuados, en el caso de los reguladores; es destinar un porcentaje (%) de los impuestos a las empresas reguladas por el mismo sector, así la dependencia se estrecha y esto puede terminar en una relajación de la actividad supervisora de la entidad. La autonomía institucional es muy importante, dice Bernard Tennenbaum "Real World Of Power Sector Regulation" (Nota No.50, World Bank): "¿Por qué yo quiero crear una entidad reguladora que no puedo controlarla? Las elecciones pueden ser ganadas o perdidas a causa de las tarifas. Las tarifas son tan importantes para ser dejadas a una comisión reguladora independiente. " allí el autor enfoca abiertamente que las acciones del gobierno pueden entorpecer las labores del regulador y tenerlas fuera de control (hablando en términos de política partidaria) implica que estas no necesariamente estarán dentro de los ofrecimientos propios de las promesas electorales de los candidatos al gobierno de turno.
No es consistente, considerar que el costo presupuestal de las actividades regulatorias, son necesariamente onerosas para los agentes económicos, sino que el costo de NO ASUMIRLAS resultaría muchísimo más elevadas; basta ver el tema de la desregulación en el ámbito financiero por parte de la F.E.D (EE.UU) y miren los resultados: Crisis internacional. Se confunde muchas veces que la regulación es la intervencion del gobierno y esto es un error, dado que no existen mercados perfectos, entonces se deriva de ella, la necesidad de "coordinar" estos mercados, para tratar de hacerlos más pareto eficientes.
Efectivamente, la consolidación de una única entidad superreguladora, obedecería más a directivas de orden político que ha directivas de orden técnico, conocido por muchos que los grupos de poder económico, tienden a crear relaciones con los gobiernos a través de organismos privados, instituciones educativas y empresas de asesorías, estas muy ligadas a los representantes de los gobiernos y participan recomendando las "reglas y reglamentos", aún cuando éticamente no son admisibles debido a su posición comercial en el entorno nacional e inclusive internacional.
Uno de los problemas que el gobierno debe de reforzar está precisamente en la mejora de la competencia en los mercados, esto a través de la inclusión de nuevos agentes, que permítan reducir la concentración de poder y la tendencia hacia los fallos del mercado.
Parafrasea el autor nacional Edwin Quintanilla: " Un sistema regulatorio óptimo se logrará otorgando la autonomía necesaria a la agencia reguladora, para que actúe eficientemente. Deberá cuidarse la probidad de la administración pública en general, la independencia de las cortes de justicia, reducirse los niveles de corrupción e incentivarse las tradiciones de responsabilidad cívica (Parker y Kirkpatrick, 2002: 5)."
Una de las expresiones propias sobre como debe de operar el presupuesto de una entidad regulatoria, es precisamente enfocada por Gertrude Makaya: " International best practice calls for the creation of an independent regulatory institution, with its own funding. Various reasons are given for this insistence on independence. The government usually retains a stake in the incumbent thus a conflict of interest may arise if the state then has to regulate its own competitors. Others have argued that regulation by departments will be less likely to be questioned and scrutinised due its political weight (Ramanadham, 1994). A high level of political interference in regulatory decisions can also encourage industry to participate in rentseeking activities (Bitran and Serra, 1998). Yet, it should be noted that the lack of formal, legal independence does not necessarily mean that the agency does not have autonomy. A semiautonomous agency within a government can be effective. Similarly, the independence of a regulatory authority does not guarantee its effectiveness. A regulatory agency should have an arm's length relationship with government yet such autonomy should not give way to capture by industry or to a lack of accountability to the public (Bitran and Serra, 1998)."
Si realmente se desea mejorar la actividad regulatoria en los mercados con servicios y/o bienes públicos de corte monopólico u oligopólico, es mejor reforzar las acciones de las actuales entidades regulatorias, pero advertidos estamos, finalmente esperamos no terminar con una superestructura orgánica, con múltiples oficinas y poca gente especializada, refugio de los allegados a los políticos de turno.

Add to Technorati Favorites Peru Blogs Paperblog : Los mejores artículos de los blogs Solo Blog - Top Sites Coches ES BlogsPeru.com The House Of Blogs, directorio de blogs
certificado por
GuiaBlog
Mi Ping en TotalPing.comBlogalaxia
planetaperu.pe estamos en
PlanetaPeru.pe

Anuncios Gratis