Thursday, December 07, 2006

Do Economists Agree on Anything? Yes

This is from Mankiws's blog:
Robert Whaples surveys PhD members of the American Economic Association and finds substantial agreement on a wide range of policy issues. For example:
  • 87.5 percent agree that "the U.S. should eliminate remaining tariffs and other barriers to trade."
  • 85.2 percent agree that "the U.S. should eliminate agricultural subsidies."
  • 85.3 percent agree that "the gap between Social Security funds and expenditures will become unsustainably large within the next fifty years if current policies remain unchanged."
  • 77.2 percent agree that "the best way to deal with Social Security's long-term funding gap is to increase the normal retirement age."
  • 67.1 percent agree that "parents should be given educational vouchers which can be used at government-run or privately-run schools."
  • 65.0 percent agree that "the U.S. should increase energy taxes."

And, finally, the topic that generates the most consensus:

  • 90.1 percent disagree with the position that "the U.S. should restrict employers from outsourcing work to foreign countries."

One issue that fails to generate consensus is the minimum wage: 37.7 percent want it increased, while 46.8 percent want it eliminated.

Econometrics: A Bird's Eye View

This is a survey on economtrics for the New Palgrave Dictionary of Economics and Law, 2nd ed. (forthcoming).
Econometrics: A Bird’s Eye View
by John F. Geweke, Joel L. Horowitz, Hashem Pesaran (November 2006)

As a unified discipline, econometrics is still relatively young and has been transforming and expanding very rapidly over the past few decades. Major advances have taken place in the analysis of cross sectional data by means of semi-parametric and non-parametric techniques. Heterogeneity of economic relations across individuals, firms and industries is increasingly acknowledged and attempts have been made to take them into account either by integrating out their effects or by modeling the sources of heterogeneity when suitable panel data exists. The counterfactual considerations that underlie policy analysis and treatment evaluation have been given a more satisfactory foundation. New time series econometric techniques have been developed and employed extensively in the areas of macroeconometrics and finance. Non-linear econometric techniques are used increasingly in the analysis of cross section and time series observations. Applications of Bayesian techniques to econometric problems have been given new impetus largely thanks to advances in computer power and computational techniques. The use of Bayesian techniques have in turn provided the investigators with a unifying framework where the tasks of forecasting, decision making, model evaluation and learning can be considered as parts of the same interactive and iterative process; thus paving the way for establishing the foundation of “real time econometrics”. This paper attempts to provide an overview of some of these developments. 
PDFDiscussion Paper No. 2458

Tuesday, November 28, 2006

The Impact Evaluation Gap

Policy evaluation is the kind of stuff we rarely address properly in universities. If nothing else, this is an area were the dismal science can really shed light and prove to be useful.

When Will We Ever Learn? Improving Lives Through Impact Evaluation

Download (PDF, 536 KB) 05/31/2006

Each year billions of dollars are spent on thousands of programs to improve health, education and other social sector outcomes in the developing world. But very few programs benefit from studies that could determine whether or not they actually made a difference. This absence of evidence is an urgent problem: it not only wastes money but denies poor people crucial support to improve their lives.

This report by the Evaluation Gap Working Group provides a strategic solution to this problem addressing this gap, and systematically building evidence about what works in social development, proving it is possible to improve the effectiveness of domestic spending and development assistance by bringing vital knowledge into the service of policymaking and program design.

In 2004 the Center for Global Development, with support from the Bill & Melinda Gates Foundation and The William and Flora Hewlett Foundation, convened the Evaluation Gap Working Group. The group was asked to investigate why rigorous impact evaluations of social development programs, whether financed directly by developing country governments or supported by international aid, are relatively rare. The Working Group was charged with developing proposals to stimulate more and better impact evaluations. This report, the final report of the working group, contains specific recommendations for addressing this urgent problem.

Read more here:

Wednesday, November 22, 2006

Casillas rurales vs. urbanas en el PREP

La semana pasada estuve en un seminario sobre el PREP en el IFE.  En una de las mesas en las que participé surgió la pregunta: "¿Cómo sabemos si la demora de las casillas rurales en verdad tuvo un impacto significativo en el flujo de datos del PREP?"


En el análisis de estadística descriptiva que hice meses antes era obvio que las casillas urbanas llegaron antes, en promedio, que las rurales... y que este sesgo ayudaba a explicar la ventaja inicial (y decreciente) de Calderón sobre AMLO durante la duración del PREP. 


¿Cómo podemos verificar esto estadísticamente, más allá de las gráficas?  Comparemos el tiempo promedio de cada tipo de casillas en ingresar al PREP:


. by casilla: summ horasdec  (# horas que tardó cada casilla en ingresar al PREP)


-> casilla_rural = 0   (casillas urbanas)

    Variable |       Obs        Mean    Std. Dev.       Min        Max


    horasdec |     85221    5.115121    2.764698          0      24.87

-> casilla_rural = 1   (casillas rurales)

    horasdec |     32066    7.436029    3.501121          0       24.9


Como vemos las casillas urbanas llegaron 7.43 - 5.11 = 2.32 horas antes que las rurales.   La varianza de las casillas rurales es mayor, además. ¿Será una diferencia significativa? Podemos hacer un t-test de medias o bien una regresión: 


Dep Var: num. de horas que tarda casilla en aparecer en el PREP...

IndepVar: Dummy  casilla_rural/urbana  


. regress  horasdec casilla_rural  

      Source |       SS       df       MS              Number of obs =  117287

-------------+------------------------------           F(  1,117285) =14093.54

       Model |  125504.017     1  125504.017           Prob > F      =  0.0000

    Residual |   1044431.6117285  8.90507397           R-squared     =  0.1073

-------------+------------------------------           Adj R-squared =  0.1073

       Total |  1169935.62117286  9.97506622           Root MSE      =  2.9841


    horasdec |      Coef.   Std. Err.      t    P>|t|     [95% Conf. Interval]


casilla_ru~l |   2.320909   .0195501   118.72   0.000     2.282591    2.359226

       _cons |   5.115121   .0102222   500.39   0.000     5.095085    5.135156




Como se aprecia, las casillas rurales "nada más" están a 118 errores estándar de distancia de las urbanas...  Pero seamos más rigurosos: Veamos si la dummy rural sobrevive al controlar por 32 dummies estatales--a la mejor la heterogeneidad estatal elimina la dicotomía rural/urbano:


. areg horasdec casilla, abs(edo)

                                                       Number of obs =  117287

                                                       F(  1,117254) =12373.15

                                                       Prob > F      =  0.0000

                                                       R-squared     =  0.1945

                                                       Adj R-squared =  0.1942

                                                       Root MSE      =   2.835



    horasdec |      Coef.   Std. Err.      t    P>|t|     [95% Conf. Interval]


casilla_ru~l |   2.228325   .0200327   111.23   0.000     2.189061    2.267589

       _cons |   5.140433    .009926   517.88   0.000     5.120978    5.159888


         edo |     F(31, 117254) =    409.380   0.000          (32 categories)


El coeficiente de diferencia entre casillas rurales y urbanas baja de 2.3 a 2.2 horas.   Pero si esto aún no nos convence, podemos controlar por 300 dummies distritales--quizá la heterogeneidad distrital elimina o absorbe la dicotomía rural/urbano:


. areg horasdec casilla, abs(edodist)

                                                       Number of obs =  117287

                                                       F(  1,116986) = 4269.59

                                                       Prob > F      =  0.0000

                                                       R-squared     =  0.3432

                                                       Adj R-squared =  0.3415

                                                       Root MSE      =  2.5629


    horasdec |      Coef.   Std. Err.      t    P>|t|     [95% Conf. Interval]


casilla_ru~l |   1.373901   .0210263    65.34   0.000      1.33269    1.415112

       _cons |    5.37403   .0094366   569.49   0.000     5.355535    5.392526


     edodist |    F(299, 116986) =    140.532   0.000         (300 categories)



Como vemos, resulta que aún controlando por heterogeneidad distrital, el factor rural añade 1.37 horas de demora promedio frente a las casillas urbanas. Es decir, al interior de cada distrito, las casillas rurales demoraron 1.37 horas más en ser procesadas que las urbanas.  En los tres casos analizados arriba, este impacto es estadísticamente significativo a niveles (muy) inferiores al 1%.


Sobra decir que este no es el análisis más exahustivo posible, pero sí es el análisis más básico y sencillo que podemos hacer con los datos del IFE disponibles a la fecha.  Con más datos, podría estimarse un modelo mucho mejor especificado.

Monday, November 13, 2006

World economic history in a snapshot

In case you have not been paying attention lately, this is the economic history of the world over the last 3000 years:

This is from Gregory Clark’s A Farewell to Alms: A Brief Economic History of the World (forthcoming in 2007 from Princeton). You can find some sample chapters, and lots of related papers, in his website at the Institute of Governmental Affairs at UC-Davis. Here’s an excerpt from the book’s intro:

The basic outline of world economic history is surprisingly
simple. Indeed it can be summarized in one diagram: figure 1.1 (see above).
Before 1800 income per person – the food, clothing, heat, light,
housing, and furnishings available per head - varied across societies
and epochs. But there was no upward trend. A simple but
powerful mechanism explained in this book, the Malthusian Trap,
kept incomes within a range narrow by modern standards.
Thus the average inhabitant in the world of 1800 was no better
off than the average person of 100,000 BC. Indeed, most
likely, consumption per person declined as we approached 1800.
The lucky denizens of wealthy societies such as eighteenth century
England or the Netherlands managed a material life style equivalent
to the Neolithic. But the vast swath of humanity in East and
South Asia, particularly in Japan and in China, eked out a living in
conditions that seem to have been significantly poorer than those
of cavemen.


The Industrial Revolution, a mere 200 years ago, changed
forever the possibilities for material comfort. Incomes per person
began a sustained growth in a favored group of countries around
1820. Now in the richest of the modern economies living standards
are 10-20 times better than was average in the world of
1800. Further the biggest beneficiary of the Industrial Revolution
has so far been the poor and the unskilled, not the typically
wealthy owners of land or capital, or the educated. Within the
rich economies of our world there is not only more for everyone,
but lots more for the bottom strata.

Wednesday, November 08, 2006

US 2006 Election Results--Democrats strike back

These are results from CNN as of this evening.
33 at stake, 1 undecided
51 Dem, 50 GOP needed for majority
40 seats 49 -5
27 seats 50 5
0 seats 0 0
Updated: 1:18 p.m. ET
435 at stake, 10 undecided (yielding Republican) 
218 needed for majority
196 -28
229 29
0 -1
Updated: 4:21 p.m. ET
36 states at stake, MI undecided (yielding Republican)
6 states 21 -6
8 states 28 6
0 seats 0 0
Updated: 1:19 p.m. ET
This graph on recent US election history is from the Washington Post:

Republicans have controlled both chambers since 1994, except during a brief period when the Democrats held the Senate.

Wednesday, October 18, 2006

De Long on NAFTA and Mexico

De Long is not alone in wondering about the so-called Mexican puzzle (neoliberal reforms without large enough growth). Also, Tyler Cowen offers some possibilities here. Both are missing the big omitted variable here: Rule of law. Two more: we are a rather young democracy and interest groups are stronger than we think.

Has Neo-Liberalism Failed Mexico? / J. Bradford DeLong

Six years ago, I was ready to conclude that the North American Free Trade Agreement (NAFTA) was a major success. The key argument in favor of NAFTA had been that it was the most promising road the United States could take to raise the chances for Mexico to become democratic and prosperous, and that the US had both a strong selfish interest and a strong neighborly duty to try to help Mexico develop.

Since NAFTA, Mexican real GDP has grown at 3.6% per year, and exports have boomed, going from 10% of GDP in 1990 and 17% of GDP in 1999 to 28% of GDP today. Next year, Mexico’s real exports will be five times what they were in 1990.

It is here – in the rapid development of export industries and the dramatic rise in export volumes – that NAFTA made the difference. NAFTA guarantees Mexican producers tariff and quota-free access to the US market, the largest consumer market in the world.

Without this guarantee, fewer would have invested in the capacity to satisfy the US market. Increasing trade between the US and Mexico moves both countries toward a greater degree of specialization and a finer division of labor in important industries like autos, where labor-intensive portions are increasingly accomplished in Mexico, and textiles, where high-tech spinning and weaving is increasingly done in the US, while Mexico carries out lower-tech cutting and sewing.

Such efficiency gains from increasing the extent of the market and promoting specialization should have produced rapid growth in Mexican productivity. Likewise, greater efficiency should have been reinforced by a boom in capital formation, which should have accompanied the guarantee that no future wave of protectionism in the US would shut factories in Mexico.

The key word here is “should.” Today’s 100 million Mexicans have real incomes – at purchasing power parity – of roughly $10,000 per year, a quarter of the current US level. They are investing perhaps a fifth of GDP in gross fixed capital formation – a healthy amount – and have greatly expanded their integration into the world (i.e., the North American) economy since NAFTA.

But the 3.6% rate of growth of GDP, coupled with a 2.5% per year rate of population and increase, means that Mexicans’ mean income is barely 15% above that of the pre-NAFTA days, and that the gap between their mean income and that of the US has widened. Because of rising inequality, the overwhelming majority of Mexicans live no better off than they did 15 years ago. (Indeed, the only part of Mexican development that has been a great success has been the rise in incomes and living standards that comes from increased migration to the US, and increased remittances sent back to Mexico.)

Intellectually, this is a great puzzle: we believe in market forces, and in the benefits of trade, specialization, and the international division of labor. We see the enormous increase in Mexican exports to the US over the past decade. We see great strengths in the Mexican economy – a stable macroeconomic environment, fiscal prudence, low inflation, little country risk, a flexible labor force, a strengthened and solvent banking system, successfully reformed poverty-reduction programs, high earnings from oil, and so on.

Yet successful neo-liberal policies have not delivered the rapid increases in productivity and working-class wages that neo-liberals like me would have confidently predicted had we been told back in 1995 that Mexican exports would multiply five-fold in the next twelve years.

To be sure, economic deficiencies still abound in Mexico. According to the OECD, these include a very low average number of years of schooling, with young workers having almost no more formal education than their older counterparts; little on-the-job training; heavy bureaucratic burdens on firms; corrupt judges and police; high crime rates; and a large, low-productivity informal sector that narrows the tax base and raises tax rates on the rest of the economy. But these deficiencies should not be enough to neutralize Mexico’s powerful geographic advantages and the potent benefits of neo-liberal policies, should they?

Apparently they are. The demographic burden of a rapidly growing labor force appears to be greatly increased when that labor force is not very literate, especially when inadequate infrastructure, crime, and official corruption also take their toll.

We neo-liberals point out that NAFTA did not cause poor infrastructure, high crime, and official corruption. We thus implicitly suggest that Mexicans would be far wose off today without NAFTA and its effects weighing in on the positive side of the scale.

That neo-liberal story may be true. But it is an excuse. It may not be true. Having witnessed Mexico’s slow growth over the past 15 years, we can no longer repeat the old mantra that the neo-liberal road of NAFTA and associated reforms is clearly and obviously the right one.

Evidence on Flat Taxes

This is from London's New Economist blog:

IMF: Flat taxes have no Laffer curve effect

Flat taxes are associated with a reduction in personal income tax, and "in no case does there ..appear to have been a Laffer effect". That is the most striking conclusion from a new study by IMF economists Michael Keen, Kevin Kim and Ricardo Varsano in The "Flat Tax(es)": Principles and Evidence (Working Paper No 06/218). The authors summarise the paper thus:

Discussion of these quite radical reforms has been marked, however, more by assertion and rhetoric than by analysis and evidence. This paper reviews experience with the flat tax, seeking to redress the balance. It stresses that the flat taxes that have been adopted differ fundamentally, and that empirical evidence on their effects is very limited.

This precludes simple generalization, but several lessons emerge: there is no sign of Laffer-type behavioral responses generating revenue increases from the tax cut elements of these reforms; their impact on compliance is theoretically ambiguous, but there is evidence for Russia that compliance did improve; the distributional effects of the flat taxes are not unambiguously regressive, and in some cases they may have increased progressivity, including through the impact on compliance; adoption of the flat tax has not resolved common challenges in taxing capital income; and it may have strengthened, not weakened, the automatic stabilizers. Looking forward, the question is not so much whether more countries will adopt a flat tax as whether those that have will move away from it.

The impact of a flat tax on work incentives "is not clear cut in principle, and there is no evidence that it has been strong in practice." Likewise, the distributional effects of movement towards a flat tax "are potentially complex", especially for reforms that involve an increase in the basic tax-free amount.

Keen, Kim and Varsano argue that although "the question has received little attention in the debate, ..movement to a flat tax may plausibly strengthen the automatic stabilizers, not weaken them." They also find the introduction of a flat tax has been a useful signal of reform:

The flat tax has commonly—almost universally—been adopted by new governments anxious to signal a fundamental regime shift, towards more market-oriented policies. In several cases, the signal appears to have been well-received. Where no such reputation needs to be acquired, the appeal of the flat tax is consequently less.

The authors conclude by questioning the political sustainability of the move towards flat taxes:

What remains unclear is the sustainability of the flat tax. Structurally, the flat taxes that have been adopted do not provide a coherent framework for dealing with the difficulties that almost all countries now perceive in taxing internationally mobile capital income.

...Political economy considerations point towards the adoption of rate schedules that tend to benefit middle income earners: exactly the group that tends to lose most from the adoption of a second wave flat tax. Moreover, the very spread of the flat tax in itself undermines its value as a signal: it may prove too easy to mimic. While there will no doubt be new members of the flat tax community, in some respects the more interesting question is whether there will be any defections.

Most flat tax structures benefit lower and/or upper income earners at the expense of those on middle incomes - a point I have made before. Such tax structures are hard to 'sell' to predominanatly middle class swinging voters in marginal electorates. In the end it is likely to be the median voter that stops the flat tax movement advancing.

Tuesday, October 03, 2006

Welfare states and economic performance

Two recent papers.  One stresses the very commonly misunderstood relationship between welfare states and economic performance.  The other reviews the changing trends in economics research.

Explaining Welfare State Survival: The Role of Economic Freedom and Globalization      

Ratio; Lund University - Department of Economics

Using the economic freedom index and the newly developed KOF-index of globalization, it is shown that the Scandinavian welfare states have experienced faster, bigger and more consistent increases in these areas, compared to the smaller Central-European and the Anglo-Saxon welfare states. The market economy and globalization hence do not pose threats to these welfare states, but are instead neglected factors in explaining their survival and good economic performance. Big government decreases the economic freedom index by definition, but the welfare states compensate in other areas, such as legal structure and secure property rights.

What Has Mattered to Economics Since 1970

E. Han Kim, Adair Morse, Luigi Zingales

---- Abstract -----
We compile the list of articles published in major refereed economics journals during the last 35 years that have received more than 500 citations. We document major shifts in the mode of contribution and in the importance of different sub-fields: Theory loses out to empirical work, and micro and macro give way to growth and development in the 1990s. While we do not witness any decline in the primacy of production in the United States over the period, the concentration of institutions within the U.S. hosting and training authors of the highly-cited articles has declined substantially.

Tuesday, September 05, 2006

Bovero sobre Elecciones Cuestionadas

Este es Michelangelo Bovero disertando, en Excelsior, sobre elecciones competidas en sistemas parlamentarios y presidencialistas. (copio algunas secciones particularmente relevantes a nuestro caso):
II. Cuando el resultado electoral es cuestionado, plantea –para los contendientes, los estudiosos, los observadores y los ciudadanos– dos tipos de problemas. En primer lugar: ¿cómo se puede y cómo se debe establecer con certeza quién ha sido el verdadero vencedor de las elecciones? En segundo lugar: acaso el vencedor, quien quiera que éste sea ¿triunfó realmente? Y dado que sólo representa a la mitad del país, ¿cómo puede pretender imponer su política a la otra mitad? Digamos de una vez por todas que esta última pregunta, en el plano formal, de la legitimidad jurídica y política, carece de sentido. Aquel candidato y/o coalición política que haya prevalecido, aunque sólo sea por un voto, tiene el derecho-deber de gobernar, esto es, de ejercer el poder de iniciativa y orientación política y además de asumir las competencias que las diversas constituciones atribuyen a los titulares de la máxima función ejecutiva. Lo que no equivale sin más a imponer la propia política. No obstante, la pregunta conserva sentido en el plano sustancial, cuando perduran las condiciones de un conflicto radical: por ejemplo, si uno de los dos contendientes rechaza de cualquier modo y obstinadamente el reconocimiento de la victoria del otro.
III. Así se hace más urgente y apremiante responder a la primera pregunta: ¿cómo se determina quién fue el vencedor? Errores de cálculo, imprecisiones en la transmisión de los datos, pero también controversias en torno a la asignación de numerosos votos, en particular a las boletas nulas, se verifican en cualquier procedimiento electoral. Es verdad que éstos y otros factores pueden ganar importancia cuando el margen es estrecho. No obstante, la experiencia enseña que afectan en una medida casi igual a todas las partes. Es, más bien, la radicalización del conflicto la que lleva a evocar (con razón o sin ella) el fantasma de la conspiración, de los fraudes. Pero, sobre éstos, como sobre los otros elementos cuestionables, ciertamente no es la presunta víctima la que tiene el poder de juzgar. Nemo iudex in causa sua. Cualquier ordenamiento constitucional democrático prevé normas para la solución de las controversias electorales y atribuye a un órgano institucional, con rango de magistratura, el poder de decidir sobre el mérito del asunto apoyándose en dichas normas. La legislación en la materia puede ser más o menos completa o con lagunas, más o menos adecuada o mediocre. Pero a un juez –quienquiera que sea– no se le puede y no se le debe pedir otra cosa sino aplicarla. Ciertamente, no se le debe pedir que la viole. Mucho menos que invente normas inexistentes, pues será eventualmente tarea de la nueva legislatura mejorar las leyes en vigor. Y menos admisible todavía, además de insensato, es pedirle al juez que decida a condición de que lo haga de un modo determinado, porque eso sería como decirle "me someto a tu juicio si me das la razón". Lo que equivale indudablemente, sin más, a desautorizar a dicho juez.
en las elecciones estadunidenses de 2000, la controversia estalló precisamente por el resultado numérico de la votación. Es probable que el candidato declarado perdedor, Al Gore, haya conservado la firme convicción de haber obtenido mayores apoyos que su adversario. Pero, frente al pronunciamiento de las autoridades competentes, se retiró de la contienda, en buena lid. Ciertamente ni siquiera acarició la idea de organizar una protesta popular. La democracia de Estados Unidos es muy imperfecta; más aún, en mi opinión, es insuficientemente democrática. Pero las instituciones son sólidas. Y fuera de las instituciones constitucionales, o peor aún, en contra de ellas, sólo puede existir una caricatura de democracia.
En Italia, hace pocos meses, en presencia de una ventaja reducidísima de votos a favor de la coalición de centro-izquierda, el líder de la coalición de centro-derecha, el premier saliente, Berlusconi, héroe emblemático del neopopulismo mediático, príncipe de la antipolítica posmoderna, denunció la conjura y habló de fraudes. Declaró haber sufrido "el robo de una victoria limpia", levantando la sospecha de decenas o centenas de miles de votos arrebatados fraudulentamente por la izquierda, y de innumerables boletas a su favor injustamente anuladas. Afirmó que iba a "exigir" el recuento total de los votos. Lo que, sencillamente, no está permitido por la ley. Amenazó con llenar las plazas (alternando las acusaciones y las amenazas con propuestas de "gran coalición" al estilo alemán, mas la coherencia no es una virtud de los demagogos). Pero luego, después de la sentencia de la magistratura competente que confirmaba la victoria del centro-izquierda, mientras continuaba ocasionalmente con sus amenazas, se fue adaptando más o menos al papel de jefe de la oposición, persiguiendo un objetivo bien preciso: aprovechar cada ocasión para hacer caer al gobierno de Prodi, objetivamente débil en el ámbito parlamentario.
¿Y México? Hasta donde logro recabar informaciones periodísticas, me parece que se puede decir (y corríjanme si me equivoco) que López Obrador ha realizado, al menos en parte y a su modo, lo que Berlusconi sólo había amenazado. Ha convocado a sus seguidores a llevar a cabo una protesta masiva, que ha adquirido también el significado de una presión pública sobre el Tribunal Electoral. Me pregunto si ésta no es una típica estrategia antipolítica: el pueblo frente al poder, la plaza frente al palacio. No se me malentienda: la protesta colectiva corresponde perfectamente a la dialéctica de la vida democrática, sólo que bajo ciertas condiciones. Y no siempre, aun cuando sea formalmente legítima, una protesta tiene motivaciones y fines aceptables desde un punto de vista democrático. A veces puede representar un peligro para la salud de la democracia.
No me permito disertar de lejos sobre una cuestión tan delicada. Pero algo debe decirse acerca de la forma en que López Obrador (hasta donde estoy enterado) ha manejado hasta ahora su relación con la masa, presentándola como un ejercicio de "democracia directa". La decisión de una multitud que responde a las preguntas del líder con un sí o con un no, o que aprueba levantando la mano, no es una decisión democrática. Es más bien equiparable a la aclamación, que constituye (según decía Bobbio) precisamente la antítesis de la democracia, porque los eventuales disidentes no cuentan para nada ni tienen una verdadera manera para expresarse y además sufren la presión, por lo menos psicológica, de quien está junto a ellos. Se puede definir democrática la decisión de una asamblea sólo si cada uno de sus miembros tiene la misma posibilidad de discutir las propuestas de los demás y de presentar y argumentar propuestas alternativas. Esto sucedía en la democracia directa ateniense y es también lo que ocurre, toda diferencia guardada, en un parlamento bien ordenado. No tengo la intención de ofender a nadie, quisiera solamente despertar de manera modesta y serena una interrogante en el ánimo de quienes estuviesen demasiado seguros de encontrar la democracia en la multitud, pasando por encima de las instituciones. Pero a quien conoce la historia del siglo XX italiano la imagen de una multitud que responde "¡Sííí!" a la pregunta del líder: "¿Estamos de acuerdo en eso?", evoca terribles recuerdos.
En el caso mexicano, en suma, tal parece que el rechazo radical al resultado de las elecciones se relaciona con una forma particularmente acentuada de liderismo: expresiones exacerbadas, ambas –el rechazo al resultado y el liderismo–, por un lado, de la interpretación conflictual de la política como duelo y, por el otro, de la concepción verticalizada y personalizada del poder. Son una exaltación extrema de las mismas patologías degenerativas a las que tiende, por su naturaleza, el régimen presidencial.
Desde hace tiempo vengo afirmando que en América Latina es necesario mover el eje del poder desde el gobierno presidencial hacia el parlamento. ¿Qué piensa el parlamento recién electo en México? ¿En particular aquellos legisladores que fueron elegidos en la misma coalición política de López Obrador? Me gustaría saberlo.

Monday, September 04, 2006

Pruebas del acido para casillas atipicas

Se ha dicho que el criterio de "determinancia" usado por el TEPFJ, consistente
en anular sólo las casillas con errores mayores al margen entre 1o y 2o lugar
en cada casilla, le hizo pasar por alto una serie de irregularidades
importantes. ¿Qué pasaría si aplicamos, de manera hipotética, criterios más

Como sabemos, el nivel de participación promedio fue de 58% a lo largo del país.
¿Es posible que el resultado final haya sido determinado por casillas con
participación inusualmente elevada?

Si eliminamos del cómputo todas las casillas con participación mayor al 75% de
la lista nominal (alrededor de 4,555 casillas, 3.5% del total) Felipe Calderón
continúa arriba.

Como se dijo antes, los errores aritméticos están distribuidos de manera casi
uniforme o aleatoria a lo largo del país. ¿Es posible que el resultado de la
elección haya sido determinado por casillas con errores aritméticos?

Si eliminamos del cómputo todas las casillas con más o menos votos que el número
de ciudadanos que votaron de acuerdo al padrón (alrededor de 54,111 actas,
41.3% del total) Felipe Calderón ganaría por 494 mil votos—lo cual sugiere que
hubo un poco más de errores en casillas ganadas por la Coalición.

Lo mismo sucede si eliminamos del cómputo todas las casillas donde las boletas
recibidas menos las sobrantes es diferente del voto total (56,702 actas, 43.3%
del total).

De modo que el resultado electoral del 2 de julio es robusto a la eliminación de
casillas con alta participación, así como a la eliminación de casillas con
errores aritméticos.

Claramente, el TEPJF no puede aplicar criterios como estos pues al final de
cuentas su misión es garantizar la integridad del sufragio de los ciudadanos en
la medida de lo posible, a menos de que cuente con pruebas en contrario.

Nulidad abstracta vs. 41 millones de votos

Es probable que los magistrados hagan una larga serie de juicios de valor cualitativos antes de calificar la elección presidencial.
Por un lado, quizá el presidente Fox, el apoyo de la CCE, y los spots negativos restaron votos a AMLO. Además, el escándalo Hildebrando, los spots del FOBAPROA, quizá también restó votos a FC. Pero al mismo tiempo quizá la campaña a ras de tierra, el cállate chachalaca, no asistir al primer debate, el discurso clasista, y la lenta respuesta a la campaña negativa de FC también restaron votos a AMLO.
¿Cómo ponderar los errores de campaña de AMLO (¿algún perredista acaso los menciona?) contra los éxitos relativos de la campaña de FC. ¿Cómo calcular el impacto de todos estos factores en la decisión ciudadana de ir o no a las urnas y por qué candidato votar? ¿De verdad hace falta que alguien le diga al electorado qué mensajes debió o no debió escuchar antes de decidir su voto?
Algunos analistas dicen que más vale anular la elección que exacerbar la crisis política. ¿De verdad la opinión de un experto analista vale más que la decisión de más de 40 millones de ciudadanos?
Entre tantas incógnitas quizá sea mejor darle el privilegio de la duda a la ciudadanía: ¿pueden o no pueden tomar una decisión sensata y respetable dada la información que tuvieron disponible durante una larga campaña?

Errores de calculo

La estrategia de AMLO comete varios errores de cálculo: Uno, atacar a un presidente medio bonachón e ineficaz pero al fin y al cabo popular, al tiempo que mantienen secuestrada la capital, es sumamente impopular. Dos, el contradictorio argumento original de que la elección fue “fraudulenta y/o inequitativa”, según convenga, tampoco tiene un consenso mayoritario entre la población. Tres, que los casi 15 millones de mexicanos que votaron por él el 2 de julio están dispuestos a seguirlo en su arriesgada aventura por "purificar la república": la población en general quizá acepta líderes carísmáticos pero no parece querer más héroes revolucionarios en sus libros de texto gratuito.

Durante su campaña, mediante un reclamo legítimo de atender la pobreza / desigualdad / corrupción, AMLO consiguió gran fuerza y representatividad—y casi gana la elección. Con su nueva estrategia, reclamando un fraude improbable, sitiando la ciudad y llamando a derruir las instituciones (arrebata la mesa, lincha al árbitro y de plano rompe con las reglas del juego), AMLO consigue menos fuerza, menos representatividad y menor apoyo… en resumen, menos legitimidad.

Una simple prueba del ácido: Si toda la elección se anulara y de inmediato tuviéramos nuevas elecciones, AMLO perdería contundentemente y el PRD volvería a su acostumbrado tercer lugar en las cámaras.

En el largo plazo, la estrategia de AMLO quizá le permita sobrevivir como líder de su partido (o de un nuevo partido convencionista) y llegar al 2012. Pero los riesgos y costos iniciales son enormes. Un AMLO alternativo bien podría haber dado una mejor pelea legal hasta que el TEPJF fallará y, de inmediato, cambiar su discurso por un moderado reconocimiento de su derrota y una creíble promesa de "continuar luchando desde cualquier trinchera por el proyecto alternativo de nación"--no hacía falta quemar las naves ni hacer que su bancada se inmolara.

Monday, August 21, 2006

El error de medición (no muestral) de una elección

En esta elección presidencial la ventaja de FC sobre AMLO es de 1.8 votos por casilla y tiene un error estándar de 0.20--este es el error muestral, por asi decirlo, y nos dice que FC está a casi diez errores estándar de distancia de AMLO: estadísticamente AMLO está lejísimos de su rival.

En su columna de hoy, José Antonio Crespo se refiere a lo que también se conoce como "error de medición" o "error no muestral": una encuesta puede tener una muestra suficiente pero aún así está el error de no respuesta, respuesta  malinterpretada o mal capturada, etc.  Para el caso de una elección escrutada por ciudadanos elegidos al azar lo que preocupa no es el error muestral (130 mil casillas son una muestra igual al universo) sino el error de medición.

Estadísticamente, si el error muestral es mínimo y el margen FC-AMLO es pequeño tenemos que fijarnos en el error de medición que proviene de errores de escrutinio o llenado de actas.  Este error fluctúa entre 1 y 1.5% de las votos de cada casilla (aunque es una medición muy tentativa con datos limitados, ojo).  ¿Es mucho o poco?  Todo depende de cómo está distribuido: si está distribuido de manera aleatoria a lo largo del país, aún si el error de medicion fuese de 5% o 10%, no tendemos mucho problema: todo mundo perdió o ganó un poquito en cada casilla y los errores se cancelan mutuamente.  Pero si el error de medición está sesgado hacia algún lado, tenemos un problema serio.

El TEPJF, a petición de parte, ordenó recontar una muestra muy sesgada de casillas (90% panistas).  Independientemente de lo allí encontrado, de esa muestra sólo podemos inferir el error de medición en cierto tipo de casillas panistas, y no más. Por su parte, la coalición hace cuentas entre alegres con estos errores aduciendo que evidencian irregularidades insoslayables. El problema aquí es que la única forma de saber si este error de medición es alto, bajo o insesgado es comparándolo con una muestra equivalente de casillas perredistas (ie, un grupo de control). Es decir, de un recuento sesgado, como fue el ordenado por el TEPJF, sólo pueden salir inferencias sesgadas.

Algunos juristas  dicen que el TEPJF no extrapolará nada más allá de la evidencia del recuento de casi 12 mil casillas por las mismas razones que no extrapoló los alegatos de AMLO hacia un recuento total--y por tanto no abrirá niguna casilla más... De ser así, un nuevo problema es que en la práctica el TEPJF le estaría dando argumentos al PRD para hacer extrapolaciones sesgadas, que pueden ser falsas, pero sin darle a un observador imparcial elementos para confirmar o desmentir tales extrapolaciones.  Noten que si el PRD lográ anular 4,000 casillas bien seleccionadas (3% del total nacional), la elección se voltearía en favor de AMLO.

Viendo los datos parciales disponibles a la fecha, parece que los errores de medición son tan aleatorios como los errores aritméticos de las actas: pero sin evidencias claras difícilmente el público lo creerá. Curiosamente, las cosas se perfilan hacia que el PAN sea ahora el interesado en un recuento muestral y representativo.  Una vía sencilla de resolver estas dudas sería que el TEPJF recontará una muestra representativa de casillas--como la del conteo rápido del IFE--para verificar si los errores humanos de medición de la elección tuvieron algún sesgo o no.  De no encontrarlo, la coalición difícilmente podría seguir alegando un fraude sistemático en su contra.

Thursday, August 10, 2006

El margen de error de la elección presidencial

Como sabemos, las últimas encuestas presidenciales, las encuestas de salida y los conteos rápidos del 2 de julio nos daban un "empate técnico" porque los intervalos de confianza de cada candidato se traslapaban.  Esto sucede cuando el error estándar de una medición es relativamente alto, como es el caso de muestras menores a 1500 observaciones (tipicas de encuestas), o incluso 7636 observaciones (como las del conteo rápido del IFE).

Un ejercicio interesante es ver a la elección presidencial como una "gran encuesta" levantada sobre una muestra de 130,777 casillas donde 40 millones de ciudadanos decidieron manifestar sus preferencias. Bajo esta perspectiva, usando los cómputos distritales del IFE, tenemos:

·         El pan tuvo 114.7 votos promedio por casilla, con error de 0.20 y un intervalo de confianza al 95% de 114.30 a 115.099.

·         El pbt tuvo 112.8 votos promedio por casilla, con error de 0.19 y un intervalo de confianza de 112.44 a 113.22.

·         El margen PAN-PBT promedio por casilla fue 1.86, con error de 0.31 y un IC de 1.26 a 2.47 votos.

·         Estas diferencias se mantienen significativas incluso al 99% de confianza.


. ttest pan=pbt

Paired t test

Variable |     Obs        Mean    Std. Err.  
Std. Dev.   [95% Conf. Interval]
     pan |  130777    114.7012    .2029188    73.38175    114.3035     115.099
     pbt |  130777     112.836    .1997381    72.23151    112.4445    113.2275
    diff |  130777    1.865267    .3098232    112.0417    1.258019    2.472515

. gen marginv = pan - pbt

. ttest marginv ==0

One-sample t test

Variable |     Obs        Mean    Std. Err.  
Std. Dev.   [95% Conf. Interval]
 marginv |  130777    1.865267    .3098232    112.0417    1.258019    2.472515
Degrees of freedom: 130776


Saturday, August 05, 2006

¿Qué impacto puede tener un recuento parcial de votos?

Durante el cómputo distrital se abrieron y recontaron 2,864 paquetes electorales, produciendo un ajuste en la votación de todos los rubros y una ligera mejoría en el margen entre PAN y PBT (de 0.58 a 0.583%).

El resultado de este recuento no es representativo de tendencias a nivel nacional, pero sí ofrece indicios del tipo de ajustes que pueden darse en un recuento adicional. Sin ser representativas de diferencias a nivel nacional, los paquetes recontados ofrecen evidencia indirecta sobre el ajuste de votos que puede obtenerse al recontar casillas en zonas panistas o perredistas.

Se trató de una muestra sesgada y no representativa de casillas pues fueron factores políticos y las inconsistencias de las actas los que produjeron su apertura y recuento: 62 y 66% de los 2,864 paquetes recontados fueron de estados y distritos panistas, respectivamente, y en ellos FC tuvo un margen de 5.17% sobre AMLO.

Sin embargo, al clasificar los paquetes por la filiación partidista de sus distritos surgen asimetrías significativas. En casillas de distritos perredistas, el ajuste promedio fue de 13.3 votos menos para AMLO, y de 1.9 votos menos en distritos panistas. Por otro lado, en casillas de distritos panistas, el ajuste promedio fue de 4.7 votos menos para FC, y de 5.8 votos menos en distritos perredistas. Esto resultó en que el margen de votos FC-AMLO disminuyó en 2.9 votos promedio en distritos panistas, pero aumentó en 7.5 votos en distritos perredistas.

De nuevo, al no ser una muestra representativa, NO se puede afirmar que estas tendencias se reproducirían en un recuento a nivel nacional. Pero SI se puede decir que dentro de la muestra de casillas recontadas, las casillas “azules” tuvieron un ajuste distinto al de las “amarillas”.

La moraleja es que si se hace un recuento sesgado, el ajuste obtenido también será sesgado. El sesgo puede provenir de recontar casillas de cierta región, urbanidad o filiación política particulares. Un recuento de una muestra aleatoria y representativa de casillas ayudaría a dilucidar tales sesgos y descubrir si hubo erroreres o diferencias sistemáticas durante la elección.

Si el recuento muestral es legalmente injustificable (poco construible, dicen) entonces los resultados de un recuento parcial deben tomarse con cautela. Si se encuentra un ajuste de +/- 2 votos en una muestra sesgada de casillas, no podemos generalizarlo y decir que si abrimos más casillas seguiremos encontrando el mismo ajuste. De hecho, la evidencia de las 2864 casillas apunta a que, dependiendo del tipo de distrito recontado, será el ajuste hallado.

Es muy probable que existan errores de conteo en múltiples casillas. Siempre los ha habido pero es hasta ahora que se ponen bajo la lupa. También es probable que el error sea aleatorio y se cancele entre unas y otras casillas a nivel nacional. Pero puede ocurrir que el error no sea aleatorio y no se cancele mutuamente a nivel regional.

Los resultados de este análsis preliminar están aqui:

Representantes de casilla y voto presidencial

En los últimos días se ha dicho que una evidencia adicional de irregularidades durante la elección es el hecho de que en zonas donde AMLO no tuvo representantes de casilla, sus votos fueron inusualmente bajos.

Hice un análisis preliminar con datos a nivel estatal y distrital y resulta que lo dicho por la Coalición es parcialmente cierto... pero no sólo para AMLO sino también para Felipe Calderón y Roberto Madrazo: El voto de AMLO, FC y RM es menor en zonas donde tuvieron menos representantes de casilla. Y si esto sucedió a los tres principales candidatos deja de ser una anomalía y se vuelve una regularidad empírica.

¿De donde proviene la relación entre representantes de casilla y niveles de voto presidencial?

Resulta que tanto los representantes de casilla como los votos obtenidos por un partido son proxies de un mismo fenómeno: la fuerza electoral de un partido a nivel local. Si un partido tiene presencia importante en un estado o distrito, seguramente tendrá no sólo votos sino también simpatizantes suficientes para fungir como representates de casilla. Y viceversa, si un partido no tiene presencia en un estado o distrito, seguramente tendrá pocos votos y le será aún más difícil conseguir representantes de casilla.

Así, RC y votos son variables endógenas. En estudios empíricos, decimos que dos variables son endógenas cuando una causa a la otra y viceversa, o bien cuando ambas variables están determinadas simultáneamente por un tercer factor. Matemáticamente estaríamos hablando de un sistema de ecuaciones.

También se dijo que donde había pocos RC había más votos nulos de lo normal. De nuevo, usando datos a nivel estatal y distrital vemos que la relación entre RC y porcentaje de votos nulos es, valga la redundancia, nula (estadísticamente indistinguible de cero, decimos). Un muy buen predictor de votos nulos, en cambio, es el porcentaje de casillas rurales en un distrito: el 60% de los votos nulos provienen de casillas rurales. Por qué ocurre esto es una pregunta importante a futuro.

Pueden ver estos resultados aqui:

Monday, July 24, 2006

Analisis del PREP y Computo Distrital

Circulan por internet y en los medios diversos estudios y rumores sobre supuestas anomalías en el flujo de datos del PREP y el cómputo distrital. Usando los datos casilla por casilla del IFE, hice un análisis estadístico (nada sofisticado, ojo) que espero despeje algunas dudas.

Las conclusiones son simples pero merecen recalcarse: el sesgo urbano explica el flujo de datos del PREP, y el sesgo partidista explica el cómputo distrital.

Pueden verlo en esta liga:

Si les parece interesante, ojalá puedan difundirlo a sus contactos.

Addendum: la presentación ha sido actualizada (25-julio-2006)

Sunday, July 23, 2006

The secret to wisdom: Strong opinions, weakly held

Some words of wisdom from management-guru Bob Sutton:

"...virtues of wise people – those who have the courage to act on their knowledge, but the humility to doubt what they know – is one of the main themes in Hard Facts. (...) Perhaps the best description I’ve ever seen of how wise people act comes from the amazing folks at Palo Alto’s Institute for the Future.

A couple years ago, I was talking the Institute’s Bob Johansen about wisdom, and he explained that – to deal with an uncertain future and still move forward – they advise people to have “strong opinions, which are weakly held.” They've been giving this advice for years, and I understand that it was first developed by Instituite Director Paul Saffo. Bob explained that weak opinions are problematic because people aren’t inspired to develop the best arguments possible for them, or to put forth the energy required to test them. Bob explained that it was just as important, however, to not be too attached to what you believe because, otherwise, it undermines your ability to “see” and “hear” evidence that clashes with your opinions. This is what psychologists sometimes call the problem of “confirmation bias.”

Here's a somewhat more elegant variation: "Fierce opinions, briefly held, quietly disowned."

Wednesday, July 19, 2006

Especulaciones sobre PREP y Conteo Distrital

Circulan en internet diversos análisis sobre las supuestas anomalías del PREP y del conteo distrital. Sin hacer un juicio sumario sobre la calidad de estos estudios, la mayoría de ellos han sido usados como argumentos para sustentar la hipótesis del fraude cibernético. Celebro estos análisis que explotan la transparencia (a veces tardía, pero transparencia al fin) y los datos divulgados por el IFE. Lo malo del asunto es que ni los medios ni los ciudadanos comunes saben mucho de estadística y entonces es fácil que unos y otros se vayan con la finta... Otro problema no menor es que aún los expertos pueden ver moros con tranchete si parten de supuestos equivocados. Veamos.

¿Anomalías o sesgo urbano y partidista?
Dos hipótesis sugeridas por muchos pero que casi nadie ha puesto a prueba, o de plano la descartan prima facie, es 1) el sesgo urbano en el flujo de datos del PREP y 2) el sesgo partidista en el conteo distrital.

Los datos planos del PREP, hechos disponibles recientemente por el IFE, incluyen una variable donde distinguen entre casillas rurales y urbanas. El PAN aventajó en zonas urbanas y no tanto en las rurales. Ex-post, tambien sabemos en qué estados o distritos ganó FC y en cuáles AMLO. Con tales datos se pueden hacer fácilmente las siguientes pruebas:
  1. Comparar medias de votos PAN/PRD/PRI en casillas rurales y urbanas
  2. Ritmo y velocidad de captura en PREP en casillas rurales y urbanas
  3. Velocidad de captura en CDA en estados donde gano AMLO vs. FC.
Mi pronostico es que los flujos iniciales del PREP provinieron de casillas urbanas, donde se favoreció a FC. El margen sobre AMLO disminuyó paulatinamente conforme llegaron datos mas típicos del resto del país... pero luego volvió a aumentar un poco al llegar las boletas del noroeste y el tardío pero seguro voto rural pro-PRI. Si la ventaja incial de FC era suficientemente amplia, no tendría por qué haber habido cruce... tal como ocurrió.

En cuanto al conteo distrital, pronostico que los computos avanzaron mas rápido en los distritos o estados pro-AMLO, que en los estados pro-Calderón. Esto no es aleatorio, sino fruto de que los comités distritales donde ganó Calderón sostuvieron mayores debates casilla por casilla que los de su rival--lo cual retardó su captura. Al final, si el PREP y el conteo rápido no mintieron, tenia que haber cruce en favor de FC... tal como ocurrió.

(a ver si tengo tiempo de probar estas hipótesis)

Expertos y supuestos equivocados
De manera más general hay que aclarar otras cosas. Muchos expertos han analizado el flujo de datos del PREP y el CDA como si ambos fueran producto de procesos 1) aleatorios, 2) independientes o 3) muestrales. Los tres supuestos son falsos.

NO ALEATORIEDAD. Es obvio que el flujo de datos depende de factores no aleatorios como el huso horario de los estados y la urbanizacion de los distritos y casillas. Además, la capacidad de escrutinio, cómputo y llenado de actas de los funcionarios de casilla tampoco está distribuida aleatoriamente en nuestro país--por las mismas tristes razones que la escolaridad tampoco es uniforme a lo largo del país. Otras cosas si son mas o menos aleatorias: la tasa de participación, si la casilla abrió y cerró a tiempo, si había cola a las 6pm, o si llovía esa noche.

DEPENDENCIA. No se deben analizar los votos o porcentajes de un candidato de manera independiente al de otros. Existen muy claros sesgos partidistas y de participacion que varían entre regiones, estados y distritos. Esto es evidente cuando se comparan los histogramas de frecuencias de FC y AMLO: cuando el voto de un candidato es más disperso el del otro es más concentrado. Por ejemplo, en algunos estados el voto priísta afectó más al PRD que al PAN y viceversa. Incluso el voto por partidos chicos como NA y ASDC a veces afectó o benefició a PAN y PRD.

NO MUESTRAL. Algunos expertos insisten en que debió haber habido múltiples cruces en el PREP y en el CDA, dada la aleatoriedad del proceso. Pero aún en una eleccion reñida como esta, si las condiciones inciales del flujo de datos favorecían suficientemente a un candidato no tiene por qué haber cruces o bien, dado el caso, sólo un cruce (es decir, más que random walks, hubo path dependence en el flujo de datos). Como explique más arriba es posible que el PREP haya comenzado con tal ventaja para Calderón que esta solo se redujera sin revertirse; por otro lado el CDA favoreció inicialmente a AMLO... hasta que hubo uno y sólo un cruce.

Finalmente, poco se ha dicho del conteo rápido--instrumento muestral que, a diferencia del PREP, en efecto estaba diseñado para pronosticar el resultado. El conteo rápido SI fue una muestra aleatoria y representativa de las casillas y, en efecto, mostró muchos cruces conforme las casillas reportaban sus datos--tal y como era obvio esperar.

El conteo rápido hubiera podido detectar un "vencedor probable" el mismo domingo si el margen de diferencia era mayor a 0.6%. Pero los ciudadanos decidieron dar una ventaja ligeramente menor: 0.58%... que dejó mudo al conteo. De nuevo, algunos verán en este hecho una prueba más de la maquinación fraudulenta. Yo lo que veo es una elección apretadísima como las que ocurren de vez en vez a lo largo del planeta.