Los modelos computacionales, las políticas públicas y la movilidad social
Colaboración especial del Dr. Omar A. Guerrero García, investigador de University College London y del Alan Turing Institute, Londres.
Las políticas públicas, y en particular la política económica, trastocan fenómenos complejos como la movilidad social y la desigualdad, los cuales van más allá de los intereses típicos de la mayoría de los economistas. Conscientes de ello, uno supondría que, tras estar casi dos décadas adentrados en el siglo XXI, los diseñadores y hacedores de la política económica informan sus decisiones a través de sofisticados modelos computacionales que simulan las interacciones, las decisiones de consumo y producción, la movilidad geográfica, etc., de hogares y empresas. Dicho supuesto no es algo descabellado, pues en muchos países diversas decisiones de política pública fuera del ámbito económico se apoyan en este tipo de herramienta. Un ejemplo clásico es la decisión de establecer una cuarentena ante una probable pandemia. En estas situaciones, gobiernos y organismos internacionales acuden a agencias y centros de investigación para simular la compleja red de interacciones sociales y espaciales en las que se debe intervenir para frenar un contagio masivo. En las ciencias sociales, esta tecnología se conoce como modelos computacionales basados en agentes (ABM por su nombre en inglés: agent-based models). Desafortunadamente, a diferencia de la epidemiología, la disciplina económica ha sido renuente a adoptar esta metodología. Ello refleja un rezago importante en las técnicas analíticas empleadas en el diseño y la implementación de la política económica. Antes de continuar, aclárese que rezago computacional no quiere decir que los analistas económicos no utilicen computadoras, pues es bien sabido que los modelos estadísticos modernos sólo pueden estimarse a partir software especializado. Por rezago se entiende que el uso que se le da a la computación es subóptimo, pues no explota el poder computacional como se hace en otros campos. Las razones para este rezago son de diversa índole: desde terquedad ideológica hasta analfabetismo computacional. En esta nota se revisa brevemente la historia sobre el método de ABMs, se dan razones coyunturales por las que esta tecnología no ha sido incorporada al arsenal metodológico de los economistas, y se plantea que hoy nos encontramos frente a una gran oportunidad para salir de este estancamiento. Finalmente, también se ahondará en cómo los ABMs pueden contribuir a mejorar la política económica, resaltando a algunos pioneros y aplicaciones importantes para México.
El modelado computacional basado en agentes ha existido desde la década de los cuarenta. En líneas generales, el método consiste en generar agentes artificiales que interactúan entre sí, y que siguen ciertos principios conductuales y reglas del ambiente en el viven. En las ciencias sociales, la idea de modelar interacciones de manera explícita es especialmente atractiva, ya que uno de los retos más grandes ha sido entender cómo la acción colectiva emerge a partir de interacciones al nivel individual. Podríamos preguntarnos, por ejemplo, cómo un grupo de individuos alinea sus intereses políticos y da nacimiento a un partido (ciencia política); por qué las redes sociales empeoran o atenúan la estratificación social (sociología); por qué imitar estrategias financieras puede amplificar las fluctuaciones de los precios (economía); cómo la marginación urbana surge incluso en colonias progresistas (geografía humana); por qué las personas desarrollan identidad de grupo (psicología social); o por qué una civilización que florece sufre un colapso súbito (antropología y arqueología). Todas estas preguntas ocupan un lugar central en sus respectivas disciplinas, y en varias de ellas, los ABMs han sido relevantes para entender los mecanismos subyacentes que producen dichos fenómenos.
Una de las grandes virtudes de los ABMs es su capacidad para especificar mecanismos sociales de causalidad que van del nivel micro al macro, con un gran nivel detalle. Debido a esto, los ABMs no requieren supuestos sobre la dinámica agregada del sistema. Por ejemplo, un ABM económico no asume que el mercado se equilibra en un precio único, sino que generaría una distribución de precios a partir de las diversas experiencias de producción y consumo de cada agente, como se observa en el mundo real. De esta manera, los ABMs son buenos para estudiar fenómenos como: los ciclos de retroalimentación, los procesos evolutivos, la dinámica colectiva, el aprendizaje (individual y social), la dinámica no lineal, el equilibrio puntuado, las redes complejas, el desequilibrio, la criticalidad, la escalabilidad, etc. Independientemente del enfoque disciplinario, se puede decir que los usuarios de este método coinciden en que su principal virtud es la generación de fenómenos emergentes; en otras palabras, que es posible modelar situaciones en las emergen fenómenos agregados que no podrían inferirse al descomponer un sistema y estudiarlo a través de sus miembros de forma individual. El economista involucrado en la formulación de políticas públicas debería hallar el concepto de fenómenos emergentes extremadamente útil, ya que la política pública no sólo trata con variables macro, sino con mecanismos causales, efectos secundarios y conductas adaptativas que operan a un alto nivel de detalle.
Los primeros años
Los primeros ABMs aparecieron durante las décadas de los cuarenta y cincuenta. El ejemplo más popular es el modelo de segregación racial de Thomas Schelling, el cual estudiaba los patrones de segregación que se formaban (literalmente emergían) en las ciudades estadounidenses a pesar de la implementación de políticas de acción afirmativa. De manera contemporánea, otras dos técnicas computacionales, la dinámica de sistemas y la microsimulación, aparecieron y fueron velozmente adoptadas en la investigación de operaciones —en las escuelas de negocios— y en el análisis económico, respectivamente. La primera la creó Jay Forrester para estudiar la dinámica que surge en sistemas de flujos y acervos; en particular, cuando existen flujos de retroalimentación. La microsimulación surge del trabajo de Guy Orcutt, quien buscaba crear una herramienta para simular la dinámica de variables económicas que interactúan entre sí y que están sujetas a cambios aleatorios. Cabe destacar que la microsimulación llegó a tener un lugar importante en la economía, y actualmente aún es una herramienta útil para modelar política fiscal. En México, uno de los modelos más importantes de microsimulación se desarrolló en el Tecnológico de Monterrey Campus Ciudad de México por el próximo secretario de hacienda, el Dr. Carlos Urzúa. Junto con el Programa de Desarrollo de las Naciones Unidas, el Dr. Urzúa construyó dicho modelo para varios países latinoamericanos. Más recientemente, en el Centro de Estudios Espinosa Yglesias (CEEY) se desarrolló una versión mejorada y actualizada de dicho modelo, y se utilizó para analizar el impacto de la reforma fiscal impulsada por el gobierno federal a finales de 2013. La intención original del Dr. Urzúa era desarrollar un modelo tipo ABM. Desafortunadamente, en aquel tiempo los ABMs no estaban listos para este tipo de aplicaciones, por lo que la microsimulación resultó una mejor opción.
La dinámica de sistemas y la microsimulación se crearon dentro de marcos teóricos y filosofías con una problemática definida. Los ABMs, por el contrario, eran meramente herramientas para explorar problemas que no podían resolverse matemáticamente. Las causas principales por las que los ABMs no prosperaron durante sus primeros años fueron la falta de un marco conceptual, la coexistencia con los otros dos métodos computacionales ya mejor definidos, un modesto poder computacional y la ausencia de lenguajes amigables de programación. Un marco teórico adecuado no cobijaría esta tecnología sino hasta el trabajo de Herbert Simon, padre de las ciencias sociales computacionales, durante la segunda mitad del siglo XX. Después, dicho marco se vería fortalecido mediante las ciencias de la complejidad, impulsadas por organizaciones como el Instituto Santa Fe durante los años noventa. Con el tiempo, las fronteras entre la dinámica de sistemas, la microsimulación y los ABMs se han ido borrando, por lo que es común encontrar trabajos que mezclan elementos de las tres técnicas. Sin embargo, hay que señalar que los tres métodos son fundamentalmente distintos y sus concepciones obedecieron a preguntas metodológicas muy diferentes; por ejemplo, ni la microsimulación ni la dinámica de sistemas son capaces de producir fenómenos emergentes, a menos que incorporen elementos de ABMs.
Las prueba de concepto
En la década de los noventa, la teoría de juegos, el conductismo de Simon y otros, la programación orientada a objetos y las computadoras personales ya se encontraban al alcance de los científicos sociales. Durante ese periodo fue que los modelos basados en agentes tuvieron su apogeo mediante contundentes pruebas de concepto. Éstas consistieron en avances sustanciales en la comprensión sobre la complejidad de los sistemas socioeconómicos desde la óptica del cómputo. En el campo de la economía, algunos de los trabajos seminales fueron los torneos del dilema del prisionero organizados por Robert Axelrod, el Sugarscape de Joshua Epstein y Robert Axtell y los modelos de mercados de energía de Leigh Tesfatsion. De hecho, la Dra. Tesfatsion creó una página que ha orientado a muchos investigadores actuales en el tema de los ABMs para economía. Estas contribuciones no tenían precedente alguno, pues por primera vez se mostraba cómo explotar el poder computacional para generar fenómenos emergentes. Este auge de los ABMs, sin embargo, se vio limitado por la ausencia de datos masivos (los big data), los cuales llegarían una década más tarde. Por este motivo, muchos consideran que este periodo fue dominado por ABMs teóricos, o como algunos los llaman, modelos de juguete. Sin embargo, las pruebas de concepto fueron un rotundo éxito, pues los ABMs se recibieron bien en disciplinas como la geografía humana y la sociología. Las aportaciones de los pioneros de esta época definieron la forma y fondo que hoy en día tienen las ciencias sociales computacionales.
Al inicio del siglo XXI los ABMs se volvieron mucho más populares gracias al surgimiento de datos masivo, los cuales podían usarse para validar y calibrar los modelos. A la par, también hubo un crecimiento exponencial del poder computacional, una popularización de lenguajes de programación más amigables como Java y Python y el surgimiento de paquetes de modelado como Repast, MASON y Netlogo. En este periodo, el reto fue pasar de modelos de juguete a simulaciones de gran escala. Ello involucró superar algunos obstáculos metodológicos, como construir modelos realistas —pero no demasiado complicados—, adaptar técnicas ingenieriles para correr simulaciones masivas en paralelo, desarrollar métodos de estimación y calibración, así como replantearse los problemas de verificación y validación.
En economía hubo dos proyectos de gran envergadura que caracterizan este periodo: EURACE y CRISIS. EURACE fue el primer proyecto económico que intentó modelar cada hogar y cada firma para países enteros, así como sus interacciones en el mercado de bienes de consumo, y el sistema financiero. Su objetivo fue crear una herramienta de política pública para los gobiernos de algunos países de la Unión Europea. El proyecto CRISIS, por su parte, se desarrolló como respuesta a la crisis financiera internacional de 2008. Este proyecto enfocó sus esfuerzos en modelar economías completas, con especial detalle del sistema financiero. De esta manera, el objetivo de CRISIS era crear herramientas que los reguladores financieros y bancos centrales pudieran usar para informar sus políticas públicas.
Tanto EURACE como CRISIS fueron extremadamente ambiciosos, lo cual jugó en su contra, pues varios economistas que siguieron de cerca estas iniciativas piensan que prometieron mucho más de lo que entregaron; en otras palabras, los modelos de EURACE y CRISIS resultaron demasiado complejos para lo que fueron creados. Esta crítica es injusta, pues existen muchos métodos desarrollados en la física e ingenierías para analizar y experimentar con modelos igual de complejos, como los empleados para pronosticar el clima. Independientemente de si estos proyectos cumplieron con las expectativas generadas o no, sin duda contribuyeron al progreso de los ABMs en economía, especialmente porque tuvieron la iniciativa de acercarse a diversas agencias y gobiernos para mostrar cómo esta tecnología puede explotar los datos masivos.
En México, los primeros ABMs para economía aparecen en esta época. El primer economista que introdujo los ABMs de manera sistemática fue el Dr. Gonzalo Castañeda del CIDE. El Dr. Castañeda desarrolló aportaciones seminales como su extenso estudio sobre la naturaleza multidimensional de la competencia bancaria en México, que fue publicado por el CEEY en 2014.
Una nueva oportunidad
Actualmente, se dan condiciones inmejorables para que los hacedores de política económica adopten el método de los ABMs: los datos masivos y la ciencia de datos han puesto en evidencia las limitaciones de métodos más tradicionales; las nuevas generaciones se sienten mucho más cómodas interactuando con computadoras y programando; la industria relacionada con el cómputo y datos ha crecido de manera importante y las ciencias sociales computacionales se han consolidado como una disciplina. En sinergia con estos factores, existe una apertura sin precedente por parte de agencias gubernamentales y think tanks.
Hace tres años, el gobierno británico creó el Instituto Alan Turing, que es el centro nacional de ciencia de datos e inteligencia artificial y lugar donde se conduce investigación de frontera en problemas económicos desde la óptica computacional. Más directamente relacionado a la política económica, el Banco Central de Inglaterra ha sido pionero en apoyar abiertamente a los ABMs y en abogar por la necesidad de incorporarlos al herramental de todo economista.
En México, el CONACYT y el CIDE crearon el Laboratorio Nacional de Políticas Públicas (LNPP), en el cual el Dr. Florian Chávez-Juárez lidera a un grupo de investigadores que utilizan ABMs para analizar políticas públicas. En el Banco de México (BM), el Dr. Serafín Jaramillo exploró el uso de ABMs y modelos de redes para estudiar al sistema financiero. Asimismo, el trabajo Las prioridades de la política pública en México. Un análisis con redes de interdependencia, coautorado con el Dr. Gonzalo Castañeda, y en el cual se utiliza un ABM para evaluar las prioridades de políticas públicas en México, obtuvo el prestigioso premio en Economía Víctor M. Urquidi 2017 de El Colegio de México (para un antecedente de dicho trabajo véase este artículo). Hace unos años hubiera sido muy difícil que un ABM fuera reconocido para un premio de este tipo en el ámbito de la economía.
La sociedad civil representada a través de think tanks como el CEEY también se ha mostrado abierta al uso ABMs. Por ejemplo, recientemente el CEEY comisionó al LNPP un ABM piloto para entender el efecto que tendría en la movilidad social, el crecimiento económico y desigualdad el unificar al sistema mexicano de seguridad social. Este primer intento es una iniciativa ejemplar del trabajo que se requiere hacer para desarrollar esta tecnología y hacerla madurar para volverla una herramienta habitual en la política pública. Finalmente, el número de personas e instituciones que expresan interés por este enfoque es cada vez mayor, como lo muestra la nutrida y variada audiencia que asistió al Coloquio de Complejidad Social y Políticas Públicas, realizado en el CIDE en 2015.
Ventajas de los ABMs
¿Por qué se debe aprovechar esta oportunidad para incorporar ABMs en el análisis de las políticas públicas en México? Hay cuatro aspectos fundamentales en los que los ABMs pueden ofrecer mejores soluciones que los métodos tradicionalmente empleados por economistas. Estos cuatro aspectos son (1) la causalidad y el detalle, (2) la escalabilidad y respuesta, (3) la no observabilidad y el análisis contrafactual, y (4) la separación de los procesos de diseño e implementación de la política pública.
Causalidad y detalle
Uno de los grandes retos en hacer política económica, o política pública en general, es que el éxito de dichas intervenciones depende en gran medida de identificar correctamente los mecanismos sociales que causarían el resultado deseado, lo que requiere de un gran nivel de detalle. Por ejemplo, en el capítulo 3 del reciente libro del CEEY sobre la movilidad social en México se identifican diversos mecanismos causales que explicarían cómo nuestro país llegó a su statu quo. Sin embargo, entender cómo estos mecanismos interactúan a través de distintas regiones, grupos poblacionales, y escalas de tiempo requiere un nivel de detalle mucho mayor al que se puede obtener por medio de encuestas. Esto es clave para diseñar mejores intervenciones de política económica y social. En general, una intervención exitosa es aquella que se implementa en el momento adecuado, con la pauta correcta, a la población objetivo indicada y a través de los canales e incentivos pertinentes. Por lo tanto, la identificación de mecanismos causales con gran detalle es ineludible.
Escalabilidad y respuesta
En las ciencias sociales y económicas, resulta económicamente inviable conducir experimentos de gran escala, por ejemplo, con la población entera de un país. Incluso si se utilizaran excelentes métodos de muestreo, es imposible implementar experimentos de campo para cada una de las políticas públicas que un gobierno debe llevar a cabo. Asimismo, diseñar e implementar un experimento de campo puede tomar algunos años. Ello lleva a lo que se conoce como limitación de respuesta, que se refiere a la incapacidad de generar resultados relativamente rápido. Por ejemplo, en el marco de la renegociación del TLCAN, la amenaza de cancelar el tratado requirió una respuesta pronta por parte de los analistas y funcionarios económicos involucrados. Dada la urgencia de resolver esta negociación, resultaría imposible conducir experimentos para medir el impacto sobre la economía mexicana. Así, ¿no sería útil contar con modelos computacionales que nos permitieran simular los distintos escenarios que podrían resultar de la negociación? Dado que estos se utilizan para dar respuestas prontas durante conflictos militares y hacer intervenciones oportunas ante pandemias, no hay razón por la que el diseño y la implementación de la política económica deban seguir metodológicamente rezagados.
La no-observabilidad y el análisis contrafactual
La tercera forma en la que los ABMs pueden contribuir a la política económica es por medio del estudio de problemas donde la conducta de los agentes no es directamente observable o cuantificable mediante métodos de levantamiento de información tradicionales (por lo menos no con el detalle y en la escala deseables). En ocasiones, esto se debe a que dichas conductas e interacciones se mantienen en secreto intencionalmente, tal como ocurre con la economía informal, la evasión fiscal, el lavado de dinero, el tráfico de armas, etc. A pesar de que existen métodos para aproximar la magnitud de estos fenómenos de manera indirecta, la opacidad de los mecanismos sociales que les dan origen impide obtener información detallada sobre su funcionamiento. En estos casos, los argumentos a favor o en contra de ciertas políticas suelen, en su mayoría, sustentarse en fundamentos teóricos, intuición, o en la experiencia del hacedor de política pública. En estos casos, los ABMs resultan ser extremadamente útiles ya que permiten formalizar diversas guías de acción, de modo que el usuario es capaz de compararlas cuantitativamente para así seleccionar la más adecuada (para un ejemplo reciente véase este estudio sobre la migración ilegal, que explora qué tan exitosas pueden ser las políticas migratorias cuando se vuelven extremadamente estrictas).
Los escenarios que resultan de implementar distintas políticas en un entorno dado, o de cambiar el entorno con base en la política, se los conoce también como contrafactuales. El análisis contrafactual es clave para desarrollar el proceso científico, pero en las ciencias sociales resulta imposible conducir experimentos que permitan obtener todos los contrafactuales relevantes. La simulación de contrafactuales mediante ABMs es una herramienta muy útil en estos casos. Otros métodos estadísticos y computacionales también permiten formular contrafactuales (de hecho, parte del éxito temprano de la microsimulación se debió a esto), sin embargo, la complejidad que conlleva formular políticas integrales suele generar objetos altamente complejos, como las redes de interdependencias. Por ejemplo, si el TLCAN fuera desmantelado, sería útil analizar cómo ello generaría desempleo en diversas industrias y regiones, en qué orden, a qué velocidad, etc. Evidentemente, estas preguntas requieren contrafactuales altamente detallados; mucho más de lo que pueden darnos otros métodos. Como ejemplo, anteriormente desarrollé una metodología conocida como redes de flujo laborales, la cual permite formular este tipo de contrafactuales para la política laboral. Asimismo, mis estudiantes crearon una app interactiva llamada laborSim, que permite experimentar con distintos escenarios en los que algunas empresas cierran, y el desempleo se reajusta y redistribuye a través del mercado laboral, representado por medio de una red de empresas.
Separación entre diseño y la implementación
Tradicionalmente, los modelos económicos ignoran que el Estado es un ente adaptativo que diseña, implementa, y actualiza la política económica. En particular, se hace caso omiso de la diferencia entre el diseño de una política y su implementación, algo extensamente discutido por académicos en política y administración pública. Por ejemplo, un gobierno estatal puede tener las mejores intenciones y la mejor asesoría técnica al crear un programa social. Sin embargo, si la implementación de dicho programa se acompaña de ineficiencias, desvíos de fondos públicos, y una pobre supervisión, el resultado estará muy lejos del deseado.
Gracias a la gran flexibilidad de los ABMs, es posible modelar cómo los agentes gubernamentales diseñan e implementan política económica, lo que permite inferir las ineficiencias que ocurren en el proceso y obtener contrafactuales más cercanos a la realidad. Eso es precisamente lo que hago junto con Gonzalo Castañeada en el programa de investigación llamado Inferencia de Prioridades de Políticas. Esta metodología se basa en un ABM que modela las interacciones entre el diseñador (el gobierno central) y el implementador (los funcionarios o las agencias gubernamentales). En este modelo, el gobierno central le da prioridades a distintas políticas públicas a través de las partidas presupuestarias, pero los agentes encargados de ejercer dichas partidas pueden tener incentivos para desviar fondos públicos, en lugar de implementar la política encomendada. Este juego entre el gobierno central y sus dependencias, aunado a una red de derramas entre políticas públicas, permite estimar las prioridades de los gobiernos y sus ineficiencias a partir de indicadores de desarrollo socioeconómico. En la aplicación que se hizo para México, se encuentra que las prioridades que el gobierno ha establecido durante la última década no han sido del todo coherentes con el discurso que querer imitar a los países de la OCDE.
Conclusión
Para resolver los complejos problemas que afronta nuestro país, es vital terminar con el rezago computacional en la política económica. Por ejemplo, académicos e instituciones como el CEEY han identificado diversos mecanismos que podrían explicar por qué México presenta los bajos niveles de movilidad social observados. No obstante, aún hay muchos retos para transformar esta información en política pública. Por mencionar algunos, consideremos cómo deberían priorizarse las distintas causas del estancamiento y desigualdad en movilidad social. Por ejemplo, ¿se le debería dar prioridad a reformar el sistema educativo sobre un fortalecimiento al acceso crediticio? ¿Cómo es que estas distintas causas interactúan? Es decir, ¿podría haber complementos y disyuntivas entre políticas públicas? ¿En qué temas se puede esperar una implementación más eficiente? ¿Qué diferencias y consecuencias hay entre las escalas de tiempo de cada tema? ¿Podría haber efectos no deseados por priorizar ciertas políticas? No habrá políticas públicas verdaderamente integrales sin antes atacar estos retos. Los métodos existen y tienen una larga historia, las condiciones actuales para adoptarlos son óptimas, su potencial es vasto, lo único faltante es que los hacedores de política y de los organismos encargados de la política económica (nacionales e internacionales) den los pasos necesarios en esa dirección.
Londres, 24 de septiembre de 2018
Semblanza
El Dr. Omar A. Guerrero García es licenciado en economía por el Tecnológico de Monterrey Campus Ciudad de México. Es maestro en economía computacional y finanzas por la Universidad de Essex, y doctor en Ciencias Sociales Computacionales por la Universidad George Mason. Posteriormente fue investigador en la Universidad de Oxford en el Instituto para el Nuevo Pensamiento Económico y en la Escuela de Negocios Saïd. Actualmente es investigador senior en el departamento de economía de University College London y en el Instituto Alan Turing.
Contacto:
Web: oguerr.com
Twitter: @guerrero_oa
Email: [email protected]