¿Es nuestro egoísmo el principal factor para terminar con los recursos comunes?
Una nueva investigación en la teoría de juegos demuestra que las personas estamos naturalmente predispuestas a un exceso de uso de los “recursos comunes”, tales como los sistemas de transporte y la pesca, incluso si existe riesgo de falla del sistema, en detrimento de la sociedad en su conjunto.
La investigación en curso aprovecha el equilibrio de Nash, desarrollado por el premio Nobel John Nash y el único matemático conocido por más de 20 personas gracias a la película “Una mente brillante”, y también se aplica “la teoría prospectiva”, que describe cómo las personas toman decisiones cuando hay incertidumbre y el riesgo.
La investigación podría tener implicaciones para la gestión de sistemas de ingeniería, tales como la red eléctrica, sistemas de comunicaciones, sistemas de distribución y sistemas de intercambio de archivos en línea, junto con los sistemas naturales como la pesca.
“Estamos rodeados de sistemas complejos a gran escala y, como ingenieros estamos tratando de encontrar la manera de diseñar sistemas que sean más robustos y seguros” dijo Shreyas Sundaram, profesor asistente en la Escuela de Ingeniería Eléctrica y Computación de la Universidad de Purdue. “Un aspecto sería cómo se podría diseñar sistemas que incentiven a las personas que los utilizan esten alineados con lo que es mejor para la sociedad. Como gobierno, ¿qué tipo de cosas se pueden hacer para asegurarse de que las personas utilizan sistemas de una manera responsable? ”
“El principal marco teórico que estamos utilizando es el lenguaje de la teoría de juegos, que se refiere al análisis de la toma de decisiones por varias personas cuando los beneficios de sus decisiones dependen de lo que otras personas están haciendo”, dijo Sundaram. “En un equilibrio de Nash, la gente egoísta seleccionar las opciones que producirán el mayor beneficio para ellos, a menudo en detrimento de su beneficio colectivo.”
Los resultados se detallan en un documento de investigación que apareció en la edición de julio de la revista científica de teoría de juegos Games and Economic Behavior.
Un ejemplo de un equilibrio de Nash se ilustra en el llamado “dilema del prisionero”, donde dos ladrones son atrapados por la policía e interrogados de forma independiente. Ellos se beneficiarían al acordar de antemano para no delatar a unos de otros.
“El problema con este pensamiento racional es que si sé que no me vas a delatar, decido obtener mas beneficio delatándote y optimizo mis probabilidades de salirme con la mía”, dijo Sundaram. “Así que el único equilibrio de Nash es que los dos nos delatemos el uno al otro. Si tu cómplice te delata no hay ningún beneficio en que tú no le delates a porque tú vas a tomar más de la culpa por el crimen.”
Entender el comportamiento en el equilibrio de Nash puede ser un reto cuando los resultados son inciertos.
“En muchas aplicaciones, las personas deciden qué parte de un recurso utilizar, y saben que si usan una cierta cantidad y si otros utilizan una cierta cantidad van conseguir algo a cambio, pero con el riesgo de que el recurso se pierda “, dijo.
Sundaram y Hota han analizado el equilibrio de Nash cuando las preferencias de riesgo se modelan según la teoría de la perspectiva, una teoría ganadora del premio Nobel que captura cómo los seres humanos toman decisiones en situaciones de incertidumbre.
“La clave es que usted tiene que considerar cómo las personas perciben realmente victorias y derrotas, y aquí es donde entra en juego la teoría prospectiva”, dijo Sundaram. “Mientras que los modelos clásicos no han visto cómo la gente evalúa en realidad las ganancias y pérdidas y las probabilidades, el trabajo de Ashish ha sido estar buscando lo que sucede en el equilibrio de Nash cuando incorporamos estas preferencias de riesgo más complejas. Queríamos determinar la probabilidad de fallo, a lo que nos referimos con la fragilidad de los recursos, en función de las preferencias de riesgo de los usuarios”.
En una sociedad que controla estrictamente el uso de los recursos, el fracaso es menos probable.
“Esta es la razón por la noción de un equilibrio de Nash termina siendo clave”, dijo. “El equilibrio de Nash captura la idea de que nadie te está obligando a hacer lo correcto. Tú estás haciendo justo lo que quieres hacer para optimizar tu propio beneficio”. Sin embargo, si se trata de un recurso que es gestionado muy cuidadosamente por una autoridad central, la probabilidad de fallo es inferior; aunque por supuesto esto no sucede con autoridades profundamente corruptas como las que padecemos en este país.
Los investigadores encontraron que el recurso tiene una mayor probabilidad de fallo en el equilibrio de Nash en virtud de la teoría prospectiva. “Esto significa que los seres humanos sobre-utilizarán sus recursos, en comparación con lo que se prevé en los modelos clásicos de la toma de decisiones”, dijo Sundaram.
Por otra parte, las personas tienen diferentes aversiones a perder. En las sociedades libres, donde la gente puede ejercer decisiones en función de su distinta aversión a la pérdida, el uso total de un recurso común es mayor.
Los investigadores también están estudiando cómo aplicar impuestos para incentivar el comportamiento humano impactando su probabilidad de fracaso.
El trabajo futuro incluirá la investigación para aplicar el enfoque de la seguridad cibernética, sondeando cómo las personas toman decisiones bajo riesgo. “La comprensión de cómo las personas perciben los riesgos de seguridad es crítica hacia el diseño de sistemas más seguros”, concluye Hota.
Cabe señalar que justo como lo mencionan los investigadores, estos experimentos funcionan con sistemas de valor individuales, por lo que la evaluación de sus resultados depende de un sistema de pensamiento dominante. Los resultados de un análisis similar en sociedades que sustituyen los valores de la acumulación capitalista por los principios del buen vivir (como los pueblos originarios o las comunidades que caminan bajo principios sólidos de autogestión y respeto a la naturaleza) arrojarían resultados radicalmente diferentes.