miércoles, 30 de julio de 2014

CAMBIO CLIMÁTICO, MODELOS MATEMÁTICOS Y DILEMAS ÉTICOS. EL CASO DEL INFORME STERN

Los tres dilemas éticos del informe Stern


1.- ¿Cuál es el riesgo y la incertidumbre que se pueden asumir en el problema del cambio climático?


2.- ¿Qué tasa de descuento aplicar?


3.- ¿Qué valor monetario que se asigna a la vida humana?



Riesgo y cambio climático

La incertidumbre es inevitable en tratamiento del cambio climático y lo es además en un grado mayor que en otros problemas. Afecta tanto a las predicciones que pueden hacerse como a la comprobación de esas predicciones.

Por ejemplo, no es posible determinar si un huracán concreto ha sucedido como consecuencia de un cambio en el clima o no.

El clima se manifiesta como un sistema no lineal y caótico, altamente sensible a la variación de sus parámetros. Estamos ante un caso de incertidumbre prácticamente pura, un caso en el que  sólo es posible asignar probabilidades a los sucesos utilizando artilugios matemáticos sofisticados como la inferencia bayesiana

ALDRED, por ejemplo, reconoce que la técnica econométrica que se utilizó en el informe Stern es más sofisticada que la estándar, porque tiene en cuenta que los procesos implicados son estocásticos, y utiliza simulaciones de tipo Monte Carlo, método con el que se generan números aleatorios  para simular el azar inherente al proceso.

Pero sigue asignando, dice también, una especie de pseudoprobabilidades a los sucesos, de tal modo que tiene realmente que inventar esta asignación. Lo hace introduciendo  puntos de vista cualitativos sobre los riesgos de ocurrencia de catástrofes,  en un marco que pretende ser cuantitativo. En definitiva se supone que se sabe más de lo que se sabe realmente.

-------------------------------------------------------------------------------------------------------------------------

Ethics and Climate Change Cost-Benefit Analysis: Stern and after 

Jonathan Aldred.  Department of Land Economy. Universidad de Cambridge
Environmental Economy and Policy Research 
---------------------------------------------------------------------------------

ALDRED critica también en este artículo el modo concreto en que se hace la asignación de probabilidades en el Informe Stern,  porque subestima la ocurrencia de ciertas catástrofes.

Coincide en esto con la crítica de otros expertos como M. WEITZMAN. Falla, dice, el principio de precaución que obliga a trata de evitar por todos los medios los acontecimiento fatales. Falla  porque se da mayor peso a los sucesos medios y se minimizan los sucesos extremos.  No es correcto minimizar, por ejemplo,  la probabilidad de que la temperatura se incremente en 6º en los próximos 100 años, si se atiende a la forma en que el IPCC presenta los seis escenarios posibles, puesto que los presenta como equiprobables.

Cuando la incertidumbre es pura, hay que atender a todos los resultados posibles, incluidos los más peligrosos.

ALDRED concluye que algunas partes del modelo que se utiliza en el Informe Stern, y en general en los modelos integrados (que integran media ambiente, economía y clima), se  introducen simplificaciones altamente criticables.

El problema en un modelo es que si no se asignan probabilidades el problema no es cuantificable; si por el contrario se asignan probabilidades éstas son arbitrarias, puesto que  existen elementos subjetivos, como la percepción que cada individuo tiene del riesgo, una percepción difícilmente objetivable.



La tasa de descuento


En el modelo[1] que sirve de base al Informe Stern se trata de representar el hecho de que un daño es percibido de distinta forma si es inmediato o si sucederá dentro de varios años. Esto se representa mediante la tasa de descuento. El valor que se asigna a esta tasa es muy problemático y  los resultados del modelo son muy dependientes de esta tasa, algo que tiene sin duda consecuencias para valorar los resultados del modelo.

Pero el informe contiene otros supuestos que merecen también ser discutidos detenidamente.

El modelo que se utiliza en el Informe Stern se enfrenta directamente con algunas cuestiones éticas que tradicionalmente habían  quedado fuera del análisis económico ortodoxo.  

ALDRED defiende que el Informe Stern asume unos presupuestos éticos en su análisis de coste-beneficio, claramente identificables: la tasa de descuento, el valor monetario que se da a la vida humana y el tratamiento que se da al riesgo.

En esta entrada tratamos el asunto del valor de la vida humana, aunque los otros dos tiene también mucho interés.


El Informe Stern introduce en un modelo matemático algunos supuestos éticos. La solidaridad intergeneracional es uno de ellos. El hecho de que se pueden hacer gastos ahora para prevenir daños a las generaciones futuras se  trata a través de la tasa de descuento. Este tratamiento tiene distintas opciones y según la opción elegida se puede obtener resultados muy diferentes.

MARTIN WEITZMAN se ocupó en el año 2007 de este problema[1].

WEITZMAN  afirma que las conclusiones del Informe Stern se apoyan en dos argumentaciones básicas. La primera, que se presenta como  un modelo formal, y  cuyas conclusiones, en tanto que diferentes de otros informes,  descansan sobre la base de imponer una tasa de descuento[2] muy baja; la segunda, es  intuitiva y trata de hacer frente a las incertidumbres.

Respecto de la primera argumentación, WEITZMAN dice que no podemos saber realmente cuál es la tasa de descuento que debemos utilizar en el caso  del cambio climático. Sobre la cuestión de reducir las incertidumbres, afirma que no hay más remedio que aumentar mucho más la investigación para que las conclusiones queden suficientemente justificadas.

Lo importante no es tanto el detalle de la argumentación económica, es decir, cuál es la tasa de descuento que habría que utilizar, sino el hecho mismo de que el  modelo,  y la cuantificación calculada con él, sop muy sensibles a la tasa de descuento que se elije.


 El Informe Stern utiliza el modelo de evaluación integrada PAGE2002, y la complejidad del modelo obscurece que el resultado final depende mucho de  cuál sea la tasa de descuento utilizada.

Lo grave es que se requiere el análisis experto para detectar este hecho que queda oculto bajo el sofisticado manto del formalismo matemático. El diferente resultado que obtiene el Informe Stern, que aparentemente se debe a que el modelo es capaz de  integrar economía, energía  y medio ambiente, se debe, en realidad, al valor de  la tasa de descuento introducido.

La aplicación de una tasa de descuento u otra, es una discusión tópica en los estudios económicos y un tema básico en los modelos macroeconómicos[3]. Lo que defiende WEITZMAN es que podría ser falaz invocar el Informe Stern para avalar la adopción de medidas más drásticas contra el cambio climático, con el argumento de que sus resultados son distintos porque el modelo es mejor. Los resultados son distintos porque la tasa descuento considerada es distinta.

Esto no implica que la tasa considerada en el Informe Stern sea incorrecta, ni que sea sencillo determinar  cuál sería la tasa aplicable en el caso del cambio climático; lo que se deduce de ello es que debe haber una discusión sobre la tasa de descuento aplicable, que ha de ser previa a la aplicación del modelo. 

Respecto de la dificultad de determinar la tasa de descuento, WEITZMAN afirma que  tratar de predecir costes y beneficios en los distintos escenarios del cambio climático, con cien años de anticipación, es más un arte de adivinación  que una ciencia.

Para darse cuenta de ello, sólo hace falta pensar en cómo era el mundo hace cien años y cómo es ahora. La incertidumbre es el elemento esencial que ha de tener en cuenta cualquier modelo que trate de representar los distintos escenarios del cambio climático.

Cómo hacer frente a esta incertidumbre es la otra cuestión en la que WEITZMAN disiente también del Informe Stern. Weitzman hace un análisis de los desastres extremos  relacionados con incrementos de temperatura superiores a los 6º C. Formalmente, dice, es posible un análisis coste-beneficio que tenga en cuenta la incertidumbre, tomando valores esperados y utilizando la parafernalia de la moderna teoría económica, pero este cálculo se convertiría en un grandioso ejercicio de aplicación de la teoría bayesiana de la decisión[4].

Esta teoría, dice, requiere asignar probabilidades, lo que puede hacerse considerando creencias objetivas, o bien, por el contrario, creencias subjetivas. WEITZMAN afirma que las incertidumbres asociadas con el cambio climático, especialmente con los fenómenos extremos,  caen claramente del lado de las creencias subjetivas, por lo que es un caso típico de  aplicación de una teoría de la incertidumbre subjetiva.  El Informe Stern, dice, utiliza el instrumental técnico de la inferencia estadística para objetivar el cálculo de probabilidades[5], y WEITZMAN piensa que este proceder es demasiado convencional para tratar con los fenómenos extremos que aparecen en las colas de las distribuciones estadísticas,  por lo que se requeriría un análisis más singular.

En realidad, el Informe Stern lo que hace es tratar de asegurar que los fenómenos extremos no se van a producir, para lo cual, en la práctica, lo que se propone es invertir precisamente ese 1% del PNB anual, que es la forma en la que se compra la reducción de la incertidumbre para las generaciones futuras. Para WEITZMAN, jugar con los parámetros de la distribución estadística es entrar por la puerta de atrás del problema. Lo que  propone es  mejorar los sistemas de información  orientándolos a tratar de adelantarse en el conocimiento de lo que va a pasar, con sistemas de sensores que nos avisen antes de que los efectos completos se noten. En el caso de que estos sistemas dieran mensajes de alarma seria el momento de aplicar medidas verdaderamente radicales, que no se limitarían a dedicar un 1% de la inversión a reducir las emisiones de dióxido de carbono, sino que habría que implementar medidas más drásticas como cubrir todas las construcciones hechas por el hombre con pintura reflejante, por ejemplo.

La propuesta final de WEITZMAN quedaría pues como una vía diferente tanto a  las propuestas gradualistas, que se basan en la actuación prudente para no comprometer el desarrollo económico presente, como a la propuesta del Informe Stern, que propone tomar medidas ya. La propuesta combina la acción gradual de reducción de emisiones con la implementación de sistemas de monitorización, todo lo sofisticado que sea necesario, e invirtiendo en ello el dinero que haga falta. Se trata con ello de  tener un preaviso de efectos extremos que nos permita establecer los mecanismos de respuesta. La cuestión de si eso es o no posible, es decir, si es posible predecir y prevenir con antelación posibles desastres extremos, concluye, es algo  que no puede prejuzgarse sino que debe ser examinado empíricamente.

En definitiva, WEITZMAN ve correcto el resultado al que llega el informe Stern, tomar medias rápida e intensamente, pero no como resultado de un análisis de coste/beneficio basado en los valores medios previstos, sino como prevención para evitar los tremendos riesgos asociados a los valores extremos.

La tasa de descuento, tal como hemos visto, trata de representar en los modelos económicos el diferente peso que se da en la toma de decisiones al hecho de que un coste o beneficio sea presente o futuro. Un beneficio tenido ahora se valora más que uno tenido dentro de diez años.  

También ALDRED ha discutido sobre es tema, abundado sobre las observaciones de M. WEITZMAN, destacando  el hecho de que en el Informe Stern se ha elegido una tasa de descuento del 1,4%, mientras que otros economistas han abogado por tasas de descuento próximas al 6%.

Para ilustrar la importancia de elegir una tasa u otra, ALDRED utiliza un ejemplo recogido de S. GARDINER:

Elegir una tasa del 5% anual implicaría que si el valor actual de que Dinamarca quede inundada bajo las aguas es de 238 mil millones de dólares, ese mismo suceso ocurrido dentro de 500 años, se valoraría  en sólo 6 dólares”

Esto es, se estaría dispuesto ahora a pagar sólo 6 dólares, por evitar una inundación dentro de 500 años.

Utilizar tasas altas lleva a resultados de este tipo. Sin embargo, utilizar una tasa de descuento cero, no sería de ninguna utilidad en el caso del cambio climático, puesto que al ser un impacto tan prolongado en el tiempo, cualquier análisis daría como resultado que todo esfuerzo realizado ahora valdría la pena. Con lo cual,  cabría ahorrarse el trabajo de aplicar el modelo. 

Algunos economistas abogan por  introducir una modificación técnica que consiste en hacer la tasa variable en el tiempo, como un modo de compaginar las posiciones éticas de aquellos que valoran más el tiempo presente con aquellas que valoran las generaciones futuras, para quedarse en un punto intermedio.

 En cualquier caso, la tasa de descuento queda sobre la mesa como una cuestión que influye mucho en los resultados pero que no tiene una solución  que represente de una forma adecuada el modo en que se toman las decisiones sobre el futuro.

Es un problema que queda abierto cómo modelar el hecho de que no es lo mismo hacer un gasto ahora para evitar daños ahora, que hacer un gasto ahora para evitar daños futuros, sobre todo en un futuro en el que no estaremos presentes.






[1] Publicado en el Journal of Economics Literature, vol XLV, pp  686-724 (septiembre de 2007)
[2] La tasa de descuento trata de representar el hecho de que os consumidores no valoran igual la satisfacción de ahora que la  futura.  Matemáticamente se representa esto multiplicando la utilidad futura por un factor de descuento.  El informe Stern utiliza una tasa de descuento tal que iguala prácticamente la utilidad presente y la futura.
[3] El modelo de equilibrio general de Ramsey, que analiza ya esta cuestión, es de 1928.
[4] La inferencia bayesiana es un tipo de inferencia estadística en el que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso  que se hace del teorema de Bayes durante el proceso de inferencia.
[5]  A través de parámetros estadísticos como la media y la desviación típica de la función de distribución.

El valor de la vida humana


Desde la perspectiva de la economía de mercado estándar, dice ALDRED, no se da valor directamente a la vida humana como tal, sino que lo que se valora es el riesgo de muerte.

Bajo este supuesto se trata de valorar, por ejemplo,  cuánto más habría de cobrar un trabajador por tener un empleo peligroso, pongamos por caso con un riesgo de muerte de 1 entre mil. Del mismo modo, se podría valorar cuánto estaría alguien dispuesto a pagar por eliminar un cierto contaminante en su ciudad o qué descuento en el impuesto sería suficiente para compensar la ubicación de un vertedero.

Sin embargo, en el seno del IPCC, donde ha habido mucha discusión en torno al valor monetario de la vida humana, lo que se ha estado discutiendo no es el valor concreto de ésta, sino si se le está dando mayor valor a la vida de un individuo de un país rico que a uno que viva en un país pobre, como consecuencia de aplicar la metodología estándar.

El caso es que el IPCC ha adoptado finalmente un valor monetario uniforme de un millón de dólares para cada vida humana, a precios constantes de 1999, lo que constituye una opción distinta a la estándar que asigna valores que oscilan entre 1,5 millones de dólares y cien mil dólares dependiendo de la renta del país.
  
No entramos aquí en la discusión de cuál es la metodología más correcta sino que destacamos el hecho de que hay distintas formas de considerar en  un modelo coste-beneficio el valor de la vida humana, y que los valores que se obtienen son muy distintos según se elija una u otra.

Del mismo modo, hay diferencias también en la propia consideración del riesgo. Riesgos involuntarios, riesgos con los que no se está  familiarizado, riesgos irreversibles o incontrolables, son percibidos como peores que otros, aunque tengan la misma capacidad de causar daño. Los riesgos asociados con la energía nuclear pertenecen, por ejemplo, al  tipo de riesgo que se percibe como incontrolable.

Es muy difícil que un modelo sea capaz de captar todas estas dependencias contextuales, y mucho menos de representar otras cuestiones todavía más sutiles como la distinta valoración que del dinero mismo se hace en los distintos países, o incluso por distintos individuos dentro de un mismo país, en función de su arraigo cultural, o de su carácter más materialista o más ascético.

El caso es que la opción de dar un valor u otro a un parámetro en un modelo, tiene importantes consecuencias. Por ejemplo, dar un valor uniforme a la vida humana tiene consecuencias en los resultados de la  aplicación de los modelos coste-beneficio, a la hora de cuantificar la necesidad de actuar contra el cambio climático.

Si se da un valor más alto a la vida en los países pobres de lo que se obtendría aplicando valores de mercado, la consecuencia es que del modelo se obtendrá como conclusión que hay que actuar invirtiendo más dinero en la lucha contra el cambio climático en los países pobres,  de lo que vale la pena invertir según  indican  los datos de mercado. El resultado es que  los países ricos subsidian a los países pobres y que  estos subsidios compiten con otros que están subvencionando actuaciones que sí pasan un test de coste-beneficio acorde con el mercado.

Llegados a este punto, ALDRED discute sobre los inconvenientes  ligados tanto a la utilización de valores de mercado como al uso de  valores uniformes para la vida humana.

Pero más que enredarnos en este detalle, lo importante es destacar la dificultad con la que se encuentran los modelos  de evaluación coste-beneficio (CBA) a la hora de representar ciertos aspectos relevantes de la realidad.

No se puede decir, sin más, que un modelo es adecuado sin conocer el modo en que se asignan valores a ciertos parámetros como la vida humana, por ejemplo.

Cómo se ha hecho esta asignación puede quedar oculto en el modelo, más oculto cuanto más complejo, y sin embargo, tiene importantes consecuencias para decantar la toma de decisiones en un sentido o en otro.


--------------------------------------------------------------------------------------------------------------------------
EL MODELO PAGE 2002 

Es un modelo probabilístico escrito en Microsoft  Office Excel. El modelo calcula los impactos regionales y globales del cambio climático, y los costes sociales para diferentes gases de efecto invernadero. También calcula los costes de mitigación y adaptación. Es un modelo de evaluación integrada que parte de la proyección de emisiones y arrastra las incertidumbres a través de los cálculos. Información sobre el modelo puedes obtenerse, por ejemplo, en :

http://unfccc.int/adaptation/nairobi_work_programme/knowledge_resources_and_publications/items/5447.php

--------------------------------------------------------------------------------------------------------------------------

--------------------------------------------------------------------------------------------------------------------------

lunes, 28 de julio de 2014

CIENCIA Y TECNOLOGÍA EN LA FASE AVANZADA DE LA REVOLUCIÓN INDUSTRIAL. SECTAS PROTESTANTES Y SOCIEDADES CIENTÍFICAS

Con el cambio del siglo XVIII al XIX, la ciencia británica se volvió más teórica.

Thomas young, por ejemplo, resucita la teoria ondulatoria de la luz, mientras que Dalton introduce la teoría atómica en química.


Ambos provenían de familias cuáqueras.


No cabe duda de que la relación entre algunas sectas protestantes de Inglaterra y el avance de la tecnología y de la ciencia, no puede ser una casualidad. La pregunta obligada es la que se plantea la relación entre la visión del mundo de éstas y la actitud ante los problemas científicos; y más en concreto, la disposición hacia la aplicación práctica de la ciencia para resolver problemas técnicos. 

Pero una prueba de que las etiquetas no son sencillas es que la actitud abierta a las novedades en el orden práctico y en la visión política del mundo, va a veces acompañada de cierto conservadurismo teórico como lo demuestra  la biografía de Priestley.


Las sociedades científicas y el  impulso del Estado


El hecho históricamente contrastable es que las sociedades científicas tienen en Inglaterra un gran desarrollo durante el siglo XIX. El número de miembros de las sociedades provinciales oscilaba entre el centenar y las quinientas personas. Se puede decir que el número de ingleses activamente interesados en la ciencia se multiplicó por cien en este siglo. Ahora bien, tampoco aquí suceden las cosas de forma lineal. Las sociedades provinciales tienden a tornarse más interesadas en temas teológicos. 

El impulso científico habrá de venir finalmente de las universidades de Oxford y Cambridge, como sedes científicas más similares a la Universidad Politécnica de París, por ejemplo, Eso sí, cuando aparecen universidades provinciales vienen apadrinadas por la sociedad filosófica y literaria de su zona. 

En cualquier caso, lo que hay en Inglaterra, en la primera mitad del XIX, es una toma de conciencia de estar quedándose atrás en el avance de la ciencia en comparación con Francia y Alemania. Sobre todo en Francia se nota el impulso del gobierno central que después de la revolución ha tomado el avance la ciencia como objetivo político.

El impulso de personas individuales se muestra ahora insuficiente y así lo demuestra el caso de la fundación de la Institución Real por parte de Rumford, científico y militar americano emigrado a Inglaterra después de la Guerra de la Independencia. 

Estando en Inglaterra, Rumford tiene conocimiento del funcionamiento en Francia del Conservatorio de Artes y oficios, un instituto de mecánica a gran escala que alcanzó reputación de ser como una especie de Sorbona industrial. Rumford piensa que algo así debe funcionar también en Inglaterra. Como resultado de su impulso se establece en el año 1800 la Institución Real de Gran Bretaña, que tiene como objetivo fundacional “la difusión del conocimiento y la introducción general de inventos y adelantos mecánicos, así como la enseñanza de la aplicación de la ciencia a los fines comunes de la vida” . 
Esta institución depende de donaciones privadas para mantenerse. En una decena de años la institución evoluciona para tener un carácter más de divulgación popular que educativo. Esto provoca el enfrentamiento de Rumford con otros fundadores y hace que abandone Inglaterra para vivir en Francia. La Institución Real era demasiado pequeña, solo tenia dos científicos y sus asistentes, para dar cuenta de la complejidad que la ciencia estaba tomando. 

Ciertamente, las matemáticas que se enseñaban en Gran Bretaña durante los primeros años del siglo XIX no iban más allá del nivel que tenían en la época de Newton. John Playfair profesor en Edimburgo señalaba por estos años que apenas había una docena de personas en Gran Bretaña lo bastante competentes en matemáticas como para leer tan sólo la mecánica celeste de Laplace, escrita en 1808. 

Conscientes de esta situación, un club de estudiantes de Cambridge funda la Sociedad Analítica, en la que están Herschel y Babbage, entre otros. Se trata con ello de introducir en Inglaterra las matemáticas continentales. 

Una muestra de la sensación de estar por detrás en estos temas son las Reflexiones sobre la decadencia de la ciencia en Inglaterra, escritas por Babbage en 1830. La conclusión de este texto es clara: la raíz del problema reside en que la investigación científica inglesa es en gran medida una actividad de aficionados que no está apoyada por el Estado y que no esta profesionalizada. Se queja Babbage de que la profesión de las leyes es la que se lleva todos los talentos. Dice Babbage:

“Mediante la aplicación equivocada y destructora del talento, cambiamos un filósofo profundo por un abogado pasable”. 

Se le pide al gobierno que tome cartas en el asunto. El debate que se inicia con el libro de Babbage deriva pronto en la cuestión del apoyo económico del Estado a la ciencia. Se indica que el Ministerio del Interior francés gasta millón y medio de francos al año mientras que el gobierno británico no gasta nada. El gobierno británico se siente concernido por las críticas pero no entra en la solución del tema financiero, entre otras razones porque las sociedades provinciales reaccionan para formar la Asociación Británica para el Avance de la Ciencia. 

El motor principal de esta iniciativa es David Brewster que persuadió de tal necesidad al Consejo de la Sociedad Filosófica de Yorkshire. Con el impulso y la financiación de la Asociación, se realizan investigaciones en distintos campos científicos y en concreto se alimenta la investigación científica sobre tecnología. 

El estudio de la máquina de vapor da origen a la termodinámica y en la otra dirección, la ciencia de la electricidad produce gran parte del equipo de la industria eléctrica.


Termodinámica, electricidad y magnetismo, se configuran en está época como ramas especificas de la actividad científica. Así, mientras que el contenido del conocimiento cientifico no habia tenido gran influencia en el desarrollo de la industria hasta 1850, a partir de esta fecha la aplicación de la ciencia al desarrollo de la tecnología se convierte en un factor progresivamente determinante

El análisis teórico con el aparato conceptual de la temodinámica se lleva a cabo en Francia, Alemania e Inglaterra.

En Inglaterra, William Rankine, profesor de ingeniería en Glasgow, publica en 1859 su Manual de la máquina de vapor y otros motores primarios. Sin embargo, prácticamente todo lo que la teoría podía decir de la máquina de vapor en orden a aumentar su eficiencia ya se había descubierto empíricamente. 

Como consecuencia de que la teoría contempla que las máquinas funcionen reversiblemente, se plantea la posibilidad de bombear calor de un foco frío a otro caliente consiguiendo enfriar todavía mas el foco frío. Este es el principio de funcionamiento de los refrigeradores y abre la posibilidad de numerosas aplicaciones industriales.


La electrificación



Siguiendo con esta dinámica, a partir de 1870 se produce un desarrollo tecnológico que tendrá enormes consecuencias: la electrificación

T. P. Hughes estudió este tema en profundidad, prestando especial atención a la relación entre técnica y política.

Consideró cinco fases


  1. La primera  es la de invención y desarrollo del invento, en la que desempeña un papel destacado el inventor-empresario, un prototipo representado por Thomas Alba Edisson. 
  2. La segunda se caracteriza por latransferencia de tecnología a otros países. 
  3. En la tercera aparecen nuevos retos relacionados con el crecimiento de la tecnología.
  4. En la cuarta, la nueva tecnología se institucionaliza para crear lo que Hughes denomina cultura del sistema
  5. Finalmente, en la quinta fase, aparecen sistemas regionales y es creciente la importancia de los factores financieros, políticos y legislativos. 

Siguiendo este esquema, Hughes analiza las diferencias en el desarrollo de la electrificación en Estados Unidos, Alemania e Inglaterra.

La tesis de Hughes 



Que el desarrollo tecnológico no depende sólo de los condicionantes técnicos sino que depende bastante del marco social que comprende: el marco legislativo, el marco político, el financiero, el carácter de las elites dirigentes, el marco empresarial, el grado de desarrollo de la tecnología que se sustituye y el grado de cualificación del personal que ha de desarrollar la tecnología, entre otros. 


Los hechos


Superados los problemas técnicos, escribe Hughes, en 1878 se funda la Edison Electric Light Company, y dos años más tarde la Edison Electric Illuminating Company of New York, con el objetivo de construir una central generadora en esta ciudad. La central entra en funcionamiento en 1882. Se aborda entonces la fase de crecimiento exterior del sistema, lo que requiere la transferencia de conocimientos de un país a otro. 

En el reino Unido, y en especial en Londres, las elites dominantes están formadas por aristócratas, financieros y científicos que esperan obtener beneficios inmediatos de su inversión. En Londres se localiza la primera planta suministradora que instala la empresa Edison fuera de los Estados Unidos. Las expectativas de beneficio se perciben enseguida y se dan de alta dieciséis compañías eléctricas en las dos semanas siguientes. El Parlamento interviene para establecer que el capital privado puede poner en funcionamiento el sistema, pero que transcurridos seis años, los ayuntamientos pueden ejercer su derecho de recompra a un precio que los empresarios consideran ridículo. La consecuencia es que el capital privado se retrae. 

También en 1882, entra en vigor en Inglaterra una nueva norma legal: la Electric Lighting Act, que deniega el permiso a los fabricantes para producir elementos eléctricos que no fuesen utilizables por cualquier empresa lo que constituye un elemento más de intervención. 

Mientras tanto, en Alemania las cosas son distintas, el desarrollo inicial de la industria eléctrica se produce a favor de la unión del poder del capital financiero y de una legislación no intervencionista.A finales de los años ochenta del siglo XIX, se produce la batalla de los sistemas, en la que se debate si se impone la corriente alterna o continua en la distribución eléctrica. La cuestión se resuelve a favor de la corriente alterna en función de criterios tecnológicos, como su ventaja para ser transportada a mayores distancias que la continua, pero  pesan en el debate también los factores extra-tecnológicos: las inversiones no amortizadas de los que habían adoptado el sistema de corriente continua, las patentes en vigor o las ventajas de las economías de escala. 

Estos factores extra-tecnológicos son precisamente el objetivo principal del análisis de Hughes, que introduce para ello el concepto de cultura del sistema para tener en cuenta la importancia decisiva de las diferentes estructuras políticas, financieras y tecnológicas de los distintos países en los que se desarrolla el nuevo sistema. 

Su estudio se centra en las ciudades de Berlín, Chicago y Londres. Berlín es un ejemplo de coordinación entre política y tecnología, Chicago es ejemplo de preponderancia de la tecnología, en realidad de la subordinación de la política a los intereses tecnológicos; y sin embargo, Londres se caracteriza por la primacía de la política.

Los mecanismos 


Tienen especial interés los mecanismos por los que es posible influir políticamente sobre los asuntos que, en principio, parecen estrictamente tecnológicos

En Londres existía a finales del XIX una importante tradición de estudios de ingeniería, buenos profesionales en el nivel teórico y en el práctico, e importantes revistas especializadas, en las que se analizaba el sistema centralizado vigente en Berlín y Chicago. Las mayores instituciones científicas de Gran Bretaña se encontraban en Londres y sin embargo la ciudad no es capaz de organizar su red eléctrica eficientemente, a pesar de que La Institution of Electrical Engineers había abogado muy pronto (1901) por un sistema centralizado.

Las trabas a este proceso provienen, dice Hughes, del entramado legislativo y de la distribución territorial de poder. El Gran Londres está bajo la jurisdicción del London County Council, vinculado al Parlamento, que regula las relaciones entre las compañías privadas y las empresas de propiedad pública. La legislación establece la prioridad de las empresas públicas y, más importante, sólo permite instalar una empresa donde no hubiera otra. 

Ambas cosas retrasan la construcción de unsistema universal. Los intereses que se ven defendidos con esta legislación son los de las pequeñas centrales . Tanto progresistas como conservadores coinciden en defenderlos: unos por garantizar los intereses de los municipios y otros por defender a los propietarios.

El proceso de centralización se entrecruza además con un nuevo avance tecnológico: lahidroelecticidad, una avance que se desarrolla en California por la falta de minas de carbón mientras que por el contrario el régimen de precipitaciones les permite la utilización de los saltos de agua, algo que se hace viable con las nuevas turbinas Pelton y Francis, y sobre todo por la posibilidad de transportar electricidad a grandes distancias que ofrece la corriente alterna. En los Estados Unidos, en este momento la energía eléctrica ya es lo suficientemente relevante en la economía de la nación para que en el debate entre la iniciativa privada y el control público aparezca la cuestión de quién controla la tecnología y a favor de qué intereses. 

Finalmente, es el fin de la Primera Guerra Mundial el que favorece el debate sobre la formación de un sistema universal.

Desde el Ministerio de Reconstrucción se solicitan informes para analizar las causas del atraso industrial con respecto a otros países europeos. De aquí surge la idea de formar la Joint Electriciy Authority que había de tener poder de decisión a escala nacional, algo a lo que los gobiernos municipales reaccionan airadamente: 35 servicios públicos rechazan la propuesta de unificación. No obstante, en 1926 reaparece con fuerza la conveniencia de realizar una acción unitaria sobre el territorio. La invocación a la pérdida de prestigio de la nación será una de las mayores razones para romper la corteza del conservadurismo. 

El dato que forma parte principal de la argumentación es que la deuda del país es diez veces superior a la de 1914. La clave para desbloquear la situación de la electricidad en Inglaterra es la Electricity Suply Act de 1926. Por medio de esta ley se crea la Central Electricity Board que se fija como objetivo crear una parrilla de transmisión que jerarquice el alto voltaje y el bajo voltaje. El provincianismo de los propietarios de las centrales existentes sigue actuando por lo que de 60 centrales inicialmente seleccionadas se pasa a 140. 

No obstante, en 1933 puede darse por finalizada la parrilla. Los tipos de voltaje, frecuencia y fase están por fin unificados. En todo este camino hacia la unificación del sistema eléctrico se constata la necesidad de salvar las dificultades que van apareciendo continuamente, y esto es común para todos los países en los que se implanta. Dificultades de tipo técnico, de relaciones institucionales, de financiación.

Los personajes


En ningún caso los problemas se resuelven por sí solos, y Hughes quiere destacar que en la solución de todos estos problemas siempre hace falta el esfuerzo de personas individuales.

Las evoluciones de Chicago, Berlín y Londres son pues diferentes, y en esta diferencia influyen causas no tecnológicas. Los factores culturales tienen un gran peso. En el caso de Estados unidos, dice Hughes, fueron decisivos la tecnología primero y los aspectos financieros después. En Inglaterra, se produce el caso contrario, domina la ideología sobre los condicionantes tecnológicos. Sólo el empuje de hombres como Charles Merz y el temor general a quedar fuera de las grandes naciones desbloquearon la situación de atomización existente.


La interpretación


La lectura que puede hacerse del relato de Hughes es que no hay patrones generales de desarrollo tecnológico que sirvan para todos los casos. Existen grandes dicotomías: sistema centralizado/sistema descentralizado, preponderancia de lo público/ preponderancia de la iniciativa privada, que se resuelven de modo que el resultado final no está determinado. En los procesos intervienen numerosos factores tecnológicos y no tecnológicos y ni unos ni otros aparecen como determinantes. En ocasiones, el impulso de personas concretas orienta el resultado hacia un lado u otro. 

La frase que podría resumir el relato de Hughes sobre el proceso de electrificación que se produce a final del siglo XIX y principios del XX, es que las cosas siempre pudieron haber sido de otra manera y que los factores estrictamente tecnológicos no son determinantes.

--------------------------------------------------------------------------------------------------
ENTRADAS RELACIONADAS:


CUATRO CONCEPTOS ENCADENADOS: SOBREPASAMIENTO (OVERSHOOT), SOSTENIBILIDAD, HUELLA ECOLÓGICA (ECOLOGICAL FOOTPRINT)Y DECRECIMIENTO (DEGROWTH)


Estos cuatro conceptos están estrechamente vinculados y se corresponden con cuatro fases de la reflexión sobre el problema del crecimiento indefinido.


Sobrepasamiento


Este es un concepto que se desarrolló en el momento en que el tema del crecimiento se planteaba en los términos de si existen límites para el crecimiento y cuáles son esos límites un asunto que fue tratado con intensidad a partir de 1972 por el Club de Roma y el MIT:

De acuerdo con los estudios del Club de Roma y del MIT, el sobrepasamiento puede producirse cuando se reúnen tres circunstancias:
  1. Los cambios son suficientemente rápidos
  2. Existen límites o barreras, que traspasados, pueden producir problemas
  3. Las señales que avisan de la proximidad a los límites son imperfectas.

Desde un punto de vista en el que se confía en el mercado y en el poder benéfico de la tecnología,  los sobrepasamientos pueden ser conjurados

La clave del mecanismo reside en que el mercado señala el problema y dirige los recursos hacia la mejor solución, y la innovación tecnológica resuelve los problemas técnicos que se plantean.

En general, se acepta que este mecanismo puede funcionar a veces. La cuestión es:

¿Funciona este mecanismo en los casos importantes, o puede, por el contrario, fallar en algún caso crucial?

Parece que la posición de las instituciones internacionales fue la de no arriesgarse demasiado, corriendo el peligro de comprobarlo. 

Por ello, a finales de los años ochenta  se introdujo el concepto de sostenibilidad que es la garantía de no sobrepasamiento, y  hace referencia a  las condiciones que ha de cumplir el desarrollo económico para que ciertos límites no sean superados

Sostenibilidad


El término sosteniblidad se hizo popular a partir del  Informe Bruntlandde la Comisión  Mundial sobre Medio Ambiente y Desarrollo, elaborado para las Naciones Unidas, en 1987.

 El Informe Bruntland define el desarrollo sostenible como:

Aquel que satisface las necesidades de las presentes generaciones sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades”.

Aparentemente, la definición es clara y sencilla, pero  un análisis  más profundo pone  de manifiesto algunas dificultades.

Algunos economistas han criticado la poca  aplicabilidad práctica del enunciado, debido a la falta de indicadores cuantificables. De hecho, una interpretación literal puede conducir a absurdos, como tener que preservar todo tipo de recursos no renovables para garantizar todas las opciones de las generaciones futuras

Como alternativa, se han ido proponiendo definiciones  más operativas que vinculan, por ejemplo,  la sostenibilidad con el hecho de que la reserva total de recursos no decrezca con el tiempo. La reserva total incluye no sólo los recursos no renovables, sino también el capital humano. En este supuesto, el uso de recursos es admisible, mientras no disminuya la reserva total. Ahora bien, este concepto es también en sí mismo problemático, y requiere disponer de métodos  precisos para la evaluación de recursos.
Ciertamente, en los años siguientes a 1987  algunos autores[3] trabajaron sobre este tema buscando indicadores empíricos que cuantificasen la relación entre economía y ecología. Sin embargo, es indicativo del punto al que llega la cuestión el hecho de que BRINK (1991)[4] afirme que  la sostenibilidad requiere de elecciones políticas que tienen que ser continuamente ajustadas como resultado de nuevos conocimientos, de cambios en los requerimientos sociales, o de desarrollos imprevistos de los sistemas económicos o ecológicos.

Especialmente en los primeros noventa se escribió mucho sobre el concepto de sostenibilidad, destacando las dificultades de su aplicación práctica. Actualmente la palabra sosteniblidad se aplica a casi todo, para querer decir que se ha pensado algo en el futuro de lo que se está haciendo. Con mucha frecuencia ese futuro es muy próximo, por ejemplo un legislatura electoral. el fundamento del concepto, que es la solidaridad entre generaciones, parece que ha sido eliminado en la práctica.

Huella ecológica


Desde principios de los años noventa se viene ensayado un indicador numérico, y por lo tanto cuantificador, de la sostenibilidadla huella ecológica.

La primera publicación académica sobre este tema la hizo WILLIAMS REES en 1992. 

En 1994, bajo la supervisión de REES, WACKERNAGEL desarrolló un primer método de cálculo en la Universidad de Columbia. 

A principios de 1996, WACKERNAGEL Y REES publicaron "Our ecological footprint. Reducing Human Impact on the Earth", texto en el que se define la huella ecológica como:

El área ecológicamente productiva (cultivos, pastos, bosques o ecosistemas acuáticos),  necesaria para producir los recursos utilizados y asimilar los residuos producidos por una población dada, con un modo específico de vida, de forma indefinida”.

Evidentemente este cálculo es complejo, y existen distintos métodos para hacerlo. Por ejemplo la “metodología eco-índice”, desarrollada[4] en el año 2000,  adoptada por el Instituto de Estocolmo. Desde el año 2006  se vienen publicando conjuntos de resultados que están disponibles en:


La Comisión Europea ha evaluado esta metodología. En mayo de 2008 presentó una publicación con los resultados de dicha evaluación, en la que  considera que la huella ecológica podría ser un indicador efectivo[

La UE considera que:

“La huella ecológica es un indicador intuitivamente atractivo, fácil de divulgar y de comprender, tanto más consistente y significativo cuanto más amplio sea el nivel de agregación, es decir, en los niveles de los estados  nacionales y superiores”.

No obstante, el informe de la UE añade que todavía son necesarios algunos refinamientos metodológicos y hace una serie de recomendaciones sobre cómo utilizar las metodologías disponibles, dirigidas a las instituciones de la UE y a los gestores políticos. 

El informe evalúa también las principales virtudes exigibles a los indicadores de este tipo mediante la evaluación RACER , una evaluación que tiene interés en sí misma.

         
La huella ecológica de los países industrializados supera ampliamente su propia superficie. De hecho, estos países extraen recursos y vierten residuos en lugares muy alejados de su territorio. De un modo didáctico, el indicador de huella ecológica expresado en Hectáreas/per cápita  trata de advertir de que el modo de vida característico de los países más desarrollados no puede extenderse al conjunto de todos los habitantes del planeta.

La Global Footprint Network edita informes periódicos sobre el estado del planeta. 

Esots informes  se construye sobre dos indicadores: el Living Planet index (índice de vitalidad del planeta), que refleja la salud de los ecosistemas, y el Ecological Footprint (la huella ecológica p.d.) que muestra la extensión de la demanda humana sobre estos ecosistemas. 

De acuerdo con estos informes, el sobrepasamiento de la  biocapacidad de la Tierra se produjo en los años ochenta, y en el año 2003 esta  capacidad ya se había excedido en un 25%, esto es, la Tierra había tardado un año y tres meses en producir los recursos consumidos en ese año.  UN ejemplo:, ese año se taló más madera de la que había crecido en ese mismo periodo.  

En el año 2050, se habrá alcanzado un nivel de demanda que doblará la biocapacidad, lo cual implica un déficit ecológico tal que conducirá el colapso de los ecosistemas.


El indicador también permite identificar a aquellos países que están por encima de la biocapacidad de su territorio, y distinguirlos de aquellos que están aún por debajo. De este modo, la línea geopolítica que divide a los países  por su desarrollo económico, puede traducirse en una línea que distingue a los países ecológicamente deudores de los ecológicamente acreedores.

El indicador de huella ecológica puede combinarse con el indicador de propuesto por las Naciones Unidas para la medida del bienestar (HDI) . De la combinación de estos indicadores se obtiene un cuadrante de sostenibilidad,  en el que estarían encuadrados aquellos países que con un HDI por encima de 0,8 y una huella ecológica por debajo de 1,8 hectáreas por persona Ciertamente ningún país cumple estas condiciones. La India o China tienen HDIs por debajo de 0,5 y los Estados Unidos o Australia tienen huellas ecológicas por encima de 6.


Decrecimiento


Ya sea porque se superan los límites, ya sea porque lo que se hace no es sostenible en el tiempo, o porque se supera la biocapacidad del planeta, lo que resulta cuando se reflexiona sobre el crecimiento es que hay que hacer algo para cambiar lo que se hace ahora. Con el cambio de milenio la palabra clave parece ser el decrecimiento, al que se añade el calificativo de sostenible. En este caso, la sosteniblidad se refiere a que hay que plantear este decrecimiento para que sea socialmente aceptado,por ello se habla de decrecimiento socialmente sostenible. 

-------------------------------------------------------------------------------------------------------------------------

La opciones en la práctica

En la práctica sólo hay tres opciones. La postura del avestruz, que se basa en confiar que todo se arreglará de un modo y otro. Una postura proactiva para buscar nuevas tecnologías más eficientes que consuman menos recursos, o alguna forma decrecimiento.

Desafortunadamente, la postura del avestruz es quizás la más extendida.


--------------------------------------------------------------------------------------------------------------------------

CLAVES DE LA CONSTRUCCIÓN DE LA TEOLOGÍA ENTRE EL SIGLO I Y EL IV. (QUINTÍN RACIONERO).

Del legado audiovisual que nos dejó Quintín Racionero, una de las piezas más interesantes es el conjunto de videos que dedica al cristianism...