1.- La entropía no es desorden, ni caos, ni muerte. Es dispersión, reparto, multiplicidad [de la energía]
(No hay tendencia natural a Tanathia pues la muerte térmica del Universo no será antes de millones de veces el tiempo que el Universo lleva aquí desde su Big Bang)
La ley de la entropía está basada en una enormemente pequeña fluctuación de la distribución de la energía en los primeros instantes del Big Bang, quizás hiperamplificada por la inflación (no se preocupe si no me sigue ahora; se me ocurrió hace dos décadas que cuando un sistema crece demasiado rápido inevitablemente genera desigualdad…).
La sopa informe y desordenada de energía-materia había nacido con sitios donde había más energía concentrada que en otros. Aborrecer esa pequeña desigualdad ha generado 13800 millones de años después todo lo que vemos y somos ahora.
La historia del Universo, su presente, y su futuro, es una historia de cómo volver a la equidad en el reparto de esa energía lo más rápidamente posible.
Probablemente esta es la idea más potente de la historia de la humanidad que estamos sólo empezando a explorar (algunos) científicos y filósofos (por favor vuelva a leerla).
El Universo aborrece los gradientes energéticos, la desigualdad. Lo importante no es la meta, lo importante es el largo y creativo camino hacia esa muerte térmica en el lejanísimo futuro (una vez más física y tao parecen conectar).
Si se ha perdido, pido disculpas. Vuelvo al principio.
Decir que la entropía no es desorden es importante. El genial Maxwell ya lo entendió cuando dijo que «el orden no es una propiedad de las cosas materiales en sí mismas, sino solo una relación para la mente que lo percibe«.
Pero vamos con ejemplos/analogías para entenderlo mejor:
Imagine la habitación de un niño. En un rincón, sobre una estantería está la caja de sus juguetes. A este (micro)estado de la habitación lo vamos a llamar S0.
Media hora después de entrar el niño la habitación ha quedado desordenada (para los padres, para el niño seguramente tiene una lógica y un orden que podría explicar). Decimos que ha aumentado la entropía porque los juguetes están dispersos en un nuevo estado que llamaremos S1.
Sin embargo, en realidad el estado concreto S1 en que se encuentra la habitación es tan improbable como el que caracterizarían sus padres como ordenado (el S0); la prueba es que nunca volveremos a ver exactamente S1.
Al día siguiente y tras el paso de un adulto (y un aumento de la entropía fuera de la habitación), la habitación queda de nuevo en el estado S0, pero ese mismo día el niño vuelve a dispersar los juguetes (está en su naturaleza). Si nos fijamos en los detalles ya no estamos en el estado S1, sino en un nuevo estado S2 (si nos encontráramos de nuevo con S1 pensaríamos que un milagro habría ocurrido o nos asustaríamos recordando la película «El día de la marmota«).
Al cabo de un año, habríamos encontrado 1 estado S0 y 365 estados S1, S2,… S365 (en realidad miles intermedios si miramos cada minuto la habitación).
Si no ordenamos nunca la habitación, nunca aparecería tampoco el estado S0 otra vez. Así pues, sin intervención paterna, tenemos 366 estados de la habitación, 365 con los juguetes dispersos y 1 con los juguetes concentrados en la caja.
La ley de la entropía no es más que un cálculo de probabilidad: existe una tendencia enorme a encontrarnos con estados dispersos sencillamente porque son enormemente más numerosos, y por tanto probables.
El término correcto es dispersión, no desorden (si viéramos instante a instante lo que hace el niño no encontraríamos ese desorden por ningún lado).
Si nuestra mente adulta agrupa en dos el universo-habitación: «juguetes en la caja» (macroestado C0) versus «juguetes dispersos por la habitación» (macroestado C1), entonces concluiremos que exite una tendencia -partiendo de C0- a ir espontánemente a C1, y consideraríamos un milagro el proceso inverso (no es que sea imposible, es que es altísimamente improbable que espontáneamente un niño disperse sus juguetes dentro de la caja).
La entropía ni nos lleva al desorden, ni al caos, ni a la muerte; no es mala. Como mucho es traviesa y, como veremos, creativa como un niño.
2.- La intervención del ser humano en la biosfera no aumenta la entropía que se produce en la Tierra, la disminuye.
La civilización humana, de hecho, cualquier metabolismo, para su mantenimiento requiere intercambios de energía, pues para intercambiar materia e información se necesita previamente intercambios de energía que reduzcan algún gradiente de la misma. Todo cambio requiere intercambio de energía y para que exista intercambio se necesita un gradiente, una concentración de energía que dispersar.
Siempre que hay un intercambio de energía entre el «metabolismo» y su entorno aumentará la entropía del metabolismo + su entorno; normalemtne aumenta sobre todo el del entorno, a veces disminuyendo el del metabolismo; sencillamente porque el entorno es más grande, y por tanto con más estados posibles, y porque el metabolismo se mantiene precisamente generando ese entropía.
Un metabolismo no cristalizado requiere intercambios continuados de energía.
Ahora bien, la civilización humana es un metabolismo montado sobre otro metabolismo mayor, la biosfera o Gaia. El entorno de nuestra civilización es Gaia y por tanto nuestro «metabolismo» genera un aumento de entropía en nuestro entorno. Lo hace también un bosque, aunque con una diferencia: el metabolismo de nuestra civilización funciona como un cáncer en la biosfera y como tal tiende a destruirla, un bosque no.
Como la biosfera-hospedante es mayor (y más compleja), intercambia mucha más energía que la civilización humana, así que es lógico pensar que la creación de entropía de Gaia sobre su entorno será mucho mayor que la que creamos los humanos sobre Gaia.
Como nuestra civilización está degradando fuertemente el metabolismo que la acoje (la desordena, a diferencia de lo que hace un bosque en Gaia, que aumenta la entropía pero no la degrada ni la desordena), es lógico pensar que nuestra creación de entropía sobre Gaia no compensa la creación de entropía de Gaia sobre su entorno. Esa lógica se hace obvia bajo la hipótesis de que Gaia es un organismo complejo -mucho más complejo que la civilización humana que aunque con cierta complejidad y metabolismo, no llega ni de lejos a la complejidad de un organismo, ni siquiera tan «simple» como una bacteria).
La hipótesis Gaia orgánica, que le parece eso lógico y obvio, predice pues que el ser humano y su civilización hacen disminuir y no aumentar (ligeramente) la creación de entropía en el Universo. Nuestra civilización es la improbable y solo temporal en nuestro universo. Ayuda también saber que crear entropía no era «malo», sino un proceso «creativo».
Como la predicción se puede demostrar con cálculos biofísicos matemáticos, anotemos un punto para mi teoría, que se hace con una predicción que nadie había formulado antes -que yo sepa- (de hecho se ha venido diciendo la afirmación contraria).
3.- La ley de la entropía pone límites, pero la economía-metabolismo de la civilización actual humana es mucho más chapucera y sus límites no los pone la entropía sino otras leyes ecológicas y humanas.
Esta sentencia es fácil visto y comprendido lo anterior.
Puesto que la entropía no limita la complejidad y metabolismo de un sistema como Gaia o un bosque o un termitero, no puede imponer límites teórios a la civilización humana -más sencilla-, los límites son internos (por ejemplo, cuánta desigualdad -antientrópica- y corrupción es capaz de soportar) y ecológicos (flujos energéticos, daños sobre ecosistemas soporte, etc.). En definitiva, un cáncer (el cáncer es nuestra civilización, no los humanos ni otras culturas) tiene límites «naturales» obvios que no tienen que ver directamente con límites de entropía; a un cáncer se le elimina, muta y deja de serlo, o muere matando, su destino es siempre desaparecer relativamente pronto).
Aquí se abre una discusión interesantísima sobre el futuro de nuestra civilización: morir matando -o lo que persigue el BAU y aquellos que se empeñan en mantener tal cual el metabolismo haciendo crecer aún más el cáncer-, mutar -o lo que persiguen los movimientos en transición que en realidad deben tener claro que no es una simple transformación sino una metamorfosis total- o eliminar el metabolismo canceroso (de otra forma, menos traumática, a lo que ya está haciendo de forma acelerada el BAU).
Pero el tema de la entropía-Gaia abre también una habitación de esperanza para próximas civilizaciones humanas (¿en otro post?).
4.- La complejidad y la evolución de la vida no luchan contra la entropía, surgen de ella [condición necesaria, ¿suficiente?]
Cuando vemos la entropía como desorden es fácil caer en la idea de que la vida en un milagro, un suceso altísimamente improbable.
Cuando la vemos como dispersión, como mucho caeremos en la idea de que la vida tenderá también a dispersarse -sobre la Tierra, sobre el Universo-.
Cuando vemos la entropía como tendencia al caos o a la muerte es casi natural pensar que los organismos tienden a degenerar y morir por esta ley.
Cuando la vemos como multiplicidad no nos extrañará tanto la extraordinaria (bio)diversidad de organismos, planetas, estrellas o galaxias.
Tanathia no es un futuro prque Gaia es su contraejemplo real y observable. Gaia tampoco es un milagro, como no lo es que el universo «nacido» de una sopa informe y «desordenada» esté, solo 13800 millones de años después, repleto de estructuras dinámicas y complejas (y ordenadas).
Volvamos a la habitación con la caja de juguetes en la estantería. Supongamos que no entra ningún niño pero sí hay intercambios de energía en la habitación de vez en cuando. Con el tiempo veremos algún juguete fuera de la caja, por ejemplo, un día que entró una fuerte corriente de aire, o un codazo de un adulto que derrama algunos juguetes en las cercanías de la estantería. Veremos algunos S1, S2, etc. pero no veremos tantos como cuando entraba el niño en la habitación diariamente. La complejidad del niño hace que el entorno disponga de más posibilidades de generar más estados posibles (más caminos para intercambiar energía). La entropía de la habitación aumenta más rápido con el niño que sin él. Cuando entra el niño en la habitación todo se acelera, la dispersión aumenta más rápido.
No es que el niño busque la dispersión, es que es más probable ver una habitación con juguetes dispersos con niño que sin niño. De hecho, si uno ve una habitación con juguetes dispersos apostará a que un niño ha estado allí, más que pensar en un milagro.
Otra imagen:
Imagínese que contempla una playa en la que flotan agitados por las olas 100 patitos de juguete amarillos y otros 100 azules.
Unas horas después regresa a la playa en un momento de marea baja y se encuentra a esos 200 patos sobre la arena. Pero extrañamente se los encuentra a casi todos ellos perfectamente ordenados: amarillo-azul-amarillo-azul… formando una larga cadena.
Enseguida pensará que un milagro ha ocurrido o que «alguien», quizás un niño, ha intervenido.
Pero si se fija con atención quizás descubra que las patos amarillos tienen velcro en las alas y los azules el otro lado del velcro… Los intercambios de energía con las olas pueden ayudar a explicar el resto: demasiados golpes rompen los velcros pero al retirarse poco a poco el mar, la energía puede ser la adecuada para mover los patos sueltos y mezclarlos, pero no para rormper los velcros ya formados…
Si ha entendido esta imagen acaba de entender porqué no pensamos que es un milagro que se forme un cristal de sal al evaporarse el agua de mar.
El cristal de sal es estable y contiene energía almacenada y concentrada en los enlaces quimicos formados. El universo, «aprovechando» la formación del cristal ha encontrado un montón de nuevas vías o estados de alta probabilidad, de alta dispersión: las moléculas de agua que estaban «concentradas» en forma líquida, han pasado a la forma gaseosa al intercambiar energía solar; ahora están más repartidas y dispersas, con muchísimos más estados a su disposición que antes.
Un metabolismo es estable como lo es un cristal de sal porque ayuda a reducir gradientes energéticos y a dispersar la energía, con una «desventaja» y es que requiere de un flujo continuo de energía, de intercambios de la misma, de reducción de gradientes. Pero con ventajas sobre el cristal:
El metabolismo reduce más rápido los gradientes a su escala temporal y espacial precisamente porque su complejidad abre más caminos y posibilidades de reducir esos gradientes, aumentando el tamaño de estados posibles (los Si de nuestro ejemplo infantil).
Cuando se forman las células de Benárd (esa danza de trillones de moléculas que parecieran un milagro de probabilidad cero de ser solo movimientos aleatorios) aceleran de pronto la creación de entropía: el intercambio de energía es más rápido y se dispersa antes la energía con el entorno.
Bajo las condiciones adecuadas -un flujo mínimo pero constante y estable de energía, un mínimo de propiedades de la materia- se forman siempre (probabiliad 1, no cero)-.
¿Podemos imaginar lo que un flujo mínimo y constante y casi estable puede hacer durante miles de millones de años? Sí, las bandas de Júpiter, el vulcanismo de Io, Gaia…
La evolución de la vida no sólo es posible (y probable) sino que está doblemente dirigida, por un lado por la ley de la entropía -que autoestabiliza y autoselecciona los estados recién adquiridos- y por otro lado por ella misma (pero eso es otro post -y mis dos libros sobre Gaia-). (También puede explorar los escritos de Margalef, Odum, Schneider y Dorion Sagan).
La entropía y la vida se realimentan positivamente.
Todo se realimenta.
Carlos de Castro Carranza
Disculpa la vía para hacer la pregunta, pero estamos teniendo un animado debate donde ha salido vuestro trabajo sobre el potencial de generación de energía eólica respecto al enfoque top-down y a considerar que no hay intercambio entre las diferentes capas, es decir, respecto a los límites físicos. En el debate que hubo en The oil Drum manifestabas que está postura se adoptaba por las siguientes causas «Some energy form the higher layers will dissipate into the lowest layer and some energy will dissipate from unsuitable to suitable areas. But also the reverse, and, as far as the models presently show the reverse effect will be greater, I think we are optimistic with the assumption of no interchange. But yes, «it merits a much more detailed study». La postura contraria que mantiene Stefan Nolte dice que tu enfoque es multiplicar factores a «boleo» para obtener un resultado. Dice que el enfoque correcto es bottom-up de mesoescala. La critica se basa en lo que denomina fujos turbulentos que se producen cuando extraes energía de la capa inferior esta la recupera de las superiores a més de otros factores que no cita «porque sería un no acabar». Como economista me encuentro un poco perdido, pero tengo la mosaca detras de la oreja con los enfoques bottom-up que suelen llevar a falacias de composición. Si lo interpreto correctamente, permiteme la libertad, sería en este caso la violación del principio de conservación de la energía. Como en el debate manifestaste que merecia consdireción me gustaría saber si ya lo habeís hecho. Perdón por las molestias.
Saludos
Hola Jordi.
En realidad hicimos un esfuerzo posterior para profundizar en el límite de la eólica, pero nos fallaron las fuerzas para publicarlo por varias razones. Una es que supone mucho esfuerzo publicar cosas controvertidas y que van contra el «mainstream», otra es que la recepción del primer artículo no se quiso entender porque al margen de que nuestro 1TWe de límite fuera correcto o no, lo más importante era la denuncia de las metodologías bottom-up pues violaban el primer principio de la termodinámica (y como mostró el equipo de Kleidon del Max Planck, también el principio de conservación de la cantidad de movimiento). Una tercera razón es que en vez de reconocer el fallo metodológico y agradecer nuestra contribución (la del Max Planck y la nuestra) nos atacaron, a la vez que «sutilmente» y entre líneas, reconocían que la teníamos -pero esto no llegó a ningún medio de comunicación ni revista científica y la cosa quedó en nada-: Jacobson es capaz de publicar 5 artículos en el tiempo que nos lleva a nosotros publicar 1, y esto cansa, sobre todo cuando tienes en cola que se han exagerado el resto de renovables y de no renovables (véase el resto de nuestros artículos).
Finalmente rehicimos los cálculos y el resultado es: 0,75-1,5 TWe netos partiendo de la hipótesis de que un 10% vendría de parques marítimos y un 90% en suelo (por supuesto hay quien sueña con irse más allá de la plataforma continental, da igual el hundimiento de la TRE que eso supone y las necesidades de materiales, ante el tecno-optimismo no se puede argumentar). La cosa es tan simple que el que no quiera verla es problema suyo, lo que incluye a Stefan Nolte. Me explico. En la zona del ABL (desde donde vamos a sacar siempre la energía) se disipan sobre los suelos unos 90TW de vientos, como lo captable por molinos siempre será un porcentaje pequeño de esa fuente energética (la mayoría de los espacios no son usables por bajos vientos, otras infraestructuras, desiertos helados, desiertos cálidos, altas montañas, etc.) resulta que la cantidad de energía que puedes detraer nunca será significativa y por tanto aunque lo que sacas sea extra y venga de la nada o de arriba, nunca cambiará nada. Si lográramos extraer del ABL 10 TW y finalmente el sistema se las apañara para que renacieran de arriba esos 10TW (lo que violaría el segundo principio por cierto), finalmente seguirías limitado en vez de por 90TW por 100TW y su distribución. Es obvio que es la distribución actual de vientos (allí donde soplan más), donde vas a poner los molinos y la cantidad de sitios disponibles reducen más bien al 3% o así la cantidad de vientos con los que vas a interaccionar respecto al total que sopla, así que el 3% de 90 o 93TW (suponiendo que sean gratis y se repongan los 3 de arriba), siguen siendo 3. En electricidad neta, 1TWe.
Y sí, hemos hecho un bottom-up también pero realista (si sopla viento en una autovía, da igual, no vas a poner molinos a menos de 100 metros de ella), y como era de esperar tiende a dar un poco menos que el top-down.
Pero da igual, el que no quiere verlo no lo verá nunca, aunque se violen los principios de la física más elementales.
Por cierto, estos días de viento he observado que mi vehículo en autovía gasta aproximadamente un litro más a los 100Km (normalmente el viento, salvo que te de casi justo de cola te perjudica). Si cada vehículo realiza al año 1000 Km en esas malas condiciones, resulta que gastamos en gasolina por culpa del viento más del 10% de lo que nos proporcionan los molinos (aunque la electricidad es más eficiente que el contenido calórico de la gasolina). Supongo que si sumamos camiones y otros vehículos (camión, tren, avión, barco, bicicleta) la cosa se dispara. Este es el tipo de cálculos que no se hacen pero que te dan idea de las realidades.
Carlos de Castro
Muchisimas gracias Carlos. Soy consciente de lo díficil que es luchar contra la corriente dominante. En economía hay viento huracanado para quien se sale de la linea marcada.
Por otra parte, después de muchos años de discusiones veo de lejos quien se dedica a descalificar sin ton ni son, haciendo afirmaciones que son igual de rotundas que de faltas de contenido aunque no sea un experto en el tema. Afirmar que cierta metodología es una «castaña», diciendo que multiplicar lo sabe hacer un niño pequeño o que siguiendo la metodología top-down habría en estos momentos países enteros sin vientos creo que no dicen mucho del autor de los mismos. Él insiste también en los modelos de circulación 3D (Miller, 2010) aunque reconoce que no dan las cifras de los tecnoóptimistas.(no te pongo citas literales pues el debate se ha mantendio en catalán y no se si lo hablas y/o lees)
No tengo ni idea si tienes el placer de concocer ha este señor, pero dado su tono no creo que sea de conversación muy placentera.
Respecto al post de la entropía me ha gustado, aunque siempre me entran grandes dudas respecto al concepto de entropia termodinámica vs entropía de la información. Me lo tengo que reeler varía veces para captarlo y compararlo con otras nociones que nos las acabo de encajar completamente.
Por ejemplo, hay este post en Do the Maths respecto a la entropía (http://physics.ucsd.edu/do-the-math/2013/05/elusive-entropy/ ) que me parece que hace hincapíe en algunas de las mismas cosas que tu resaltas respecto por ejemplo la economía.
Saludos coordiales.
Por si lo consideras de interés, tengo mis serias dudas, hemos pasado el debate al grupo de Facebook Debate sobre Energía. Per la respuesta de Stefan Nolte es la siguiente:
Al habla «el mal educado». La respuesta de De Castro (con la que se abre este hilo) me deja más desconcertado aun si cabe. Y lamento bastante que se me trate de «tecno-optimista» solo por considerar que la metodologia que usa no tiene valor alguno.
Como ya dije en su momento, si el argumento central es que la metodología «bottom-up de microescala» no vale no hace falta irse a la chapuza de multiplicar factores bastante arbitrarios (y sesgados a la baja, como no!). Si tu crítica consiste en presentar una alternativa metodológicamente mucho más cuestionable aun (que ya es decir), poco hemos hecho. Máxime si existen (como de hecho ya existían) otros papers metodológicamente mejor planteados (Miller et al. 2010, etc.)
En TOD ya le cantaron las 40 con el error DE BULTO de asumir que la energía extraída del ABL no conllevaría una transferencia de energía de las capas superiores a las inferiores.
Ahora De Castro responde -si mal no he entendido- que:
1) Esa transferencia viola el 2º principio de la termodinámica (¿¿¿???).
2) Que en caso de producirse tal transferencia su contribución sería marginal.
3) Que habría que tener en cuenta otros efectos adversos como el consumo extra de los coches por hacer más viento (¿¿¿???).
La primera cuestión creo que es suficientemente evidente como para necesitar comentarla. La dinámica de fluidos es clarita al respecto, y cualquiera puede comprobar empiricamente como SÍ se produce una transferencia simplemente situandose a sotavento de un edificio y alejandose progresivamente. Tal violación solo se produciría si pretendiéramos que la transferencia de energía fuera superior a la energía extraida -cosa que en ningún momento he dicho-.
En cuanto a la segunda, parte de un planteamiento erroneo según creo entender. Si no me equivoco al interpretarle, lo que viene a decir es que esos 3 TW que se transfieren de la capa superior al ABL se reparten homogeneamente por el globo y que por lo tanto hay que aplicarle su factor del 3%… lo que nos daría solo 90 GW adicionales. Y así iterativamente…
Bien, a este respecto creo que la ensalada de factores de su paper le impide ver el bosque, el fenómeno físico que hay detrás de todo esto. La transferencia de energía no se produce en cualquier lado, sino a sotavento del parque eólico en cuestión. Y si el fundamento de su crítica al sistema bottom-up es precisamente que unos parques eólicos dejan a otros «sin viento» (a su sombra, a sotavento), esta transferencia de energía restituye ese viento por lo que al final -si esa transferencia fuera perfecta e instantánea- tendría validez de nuevo el bottom-up a microescala.
Siendo doctorado en física esto debería comprenderlo perfectamente, pero por alguna razón marea la perdiz. El debate no está en si baja o no baja energía ni en si se distribuye homogeneamente por todo el globo. El debate (o cálculo, más bien) está en que esa transferencia ni es perfecta ni instantanea. Por eso hay que dejar una distancia entre aerogeneradores (enfoque microescala), y como la capa inmediatamente circundante también va perdiendo energía a medida que sumas aerogeneradores, pues también hay que dejar una distancia entre parques eólicos (enfoque de mesoescala, que es lo relativamente novedoso) para extraer energía de capas aun más altas. Espacios protegidos y océanos también cuentan en esa «distancia entre parques» donde se recupera el viento, por cierto (así que ojito con volver a meter este «factor» en la ensalada, que entraríamos en doble contabilización).
En resumidas cuentas, el enfoque bottom-up de mesoescala ya compensa el grueso de su crítica al bottom-up de microescala, pero si queremos ser puristas con la idea del top-down y otros posibles efectos imprevistos la metodología correcta es recurrir a un modelo de circulación general 3D (como los que se usan para modelar el clima, en el IPCC!) e ir cambiando selectivamente la rugosidad de la superficie -que en el fondo los aerogeneradores son eso: una rugosidad extra en el terreno, como los árboles o los edificios-.
Ya hay algunos estudios con estas metodologías que digo (de antes que el propio paper de De Castro… podeis googlear ampliamente), y los valores se situan un orden de magnitud largo por encima de la estimación del equipo de la UVA….
El tema de los coches no se si es que piensa que la transferencia de energía de capas superiores a inferiores implicaría un aumento de la velocidad del viento (y que eso haría subir el consumo). Eso explicaría que le achacara una violación al 2º principio. Pero como ya he dicho, la transferencia se produce a sotavento de los parques por lo que únicamente está compensando la ralentización que ha generado el propio parque. Se trata de «rellenar un vacío energético», por si no había quedado claro lo del 2º principio.
FDO: Uno que no tiene doctorados ni la maquinaria universitaria a su servicio, sino un simple bachillerato científico-técnico y ha cursado algún año de ingeniería industrial.
https://www.facebook.com/groups/157095551027528/873679089369167/?notif_t=group_comment
Saludos
Hola Jordi.
Primero decirte que yo no estoy discutiendo con Nolte, simplemente te trataba de aclarar algunas ideas. Que hagas de intermediario termina no aclarando el tema. Se me ocurre que escribiré un post con esa segunda vuelta al tema de los límites.
En todo caso te contesto:
1º los trabajos de Miller et al. son los mismos que los que te contaba de Kleidon et al del Max Planck (suelo hablar de Kleidon porque con él he intercambiado correos -y algunas risas- sobre los tecno-optimistas que no quieren ver los principios más elementales de la física). Sus trabajos y los nuestros son coincidentes en conclusiones y si ellos dan aparentemente un límite mayor es porque en el fondo su límite es teórico y el nuestro es más tecnológico-realista, tal y como de hecho decimos en el artículo que publicamos en Energy Policy.
2º el hecho de que la metodología top-down sea sencilla es precisamente su ventaja, que uno emplee simples multiplicaciones para falsear la metodología bottom-up es un mérito, no un demérito. Que sea sencillo no significa que no haya detrás un conocimiento de la física del tema.
3º efectivamente la mejor metodología sería un modelo de circulación general, pero como demuestra el equipo del Max Planck, debería ser con una escala de tamaño inferior al tamaño de un parque eólico -hay que simularlo-, lo que está muy por encima de las posibilidades de cálculo de nuestros ordenadores.
4º Efectivamente una parte de la energía detraída puede venir de fuera del ABL pero no puede ser más (violación del primer principio) ni toda (violación del segundo principio), por lo que una parte será siempre extraída del propio ABL. Además el ABL suele quedar más alto que nuestros molinos, así que casi todo se extraerá del ABL.
En todo caso, subo en breve el borrador de lo que serían cálculos más precisos.
Carlos de Castro
Gracias Carlos, por tu dedicación en contestarme.
El argumento de la sencillez no es más que la aplicación de la navaja de ockam, no multiplicaras los entes sin necesidad. Cualquier modelo ha de aspirar a ser lo más sencillo posible simpre que sea un buena aproximación a la realidad. El utilizar más grado de complejidad, por ejemplo en economía, no soluciona que las hipótesis sean erróneas. Una tonteria expresada en forma matématica, no deja de ser una tontería, aunque sirva para oscurecer las cosas y ampararse en la falacia del principio de autoridad.
Estaré atento a las novedades que publiques.
Saludos
Había puesto en Facebook, donde parecía haber un debate honesto, que:
«Supongo que Carlos de Castro debe estar harto de este debate, pero yo le agradecería mucho que se implicase un poco más aquí y nos contara un poco más del trabajo. A pesar de la piel fina que muestra Stefan Nolte, propia del negacionismo, no creo (o eso me parece por ahora) que estemos frente a un negacionista en activo.
Además yo tiendo a estar de acuerdo con el paper de Carlos de Castro, pero he oído muchas críticas de gente nada sospechosa. Como todavía no he profundizado por mi parte todo lo que sería necesario, todavía me hacen dudar. Tal vez sea la necesidad de creer que no está en lo cierto (o tan en lo cierto). Lo de Stefan Nolte también puede estar sesgado por la misma razón. De modo que necesito evidencia adicional.
Por ejemplo, no entiendo por qué la 2a ley no autoriza la transferencia de energía entre capas. Tampoco por qué iba a ser esta pequeña si es un flujo permanente. Yo quisiera estar seguro de esto antes de basar mis convicciones sobre esto y de ponerlo por escrito con contundencia.
También me gustaría que Carlos de Castro nos dijera si tene previsto, o no, publicar ese trabajo formalmente o cuándo prevé que podamos ver sus nuevas reflexiones aunque sea en un documento informal.
Un debate sobre un orden de magnitud en la energía disponible no es cualquier cosa. Está muy relacionado con las posibles velocidades del colapso. No es lo mismo 1 TW que 5, o 10 TW. Es muy importante, muchas vidas. [Mundos distintos.]
Muchas gracias Carlos de Castro y otros.» [corchete añadido]
Subiré el borrador al que hacía referencia en uno o dos días como fichero adjunto en un post.
Carlos de Castro