martes, septiembre 16, 2008

Jan Labanowski: héroe slencioso de la química computacional/Jan Labanowski, unsung hero of computational chemistry

(En inglés abajo/ English follows)

Cualquiera que lea la nota de Jan Labanowski sobre lo que está teniendo que hacer para mantener funcionando el servidor de la Computational Chemistry List (CCL, Lista de Química Computacional) tendrá que concluir que es un héroe. No es trivial dar continuidad a la operación ante un huracán inmensamente destructivo y que tomó por sorpresa al Medio Oeste: generadores que no se consiguen, gasolineras que no proveen combustible, redes incomunicadas, y todo esto afectando al mismo tiempo la vida personal y familiar. Y si supieran que no es la primera vez que Jan hace algo como esto...

La CCL es una de las comunidades virtuales más antiguas y estables de Internet. Empezó en enero de 1991 como una lista de correo electrónico para 100 personas que habíamos sido participantes de un taller sobre química computacional en la Ohio State University, donde él trabajaba entonces. En ella aprendimos, "avant la lettre", mucho de lo que hoy apasiona y desgarra al mundo en espacios como las redes sociales en línea: cómo controlar el spam, cómo evitar y cómo detener las "flame wars", como mantener a la comunidad enfocada y preservar la actitud constructiva. Nuestro estudio sobre esta lista en 1996 ya la mostraba como un recurso insustituible, vital para los especialistas.

Hoy, casi 18 años más tarde, la CCL sigue siendo un espacio de encuentro civilizado y productivo que reúne a investigadores experimentados (como el propio Jan, John McKelvey, y muchos otros) con jóvenes que están apenas educándose en esta rama de la ciencia; a teóricos y químicos aplicados; a quienes hacen cálculos de altísima precisión en moléculas pequeñas y a los que hacen modelado de fenómenos bioloógicos en moléculas masivas; a quienes trabajan en la academia o en laboratorios privados donde los químicos cuánticos son numerosos y cuentan con grandes recursos computacionales y a los que están en industrias aisladas, que dependen de manera crítica del modelado para tomar decisiones que pueden ser la vida o muerte de la compañía en una sola síntesis. Y siempre con el buen humor, el cuidado técnico y la atención al detalle de Jan Labanowski. Una comunidad ejemplar, un químico, computólogo y ser humano ejemplar.

-------------------------------------------------------------------------------------------------

Whoever reads Jan Labanowski's latest posting about what he is having to do to keep the Computational Chemistry List (CCL) running will have to conclude that Jan is a hero. And it is surely a non-trivial task to keep this server operational in the face of unexpected high winds and their destructive effect in the U.S. Midwest: generators not available, fuel stations put out of operation themselves, dead networks... And it's not the first time that Jan goes the extra length for this community.

The CCL is one of the oldest and best-functioning virtual communities that exist today on the Internet. It started in January 1991 as a mailing list among those of us who had attended a workshop on computational chemistry in Ohio State University, where Jan worked at the time. In the CCL we learned many of the issues which today cause passionate argument in online social networks: how to stop spammers, how to avoid and to stop flame wars, how to keep the community focused and keep a constructive attitude. Our study in 1996 already showed it as a vital resource for practitioners.

Today, almost 18 years later, the CCL remains a civilized community, a meeting place for experienced computational chemists (like Jan himself, John McKelvey, and many others), a meeting place for seasoned researchers and novices, for theoreticians and applied computational chemists, for those making highest-precision-possible ab-initio calculations and those modeling biological phenomena in humongous biomolecules, those in academia or well-endowed industrial laboratories with those who are alone in small industries, whose life or death can depend on a single calculation that decides a synthesis. Always with the wry humor, good technical sense and dedication that Jan puts into it. An exemplary community, an exemplary scientist, technologist and human being.

Índice de Calidad de Banda Ancha: México en el lugar 39

Acabo de conocer un estudio preparado conjuntamente por la Said Buisness School de la Universidad de Oxford y la Universidad de Oviedo (con patrocinio de Cisco, que hay que tener en cuenta para entender un posible sesgo del trabajo). En éste, se define un "ïndice de calidad de banda ancha" ("Broadband Quality Index") que pondera tres factores clave para la calidad de los servicios de Internet de banda ancha, a saber, anchura de banda efectiva de bajada, anchura de banda efectiva de subida, y latencia. "Efectiva" quiere decir "medida" y no "anunciada". La ponderación es 55% anchura de subida, 23% anchura de bajada, y 22% latencia. El liderazgo de un país se define por este índice y la disponibilidad (a bajo precio) de las redes de banda ancha.

Los autores del estudio consideran que los índices deseables para el uso actual de Internet son 3.75, 1 y 95 (respectivamente: Mbps de bajada, Mbps de subida, milisegundos de latencia), y para dentro de pocos años, 2011-2015, 11.25, 5, 60 en los mismos índices. Sólo Japón cumple ya con estos criterios, que están basados en la mezcla de aplicaciones del futuro inmediato - HDTV, video-chat, etc.

Es decir, para las aplicaciones de hoy un usuario debería contar con conexiones de 5 Mbps y en cinco años estos enlaces deberán ser de 16 Mbps, y en el proceso deberá reducirse en un tercio la latencia del tráfico.

México aparece en el lugar 39 de este índice. Vale la pena subrayar que incluso países con altos índices de banda ancha pierden lugares en la tabla por la latencia, que como muchos saben, puede ser fatal para las aplicaciones de mayor interés - no sólo el recreativo, sino sobre todo el educativo y cultural. En la medida en que estos aspectos sean considerados importantes para la evolución de una sociedad - ¿y no deben serlo siempre la educación y la cultura? - estos índices serán una medida del éxito de las políticas públicas en materia de conectividad, y apenas la base sobre la que podrán planearse las políticas públicas en educación y en la promoción de la economía digital.

Una consideración para cerrar: ¿si éstas son las anchuras de banda y condiciones de "performance" de la red para los usuarios domésticos, cuáles son las correspondientes para las redes avanzadas, como las de las RNEI's o NRENs? Seguramente se necesitará hacer un estudio más detallado, pero en primera inspección todos los países avanzados mencionados en el estudio cuentan con redes de investigación que proveen longitudes de onda sobre las cuales se montan comunicaciones de 1 a 10 Gbps. En sus laboratorios se trabaja con tecnologías nuevas para proveer 40 Gbps y 100 Gbps (véase por ejemplo el trabajo que hace en Cambridge el investigador mexicano José Bernardo Rosas Fernández). El factor parece ser de 10,000. Eso significa que incluso en la actualidad, cuando en México las conexiones domésticas de banda ancha son nominalmente de 2 Mbps y normalmente rinden la mitad, la red de investigación debería ser ya de 1 Gbps en sus conexiones a las instituciones (unas 30 veces más que el factor actual).


El esperado libro de Fundación Telefónica: "¿Quién debe gobernar Internet?"

La Fundación Telefónica (que no es una fundación telefónica sino la fundación creada por Telefónica, la compañía española) acaba de publicar un libro intitulado La Gobernanza de Internet, anunciado animadamente como "¿Quién debe gobernar Internet?", conjuntamente con la editorial Ariel. El libro fue coordinado por el Dr. Jorge Pérez y en su autoría participa un grupo de expertos entre los que se incluye a dos amigos estimados, Víctor Castelo, de ISOC España y las redes científicas de ese país, y Eugenio Triana, quien participó en la fundación de ICANN. El texto está formado por contribuciones individuales de los expertos y termina presentando sus conclusiones colectivas.

El libro hace un buen recorrido por los temas actuales de gobernanza de Internet, incluyendo un análisis mesurado del rol del gobierno de Estados Unidos y su relación con ICANN en la gobernanza del sistema de nombres de dominio (DNS). Concluye en forma prudente, al discutir la evolución de la supervisión gubernamental trascendiendo el actual papel asimétrico de E.U.:

"Sin embargo, la definición de un modelo de supervisión
basado únicamente en un organismo
gubernamental se aproxima al modelo tradicional
de las telecomunicaciones que, como hemos
visto, no se adapta a las características de Internet
e igualmente incoherente resulta que dicha supervisión
se mantenga como hasta ahora bajo tutela
unilateral de Estados Unidos. Por tanto, parece
conveniente que el órgano supervisor se abra a
una mayor representación gubernamental pero el
papel de los Estados debería situarse en un plano
consultivo, no ejecutivo, de manera que propiciara
la contribución de los demás agentes. De esta
forma, también se establecería un mecanismo directo
de comunicación y asesoramiento entre los
sectores y la comunidad científica de Internet y
los Estados." [subrayado mío, AP]

En otros capítulos encuentro una buena cobertura de temas desde la brecha digital hasta la e-ciencia, y un debate interesante, desde España, sobre el tema de Neutralidad de la Red. No es inesperado que un autor, Bruno Soria, director de Estudios Regulatorios de
Telefónica, S.A., abra espacio a la visión que contrasta la premisa de neutralidad de la red con la gestión de tráfico en Internet, que daría lugar a costos diferenciados para distintos proveedores, consumidores y servicios. Una buena forma de abrir este debate.

Finalmente, en los apéndices, un buen listado de organizaciones involucradas en la gobernanza de Internet.

P.S. Casi es divertido, y un tanto surrealista, contrastar la lectura de un texto racional y "multistakeholder" en sí mismo, con el momento en que escribo esta entrada del blog: un representante de la Federación Rusa toma la palabra en la Sala XIX del Palais des Nations en Ginebra para volver a reducir todos los problemas de gobernanza de Internet a la "internacionalización" de ICANN. Como si se fuera a resolver este problema discutiéndolo en Hyderabad, y peor, como si fuera lo que primero necesitan el actual y el siguiente "billón" (americano, 10**9) de usuarios de Internet. E ignorando el texto en negritas de párrafos arriba.