jueves, octubre 02, 2008

Texto de Vint Cerf sobre Jon Postel

CircleID publica un texto excelente de Vint Cerf sobre Jon Postel, al cumplirse diez años de su fallecimiento. El texto se puede ver también aquí, en el blog de ICANN, con otra fotografía de Postel. No sobra recordar que Postel fue el miembro no. 1 de ISOC (Internet Society) para ver que su obra e impacto fue mucho más allá de su trabajo técnico.

sábado, septiembre 27, 2008

Cantidad y calidad de la producción académica en China y Estados Unidos: una comparación informétrica

Un artículo en la revista científica Informetrics hace una escrupulosa comparación entre la producción científica en China y en Estados Unidos, enfocándose en las ciencias físicas y en particular en las nanociencias.

El artículo es relevante para todos quienes estudiamos o seguimos el tema de comparaciones entre instituciones, en particular en mi caso los rankings de universidades, porque en estas comparacionnes los contextos nacionales son de la mayor importancia. En particular a lo largo de varios años me ha tocado comparar los resultados de universidades mexicanas y brasileñas e inevitablemente esta comparación queda enmarcada en una comparación de la producción científica de ambos países.

El artículo de Kostoff [que debe citarse como Kostoff, R N. Comparison of China/USA science and technology performance. Journal of Informetrics (2008),
doi:10.1016/j.joi.2008.06.004] describe las diferencias entre las distintas fuentes informétricas que utiliza para su trabajo, párrafos también muy útiles, pues ilustra por ejemplo cómo el uso de SCI (Science Citation Index) puede sesgar las comparaciones cuando algunas de las instituciones consideradas tienen fuerte actividad en el campo biomédico.

Las conclusiones de Kostoff son que China está publicando tanto o más que Estados Unidos, país para el que observa un pico alrededor de 2005 y una declinación desde entonces. En lo que hace a calidad, considera que la publicación científica en China aún es notoriamente inferior a la de Estados Unidos, pero en cambio muestra un incremento monotónico en los últimos años. Vale la pena leer el artículo por sus múltiples enseñanzas.

Y desde luego valdrá la pena que informétricos bien entrenados repitan este trabajo para comparar la producción científica de México por un lado con Estados Unidos, que es un estándar mundial, y por otro con Brasil, país que en muchas observaciones notamos que está ganando una ventaja que puede ser irreversible respecto a nuestro país en producción científica y tecnológica.

Ranking de Universidades de Brasil

Recientemente el Ministerio de Educación y Cultura de Brasil realizó una extensa evaluación de las universidades de ese país, con base en diversos factores entre los cuales es clave un examen general que se aplica a los estudiantes universitarios brasileños. La prensa brasileña publicó de inmediato los resultados. Entre otros diaros, O Globo publica la tabla de las 10 universidades mejor calificadas. En tablas más detalladas se hacen clasificaciones no sólo por universidad sino por escuela.

Sorprendentemente, la Universidade de Sao Paulo (USP) y la Universidade de Campinas (UNICAMP), que son las mejor calificadas en los rankings de Shanghai Jiao Tong University y de Times Higher Education, no aparecen en las tablas. Hicieron falta unos días para encontrar una explicación: la USP y la UNICAMP no aplican el examen citado, y por lo tanto no participaron en el ranking. Esto lo explica el diario en línea de una ciudad poco visitada pero que por lo visto cuenta con un periodista acucioso que quiso que sus lectores no se quedaran con dudas.

Nos quedamos así sin saber cómo son medidas en su propio país. Estimo que también ocuparían los lugares más altos, al menos con muchos de los criterios conocidos, pero nos perdemos de los detalles. Será para otra ocasión.

Recordando la dimensión física: ¿de qué tamaño es un bit?

Un interesantísimo artículo del Materials Research Bulletin cuyos autores son Bandic, Litvinov y Rooks, describe la frontera actual de los dispositivos de almacenamiento de información, tanto magnéticos como electrónicos, desde el punto de vista de la física y la ciencia de los materiales. Escrito como introducción a una sección del "Bulletin" de la MRS, hace un repaso rápido de las tecnologías de los discos magnéticos y las memorias "flash" para describir a continuación el estado del arte y apuntar a algunas de las innovaciones que están "tras lomita", incluyendo algunas muy audaces que provienen de la biología.

En el camino los autores nos recuerdan el tamaño de un bit: 20 x 80 nm, en los dispositivos magnéticos más recientes (como ellos mismos lo dicen, para la fecha de publicación este dato podría ser obsoleto), es decir, los fabricantes de discos magnéticos se están acercando a la capacidad de almacenar 1 Gigabit por pulgada cuadrada - en un disco de 100 gramos de peso. La figura que ilustra el avance de los últimos años hacia la frontera física vale por sí sola la lectura.

Los límites del almacenamiento magnético están determinados en la actualidad prácticamente por una frontera física fundamental, el límite en el que la energía térmica de los materiales excede a la energía magnética almacenada en cada pequeño grano del material; si el tamaño de grano disminuye, la energía térmica puede desmagnetizarlo. Pero desde luego el propio artículo describe algunas de las innovaciones en puerta que permiten evadir los efectos de este límite, no sólo con nuevos materiales sino con nuevas maneras de estructurarlos. Otro tanto hacen con las memorias electrónicas de estado sólido.

Buena lectura para recordarnos que allá abajo en la capa 1 todavía hay mucho, pero mucho que hacer.

jueves, septiembre 25, 2008

Luz de la calle y obscuridad de su fibra

"Luz de la calle y obscuridad de su fibra" - a diferencia de la frase popular, "candil de la calle y obscuridad de su casa", esta nueva frase debería ser el mayor título de mérito al que aspire nuestra Comisión Federal de Electricidad, y con ella también la Compañía de Luz y Fuerza del Centro (en liquidación).

Al leer hoy en el diario El Financiero y en otras fuentes como El Semanario sin Límites la clara queja de la CANITEC (Cámara Nacional de la Industria de Televisión por Cable) a través de Alejandro Puente me vino a la mente esta frase paradójica. Puente describe un esquema realista, vigente en Francia, para conectar la fibra óptica de la CFE con la provisón de servicios a terceros entregando a estos el servicio a nivel de fibra obscura, y se duele a nombre de la Cámara que encabeza de que la CFE no esté poniendo fibra obscura a disposición de los usuarios. El esquema es una especie de co-locación a corta distancia, fuera de las instalaciones de la CFE, y por ello con impacto muy bajo en las consideraciones de seguridad nacional que ahora se invocan para la negativa a la venta/renta de servicio en fibra obscura, y amerita estudio a fondo, sobre todo en ausencia de proveedores comerciales y precios competitivos interrnacionalmente.

Para mí el quid del asunto está en que sólo a nivel de fibra obscura será posible realizar algunos trabajos científicos y tecnológicos de frontera que son imprescindibles para el desarrollo de México. El botón de muestra de la semana me lo proporcionó uno de los brillantes investigadores de la UNAM que están trabajando ya con el Large Hadron Collider (LHC) en el CERN en Ginebra. En respuesta a una pregunta mía tuvo la cortesía de indicarme qué anchura de banda requiere su experimento en esta etapa inicial: 25 Mpbs. Es decir, la capacidad real con la que se puede manejar tráfico de calidad en un enlace E3 de 34 Mpbs sin rebasar una cota de aproximadamente 70% de su capacidad, a partir de la cual las contención por el canal vuelve problemáticas las comunicaciones.

No vamos a ir muy lejos sin que la fibra óptica propiedad de la nación se dedique , en una fracción apreciable, a proyectos fundamentales de la sociedad que no son comerciales o siéndolo no han llegado a una etapa lucrativa. Entre los primeros está toda la ciencia mexicana que requiere conexión a redes de alta capacidad; entre los segundos los múltiples proyectos de desarrollo tecnológico en instituciones académicas, los desarrollos comerciales, las pruebas de concepto, funcionalidad y estrés del software apoyado por ProSoft y pronto los productos de ProMedia, y tantos más.

Los esquemas para el uso no comercial de la fibra no pueden basarse en los contratos comerciales estándares: los costos y precios no pueden ser los de una competencia de precios no agresiva con los proveedores comerciales, los niveles de utilización garantizada y constante no pueden ser tan altos como los que requiere la normatividad de las compras gubernamentales. La ciencia es un proyecto de nación, no una compra. Las redes son su sistema circulatorio y su sistema nervioso, no un insumo opcional.

lunes, septiembre 22, 2008

Internacionalización del correo electrónico - caracteres no ASCII en las direcciones: nuevos estándares.

Recientemente la IETF aprobó nuevos estándares para el correo electrónico (sí, hay espacio para la innovación hasta en el e-mail, la herramienta más probada y usada por décadas en Internet). Con estos nuevos estándares es posible empezar a usar caracteres "internacionales", es decir, más allá del conjunto ASCII básico, como la "eñe", las vocales con acento, y alfabetos enteros, en las direcciones de correo electrónico. Sobra decir que hace años que es posible usarlos en el contenido del correo, pero las direcciones son otra cosa, ya que deben ser procesadas en los encabezados de los paquetes del protocolo IP y no en el "payload" o "carga útil". Esto es visiblemente una extensión sumamente importante del trabajo de IDNs o "nombres de dominio internacionalizados" para que progresivamente los servicios más fundamentales para los usuarios de Internet estén disponibles en los alfabetos y "scripts" que son naturales en cada país, región o cultura.

La mejor referencia que he encontrado para acercarse a estos nuevos estándares es el blog de Stefan Bortzmeyer (en francés) que además de dar las ligas a los URLs de los estándares, explica que hace cada uno de ellos; una nota menos densa técnicamente fue publicada por Heise, la agencia alemana. No sobra subrayar que la complejidad del asunto es mayúscula y se aprecia, por ejemplo, en que uno de los estándares describe la manera aceptable de "degradar" las direcciones para que sigan siendo útiles en condiciones en que una de las partes de la comunicación no cuente con la tecnología adecuada.

Es de preverse que en los próximos meses se inicien algunas implementaciones de estos estándares y que crezcan con los años. No se espera una implementación explosiva pero una sorpresa no sería del todo mal recibida. Los fabricantes de software y los proveedores de servicios tienen que poner su parte ahora; y ojalá muchos servicios, por ejemplo en las universidades en que es posible experimentar con ellos, empiecen a poner a prueba esta tecnología y medir su aceptación entre sus usuarios.

martes, septiembre 16, 2008

Jan Labanowski: héroe slencioso de la química computacional/Jan Labanowski, unsung hero of computational chemistry

(En inglés abajo/ English follows)

Cualquiera que lea la nota de Jan Labanowski sobre lo que está teniendo que hacer para mantener funcionando el servidor de la Computational Chemistry List (CCL, Lista de Química Computacional) tendrá que concluir que es un héroe. No es trivial dar continuidad a la operación ante un huracán inmensamente destructivo y que tomó por sorpresa al Medio Oeste: generadores que no se consiguen, gasolineras que no proveen combustible, redes incomunicadas, y todo esto afectando al mismo tiempo la vida personal y familiar. Y si supieran que no es la primera vez que Jan hace algo como esto...

La CCL es una de las comunidades virtuales más antiguas y estables de Internet. Empezó en enero de 1991 como una lista de correo electrónico para 100 personas que habíamos sido participantes de un taller sobre química computacional en la Ohio State University, donde él trabajaba entonces. En ella aprendimos, "avant la lettre", mucho de lo que hoy apasiona y desgarra al mundo en espacios como las redes sociales en línea: cómo controlar el spam, cómo evitar y cómo detener las "flame wars", como mantener a la comunidad enfocada y preservar la actitud constructiva. Nuestro estudio sobre esta lista en 1996 ya la mostraba como un recurso insustituible, vital para los especialistas.

Hoy, casi 18 años más tarde, la CCL sigue siendo un espacio de encuentro civilizado y productivo que reúne a investigadores experimentados (como el propio Jan, John McKelvey, y muchos otros) con jóvenes que están apenas educándose en esta rama de la ciencia; a teóricos y químicos aplicados; a quienes hacen cálculos de altísima precisión en moléculas pequeñas y a los que hacen modelado de fenómenos bioloógicos en moléculas masivas; a quienes trabajan en la academia o en laboratorios privados donde los químicos cuánticos son numerosos y cuentan con grandes recursos computacionales y a los que están en industrias aisladas, que dependen de manera crítica del modelado para tomar decisiones que pueden ser la vida o muerte de la compañía en una sola síntesis. Y siempre con el buen humor, el cuidado técnico y la atención al detalle de Jan Labanowski. Una comunidad ejemplar, un químico, computólogo y ser humano ejemplar.

-------------------------------------------------------------------------------------------------

Whoever reads Jan Labanowski's latest posting about what he is having to do to keep the Computational Chemistry List (CCL) running will have to conclude that Jan is a hero. And it is surely a non-trivial task to keep this server operational in the face of unexpected high winds and their destructive effect in the U.S. Midwest: generators not available, fuel stations put out of operation themselves, dead networks... And it's not the first time that Jan goes the extra length for this community.

The CCL is one of the oldest and best-functioning virtual communities that exist today on the Internet. It started in January 1991 as a mailing list among those of us who had attended a workshop on computational chemistry in Ohio State University, where Jan worked at the time. In the CCL we learned many of the issues which today cause passionate argument in online social networks: how to stop spammers, how to avoid and to stop flame wars, how to keep the community focused and keep a constructive attitude. Our study in 1996 already showed it as a vital resource for practitioners.

Today, almost 18 years later, the CCL remains a civilized community, a meeting place for experienced computational chemists (like Jan himself, John McKelvey, and many others), a meeting place for seasoned researchers and novices, for theoreticians and applied computational chemists, for those making highest-precision-possible ab-initio calculations and those modeling biological phenomena in humongous biomolecules, those in academia or well-endowed industrial laboratories with those who are alone in small industries, whose life or death can depend on a single calculation that decides a synthesis. Always with the wry humor, good technical sense and dedication that Jan puts into it. An exemplary community, an exemplary scientist, technologist and human being.

Índice de Calidad de Banda Ancha: México en el lugar 39

Acabo de conocer un estudio preparado conjuntamente por la Said Buisness School de la Universidad de Oxford y la Universidad de Oviedo (con patrocinio de Cisco, que hay que tener en cuenta para entender un posible sesgo del trabajo). En éste, se define un "ïndice de calidad de banda ancha" ("Broadband Quality Index") que pondera tres factores clave para la calidad de los servicios de Internet de banda ancha, a saber, anchura de banda efectiva de bajada, anchura de banda efectiva de subida, y latencia. "Efectiva" quiere decir "medida" y no "anunciada". La ponderación es 55% anchura de subida, 23% anchura de bajada, y 22% latencia. El liderazgo de un país se define por este índice y la disponibilidad (a bajo precio) de las redes de banda ancha.

Los autores del estudio consideran que los índices deseables para el uso actual de Internet son 3.75, 1 y 95 (respectivamente: Mbps de bajada, Mbps de subida, milisegundos de latencia), y para dentro de pocos años, 2011-2015, 11.25, 5, 60 en los mismos índices. Sólo Japón cumple ya con estos criterios, que están basados en la mezcla de aplicaciones del futuro inmediato - HDTV, video-chat, etc.

Es decir, para las aplicaciones de hoy un usuario debería contar con conexiones de 5 Mbps y en cinco años estos enlaces deberán ser de 16 Mbps, y en el proceso deberá reducirse en un tercio la latencia del tráfico.

México aparece en el lugar 39 de este índice. Vale la pena subrayar que incluso países con altos índices de banda ancha pierden lugares en la tabla por la latencia, que como muchos saben, puede ser fatal para las aplicaciones de mayor interés - no sólo el recreativo, sino sobre todo el educativo y cultural. En la medida en que estos aspectos sean considerados importantes para la evolución de una sociedad - ¿y no deben serlo siempre la educación y la cultura? - estos índices serán una medida del éxito de las políticas públicas en materia de conectividad, y apenas la base sobre la que podrán planearse las políticas públicas en educación y en la promoción de la economía digital.

Una consideración para cerrar: ¿si éstas son las anchuras de banda y condiciones de "performance" de la red para los usuarios domésticos, cuáles son las correspondientes para las redes avanzadas, como las de las RNEI's o NRENs? Seguramente se necesitará hacer un estudio más detallado, pero en primera inspección todos los países avanzados mencionados en el estudio cuentan con redes de investigación que proveen longitudes de onda sobre las cuales se montan comunicaciones de 1 a 10 Gbps. En sus laboratorios se trabaja con tecnologías nuevas para proveer 40 Gbps y 100 Gbps (véase por ejemplo el trabajo que hace en Cambridge el investigador mexicano José Bernardo Rosas Fernández). El factor parece ser de 10,000. Eso significa que incluso en la actualidad, cuando en México las conexiones domésticas de banda ancha son nominalmente de 2 Mbps y normalmente rinden la mitad, la red de investigación debería ser ya de 1 Gbps en sus conexiones a las instituciones (unas 30 veces más que el factor actual).


El esperado libro de Fundación Telefónica: "¿Quién debe gobernar Internet?"

La Fundación Telefónica (que no es una fundación telefónica sino la fundación creada por Telefónica, la compañía española) acaba de publicar un libro intitulado La Gobernanza de Internet, anunciado animadamente como "¿Quién debe gobernar Internet?", conjuntamente con la editorial Ariel. El libro fue coordinado por el Dr. Jorge Pérez y en su autoría participa un grupo de expertos entre los que se incluye a dos amigos estimados, Víctor Castelo, de ISOC España y las redes científicas de ese país, y Eugenio Triana, quien participó en la fundación de ICANN. El texto está formado por contribuciones individuales de los expertos y termina presentando sus conclusiones colectivas.

El libro hace un buen recorrido por los temas actuales de gobernanza de Internet, incluyendo un análisis mesurado del rol del gobierno de Estados Unidos y su relación con ICANN en la gobernanza del sistema de nombres de dominio (DNS). Concluye en forma prudente, al discutir la evolución de la supervisión gubernamental trascendiendo el actual papel asimétrico de E.U.:

"Sin embargo, la definición de un modelo de supervisión
basado únicamente en un organismo
gubernamental se aproxima al modelo tradicional
de las telecomunicaciones que, como hemos
visto, no se adapta a las características de Internet
e igualmente incoherente resulta que dicha supervisión
se mantenga como hasta ahora bajo tutela
unilateral de Estados Unidos. Por tanto, parece
conveniente que el órgano supervisor se abra a
una mayor representación gubernamental pero el
papel de los Estados debería situarse en un plano
consultivo, no ejecutivo, de manera que propiciara
la contribución de los demás agentes. De esta
forma, también se establecería un mecanismo directo
de comunicación y asesoramiento entre los
sectores y la comunidad científica de Internet y
los Estados." [subrayado mío, AP]

En otros capítulos encuentro una buena cobertura de temas desde la brecha digital hasta la e-ciencia, y un debate interesante, desde España, sobre el tema de Neutralidad de la Red. No es inesperado que un autor, Bruno Soria, director de Estudios Regulatorios de
Telefónica, S.A., abra espacio a la visión que contrasta la premisa de neutralidad de la red con la gestión de tráfico en Internet, que daría lugar a costos diferenciados para distintos proveedores, consumidores y servicios. Una buena forma de abrir este debate.

Finalmente, en los apéndices, un buen listado de organizaciones involucradas en la gobernanza de Internet.

P.S. Casi es divertido, y un tanto surrealista, contrastar la lectura de un texto racional y "multistakeholder" en sí mismo, con el momento en que escribo esta entrada del blog: un representante de la Federación Rusa toma la palabra en la Sala XIX del Palais des Nations en Ginebra para volver a reducir todos los problemas de gobernanza de Internet a la "internacionalización" de ICANN. Como si se fuera a resolver este problema discutiéndolo en Hyderabad, y peor, como si fuera lo que primero necesitan el actual y el siguiente "billón" (americano, 10**9) de usuarios de Internet. E ignorando el texto en negritas de párrafos arriba.

sábado, septiembre 13, 2008

IP traceback - rastreabilidad asegurada de direcciones IP: ¿una amenaza a la libertad?

En un artículo que está siendo ampliamente discutido en blogs , me encuentro con una discusión acerca del esfuerzo en marcha en la Unión Internacional de Telecomunicaciones (UIT o ITU) de subirse al carro del estándar que se llamaría "IP Traceback", que permitiría hacer un rastreo inequívoco de la dirección IP desde la cual se originara cualquier tipo de tráfico en Internet. Según el artículo, la iniciativa en la UIT cuenta con un fuerte apoyo de China, es secreta, y sólo ha sido revelada en pequeños pedazos y de forma complicada por los intentos de mantenerla fuera de la vista pública.

El rastreo de direcciones IP en forma asegurada podría representar un riesgo importante para la libertad de expresión. Incluso personas que legalmente recurran a sitios de Internet anónimos para hacer denuncias de mala conducta de sus gobiernos o gobernantes podrían ser rastreadas en sus propios países y convertirse en objeto de represión. Por otra parte, el "spoofing" (impostura) de estas direcciones podría permitir a delincuentes más hábiles seguirse ocultando o incluso volver a personas inocentes sospechosas de conductas ilegales.

Éste es un tema de ésos en que se intersectan tecnología y política pública en los que en ambos campos se requiere una discusión compleja y matizada - pero ante todo, para que la discusión tenga lugar, la información que la alimenta tiene que estar disponible.

Nota adicional: un comentarista anónimo de este blog me preguntaba hace unos días sobre los proyectos de ley que se han anunciado en la prensa de Venezuela, misma que permitiría una serie de controles gubernamentales sobre la expresión en Internet. Entre otros puntos destaco que si la propuesta efectivamente conlleva el que la conexión a Internet deba ser a través de un punto único de interconexión en el propio país, sí estará preparando los medios técnicos que han sido descritos respecto a China y otros países, y que facilitan enormemente la inspección del tráfico. Para ésta no se requiere forzosamente la inspección del contenido de los mensajes; el conocer los orígenes y destinos de los mismos, como sabemos, provee por sí solo información muy valiosa tanto para perseguir a delincuentes verdaderos como para rastrear, amenazar, y en su caso silenciar a opositores políticos. Ojalá la sociedad tenga oportunidad de conocer, entender, discutir y decidir qué va a pasar con su tramo de acceso y uso de Internet.

Resumen de la situación de TI en México

Encuentro en http://www.pr-inside.com/mexico-information-technology-report-q-r804269.htm un resumen compacto de la situación de las tecnologías de información, industrias, mercados y programas gubernamentales relacionados, en México, que pued ser útil (en inglés).

domingo, septiembre 07, 2008

Inseguridad, redes sociales, inteligencia de fuente abierta

Gracias a Lidia García en Facebook, me entero de una muy buena entrada en el blog ALT1040 producida por Eduardo Arcos. En ella, Eduardo hace una buena crítica de la oleada amarillista de las últimas dos semanas en la prensa mexicana que acusa a Hi5 y Facebook (principalmente) de proveer datos a secuestradores y otros delincuentes que les facilita la comisión de delitos. Voy a añadir una breve consideración.

Primero, estoy de acuerdo con Eduardo en que no culpabilicemos a la herramienta de los errores que cometemos quienes la usamos. Segundo, también, en que estamos viviendo el tránsito hacia una era de total transparencia. El uso, como él lo señala, no sólo de Hi5 o Facebook sino de todas las formas de hacer pública información personal - él pone el dedo sobre la llaga con Twitter y Dopplr, buenos ejemplos - lleva a que la información de las actividades personales esté universalmente disponible.

La consideración: esta auto-publicación de información personal, y la publicación de la misma por amigos cercanos o no tanto, sólo es una adición a las fuentes de inteligencia de fuente abierta ("open-source intelligence"), espionaje basado en información que es pública, espionaje que no requiere la violación de cerraduras o claves de acceso, sino en lo que "todo mundo sabe" o al menos cualquiera puede averiguar. La información que, antes de Internet, se obtenía observando el movimiento en las calles, leyendo las noticias de los periódicos, fijándose en las fotos de la sección de sociales del periódico, y platicando con vecinos y personal doméstico. A la pregunta "a qué horas sales al pan" podía seguir "a qué horas no está tu patrona para hablarte por teléfono" y en poco rato se tenían vida y milagros.

Esta consideración no obsta para llamarnos a la conciencia y ser menos generosos con la información personal en línea. Pero sí debe darnos una medida de sensatez acerca de no ocultar lo que es ampliamente sabido si no lo estamos ocultando con igual celo en todos los frentes.

sábado, septiembre 06, 2008

Extenso estudio sobre autorregulación y co-regulación

Un equipo de la RAND Corporation acaba de publicar un extenso estudio sobre autorregulación en industrias de tecnologías de información (más de 1,300 páginas en total). El estudio fue un encargo de la Unión Europea con vistas a introducir autorregulación y corregulación en diversas industrias; busca recoger las experienciasd de los sistemas existentes. Presenta una muy amplia sistematización de información acerca de auto- y corregulación, taxonomías, y el análisis de 21 casos diversos de organizaciones que regulan industrias (nombres de dominio, estándares, contenidos digitales, etc.) con participación única o preponderante de actores no gubernamentales - los "stakeholders" de la Cumbre Mundial de la Sociedad de la Información.

En particular encuentro de interés las múltiples referencias a ICANN en el estudio, que además sirven de termómetro sobre la calidad del estudio. Se presenta una situación paradójica: en el estudio de caso de la fase 2, ICANN es descrito con bastante precisión y el autor de la sección (probablemente Adam Peake) califica positivamente a la organización. Sin embargo, en muchas otras secciones la descripción está manchada por errores abismales, como considerar a ICANN un actor de la capa física de Internet. También es de interés puntual lo referente al Foro sobre Gobernanza de Internet (Internet Governance Forum, IGF); en este tema se presenta una situación similar.

También para muchos en México debe ser de interés la referencia del estudio a la regulación de contenidos en Internet. El estudio la trata sobre todo para el Reino Unido y Alemania. Se presentan numerosos análisis útiles para este tipo de regulación.

Encuentro también un déficit de explicaciones en los porqués de la regulación que presenta el estudio: tarde e insuficientes.

Un colega de ISOC, Hakikur Raman, preguntaba por qué la Unión Internacional de Telecomunicaciones (UIT, ITU) no está incluida en el estudio. La respuesta es que la UIT es percibida incluso por autores muy generosos como un organismo fundamentalmente intergubernamental, en el que los actores de los grandes mercados no tienen suficiente voz como para considerar el papel auto- o corregulatorio que el estudio exige.

Recomendación: armarse de paciencia una mañana o una tarde completa y tomar muchas notas para cuando el destino nos alcance. A pesar de los errores y las faltas el estudio ofrece mucho que aprender.

miércoles, agosto 27, 2008

Robo de datos, seguridad y comunicación: el caso de Best Western

En los últimos días ha causado algo de ruido la noticia de que alguien (presumiblemente un delincuente) se hizo con los datos de un número aún indeterminado de clientes de la cadena de hoteles Best Western. La nota del Times es particularmente clara en explicar los bandazos que ha dado la empresa en sus reacciones a la noticia. Y de ser fiel a la realidad esta nota, la empresa ha dado varios ejemplos de lo que no se debe hacer en estos casos: mensajes inconsistentes. Hoy por hoy no se sabe públicamente la magnitud, ni con precisión el impacto, de este robo de datos. La nota inicial hablaba de 8 millones de clientes, la apreciación que Best Western está transmitiendo es que no son más de 10 los clientes afectados, todos en un solo hotel en Berlín.

Vale la pena leer dos entradas en el blog de Graham Cluley, quien bloguea en Sophos. La primerasegunda, más reciente, transmite el mensaje oficial de Best Western citado arriba y lo respalda llamándolo "robusto". En el mismo blog se puede leer la noticia de un virus en las computadoras de la Estación Espacial y la de la persona que compró un servidor usado en eBay y se llevó la sorpresa de que contenía los datos de un millón de clientes de un banco

Un detalle más: Best Western proporciona un número telefónico para los clientes que quieran preguntar si sus datos fueron comprometidos - un número 1-800 en Estados Unidos, que puede ser inaccesible desde muchos otros países. Menos mal que los clientes pueden usar Skype...
describe la confusión, y en el último párrafo da una guía útil para detectar afectaciones de este tipo; en la (absolutamente creíble para mí; alguna vez me tocó devolver a un alto funcionario una computadora rescatada de un almacén de bajas que contenía una montaña de información sensible). Estos y otros blogs discuten aspectos adicionales del asunto: la necesidad de una comunicación clara por parte de la compañía, la necesidad de mejorar la protección de los datos, las ventajas de contar con software anti-spyware (hubiera ayudado al hotel afectado inicialmente a repeler la intrusión), etc.

Recomendaciones para una Red Nacional del Conocimiento del Dr. Sam Pitroda

Este 26 de agosto de 2008 se llevó a cabo en la Cámara de Diputados el Foro sobre el proyecto Red Nacional del Conocimiento al que me he referido en este blog y sobre el cual me propongo hacer varias notas más. Partiendo de una definición relativamente amplia del concepto de "red nacional del conocimiento" (una infraestructura, una alianza, etc.) conviene destacar las recomendaciones y consideraciones del Dr. Sam Pitroda (Satyanaram Gangaram Pitroda) quien preside la Comisión Nacional del Conocimiento de India.

En la presentación del Dr. Sam Pitroda, presidente de la Comisión Nacional del Conocimiento de la India, se presentan las siguientes recomendaciones, que tienen mucho de aplicable en nuestro contexto nacional:

  1. Las redes de conocimiento deben ser nacionales, conectando a todas las instituciones del país que crean conocimiento. Son responsabilidad del gobierno, no de entes privados aislados.
  2. Hay muchas maneras de conectar la red. Convienen más aquéllas que utilizan infraestructuras existentes, por ejemplo, fibra óptica disponible. Hay una preferencia por usar fibra obscura. Partiendo de la infraestructura existente, hay que prever darle soporte y “upgrades” frecuentes, que deben ser planeados. El marco temporal de la obsolescencia para el reemplazo es de tres años.
  3. Debe definirse claramente una arquitectura de la red. Entre otros puntos, decidir cómo se va a manejar el protocolo IP, qué versión se va a utilizar, si la red va a tener un solo “core” o varios interconectados (y cómo). La arquitectura debe estar orientada a soportar las aplicaciones pues son éstas las que crearán la demanda. Debe enfocarse la operación inicial en grupos académicos y de desarrollo que demuestren los beneficios de la red en corto plazo para impulsar más rápidamente el impacto de la red.
  4. Conectar con e-gobierno, en especial con los proyectos que a la vez dan servicio e impulsan nueva tecnología. Una métrica de la India: 6,000 desarrolladores han trabajado por 20 años en los sistemas de e-gobierno. [Nota de APB: en México proyectos como sistemas de administración de identidad y sus aplicaciones como firma electrónica serían de “grand challenge” y servirían tanto para exigir e impulsar innovación tecnológica y formación de recursos humanos avanzados, como para dar servicio a la población más amplia.]
  5. La seguridad y la privacidad son consideraciones primordiales. Los investigadores, por ejemplo, tienen la doble consideración de que deben mantener confidenciales los datos en curso de su investigación y los desarrollos tecnológicos, y de que deben difundir ampliamente sus resultados, compartir datos a distancia en grandes colaboraciones, etc. Es indispensable definir estándares, jerarquías, etc.
  6. Se debe construir con la red un apoyo a las LANs [usa LANs en un sentido relativamente suelto – en muchos casos para nosotros serían WANs, MANs y más]. Todas las instituciones de la red tendrán que mejorar y hacer “upgrades” en sus redes para poder funcionar en la Red Nacional. Los fondos para este fin deben ser provistos por el gobierno.
  7. Se deben planear desde el principio costos y estructuras de costo. La estructura de costo define costos generalizados y locales, inversión y gasto, inversión inicial y actualizaciones posteriores, etc. Es imprescindible el fondeo del gobierno.
  8. La organización de la Red Nacional le debe dar autonomía.
  9. La “propiedad” de la Red Nacional debe residir en los usuarios. Éstos la ejercen a través de la estructura de gobierno corporativo (o gobernanza) de la Red, en sus órganos colegiados, consejo directivo, comités, etc.
  10. El trabajo inicial debe ser encabezado por un grupo de 8 a 10 personas comptentes, preocupadas por el tema, y comprometidas.

Pitroda añade las siguientes consideraciones memorables:

  1. México fue la capital del conocimiento de América hasta hace pocos siglos y debe volver a serlo.
  2. Hay muchísimos jóvenes sumamente talentosos en México. Necesitan dos herramientas para que su talento fructifique:
    1. Inglés (la Comisión Nacional del Conocimiento de la India llegó al extremo de proponer su enseñanza desde el primer año de primaria, pasando por encima de oposición que veía la propuesta como neocolonial.
    2. Redes.
  3. La Red Nacional no presta servicio a consumidores finales sino a las instituciones (a pregunta del público).
  4. Sobre Ciudades Digitales (a pregunta del público): es imprescindible la información de la ciudad para usuarios móviles; son valiosos los sistemas de pago móviles para servicios tan básicos como el estacionamiento; la instrucción para producir estos sistemas debe venir del mando más alto; los sistemas de la Ciudad Digital deben orientarse a satisfacer las necesidades de la población en educación, alimentación, salud, techo, y entretenimiento; conviene empezar con poco en cada una y construir progresivamente el sistema completo.
  5. México debe aprovechar el potencial de sus migrantes como lo ha hecho, en forma muy exitosa, la India.
  6. El operador de la red debe ser dedicado (no puede atender al mismo tiempo las necesidades de la red avanzada y las de sus clientes). La anchura de banda en México es demasiado cara. La operación de la Red no le sustrae ni roba clientes a los operadores comerciales; al contrario, los crea.

Mapa de buenos sitios en Information Architects

Gracias a Carlos Augusto Estrada Nava, en Facebook, me entero del sitio de Information Architects, que tiene un mapa (tipo "Metro") de sitios Web y portales innovadores y útiles, una combinación muy bien lograda y representada. Un rato de navegación por el sitio servirá de inspiración e informará mucho.

viernes, agosto 22, 2008

Más conectividad... ¿o menos?

En un evento de la semana próxima (26 de agosto de 2008) en la Cámara de Diputados, a decir del Portal del Desarrollo, se presentará una discusión sobre el modelo de la Red Nacional del Conocimiento propuesta para México. Son notorios tanto los puntos que tiene en común como los que no con el evento de la revista Política Digital al que hice referencia unos párrafos antes en este mismo blog. Uno no puede sino desear que haya una clara articulación de estrategias.

México necesita sin duda alguna al menos dos avances sustantivos en el aprovisionamiento de nuevas redes de comunicación (para Internet, digámoslo explícitamente) de carácter público:

1. una extensión del alcance de las redes de banda ancha y alta calidad para los proyectos más diversos de la sociedad que no sean susceptibles, al menos en su inicio, de sustentarse en mecanismos de mercado. No son sólo proyectos de gobierno. Son proyectos de pequeños negocios basados en tecnología, son accesos a pequeños negocios que no son de base tecnológica pero requieren comunicación por Internet, son proyectos sociales, académicos, personales: los "proyectos de autonomía" que describe Castells en su libro de 2007, maravilloso, sobre la transición a la Sociedad Red, que he reseñado aquí;

2. una red de "core" de muy alto rendimiento con distribución y acceso igualmente de alto rendimiento para los grandes proyectos académicos, principalmente de las universidades pero también de otros tipos de instituciones, entregada en fibra obscura para algunos de sus usos y administrada, para otros. El mínimo absoluto deseable de anchura de banda es 1 Gbps y las aplicaciones de muchos proyectos requieren conectividad internacional a 10 Gbps. Ah, y hay mexicanos convencidos y competentes para usarlas; véase entre otros a José Bernardo Rosas, a quien conocí ayer, quien ha alcanzado algunos récords de velocidad y lleva su vida regularmente a 40 Gbps.

Para que estos dos grupos de metas sean alcanzables se requiere un "core" público que casi inevitablemente deberá funcionar fuera del mercado, como lo fue la red inicial de CUDI, provista por una empresa pública o privada visionaria y nacionalista.

Y, lo más difícil de lograr una vez que se disponga de la red, una arquitectura institucional, una gobernanza, sin desperdicios ni duplicaciones que enfoque los esfuerzos en logros reales con impacto medible y centrada claramente en su visión.

¿Estamos acercándonos a esa arquitectura o están en marcha fuerzas centrífugas capaces de impedirlo?

martes, agosto 12, 2008

Primeras reacciones al ranking de universidades de Shanghai 2008: Australia

Conforme se propagan las noticias acerca de la aparición (anterior a la fecha de publicación oficial) del ranking de Shanghai (ARWU o Academic Ranking of World Universities de la Universidad Jiao Tong de Shanghai) en el que la UNAM aparece en el decil 150-200 empiezan también las reacciones. Algunas auténticamente ponen los pelos de punta.

Es el caso de la reacción en el sistema de las universidades de Australia, de las cuales el ranking incluía dos en la edición 2007 y ahora incluye tres. Leo en la prensa (no tengo referencia original) que el profesor Simon Marginson, experto en el tema en la Universidad de Melbourne, expresa complacencia con el resultado ("es bueno para Australia" porque la mayoría de sus universidades aparece con mejor calificación, aunque tenía 17 y ahora sólo 15 en las "top 500").

Dice Marginson que una buena presencia de universidades de un país en los rankings refleja un sano estado de la economía. Curiosamente el mismo Marginson dijo recientemente que se está dando una separación creciente entre los estudiantes nacionales en Australia, que tienen que trabajar y vivir fuera del campus, y los extranjeros, que pagan cuotas altas y son buen negocio para las universidades, y disfrutan a tiempo completo las excelencias de la vida universitaria.

Ahora, ¿tendrá en mente Marginson al mismo tiempo tres cosas? 1. "Es bueno aparecer arriba en los rankings" (sus palabras); "hay una verdadera formación de ghettos entre los desaventajados estudiantes nacionales y los privilegiado estudiantes extranjeros"; 3. el ranking del Times tiene como objetivo medir cuán atractivas son las universidades de un país para los estudiantes extranjeros.

¿Una flagrante contradicción o un desafío al pensamiento basado en sutilezas? ¿o solamente un recordatorio de que los rankings hay que tomarlos con más granos de sal que los que hay en Guerrrero Negro?

Política Digital: nueva estrategia de banda ancha, nuevo modelo de conectividad

La revista Política Digital publica en su número de agosto/septiembre 2008 varios artículos sobre la estrategia de banda ancha y de conectividad que está en discusión y conformación en el gobierno federal y los de muchos estados de la república. La estrategia reúne la renovación del proyecto e-México; la creación o consolidación de redes estatales para usos en educación, salud y gobierno; la conexión a un "backbone" bajo autoridad de CUDI; y la puesta a disposición de los gobiernos locales de WiMax. El contenido completo está disponible solamente en la versión impresa por el momento.

Hay mucho que discutir sobre este tema y debe aplaudirse a Andrés Hofmann y la revista el que pongan el debate en público. La discusión tiene muchos ángulos (¿qué va a pasar con las redes avanzadas? es sólo una de las preguntas) que espero abordar en este blog en entradas posteriores.

Agradecimiento. Agradezco a José Luis Becerra Pozas, editor de Política Digital, la mención muy favorable que hace de este blog en la página 58 de la revista, un incentivo para mejorar y mantener enfocado el contenido.

Nota añadida. Corregí la liga a e-México gracias a una precisión de Alejandro Hernández Pulido.
A Víctor Sánchez: gracias por tu comentario. Corregí la liga a mi perfil en LinkedIn, http://www.linkedin.com/in/pisanty - en mis pruebas ya funciona. A tus órdenes si me dejas cualquier dato de localización.

domingo, agosto 10, 2008

Empates y desempates en Internet: downloads vs. cine, búsqueda vs. correo

Dos noticias recientes se basan en atraer la atención sobre empates de números en estadísticas en Internet:

1. El número de "downloads" de películas en Francia iguala a la asistencia a los cines. Desde luego la ALPA, sociedad protectora de derechos de autor en Francia, no lo encuentra divertido. Notable en el país que hace unos 25 años supo entender que el video para el hogar no iba a desbancar del todo al cine sino que sería un negocio complementario. Fue Francia uno de los primeros lugares en que los videoclubes se instalaron en la planta baja de los cines; la gente que venía de ver la película más reciente de Belmondo salía del cine ya con los videos de todas las anteriores películas de Belmondo. No puedo negar que este desplazamiento hacia el video tuvo una consecuencia lamentable: la extraordinaria película Ran, de Akira Kurosawa, existió originalmente en material cinematográfico de 70 mm y era espectacular; los productores la destruyeron para dejar sólo la versión en video, angostita y rugosa por decir lo menos.

2. La búsqueda y el correo ya merito empatan; es decir, más precisamente, el estudio del fondo Pew aparecido en los últimos días, sobre los hábitos de uso de Internet de los usuarios de Estados Unidos, encuentra que ya es casi igual el número de usuarios que diariamente hacen una búsqueda en Internet que el que usa el correo electrónico, o sea cerca de 49% y 60% respectivamente.

Dos ópticas de la misma noticia: mientras que la mayoría de los medios subraya lo positivo que es este crecimiento de las búsquedas, Ars Technica correctamente subraya la lectura del "vaso medio vacío": la mitad de los usuarios de Internet de Estados Unidos no hace una búsqueda por día en Internet, lo que lleva a la reflexión de que estos usuarios no están haciendo un uso abierto de Internet en una forma que aumente intensamente la información y los criterios a su alcance.

Habrá que esperar los resultados del estudio correspondiente para México para fin de año; en el estudio de 2007 no aparece la pregunta. Quizás haría bien la AMIPCI en alinear más completamente algunos parámetros de sus estudios con los de Pew para ganar en comparabilidad; ya son buenos, esto los puede hacer aún mejores. Todos nos beneficiaremos de ver a Internet - por el mismo costo del estudio - como un todo y no sólo en la perspectiva, innegablemente importante, del comercio. Es en esa misma línea de pensamiento que sugerí el año pasado empezar a incluir entre las actividades por las que se pregunta el acceso a educación en línea.