domingo, diciembre 14, 2008

Felpudos y la filosofía de la seguridad

El siempre excelente This is True, de Randy Cassingham, uno de mis personajes favoritos de Internet por muchísimos años ya, me da la pista hacia un hallazgo: Tom Mullarkey, de la Sociedad Real para la Prevención de Accidentes del Reino Unido (RoSPA), dice [traducción mía]: "La aplicación del sentido común es preferible a los pasos incrementales sin sentido de los gobiernos hacia la 'seguridad absoluta', un destino ni alcanzable ni deseable, ya que llegaría con un alto costo para nuestras libertades" (nota completa del Telegraph con muchos detalles más).

Esta frase resuena con una que algunos hemos usado con frecuencia al ser cuestionados sobre la seguridad de Internet o de los sistemas computacionales: que el concepto de "administración del riesgo" es preferible al de "seguridad", ya que "seguridad" es un concepto con una fuertísima carga emocional y que define un absoluto, mientras que la administración del riesgo sugiere una serie de evaluaciones de riesgos y medidas que estarían realista y racionalmente definidas por su impacto en la prevención, detección, mitigación y remediación del riesgo ys sus consecuencias, y enfocadas en la proporcionalidad entre las medidas y los riesgos e impactos.

Lo más interesante en esta ocasión es averiguar de dónde salió la ocasión para que Mullarkey se expresara: una controversia local en la que la autoridad local de Gosport, Hampshire, ha ordenado a l os residentes eliminar los felpudos (con sus simpáticos letreros de bienvenida y el poder de quitar la mugre a los zapatos) de los pasillos, ya que pueden constituir un gravísimo riesgo. Y no es que la RoSPA sea irresponsable; su congreso más reciente sobre la seguridad en el hogar busca precisamente un balance entre la complacencia y la paranoia.

Como dijeran alguna vez Les Luthiers, "¡caramba, qué coincidencia!" (óiganla aquí).

viernes, diciembre 12, 2008

"Freesouls", de Joi Ito - un hito en publicación digital

Acaba de aparecer el libro "Freesouls", de Joichi Ito (o Joi Ito), un libro de fotografías de 286 amigos de este incansable creador y promotor japonés. El concepto del libro es publicar fotografías en las que Joi considera que ha capturado una imagen verdadera y fiel de la persona, no el primer retrato (esas odiosas fotografías de coctel con la boca chueca y los cachetes llenos) sino el resultado de cientos de tomas, cuando la gente está en confianza y metida en lo suyo.

Los ensayos son excelentes y en particular el del propio autor y compilador apunta hacia varios temas de interés:
  • la explicación del propio libro, las fotos, y el uso de Creative Commons en el mismo;
  • de esa manera, el sentido que da a "free" en "freesouls", como en "software libre", disponibles, liberadas, las almas y sus fotos;
  • el impacto de Creative Commons y otros conceptos similares, relacionados con la "libertad de compartir" (en una manera que me parce complementaria, más pacífica, y posiblemente más constructiva que la aguerrida libertad del también estimado Richard Stallman);
  • una idea que estimo mucho: el uso de Internet, y en especial de las nuevas "redes sociales" en línea, como un complemento que enriquece las relaciones interpersonales y las reuniones cara a cara, en una explicación que casi es más estética que sociológica.
Visiten también el sitio de Joi que tiene un blog más que estimable.

[Full disclosure: en el libro aparece una fotografía que me tomó Joi y que discutí con él; la imagen es ambivalente y sugiere tanto concentración en la tarea como, debido al ángulo de vista al que obligan los lentes bifocales, ver las cosas desde arriba, quizás con distancia, quizás con arrogancia. Joi estaba particularmente satisfecho con esta ambivalencia, lo cual me enseña mucho.]

miércoles, diciembre 10, 2008

"La madre de todas las demos"

Un buen artículo en CNET celebra el 40 aniversario de la que ha sido llamada "la madre de todas las demos", la demostración del mouse y las ventanas de computadora interactivas, hecha por Douglas Engelbart el 9 de diciembre de 1968.

Es conmovedor ver el mouse hecho con una cajita de madera. Y no podemos olvidar que incluso años después, muchos de quienes estábamos metidos en cómputo (yo empecé a estarlo en 1972) primero ignoramos y después no supimos apreciar desde el principio estos avances; nos preocupaba demasiado el cómputo numérico de gran escala. Después, por supuesto, acabamos convertidos a la causa de la transformación revolucionaria que sigue, pero muchos tenemos que confesar nuestro escepticismo inicial a las primeras computadoras de escritorio.

martes, diciembre 09, 2008

¿Banda ancha o triple play? la Compañía de Luz, un nuevo jugador

Una nota periodística del diario El Economista informa que la compañía gubernamental Luz y Fuerza del Centro, antes Compañía de Luz y Fuerza del Centro (En Liquidación) [lectores no mexicanos: sí, así se llama, no es broma] está pidiendo los permisos necesarios para crear una filial que se dedique a servicios de telecomunicaciones en el esquema de "triple play".

La red de la Compañía de Luz aportaría aproximadamente 1,000 kilómetros de fibra óptica (pocos en comparación con los entre 20 y 40,000 que se reportan para la CFE y muchos más de Telmex, pero críticamente ubicados en la mayor concentración económica y de población del país) al esquema nacional, con un valor adicional si se lograran buenos resultados: la interconexión con la red de la CFE para la zona centro de México. Destaca en la nota la observación de que la relación laboral de la nueva filial no se haría con base en la que actualmente tiene la ex-CLyFC (E. L.) [sic, de veras] con el Sindicato Mexicano de Electricistas. No hace comentario alguno sobre la agregación de servicios de banda ancha que tan dramáticamente necesitan el país my más agudamente aún la zona servida por la ex-CLyFC (E.L.).

Mis amigos aficionados al béisbol sabrán juzgar mejor si lo que se logre será un triple play de voz, datos y video que sirva al país, o añadir outs en conectividad y servicios al que ya nos tiene anotado la ex-nCLyFC (E.L.) en el abasto eléctrico.

miércoles, diciembre 03, 2008

Informe de APC sobre la Sociedad de la Información

Ayerr apareció al público la edición 2008 del informe de la APC (Association for Progressive Communications) sobre el desarrollo de la Sociedad de la Información en el mundo.

El informe contiene muchísimo material de interés; no siempre imparcial (lo cual por sí solo no es un defecto) pero digno de discusión. Además de discusiones de temas de interés global, hace un largo recorrido por muchos países con informes detallados tanto de avances como obstáculos. La censura y los obstáculos a la extensión del acceso digital son motivos de particular atención.

La sección sobre México ha sido elaborada por LaNeta y describe numerosos problemas de la sociedad y las limitaciones para el desarrollo.

Un agudo contraste: este informe está disponible completo en línea, viniendo de una ONG, mientras el más reciente y muy anunciado informe de la UIT que convoca a compartir las redes de infraestructura para mitigar el impacto de la crisis económica sólo está disponible completo mediante el pago de 106 francos suizos (¡por el pdf!). Afortunadamente el resumen de 40 páginas es bastante informativo; espero referirme a él en otra entrada de este blog.

Rankings, vergüenza nacional, e ignominia: cómo no reaccionar a los rankings de universidades

La recepción de los rankings de universidades varía mucho entre instituciones y países. En general a las instituciones a las que los rankings les otorgan altas calificaciones o ascensos reaccionan, comprensiblemente, con gusto y con publicidad al respecto. Cuando las calificaciones las desfavorecen o reclasifican a la baja es natural que observen públicamente los defectos del método de calificación y sean discretas en la publicidad de los resultados.

En rankings como el de la revista Times Higher Education, los ajustes hechos el año pasado, y a los que me he referido en este blog, estos efectos se complican y amplifican porque efectivamene los cambios de metodología producen artificios cuya percepción puede ser muy desagradable. En el caso de la UNAM hemos visto que, como se podía predecir con alguna certeza, un segundo año de aplicación de la misma metodología llevó a una colección de información más escrupulosa por parte del equipo del Times Higher Education y de Quacquarelli & Symonds y esto llevó a un ascenso en la tabla.

En otros países las reacciones a los rankings alcanzan proporciones que me parecen épicas y totalmente fuera de lugar. Éste ha sido el caso por varios años en Malasia, país en desarrollo con importantes recursos así como interesantes complejidades sociales. En Malasia la prensa, y aparentemente con ella algunos sectores políticos, han vapuleado a las universidades y a las autoridades por el hecho de que sus universidades no queden clasificadas entre las primeras 200. En un artículo de hoy el propio Times Higher Education refiere rudas declaraciones de políticos malayos que califican a la situación de vergüenza nacional, y llaman "ignominia" al hecho adicional de que las universidades malayas han quedado clasificadas abajo de las de los países vecinos como Tailandia, con los que sostienen una intensa competencia y abrigan rivaldades históricas.

Tengo una consideración más que compartir: normalmente el THE se hace valer como importante refiriendo la resonancia que los resultados positivos dan a las universidades "exitosas". ¿No será una pequeña forma de extorsión el referir ellos mismos el daño tóxico que hace una mala calificación? ¿No sería ético que también discutieran sus autores las incertidumbres y otros factores - tamaño, localización geográfica, idioma del país - que hacen que una buena universidad no obtenga una alta calificación en sus tablas?

Este artículo y la discusión alrededor del mismo deben recordarnos que hay que mantener una sana y racional distancia crítica respecto a estas clasificaciones.

"Mapa mental" de herramientas de e-learning o aprendizaje en líneaG

Gracias a una communicación de Erika Páez en LinkedIn, veo y recomiendo un excelente mapa mental de herramientas para la educación a distancia, específicamente concentrado en aprendizaje en línea o e-learning. Muy recomendable para trabajar en el tema y para iniciar conversaciones productivas y buenas discusiones.

jueves, noviembre 06, 2008

Reseña de Alejandro Piscitelli sobre e-competencias

Alejandro Piscitelli hace una reseña imperdible sobre el seminario e-competencias. Ni duda, se reconoce al maestro: la estructura y la crítica, la perspectiva más amplia, y el paso del tono de blog personal - las coincidencias en serie que lo llevaron a poder participar en persona - a la síntesis de las ponencias, con bien sazonada crítica, y a la propuesta, el e-awareness. En la misma página al pie emocionante comentario de nuestra admirada Tíscar, que piensa bien, trabaja bien y se comunica bien.

De entrada acepto la crítica a mi PPT, que no tenía otra intención que fijar las palabras; y en la que me permití un momento lúdico, el de ilustrar un juego de palabras sobre la palabra "coproducción" (lámina 6) para subrayar los riesgos cada vez mayores que veo en el uso de la Red para acendrar los enconos, las diferencias, las estereotipias que permiten pasar de la divergencia de las ideas al odio a las personas (Pepe Woldenberg toca el tema hoy en su editorial del Reforma en un contexto general de la sociedad).

el seminario e-competencias: primera lectura en un blog

El viernes 31 de octubre de 2008 tuvo lugar en FLACSO México el seminario e-competencias, organizado por Cristóbal Cobo y John Moravec (de la Universidad de Minnesota). Nos reunimos, invitados por ellos, varias decenas de académicos y practicantes de las tecnologías de informaciónn en educación para discutir alrededor de las competencias necesarias para la vida en la red, en esta época tan pero tan "Web 2.0" (concepto que fue debidamente criticado durante el seminario). Una buena parte de los ponentes participó a distancia, fuera en vivo o en video.

Veo con gusto una buena referencia al seminario en el excelente blog de Carmen Lara Dillon; las han hecho ya Alejandro Piscitelli, quien tuvo una intervención luminosa, y otros (incluido Octavio Islas en un artículo de diario en el que expone con amplitud la ponencia del expositor que acudió en su lugar). Recomiendo visitar el sitio y reproducir los videos y demás materiales; la discusión tuvo una densidad inusitada y dará para rato entender y explotar lo que aprendimos.

domingo, noviembre 02, 2008

Más sobre el "ataque Kaminsky" al DNS en IEEE Spectrum - "Fresh Phish"

Un artículo en el número de octubre de 2008 de la revista IEEE Spectrum, con el título "Fresh Phish", describe el ataque de redirección de llamadas al DNS que fue hecho público hace unos meses por Dan Kaminsky.

Nótese que he decidido no adoptar la frase "ataque al DNS" porque me parece amarillista y excesiva. El ataque tiene importancia innegable y contribuye al phishing de manera novedosa y potencialmente peligrosa pero difícilmente puede describírsele con una terminología que sugiere un ataque único, coordinado y sistemático contra el total o el corazón del sistema de nombres de dominio.

La lectura me parece recomendable por las explicaciones y por las figuras contenidas en las ligas del texto; y la actualización en el tema no es desperdicio incluso para quien no está obligado a operar la infraestructura tecnológica y entenderla en todo detalle.

domingo, octubre 26, 2008

Agotamiento de las direcciones IPv4, transición a IPv6: algunas novedades

La preocupación por el inminente agotamiento de las direcciones IPv4 atrae cada vez más atención.

Como sabemos, el problema es que el número total de direcciones IP disponibles bajo la definición del protocolo IPv4 es de sólo un poco más de 4,000,000,000, y la gran mayoría de éstas han sido asignadas ya a los diversos tipos de usuarios (fundamentalmente proveedores de servicio de Internet o ISPs). Esto no quiere decir que todas estén en uso (en el argot, no todas están ruteadas actualmente), pero sí que ya están asignadas a alguna organización. Y hay muy pocos incentivos para devolverlas al "pool" original, ya que recuperarlas posteriormente sería incierto, y tendría un alto costo de transacción por los cambios en el enrutamiento de la organización que las tiene asignadas.

En una publicación de ISOC pero con responsabilidad individual sobre el contenido, Geoff Huston, uno de los líderes de la comunidad de direccionamiento IP y de los RIRs (registros regionales de Internet; en su caso específicamente APNIC, que opera en la región Asia-Pacífico) hace un resumen de las discusiones recientes sobre los mecanismos y políticas que están siendo propuestos para proceder con las direcciones IPv4 en el futuro.

Las políticas vigentes actualmente están basadas en una premisa de abundancia de direcciones, por lo cual se asignaron primero en grandes volúmenes o bloques (llegó a pasar que una universidad de Estados Unidos tuviera ella sola la octava parte del espacio) con base sobre todo en los planes técnicos de las organizaciones. Además, la hipótesis altruista y de buena fe con la que fue construida Internet en sus primeras etapas se traduce en el principio de no monetizar las direcciones IP, es decir, de no someterlas a las leyes del mercado, sino asignarlas en los RIRs como organizaciones benevolentes.

En la actualidad y ante la escasez, combinada con el hecho de que la adopción del sucesor de IPv4, IPv6, es muy lenta todavía, se prevé que al agotarse las direcciones IPv4 disponibles públicamente se generen distorsiones importantes en los medios por los cuales las organizaciones consiguen direcciones IP que puedan usar en sus operaciones. Uno de los resultados que más preocupan a la comunidad es que se forme un mercado negro de direcciones IP en el que el poder económico y la especulación dominen.

El artículo de Huston hace un buen resumen de estas dificultades y se inclina levemente, aunque con titubeos, hacia la formación de mercados abiertos. La formación de mercados ha sido impulsada anteriormente por diversos actores del universo IP, así como por Milton Mueller y otros. En el caso de Mueller se trata de un impulso fundamentalmente dogmático e inacabado. Lehr, Lear y Vest en cambio hacen un estudio cuidadoso y dejan en su artículo huella clara de las controversias entre las distintas posiciones en juego. La OCDE, en un estudio firmado por Karine Perset, atrae la atención de los hacedores de política pública en la materia.

Los problemas asociados a la creación de mercados de direcciones IP no son pocos ni triviales. El primero quizás sea de jurisdicción y asociado a éste es severo el de política de competencia y anti-monopolios. Como Huston lo señala, los RIRs han sido hasta ahora simultáneamente proveedores de las direcciones, reguladores, y registros de las asignaciones. Al perder la capacidad de proveer direcciones, pasan a tener que regular el mercado, para lo que no están equipados actualmente, y pierden su capacidad de regular las asignaciones.

El artículo de Huston tiene sus propios problemas, por supuesto. Es desagradablemente omiso respecto a los registros LACNIC y AfriNIC, ignora el papel benéfico que los RIRs pudieron dar a ICANN en esta materia, y deja de lado temas de política pública fundamentales. Nada de esto le quita importancia a su lectura.

Hace diez años, cuando empezamos a formar ICANN, una época dominada por feroces batallas por la política de nombres de dominio, predije que éstas serían un día de campo de un jardín de niños comparadas con las que vendrían por las direcciones IP (no presumo de originalidad ni de precisión en ese vaticinio). Hoy estamos viendo un motivo de conflicto creciente, en el que las administraciones nacionales de telecomunicaciones de muchos países y los organismos intergubernamentales tendrán una cada vez mayor tentación de intervenir, y ciertamente una experiencia amarga en ello porque queda muy poco que puedan hacer. Pero desde luego la tentación de decir "esto no volverá a pasar" aplicada a una intervención sobre las políticas de asignación de direcciones IPv6 arreciará.

Ojalá con esta descripción quede claro que estamos ante uno de los más interesantes, y potencialmente más intensos, problemas de gobernanza de Internet.

Respuesta a comentario sobre "Internet y tu cerebro"

Recibí con gusto el comentario, que agradezco, de un lector de nombre Jorge sobre mi nota "Internet y tu cerebro". Como apostilla a la misma: no creo que el puro acceso a Internet contribuya a la inteligencia, y sin duda se podrán documentar instancias que prueben lo opuesto. A lo largo de los años este debate me ha recordado siempre el registrado por Platón acerca de la escritura, en el que un personaje de sus Diálogos previene contra los terribles riesgos que acarrea ésta: que reduciría la memoria y la inteligencia al sustituir el uso de la memoria. Y ya ven...

viernes, octubre 24, 2008

Internet y tu cerebro

En días recientes se publicaron en México algunas notas de prensa sobre estudios que muestran que el uso de Internet "aumenta la inteligencia"; otro tanto sucede hoy, con notas que reproducen la afirmación de Larry Page, uno de los fundadores de Google, de que el acceso a la información hace a la gente más inteligente. Para ir un poco más a fondo en el tema recomiendo un artículo de Gary Small y Gigi Morgan, "Meet your iBrain", en la revista Scientific American - Mind (requiere suscripción), que describe las investigaciones de Small y un panorama más amplio.

Los hallazgos de Small se basan en comparar estudios de MRI (imágenes de resonancia magnética nuclear) del cerebro en activo de sujetos de dos grupos, uno de personas expertas en el uso de Google para búsquedas de información en Internet y otro, comparable socialmente, de personas de más de 50 años de edad que no lo eran al inicio del experimento. Comparando las imágenes al principio y al final del estudio, Small encuentra que ambos grupos de sujetos tienen iguales habilidades para leer libros e iguales rutas neuronales para hacerlo al empezar el estudio, pero los novatos en el uso de Internet no cuentan con las rutas neuronales desarrolladas para el uso de Internet y los expertos sí.

Lo que es muy notable es que en sólo cinco días de entrenamiento, los sujetos que no usaban Internet desarrollan las rutas neuronales para hacerlo. Así se concluye que sí hay una habilidad diferente en el uso de Internet, y que ésta puede ser desarrollada en un corto plazo (me pregunto si esto implica que "no es para tanto", es decir, que esta habilidad no es muy sofisticada o compleja).

Small y Vorgan continúan el artículo con más información y reflexiones: la conectividad constante y la agilidad con que se usa Internet son parte del estado de "atención parcial continua" que había sido descrito hace una década por Linda Stone, y, además de los riesgos usuales de desconexión social y pérdidad de habilidades para la interacción interpersonal, hacen dos notas que encuentro novedosas:

1. la atención parcial continua crea un estado de estrés aumentado sobre el cerebro, que eventualmente produce fatiga ("burnout") medible, que a su vez es posible contrarrestar mediante siestas y un aumento en la variedad de las tareas;

2. el estado de conectividad constante contiene un sentido de crisis permanente, una alerta constante, que alimenta el ego y la autoestima. Esta autoestima es biológicamente útil porque protegee algunas zonas del cerebro (el hipocampo), pero no es posible sostenerla permanentemente. Cuando este esfuerzo fatiga al cerebro, produce una especie de "neblina digital" que puede convertirse en una nueva epidemia. Otro burnout y otra siesta; otra alteración fisiológica con la que estamos contendiendo.

El final del artículo es más bien optimista, al sugerir que es posible impulsar un desarrollo balanceado de las nuevas y viejas habilidades de nuestro más querido kilo y medio de masa encefálica. Más lecturas en el sitio promocional de Gary Small, que algunos encontrarán desagradablemente comercial.

miércoles, octubre 15, 2008

DNSSEC - cómo firmar la raiz del DNS, o no - seguridad en el DNS

Durante los años recientes se ha perfeccionado una serie de elementos de tecnología y estandarización para proveer seguridad en el sistema de nombres de dominio (DNS), conocidos en conjunto como DNSSEC. En DNSSEC se hace una firma digital de un nombre de dominio y los dominios de nivel inferior pueden ser programados para sólo reconocer la zona jerárquicamente más alta si la firma digital coincide. La firma está basada en PKI y requiere todos los elementos de criptografía de llave pública conocidos, incluyendo la dificultad (que está bien resuelta en DNSSEC) para propagar las firmas de manera segura, revocarlas o reemplazarlas, etc. DNSSEC da lugar a algunor problemas secundarios para los que también se han adaptado soluciones. El más conocido es el del "'peinado" de las zonas", que permite explotar DNSSEC para descubrir algunos registros en el DNS que debieran permanecer sin visibilidad.

DNSSEC se vuelve un tema mucho más delicado, y adquiere un ángulo político, cuando se aplica a dominios de primer nivel (TLDs) y a la raíz del DNS. Los dominios nacionales (ccTLDs) de algunos países, como Suecia (.se) ya están aplicando esta tecnología y adquiriendo experiencia con su uso. Pero el firmado de la raíz se vuelve contencioso.

La raíz del DNS, como se sabe, está bajo responsabilidad de ICANN, en un complejo arreglo del que también son parte la compañía Verisign y el gobierno de Estados Unidos a través de una agencia del Departamento de Comercio conocida como NTIA. En los últimos días se han dado a conocer la propuesta para la firma de la raíz de ICANN y la de Verisign. Huelga decir que son diferentes, que la de Versign tiende a perpetuar y fortalecer el papel asimétrico de Verisign en la administración del DNS (con un problema tipo "juez y parte" adicional, y que la NTIA... la NTIA.. la NTIA ha preferido llamar a una consulta pública que termina el 24 de noviembre, después de las inminentes elecciones presidenciales en Estados Unidos. La NTIA, en tanto que ha expresado una opinión, se ha manifestado por no proceder de acuerdo con la propuesta de ICANN en tanto que considera que es una modificación del contrato de IANA que no es posible considerar actualmente.

¿Qué hacer? Los interesados harían bien en enterarse bien del tema, y participar en la consulta. En lo personal me inclino fuertemente a favor de la propuesta de ICANN, y ante todo, a la necesidad expresada ya por expertos de muy alto nivel de que la raíz sea firmada en una forma que resulte convincente para todos quienes vitalmente dependen del DNS, y reduciendo el rol asimétrico de las entidades basadas en los Estados Unidos.

miércoles, octubre 08, 2008

UNAM 150 en Times Higher Education University Ranking

La UNAM aparece en el lugar no. 150 del ranking de la revista Times Higher Education. La Universidade de Sao Paulo 196, Campinas fuera del grupo "Top". La publicación está apareciendo en línea en este momento. Sus autores consideran "UNAM is the clear leader in Latin America".

Son conocidas las salvedades que pongo a los rankings, pero no hay duda de que esta noticia hará felices a muchos universitarios. Espero proveer una discusión crítica una vez revise los delicados aspectos metodológicos relevantes.

El trabajo de THES y de Quacquarelli and Symonds tiene visos de mayor consistencia este año, por el que habrá que felicitarlos. La mejor validación es que las universidades inglesas, que se vieron premiadas el año pasado por el cambio de metodología, se deslizaron un poco hacia abajo.

Blogueo desde la Cámara de Diputados, agradeciendo la disponibilidad de red inalámbrica en sus recintos.

martes, octubre 07, 2008

La tabla periódica en videos

Gracias al blog de Alejandro Piscitelli me entero de La Tabla Periódica en Videos, un recurso didáctico útil, fácil de usar y - al menos a mi juicio - divertido. Como dice Piscitelli, ¿quién puede resistirse al poder hiperpedagógico de Internet? (Los videos fueron producidos por la Universidad de Nottingham, en Inglaterra, la cual además de sus resonancias robinhoodescas resuena constantemente en el mundo de los rankings porque usa el muy buen lugar en el que fue clasificada por el ranking de Times Higher Education para anunciar hasta las plazas más poco académicas).

Y siguiente pregunta, ¿qué universidad hispanoparlante puede pronto producir una traducción/doblaje de estos videos, pero sobre todo un recurso concebido en español desde su origen? En muchas se trata de revivir y ampliar recursos preexistentes en otros soportes, para los cuales todo el contenido está ya preparado.

Y seamos honestos, esta tabla periódica demuestra también que se puede hacer mucho con poco: una cámara fija, una toma bastante abierta, un personaje arquetípico, y unas cuantas muestras y figuras "de cajón" que hay en cualquier escuela de química decente, e incluso en algunas preuniversitarias. Es el extrovertido ánimo de comunicar lo que más falta.

(Mensaje a Piscitelli: Tocayo, ahora sí no tienes excusa para evadir el artículo para la RIED).

lunes, octubre 06, 2008

Skype se topa con la Gran Muralla / Skype collides with the Great Chines Firewall

En los últimos días se ha propagado la noticia de que el uso de Skype en China no es irrestricto, sino lo contrario: el contenido de los "chats" es monitoreado y registrado, y en algunos casos el monitoreo lleva a la suspensión de la conversación.

Esto viene como un balde de agua a quienes consideran que Skype es seguro porque está encriptado. Aquí caben dos aclaraciones: sólo tengo referencias al encriptado en el caso de comunicaciones por voz (seguramente alguien mejor enterado lo afirmará o corregirá), y sobre todo, el software que se usa e intercepta en China no es estrictamente Skype, sino algo llamado TOM que es compatible conn Skype.

En medio del ruido encontré un excelente artículo al respecto en la revista Technology Review del MIT, una fuente confiable y de alta calidad. En el sitio del artículo se registra una discusión - en parte previsible - que sugiero consultar también antes de comentar esta nota aquí.

jueves, octubre 02, 2008

Texto de Vint Cerf sobre Jon Postel

CircleID publica un texto excelente de Vint Cerf sobre Jon Postel, al cumplirse diez años de su fallecimiento. El texto se puede ver también aquí, en el blog de ICANN, con otra fotografía de Postel. No sobra recordar que Postel fue el miembro no. 1 de ISOC (Internet Society) para ver que su obra e impacto fue mucho más allá de su trabajo técnico.

sábado, septiembre 27, 2008

Cantidad y calidad de la producción académica en China y Estados Unidos: una comparación informétrica

Un artículo en la revista científica Informetrics hace una escrupulosa comparación entre la producción científica en China y en Estados Unidos, enfocándose en las ciencias físicas y en particular en las nanociencias.

El artículo es relevante para todos quienes estudiamos o seguimos el tema de comparaciones entre instituciones, en particular en mi caso los rankings de universidades, porque en estas comparacionnes los contextos nacionales son de la mayor importancia. En particular a lo largo de varios años me ha tocado comparar los resultados de universidades mexicanas y brasileñas e inevitablemente esta comparación queda enmarcada en una comparación de la producción científica de ambos países.

El artículo de Kostoff [que debe citarse como Kostoff, R N. Comparison of China/USA science and technology performance. Journal of Informetrics (2008),
doi:10.1016/j.joi.2008.06.004] describe las diferencias entre las distintas fuentes informétricas que utiliza para su trabajo, párrafos también muy útiles, pues ilustra por ejemplo cómo el uso de SCI (Science Citation Index) puede sesgar las comparaciones cuando algunas de las instituciones consideradas tienen fuerte actividad en el campo biomédico.

Las conclusiones de Kostoff son que China está publicando tanto o más que Estados Unidos, país para el que observa un pico alrededor de 2005 y una declinación desde entonces. En lo que hace a calidad, considera que la publicación científica en China aún es notoriamente inferior a la de Estados Unidos, pero en cambio muestra un incremento monotónico en los últimos años. Vale la pena leer el artículo por sus múltiples enseñanzas.

Y desde luego valdrá la pena que informétricos bien entrenados repitan este trabajo para comparar la producción científica de México por un lado con Estados Unidos, que es un estándar mundial, y por otro con Brasil, país que en muchas observaciones notamos que está ganando una ventaja que puede ser irreversible respecto a nuestro país en producción científica y tecnológica.

Ranking de Universidades de Brasil

Recientemente el Ministerio de Educación y Cultura de Brasil realizó una extensa evaluación de las universidades de ese país, con base en diversos factores entre los cuales es clave un examen general que se aplica a los estudiantes universitarios brasileños. La prensa brasileña publicó de inmediato los resultados. Entre otros diaros, O Globo publica la tabla de las 10 universidades mejor calificadas. En tablas más detalladas se hacen clasificaciones no sólo por universidad sino por escuela.

Sorprendentemente, la Universidade de Sao Paulo (USP) y la Universidade de Campinas (UNICAMP), que son las mejor calificadas en los rankings de Shanghai Jiao Tong University y de Times Higher Education, no aparecen en las tablas. Hicieron falta unos días para encontrar una explicación: la USP y la UNICAMP no aplican el examen citado, y por lo tanto no participaron en el ranking. Esto lo explica el diario en línea de una ciudad poco visitada pero que por lo visto cuenta con un periodista acucioso que quiso que sus lectores no se quedaran con dudas.

Nos quedamos así sin saber cómo son medidas en su propio país. Estimo que también ocuparían los lugares más altos, al menos con muchos de los criterios conocidos, pero nos perdemos de los detalles. Será para otra ocasión.

Recordando la dimensión física: ¿de qué tamaño es un bit?

Un interesantísimo artículo del Materials Research Bulletin cuyos autores son Bandic, Litvinov y Rooks, describe la frontera actual de los dispositivos de almacenamiento de información, tanto magnéticos como electrónicos, desde el punto de vista de la física y la ciencia de los materiales. Escrito como introducción a una sección del "Bulletin" de la MRS, hace un repaso rápido de las tecnologías de los discos magnéticos y las memorias "flash" para describir a continuación el estado del arte y apuntar a algunas de las innovaciones que están "tras lomita", incluyendo algunas muy audaces que provienen de la biología.

En el camino los autores nos recuerdan el tamaño de un bit: 20 x 80 nm, en los dispositivos magnéticos más recientes (como ellos mismos lo dicen, para la fecha de publicación este dato podría ser obsoleto), es decir, los fabricantes de discos magnéticos se están acercando a la capacidad de almacenar 1 Gigabit por pulgada cuadrada - en un disco de 100 gramos de peso. La figura que ilustra el avance de los últimos años hacia la frontera física vale por sí sola la lectura.

Los límites del almacenamiento magnético están determinados en la actualidad prácticamente por una frontera física fundamental, el límite en el que la energía térmica de los materiales excede a la energía magnética almacenada en cada pequeño grano del material; si el tamaño de grano disminuye, la energía térmica puede desmagnetizarlo. Pero desde luego el propio artículo describe algunas de las innovaciones en puerta que permiten evadir los efectos de este límite, no sólo con nuevos materiales sino con nuevas maneras de estructurarlos. Otro tanto hacen con las memorias electrónicas de estado sólido.

Buena lectura para recordarnos que allá abajo en la capa 1 todavía hay mucho, pero mucho que hacer.

jueves, septiembre 25, 2008

Luz de la calle y obscuridad de su fibra

"Luz de la calle y obscuridad de su fibra" - a diferencia de la frase popular, "candil de la calle y obscuridad de su casa", esta nueva frase debería ser el mayor título de mérito al que aspire nuestra Comisión Federal de Electricidad, y con ella también la Compañía de Luz y Fuerza del Centro (en liquidación).

Al leer hoy en el diario El Financiero y en otras fuentes como El Semanario sin Límites la clara queja de la CANITEC (Cámara Nacional de la Industria de Televisión por Cable) a través de Alejandro Puente me vino a la mente esta frase paradójica. Puente describe un esquema realista, vigente en Francia, para conectar la fibra óptica de la CFE con la provisón de servicios a terceros entregando a estos el servicio a nivel de fibra obscura, y se duele a nombre de la Cámara que encabeza de que la CFE no esté poniendo fibra obscura a disposición de los usuarios. El esquema es una especie de co-locación a corta distancia, fuera de las instalaciones de la CFE, y por ello con impacto muy bajo en las consideraciones de seguridad nacional que ahora se invocan para la negativa a la venta/renta de servicio en fibra obscura, y amerita estudio a fondo, sobre todo en ausencia de proveedores comerciales y precios competitivos interrnacionalmente.

Para mí el quid del asunto está en que sólo a nivel de fibra obscura será posible realizar algunos trabajos científicos y tecnológicos de frontera que son imprescindibles para el desarrollo de México. El botón de muestra de la semana me lo proporcionó uno de los brillantes investigadores de la UNAM que están trabajando ya con el Large Hadron Collider (LHC) en el CERN en Ginebra. En respuesta a una pregunta mía tuvo la cortesía de indicarme qué anchura de banda requiere su experimento en esta etapa inicial: 25 Mpbs. Es decir, la capacidad real con la que se puede manejar tráfico de calidad en un enlace E3 de 34 Mpbs sin rebasar una cota de aproximadamente 70% de su capacidad, a partir de la cual las contención por el canal vuelve problemáticas las comunicaciones.

No vamos a ir muy lejos sin que la fibra óptica propiedad de la nación se dedique , en una fracción apreciable, a proyectos fundamentales de la sociedad que no son comerciales o siéndolo no han llegado a una etapa lucrativa. Entre los primeros está toda la ciencia mexicana que requiere conexión a redes de alta capacidad; entre los segundos los múltiples proyectos de desarrollo tecnológico en instituciones académicas, los desarrollos comerciales, las pruebas de concepto, funcionalidad y estrés del software apoyado por ProSoft y pronto los productos de ProMedia, y tantos más.

Los esquemas para el uso no comercial de la fibra no pueden basarse en los contratos comerciales estándares: los costos y precios no pueden ser los de una competencia de precios no agresiva con los proveedores comerciales, los niveles de utilización garantizada y constante no pueden ser tan altos como los que requiere la normatividad de las compras gubernamentales. La ciencia es un proyecto de nación, no una compra. Las redes son su sistema circulatorio y su sistema nervioso, no un insumo opcional.

lunes, septiembre 22, 2008

Internacionalización del correo electrónico - caracteres no ASCII en las direcciones: nuevos estándares.

Recientemente la IETF aprobó nuevos estándares para el correo electrónico (sí, hay espacio para la innovación hasta en el e-mail, la herramienta más probada y usada por décadas en Internet). Con estos nuevos estándares es posible empezar a usar caracteres "internacionales", es decir, más allá del conjunto ASCII básico, como la "eñe", las vocales con acento, y alfabetos enteros, en las direcciones de correo electrónico. Sobra decir que hace años que es posible usarlos en el contenido del correo, pero las direcciones son otra cosa, ya que deben ser procesadas en los encabezados de los paquetes del protocolo IP y no en el "payload" o "carga útil". Esto es visiblemente una extensión sumamente importante del trabajo de IDNs o "nombres de dominio internacionalizados" para que progresivamente los servicios más fundamentales para los usuarios de Internet estén disponibles en los alfabetos y "scripts" que son naturales en cada país, región o cultura.

La mejor referencia que he encontrado para acercarse a estos nuevos estándares es el blog de Stefan Bortzmeyer (en francés) que además de dar las ligas a los URLs de los estándares, explica que hace cada uno de ellos; una nota menos densa técnicamente fue publicada por Heise, la agencia alemana. No sobra subrayar que la complejidad del asunto es mayúscula y se aprecia, por ejemplo, en que uno de los estándares describe la manera aceptable de "degradar" las direcciones para que sigan siendo útiles en condiciones en que una de las partes de la comunicación no cuente con la tecnología adecuada.

Es de preverse que en los próximos meses se inicien algunas implementaciones de estos estándares y que crezcan con los años. No se espera una implementación explosiva pero una sorpresa no sería del todo mal recibida. Los fabricantes de software y los proveedores de servicios tienen que poner su parte ahora; y ojalá muchos servicios, por ejemplo en las universidades en que es posible experimentar con ellos, empiecen a poner a prueba esta tecnología y medir su aceptación entre sus usuarios.

martes, septiembre 16, 2008

Jan Labanowski: héroe slencioso de la química computacional/Jan Labanowski, unsung hero of computational chemistry

(En inglés abajo/ English follows)

Cualquiera que lea la nota de Jan Labanowski sobre lo que está teniendo que hacer para mantener funcionando el servidor de la Computational Chemistry List (CCL, Lista de Química Computacional) tendrá que concluir que es un héroe. No es trivial dar continuidad a la operación ante un huracán inmensamente destructivo y que tomó por sorpresa al Medio Oeste: generadores que no se consiguen, gasolineras que no proveen combustible, redes incomunicadas, y todo esto afectando al mismo tiempo la vida personal y familiar. Y si supieran que no es la primera vez que Jan hace algo como esto...

La CCL es una de las comunidades virtuales más antiguas y estables de Internet. Empezó en enero de 1991 como una lista de correo electrónico para 100 personas que habíamos sido participantes de un taller sobre química computacional en la Ohio State University, donde él trabajaba entonces. En ella aprendimos, "avant la lettre", mucho de lo que hoy apasiona y desgarra al mundo en espacios como las redes sociales en línea: cómo controlar el spam, cómo evitar y cómo detener las "flame wars", como mantener a la comunidad enfocada y preservar la actitud constructiva. Nuestro estudio sobre esta lista en 1996 ya la mostraba como un recurso insustituible, vital para los especialistas.

Hoy, casi 18 años más tarde, la CCL sigue siendo un espacio de encuentro civilizado y productivo que reúne a investigadores experimentados (como el propio Jan, John McKelvey, y muchos otros) con jóvenes que están apenas educándose en esta rama de la ciencia; a teóricos y químicos aplicados; a quienes hacen cálculos de altísima precisión en moléculas pequeñas y a los que hacen modelado de fenómenos bioloógicos en moléculas masivas; a quienes trabajan en la academia o en laboratorios privados donde los químicos cuánticos son numerosos y cuentan con grandes recursos computacionales y a los que están en industrias aisladas, que dependen de manera crítica del modelado para tomar decisiones que pueden ser la vida o muerte de la compañía en una sola síntesis. Y siempre con el buen humor, el cuidado técnico y la atención al detalle de Jan Labanowski. Una comunidad ejemplar, un químico, computólogo y ser humano ejemplar.

-------------------------------------------------------------------------------------------------

Whoever reads Jan Labanowski's latest posting about what he is having to do to keep the Computational Chemistry List (CCL) running will have to conclude that Jan is a hero. And it is surely a non-trivial task to keep this server operational in the face of unexpected high winds and their destructive effect in the U.S. Midwest: generators not available, fuel stations put out of operation themselves, dead networks... And it's not the first time that Jan goes the extra length for this community.

The CCL is one of the oldest and best-functioning virtual communities that exist today on the Internet. It started in January 1991 as a mailing list among those of us who had attended a workshop on computational chemistry in Ohio State University, where Jan worked at the time. In the CCL we learned many of the issues which today cause passionate argument in online social networks: how to stop spammers, how to avoid and to stop flame wars, how to keep the community focused and keep a constructive attitude. Our study in 1996 already showed it as a vital resource for practitioners.

Today, almost 18 years later, the CCL remains a civilized community, a meeting place for experienced computational chemists (like Jan himself, John McKelvey, and many others), a meeting place for seasoned researchers and novices, for theoreticians and applied computational chemists, for those making highest-precision-possible ab-initio calculations and those modeling biological phenomena in humongous biomolecules, those in academia or well-endowed industrial laboratories with those who are alone in small industries, whose life or death can depend on a single calculation that decides a synthesis. Always with the wry humor, good technical sense and dedication that Jan puts into it. An exemplary community, an exemplary scientist, technologist and human being.

Índice de Calidad de Banda Ancha: México en el lugar 39

Acabo de conocer un estudio preparado conjuntamente por la Said Buisness School de la Universidad de Oxford y la Universidad de Oviedo (con patrocinio de Cisco, que hay que tener en cuenta para entender un posible sesgo del trabajo). En éste, se define un "ïndice de calidad de banda ancha" ("Broadband Quality Index") que pondera tres factores clave para la calidad de los servicios de Internet de banda ancha, a saber, anchura de banda efectiva de bajada, anchura de banda efectiva de subida, y latencia. "Efectiva" quiere decir "medida" y no "anunciada". La ponderación es 55% anchura de subida, 23% anchura de bajada, y 22% latencia. El liderazgo de un país se define por este índice y la disponibilidad (a bajo precio) de las redes de banda ancha.

Los autores del estudio consideran que los índices deseables para el uso actual de Internet son 3.75, 1 y 95 (respectivamente: Mbps de bajada, Mbps de subida, milisegundos de latencia), y para dentro de pocos años, 2011-2015, 11.25, 5, 60 en los mismos índices. Sólo Japón cumple ya con estos criterios, que están basados en la mezcla de aplicaciones del futuro inmediato - HDTV, video-chat, etc.

Es decir, para las aplicaciones de hoy un usuario debería contar con conexiones de 5 Mbps y en cinco años estos enlaces deberán ser de 16 Mbps, y en el proceso deberá reducirse en un tercio la latencia del tráfico.

México aparece en el lugar 39 de este índice. Vale la pena subrayar que incluso países con altos índices de banda ancha pierden lugares en la tabla por la latencia, que como muchos saben, puede ser fatal para las aplicaciones de mayor interés - no sólo el recreativo, sino sobre todo el educativo y cultural. En la medida en que estos aspectos sean considerados importantes para la evolución de una sociedad - ¿y no deben serlo siempre la educación y la cultura? - estos índices serán una medida del éxito de las políticas públicas en materia de conectividad, y apenas la base sobre la que podrán planearse las políticas públicas en educación y en la promoción de la economía digital.

Una consideración para cerrar: ¿si éstas son las anchuras de banda y condiciones de "performance" de la red para los usuarios domésticos, cuáles son las correspondientes para las redes avanzadas, como las de las RNEI's o NRENs? Seguramente se necesitará hacer un estudio más detallado, pero en primera inspección todos los países avanzados mencionados en el estudio cuentan con redes de investigación que proveen longitudes de onda sobre las cuales se montan comunicaciones de 1 a 10 Gbps. En sus laboratorios se trabaja con tecnologías nuevas para proveer 40 Gbps y 100 Gbps (véase por ejemplo el trabajo que hace en Cambridge el investigador mexicano José Bernardo Rosas Fernández). El factor parece ser de 10,000. Eso significa que incluso en la actualidad, cuando en México las conexiones domésticas de banda ancha son nominalmente de 2 Mbps y normalmente rinden la mitad, la red de investigación debería ser ya de 1 Gbps en sus conexiones a las instituciones (unas 30 veces más que el factor actual).


El esperado libro de Fundación Telefónica: "¿Quién debe gobernar Internet?"

La Fundación Telefónica (que no es una fundación telefónica sino la fundación creada por Telefónica, la compañía española) acaba de publicar un libro intitulado La Gobernanza de Internet, anunciado animadamente como "¿Quién debe gobernar Internet?", conjuntamente con la editorial Ariel. El libro fue coordinado por el Dr. Jorge Pérez y en su autoría participa un grupo de expertos entre los que se incluye a dos amigos estimados, Víctor Castelo, de ISOC España y las redes científicas de ese país, y Eugenio Triana, quien participó en la fundación de ICANN. El texto está formado por contribuciones individuales de los expertos y termina presentando sus conclusiones colectivas.

El libro hace un buen recorrido por los temas actuales de gobernanza de Internet, incluyendo un análisis mesurado del rol del gobierno de Estados Unidos y su relación con ICANN en la gobernanza del sistema de nombres de dominio (DNS). Concluye en forma prudente, al discutir la evolución de la supervisión gubernamental trascendiendo el actual papel asimétrico de E.U.:

"Sin embargo, la definición de un modelo de supervisión
basado únicamente en un organismo
gubernamental se aproxima al modelo tradicional
de las telecomunicaciones que, como hemos
visto, no se adapta a las características de Internet
e igualmente incoherente resulta que dicha supervisión
se mantenga como hasta ahora bajo tutela
unilateral de Estados Unidos. Por tanto, parece
conveniente que el órgano supervisor se abra a
una mayor representación gubernamental pero el
papel de los Estados debería situarse en un plano
consultivo, no ejecutivo, de manera que propiciara
la contribución de los demás agentes. De esta
forma, también se establecería un mecanismo directo
de comunicación y asesoramiento entre los
sectores y la comunidad científica de Internet y
los Estados." [subrayado mío, AP]

En otros capítulos encuentro una buena cobertura de temas desde la brecha digital hasta la e-ciencia, y un debate interesante, desde España, sobre el tema de Neutralidad de la Red. No es inesperado que un autor, Bruno Soria, director de Estudios Regulatorios de
Telefónica, S.A., abra espacio a la visión que contrasta la premisa de neutralidad de la red con la gestión de tráfico en Internet, que daría lugar a costos diferenciados para distintos proveedores, consumidores y servicios. Una buena forma de abrir este debate.

Finalmente, en los apéndices, un buen listado de organizaciones involucradas en la gobernanza de Internet.

P.S. Casi es divertido, y un tanto surrealista, contrastar la lectura de un texto racional y "multistakeholder" en sí mismo, con el momento en que escribo esta entrada del blog: un representante de la Federación Rusa toma la palabra en la Sala XIX del Palais des Nations en Ginebra para volver a reducir todos los problemas de gobernanza de Internet a la "internacionalización" de ICANN. Como si se fuera a resolver este problema discutiéndolo en Hyderabad, y peor, como si fuera lo que primero necesitan el actual y el siguiente "billón" (americano, 10**9) de usuarios de Internet. E ignorando el texto en negritas de párrafos arriba.

sábado, septiembre 13, 2008

IP traceback - rastreabilidad asegurada de direcciones IP: ¿una amenaza a la libertad?

En un artículo que está siendo ampliamente discutido en blogs , me encuentro con una discusión acerca del esfuerzo en marcha en la Unión Internacional de Telecomunicaciones (UIT o ITU) de subirse al carro del estándar que se llamaría "IP Traceback", que permitiría hacer un rastreo inequívoco de la dirección IP desde la cual se originara cualquier tipo de tráfico en Internet. Según el artículo, la iniciativa en la UIT cuenta con un fuerte apoyo de China, es secreta, y sólo ha sido revelada en pequeños pedazos y de forma complicada por los intentos de mantenerla fuera de la vista pública.

El rastreo de direcciones IP en forma asegurada podría representar un riesgo importante para la libertad de expresión. Incluso personas que legalmente recurran a sitios de Internet anónimos para hacer denuncias de mala conducta de sus gobiernos o gobernantes podrían ser rastreadas en sus propios países y convertirse en objeto de represión. Por otra parte, el "spoofing" (impostura) de estas direcciones podría permitir a delincuentes más hábiles seguirse ocultando o incluso volver a personas inocentes sospechosas de conductas ilegales.

Éste es un tema de ésos en que se intersectan tecnología y política pública en los que en ambos campos se requiere una discusión compleja y matizada - pero ante todo, para que la discusión tenga lugar, la información que la alimenta tiene que estar disponible.

Nota adicional: un comentarista anónimo de este blog me preguntaba hace unos días sobre los proyectos de ley que se han anunciado en la prensa de Venezuela, misma que permitiría una serie de controles gubernamentales sobre la expresión en Internet. Entre otros puntos destaco que si la propuesta efectivamente conlleva el que la conexión a Internet deba ser a través de un punto único de interconexión en el propio país, sí estará preparando los medios técnicos que han sido descritos respecto a China y otros países, y que facilitan enormemente la inspección del tráfico. Para ésta no se requiere forzosamente la inspección del contenido de los mensajes; el conocer los orígenes y destinos de los mismos, como sabemos, provee por sí solo información muy valiosa tanto para perseguir a delincuentes verdaderos como para rastrear, amenazar, y en su caso silenciar a opositores políticos. Ojalá la sociedad tenga oportunidad de conocer, entender, discutir y decidir qué va a pasar con su tramo de acceso y uso de Internet.

Resumen de la situación de TI en México

Encuentro en http://www.pr-inside.com/mexico-information-technology-report-q-r804269.htm un resumen compacto de la situación de las tecnologías de información, industrias, mercados y programas gubernamentales relacionados, en México, que pued ser útil (en inglés).

domingo, septiembre 07, 2008

Inseguridad, redes sociales, inteligencia de fuente abierta

Gracias a Lidia García en Facebook, me entero de una muy buena entrada en el blog ALT1040 producida por Eduardo Arcos. En ella, Eduardo hace una buena crítica de la oleada amarillista de las últimas dos semanas en la prensa mexicana que acusa a Hi5 y Facebook (principalmente) de proveer datos a secuestradores y otros delincuentes que les facilita la comisión de delitos. Voy a añadir una breve consideración.

Primero, estoy de acuerdo con Eduardo en que no culpabilicemos a la herramienta de los errores que cometemos quienes la usamos. Segundo, también, en que estamos viviendo el tránsito hacia una era de total transparencia. El uso, como él lo señala, no sólo de Hi5 o Facebook sino de todas las formas de hacer pública información personal - él pone el dedo sobre la llaga con Twitter y Dopplr, buenos ejemplos - lleva a que la información de las actividades personales esté universalmente disponible.

La consideración: esta auto-publicación de información personal, y la publicación de la misma por amigos cercanos o no tanto, sólo es una adición a las fuentes de inteligencia de fuente abierta ("open-source intelligence"), espionaje basado en información que es pública, espionaje que no requiere la violación de cerraduras o claves de acceso, sino en lo que "todo mundo sabe" o al menos cualquiera puede averiguar. La información que, antes de Internet, se obtenía observando el movimiento en las calles, leyendo las noticias de los periódicos, fijándose en las fotos de la sección de sociales del periódico, y platicando con vecinos y personal doméstico. A la pregunta "a qué horas sales al pan" podía seguir "a qué horas no está tu patrona para hablarte por teléfono" y en poco rato se tenían vida y milagros.

Esta consideración no obsta para llamarnos a la conciencia y ser menos generosos con la información personal en línea. Pero sí debe darnos una medida de sensatez acerca de no ocultar lo que es ampliamente sabido si no lo estamos ocultando con igual celo en todos los frentes.

sábado, septiembre 06, 2008

Extenso estudio sobre autorregulación y co-regulación

Un equipo de la RAND Corporation acaba de publicar un extenso estudio sobre autorregulación en industrias de tecnologías de información (más de 1,300 páginas en total). El estudio fue un encargo de la Unión Europea con vistas a introducir autorregulación y corregulación en diversas industrias; busca recoger las experienciasd de los sistemas existentes. Presenta una muy amplia sistematización de información acerca de auto- y corregulación, taxonomías, y el análisis de 21 casos diversos de organizaciones que regulan industrias (nombres de dominio, estándares, contenidos digitales, etc.) con participación única o preponderante de actores no gubernamentales - los "stakeholders" de la Cumbre Mundial de la Sociedad de la Información.

En particular encuentro de interés las múltiples referencias a ICANN en el estudio, que además sirven de termómetro sobre la calidad del estudio. Se presenta una situación paradójica: en el estudio de caso de la fase 2, ICANN es descrito con bastante precisión y el autor de la sección (probablemente Adam Peake) califica positivamente a la organización. Sin embargo, en muchas otras secciones la descripción está manchada por errores abismales, como considerar a ICANN un actor de la capa física de Internet. También es de interés puntual lo referente al Foro sobre Gobernanza de Internet (Internet Governance Forum, IGF); en este tema se presenta una situación similar.

También para muchos en México debe ser de interés la referencia del estudio a la regulación de contenidos en Internet. El estudio la trata sobre todo para el Reino Unido y Alemania. Se presentan numerosos análisis útiles para este tipo de regulación.

Encuentro también un déficit de explicaciones en los porqués de la regulación que presenta el estudio: tarde e insuficientes.

Un colega de ISOC, Hakikur Raman, preguntaba por qué la Unión Internacional de Telecomunicaciones (UIT, ITU) no está incluida en el estudio. La respuesta es que la UIT es percibida incluso por autores muy generosos como un organismo fundamentalmente intergubernamental, en el que los actores de los grandes mercados no tienen suficiente voz como para considerar el papel auto- o corregulatorio que el estudio exige.

Recomendación: armarse de paciencia una mañana o una tarde completa y tomar muchas notas para cuando el destino nos alcance. A pesar de los errores y las faltas el estudio ofrece mucho que aprender.

miércoles, agosto 27, 2008

Robo de datos, seguridad y comunicación: el caso de Best Western

En los últimos días ha causado algo de ruido la noticia de que alguien (presumiblemente un delincuente) se hizo con los datos de un número aún indeterminado de clientes de la cadena de hoteles Best Western. La nota del Times es particularmente clara en explicar los bandazos que ha dado la empresa en sus reacciones a la noticia. Y de ser fiel a la realidad esta nota, la empresa ha dado varios ejemplos de lo que no se debe hacer en estos casos: mensajes inconsistentes. Hoy por hoy no se sabe públicamente la magnitud, ni con precisión el impacto, de este robo de datos. La nota inicial hablaba de 8 millones de clientes, la apreciación que Best Western está transmitiendo es que no son más de 10 los clientes afectados, todos en un solo hotel en Berlín.

Vale la pena leer dos entradas en el blog de Graham Cluley, quien bloguea en Sophos. La primerasegunda, más reciente, transmite el mensaje oficial de Best Western citado arriba y lo respalda llamándolo "robusto". En el mismo blog se puede leer la noticia de un virus en las computadoras de la Estación Espacial y la de la persona que compró un servidor usado en eBay y se llevó la sorpresa de que contenía los datos de un millón de clientes de un banco

Un detalle más: Best Western proporciona un número telefónico para los clientes que quieran preguntar si sus datos fueron comprometidos - un número 1-800 en Estados Unidos, que puede ser inaccesible desde muchos otros países. Menos mal que los clientes pueden usar Skype...
describe la confusión, y en el último párrafo da una guía útil para detectar afectaciones de este tipo; en la (absolutamente creíble para mí; alguna vez me tocó devolver a un alto funcionario una computadora rescatada de un almacén de bajas que contenía una montaña de información sensible). Estos y otros blogs discuten aspectos adicionales del asunto: la necesidad de una comunicación clara por parte de la compañía, la necesidad de mejorar la protección de los datos, las ventajas de contar con software anti-spyware (hubiera ayudado al hotel afectado inicialmente a repeler la intrusión), etc.

Recomendaciones para una Red Nacional del Conocimiento del Dr. Sam Pitroda

Este 26 de agosto de 2008 se llevó a cabo en la Cámara de Diputados el Foro sobre el proyecto Red Nacional del Conocimiento al que me he referido en este blog y sobre el cual me propongo hacer varias notas más. Partiendo de una definición relativamente amplia del concepto de "red nacional del conocimiento" (una infraestructura, una alianza, etc.) conviene destacar las recomendaciones y consideraciones del Dr. Sam Pitroda (Satyanaram Gangaram Pitroda) quien preside la Comisión Nacional del Conocimiento de India.

En la presentación del Dr. Sam Pitroda, presidente de la Comisión Nacional del Conocimiento de la India, se presentan las siguientes recomendaciones, que tienen mucho de aplicable en nuestro contexto nacional:

  1. Las redes de conocimiento deben ser nacionales, conectando a todas las instituciones del país que crean conocimiento. Son responsabilidad del gobierno, no de entes privados aislados.
  2. Hay muchas maneras de conectar la red. Convienen más aquéllas que utilizan infraestructuras existentes, por ejemplo, fibra óptica disponible. Hay una preferencia por usar fibra obscura. Partiendo de la infraestructura existente, hay que prever darle soporte y “upgrades” frecuentes, que deben ser planeados. El marco temporal de la obsolescencia para el reemplazo es de tres años.
  3. Debe definirse claramente una arquitectura de la red. Entre otros puntos, decidir cómo se va a manejar el protocolo IP, qué versión se va a utilizar, si la red va a tener un solo “core” o varios interconectados (y cómo). La arquitectura debe estar orientada a soportar las aplicaciones pues son éstas las que crearán la demanda. Debe enfocarse la operación inicial en grupos académicos y de desarrollo que demuestren los beneficios de la red en corto plazo para impulsar más rápidamente el impacto de la red.
  4. Conectar con e-gobierno, en especial con los proyectos que a la vez dan servicio e impulsan nueva tecnología. Una métrica de la India: 6,000 desarrolladores han trabajado por 20 años en los sistemas de e-gobierno. [Nota de APB: en México proyectos como sistemas de administración de identidad y sus aplicaciones como firma electrónica serían de “grand challenge” y servirían tanto para exigir e impulsar innovación tecnológica y formación de recursos humanos avanzados, como para dar servicio a la población más amplia.]
  5. La seguridad y la privacidad son consideraciones primordiales. Los investigadores, por ejemplo, tienen la doble consideración de que deben mantener confidenciales los datos en curso de su investigación y los desarrollos tecnológicos, y de que deben difundir ampliamente sus resultados, compartir datos a distancia en grandes colaboraciones, etc. Es indispensable definir estándares, jerarquías, etc.
  6. Se debe construir con la red un apoyo a las LANs [usa LANs en un sentido relativamente suelto – en muchos casos para nosotros serían WANs, MANs y más]. Todas las instituciones de la red tendrán que mejorar y hacer “upgrades” en sus redes para poder funcionar en la Red Nacional. Los fondos para este fin deben ser provistos por el gobierno.
  7. Se deben planear desde el principio costos y estructuras de costo. La estructura de costo define costos generalizados y locales, inversión y gasto, inversión inicial y actualizaciones posteriores, etc. Es imprescindible el fondeo del gobierno.
  8. La organización de la Red Nacional le debe dar autonomía.
  9. La “propiedad” de la Red Nacional debe residir en los usuarios. Éstos la ejercen a través de la estructura de gobierno corporativo (o gobernanza) de la Red, en sus órganos colegiados, consejo directivo, comités, etc.
  10. El trabajo inicial debe ser encabezado por un grupo de 8 a 10 personas comptentes, preocupadas por el tema, y comprometidas.

Pitroda añade las siguientes consideraciones memorables:

  1. México fue la capital del conocimiento de América hasta hace pocos siglos y debe volver a serlo.
  2. Hay muchísimos jóvenes sumamente talentosos en México. Necesitan dos herramientas para que su talento fructifique:
    1. Inglés (la Comisión Nacional del Conocimiento de la India llegó al extremo de proponer su enseñanza desde el primer año de primaria, pasando por encima de oposición que veía la propuesta como neocolonial.
    2. Redes.
  3. La Red Nacional no presta servicio a consumidores finales sino a las instituciones (a pregunta del público).
  4. Sobre Ciudades Digitales (a pregunta del público): es imprescindible la información de la ciudad para usuarios móviles; son valiosos los sistemas de pago móviles para servicios tan básicos como el estacionamiento; la instrucción para producir estos sistemas debe venir del mando más alto; los sistemas de la Ciudad Digital deben orientarse a satisfacer las necesidades de la población en educación, alimentación, salud, techo, y entretenimiento; conviene empezar con poco en cada una y construir progresivamente el sistema completo.
  5. México debe aprovechar el potencial de sus migrantes como lo ha hecho, en forma muy exitosa, la India.
  6. El operador de la red debe ser dedicado (no puede atender al mismo tiempo las necesidades de la red avanzada y las de sus clientes). La anchura de banda en México es demasiado cara. La operación de la Red no le sustrae ni roba clientes a los operadores comerciales; al contrario, los crea.

Mapa de buenos sitios en Information Architects

Gracias a Carlos Augusto Estrada Nava, en Facebook, me entero del sitio de Information Architects, que tiene un mapa (tipo "Metro") de sitios Web y portales innovadores y útiles, una combinación muy bien lograda y representada. Un rato de navegación por el sitio servirá de inspiración e informará mucho.

viernes, agosto 22, 2008

Más conectividad... ¿o menos?

En un evento de la semana próxima (26 de agosto de 2008) en la Cámara de Diputados, a decir del Portal del Desarrollo, se presentará una discusión sobre el modelo de la Red Nacional del Conocimiento propuesta para México. Son notorios tanto los puntos que tiene en común como los que no con el evento de la revista Política Digital al que hice referencia unos párrafos antes en este mismo blog. Uno no puede sino desear que haya una clara articulación de estrategias.

México necesita sin duda alguna al menos dos avances sustantivos en el aprovisionamiento de nuevas redes de comunicación (para Internet, digámoslo explícitamente) de carácter público:

1. una extensión del alcance de las redes de banda ancha y alta calidad para los proyectos más diversos de la sociedad que no sean susceptibles, al menos en su inicio, de sustentarse en mecanismos de mercado. No son sólo proyectos de gobierno. Son proyectos de pequeños negocios basados en tecnología, son accesos a pequeños negocios que no son de base tecnológica pero requieren comunicación por Internet, son proyectos sociales, académicos, personales: los "proyectos de autonomía" que describe Castells en su libro de 2007, maravilloso, sobre la transición a la Sociedad Red, que he reseñado aquí;

2. una red de "core" de muy alto rendimiento con distribución y acceso igualmente de alto rendimiento para los grandes proyectos académicos, principalmente de las universidades pero también de otros tipos de instituciones, entregada en fibra obscura para algunos de sus usos y administrada, para otros. El mínimo absoluto deseable de anchura de banda es 1 Gbps y las aplicaciones de muchos proyectos requieren conectividad internacional a 10 Gbps. Ah, y hay mexicanos convencidos y competentes para usarlas; véase entre otros a José Bernardo Rosas, a quien conocí ayer, quien ha alcanzado algunos récords de velocidad y lleva su vida regularmente a 40 Gbps.

Para que estos dos grupos de metas sean alcanzables se requiere un "core" público que casi inevitablemente deberá funcionar fuera del mercado, como lo fue la red inicial de CUDI, provista por una empresa pública o privada visionaria y nacionalista.

Y, lo más difícil de lograr una vez que se disponga de la red, una arquitectura institucional, una gobernanza, sin desperdicios ni duplicaciones que enfoque los esfuerzos en logros reales con impacto medible y centrada claramente en su visión.

¿Estamos acercándonos a esa arquitectura o están en marcha fuerzas centrífugas capaces de impedirlo?

martes, agosto 12, 2008

Primeras reacciones al ranking de universidades de Shanghai 2008: Australia

Conforme se propagan las noticias acerca de la aparición (anterior a la fecha de publicación oficial) del ranking de Shanghai (ARWU o Academic Ranking of World Universities de la Universidad Jiao Tong de Shanghai) en el que la UNAM aparece en el decil 150-200 empiezan también las reacciones. Algunas auténticamente ponen los pelos de punta.

Es el caso de la reacción en el sistema de las universidades de Australia, de las cuales el ranking incluía dos en la edición 2007 y ahora incluye tres. Leo en la prensa (no tengo referencia original) que el profesor Simon Marginson, experto en el tema en la Universidad de Melbourne, expresa complacencia con el resultado ("es bueno para Australia" porque la mayoría de sus universidades aparece con mejor calificación, aunque tenía 17 y ahora sólo 15 en las "top 500").

Dice Marginson que una buena presencia de universidades de un país en los rankings refleja un sano estado de la economía. Curiosamente el mismo Marginson dijo recientemente que se está dando una separación creciente entre los estudiantes nacionales en Australia, que tienen que trabajar y vivir fuera del campus, y los extranjeros, que pagan cuotas altas y son buen negocio para las universidades, y disfrutan a tiempo completo las excelencias de la vida universitaria.

Ahora, ¿tendrá en mente Marginson al mismo tiempo tres cosas? 1. "Es bueno aparecer arriba en los rankings" (sus palabras); "hay una verdadera formación de ghettos entre los desaventajados estudiantes nacionales y los privilegiado estudiantes extranjeros"; 3. el ranking del Times tiene como objetivo medir cuán atractivas son las universidades de un país para los estudiantes extranjeros.

¿Una flagrante contradicción o un desafío al pensamiento basado en sutilezas? ¿o solamente un recordatorio de que los rankings hay que tomarlos con más granos de sal que los que hay en Guerrrero Negro?

Política Digital: nueva estrategia de banda ancha, nuevo modelo de conectividad

La revista Política Digital publica en su número de agosto/septiembre 2008 varios artículos sobre la estrategia de banda ancha y de conectividad que está en discusión y conformación en el gobierno federal y los de muchos estados de la república. La estrategia reúne la renovación del proyecto e-México; la creación o consolidación de redes estatales para usos en educación, salud y gobierno; la conexión a un "backbone" bajo autoridad de CUDI; y la puesta a disposición de los gobiernos locales de WiMax. El contenido completo está disponible solamente en la versión impresa por el momento.

Hay mucho que discutir sobre este tema y debe aplaudirse a Andrés Hofmann y la revista el que pongan el debate en público. La discusión tiene muchos ángulos (¿qué va a pasar con las redes avanzadas? es sólo una de las preguntas) que espero abordar en este blog en entradas posteriores.

Agradecimiento. Agradezco a José Luis Becerra Pozas, editor de Política Digital, la mención muy favorable que hace de este blog en la página 58 de la revista, un incentivo para mejorar y mantener enfocado el contenido.

Nota añadida. Corregí la liga a e-México gracias a una precisión de Alejandro Hernández Pulido.
A Víctor Sánchez: gracias por tu comentario. Corregí la liga a mi perfil en LinkedIn, http://www.linkedin.com/in/pisanty - en mis pruebas ya funciona. A tus órdenes si me dejas cualquier dato de localización.

domingo, agosto 10, 2008

Empates y desempates en Internet: downloads vs. cine, búsqueda vs. correo

Dos noticias recientes se basan en atraer la atención sobre empates de números en estadísticas en Internet:

1. El número de "downloads" de películas en Francia iguala a la asistencia a los cines. Desde luego la ALPA, sociedad protectora de derechos de autor en Francia, no lo encuentra divertido. Notable en el país que hace unos 25 años supo entender que el video para el hogar no iba a desbancar del todo al cine sino que sería un negocio complementario. Fue Francia uno de los primeros lugares en que los videoclubes se instalaron en la planta baja de los cines; la gente que venía de ver la película más reciente de Belmondo salía del cine ya con los videos de todas las anteriores películas de Belmondo. No puedo negar que este desplazamiento hacia el video tuvo una consecuencia lamentable: la extraordinaria película Ran, de Akira Kurosawa, existió originalmente en material cinematográfico de 70 mm y era espectacular; los productores la destruyeron para dejar sólo la versión en video, angostita y rugosa por decir lo menos.

2. La búsqueda y el correo ya merito empatan; es decir, más precisamente, el estudio del fondo Pew aparecido en los últimos días, sobre los hábitos de uso de Internet de los usuarios de Estados Unidos, encuentra que ya es casi igual el número de usuarios que diariamente hacen una búsqueda en Internet que el que usa el correo electrónico, o sea cerca de 49% y 60% respectivamente.

Dos ópticas de la misma noticia: mientras que la mayoría de los medios subraya lo positivo que es este crecimiento de las búsquedas, Ars Technica correctamente subraya la lectura del "vaso medio vacío": la mitad de los usuarios de Internet de Estados Unidos no hace una búsqueda por día en Internet, lo que lleva a la reflexión de que estos usuarios no están haciendo un uso abierto de Internet en una forma que aumente intensamente la información y los criterios a su alcance.

Habrá que esperar los resultados del estudio correspondiente para México para fin de año; en el estudio de 2007 no aparece la pregunta. Quizás haría bien la AMIPCI en alinear más completamente algunos parámetros de sus estudios con los de Pew para ganar en comparabilidad; ya son buenos, esto los puede hacer aún mejores. Todos nos beneficiaremos de ver a Internet - por el mismo costo del estudio - como un todo y no sólo en la perspectiva, innegablemente importante, del comercio. Es en esa misma línea de pensamiento que sugerí el año pasado empezar a incluir entre las actividades por las que se pregunta el acceso a educación en línea.

Publicado el Ranking de Shanghai / Shanghai Ranking now published - clasificaciones de la UNAM y la USP

En http://www.arwu.org/rank2008/EN2008.htm está ya publicado el Ranking de Shanghai de 2008 (Academic Ranking of World Universities o Clasificación Mundial de Universidades). Este trabajo, que sigue a cargo del Prof. Nian Cai Liu, tiene fecha oficial de publicación del 15 de agosto de 2008 pero ya está disponible en línea.

La UNAM aparece nuevamente en el listado que corresponde indiferenciadamente a las instituciones entre los números 151 y 200 (el tercer decil de la distribución de las primeras 500) y la Universidad de Sao Paulo (USP) en el decil anterior, 101-150. Debe recordarse que el número 185 con el que aparece en la tabla se debe al orden alfabético en esta categoría, dado que las puntuaciones son idénticas (a tres cifras significativas) entre los miembros de la misma. Cuenta solamente el decil.

sábado, agosto 09, 2008

Mitos de Web 2.0 - ¿hay un negocio en las redes sociales?

En la revista Technology Review, del MIT, aparece un artículo muy rico - sobre todo si se lee también la discusión en línea que ha generado y aparece en sus mismas páginas - acerca de las expectativas de negocio de las redes sociales en línea. El autor discute muchos ángulos del problema citando entrevistas con actores del mercado de publicidad y de los servicios de redes sociales. Nos deja con la duda, lo cual es de aplaudirse en un tema en el que las conclusiones están abiertas. Por lo pronto, algunas de sus afirmaciones resuenan con mi (limitada) experiencia: no estoy abriendo muchos anuncios en Facebook.

El artículo tiene otra consonancia - fortuita, si se quiere - para mí: lo estoy leyendo en los mismos días en que veo en el excelente blog de Cristóbal Cobo consideraciones filosóficas interesantes acerca de Internet y en particular acerca de las "redes sociales": dice uno de los autores que él cita que estas redes no proveen conversaciones tanto como monólogos; que no las usamos para comunicarnos, como lo marca el discurso prevalente, sino para expresiones narcisistas. Provocador y eminentemente legible; Cristóbal Cobo es un excelente académico de FLACSO México, y a la vez actor y crítico del fenómeno "2.0" a quien hay que seguirle la pista.

Seguridad en el DNS, en el New York Times / DNS security in the New York Times

Aparece un artículo intersante en el New York Times que explica los problemas aún no resueltos con la vulnerabilidad del DNS (Sistema de Nombres de Dominio) descubierta recientemente por Dan Kaminsky. El articulo empieza con la noticia de que se han encontrado circunvenciones del parche ya extensamente instalado contra esa vulnerabilidad, y continúa con una buena narración de la historia de Kaminsky y distintos puntos de vista sobre la seguridad del DNS. En particular trae a lenguaje periodístico la controversia sobre DNSSEC.

Para entrar en materia a nivel más técnico, una de muchas buenas fuentes es el FAQ de ICANN
aparecido en la última semana. Otra, con muy amplio comentario, en el
blog de Bruce Schneier.

viernes, agosto 01, 2008

Blogs de los poetas muertos / Dead poets' Blogs

¿Bloguear la muerte prolonga la vida? la cercanía en fechas de los fallecimientos de Randy Pausch y de Alejandro Aura, tan distintos en vida, nos acerca a un escalofriante y conmovedor paralelismo en sus muertes que se manifiesta en sus blogs. [Véanse blog de Randy Pausch, blog de Alejandro Aura].

Randy Pausch era un profesor de ciencias de la computación; Aura, poeta y autor de teatro. Ambos fueron promotores de la cultura, distintas culturas en distintos ámbitos sin duda, pero ambos hicieron por llevar sus disciplinas a públicos amplios y lograron educarlos a la vez que les produjeron disfrutes. No tuvo Randy Pausch los bebederos cultureros que Aura, pero sí una huella duradera con su software y su práctica educativa. No se adentró quizás Aura en la abstracción de los lenguajes de programación pero no dejó sin explorar la abstracción. No hay una "última clase" de Aura, que sea como la de Pausch o su último discurso en una graduación, pero deja en su blog la secuencia de los poemas y la narrativa de la cercanía de la muerte.

Ambos registran día con día, evento por evento, cada golpe, miedo, aliento y esperanza.

Probablemente a ambos el blog, la tarea marcada, tanto como la retroalimentación de sus lectores, los animó y les prolongó la vida. No puede pasar desapercibido el entusiasmo de Aura al constatar que el contador de su blog rebasa las cien mil consultas. Se adelanta a muchos webmasters vivos.

Y ambos blogs, tristemente, desembocan en una corta nota: "ya no puede más", escrita quizás por un tercero o con ayuda de uno.

La flama no se extingue gradualmente, siguiendo una interminable exponencial, hasta el infinito. Un día, a una hora, un minuto, específicos pero no creo que determinados, una irreversibilidad acaba abruptamente con el proceso.

Queda la huella de las letras. Queda en línea, queda en Internet, en la Web, hasta... hasta... ¿hasta cuándo? ¿Cuándo debe terminar el blog de un poeta muerto?

Blogs de los poetas muertos / Dead poets' Blogs

¿Bloguear la muerte prolonga la vida? la cercanía en fechas de los fallecimientos de Randy Pausch y de Alejandro Aura, tan distintos en vida, nos acerca a un escalofriante y conmovedor paralelismo en sus muertes que se manifiesta en sus blogs. [Véanse blog de Randy Pausch, blog de Alejandro Aura].

Randy Pausch era un profesor de ciencias de la computación; Aura, poeta y autor de teatro. Ambos fueron promotores de la cultura, distintas culturas en distintos ámbitos sin duda, pero ambos hicieron por llevar sus disciplinas a públicos amplios y lograron educarlos a la vez que les produjeron disfrutes. No tuvo Randy Pausch los bebederos cultureros que Aura, pero sí una huella duradera con su software y su práctica educativa. No se adentró quizás Aura en la abstracción de los lenguajes de programación pero no dejó sin explorar la abstracción. No hay una "última clase" de Aura, que sea como la de Pausch o su último discurso en una graduación, pero deja en su blog la secuencia de los poemas y la narrativa de la cercanía de la muerte.

Ambos registran día con día, evento por evento, cada golpe, miedo, aliento y esperanza.

Probablemente a ambos el blog, la tarea marcada, tanto como la retroalimentación de sus lectores, los animó y les prolongó la vida. No puede pasar desapercibido el entusiasmo de Aura al constatar que el contador de su blog rebasa las cien mil consultas. Se adelanta a muchos webmasters vivos.

Y ambos blogs, tristemente, desembocan en una corta nota: "ya no puede más", escrita quizás por un tercero o con ayuda de uno.

La flama no se extingue gradualmente, siguiendo una interminable exponencial, hasta el infinito. Un día, a una hora, un minuto, específicos pero no creo que determinados, una irreversibilidad acaba abruptamente con el proceso.

Queda la huella de las letras. Queda en línea, queda en Internet, en la Web, hasta... hasta... ¿hasta cuándo? ¿Cuándo debe terminar el blog de un poeta muerto?

jueves, julio 31, 2008

"Baja" ("takedown") de nombres de dominio: su efecto sobre el phishing

En un escrupuloso trabajo académico, Tyler Moore y Richard Clayton, de la Universidad de Cambridge, estudian el efecto de dar de baja nombres de dominio sobre el phishing. En el texto hacen un análisis de varias técnicas de registro abusivo de los nombres y de diversos aspectos del phishing, y comparaciones cuidadosas entre bancos y otras organizaciones, y entre países.

Su conclusión es que sí se logra un efecto, aunque moderado, para disminuir el impacto del phishing a través de la baja de nombres de dominio orientados al phishing. Anotan muchos otros factores que pueden ser de mayor importancia.

Lectura obligatoria para los interesados en el tema.

miércoles, julio 30, 2008

Nombres de dominio y phishing - material para la controversia

En mayo de 2008 el Anti-Phishing Working Group (APWG) publicó un informe sobre nombres de dominio y phishing. Este informe, cuyos autores son Greg Aaron y Rod Rasmussen, es de mucho interés para quienes trabajan en ambos temas (nombres de dominio, por un lado, y phishing, por el otro), así como para la comunidad ocupada de la seguridad informática.

Tiene algunos puntos que me parecen controversiales. Por ejemplo, aunque el dominio .com es de lejos el más utilizado para phishing, otros como .mx, que escasamente dan lugar a un par de cientos de incidentes, aparecen con una calificación (negativa) más alta. Otro ranking fallido, dirán quienes saben de rankings...

Esta anotación no disminuye el interés del estudio ya que sí arroja luz sobre cuáles nombres de dominio (de primer nivel, o TLDs) han resultado problemáticos por algún motivo. Y, con la calidad que sigo apreciando en el trabajo del APWG, sigue teniendo claro que el abuso de nombres de dominio es un aspecto relativamente menor del enorme problema del phishing, ya que muchos sitios de phishing no usan un nombre de dominio sino sólo la dirección IP. El resto del URL o URI problemático está simulado en el propio URL utilizado (por ejemplo, en nombres de dominio de menor nivel, o fuera del nombre de dominio, en los nombres de los directorios y archivos) o en el código HTML de la página tramposa.

Por otra parte, James Seng, uno de los gurús de Internet más creativos y originales, muy conocido por su trabajo sobre nombres de dominio internacionalizados o IDNs, ha cuestionado la propuesta que el APWG presentó en la reciente reunión de ICANN en París, para la baja o remoción rápida de nombres de dominio que estén siendo utilizados abusivamente para phishing. Seng cuestiona la posible ausencia de debido proceso y de la presunción de inocencia del registrante posiblemente implícita en la propuesta. El debate sigue.

lunes, julio 28, 2008

¿Los rankings dirigen a las universidades?

Una concisa e interesante presentación de la Dra. Ellen Hazelkorn en la reciente reunión de la Asociación Internacional de Universidades ilustra los resultados de su investigación sobre el efecto de los "rankings" o clasificaciones de universidades sobre la administración de las mismas. Los efectos son extensos y profundos en muchas de ellas, porque no sólo se dan sobre las decisiones de las propias instituciones sino también sobre las administraciones educativas nacionales.

Así entre sus ejemplos cuenta tanto los de instituciones cuyas decisiones explícitamente se dirigen hacia alcanzar mejores lugares en los rankings (con efectos en la selección de alumnos y profesores, orientación de la docencia y la investigación, etc.) cuanto los de gobiernos que deciden que deben contar con N universidades en los primeros lugares de las clasificaciones.

Esta presentación aparece referenciada en el portal de la IAU en el programa de la reunión, específicamente un panel sobre clasificaciones. Las otras presentaciones del mismo pánel son también de interés, aunque sorprendentemente ciegas al escepticismo y la prudencia que deberían inducir las reflexiones de la Dra. Hazelkorn. Y, sorprendentemente, ninguna de las propuestas de rankings hace referencia a los principios de Berlín, que intentan conferir cierta objetividad y transparencia a los rankings.

Ni duda: entre las necesidades objetivas que llevan a calificar y clasificar, el desborde de los egos institucionales y nacionales, y algunos efectos de autorretroalimentación sistémica, este Frankenstein es imparable. Ojalá los ejercicios por venir de la OCDE tengan la seriedad necesaria.

Publicado el nuevo ranking de Webometrics

Acaba de aparecer la versión de julio de 2008 del ranking de universidades en la Web Webometrics, que produce el Laboratorio de Cibermetría que dirige Isidro Aguillo en el CSIC de España. Por países, México aparece en el lugar 24, con 4 universidades en las primeras mil, mientras Brasil lo hace en el 20 con 14. De las mexicanas, la UNAM aparece en un lugar más alto que el semestre pasado (51 en vez de 58, un avance significativo en el contexto de este estudio que sólo compara presencia en Web de universidades).

viernes, julio 25, 2008

Fallece Randy Pausch, de la famosa "Last Lecture" ("Última clase")

Me entero en varios medios (escogí la nota del Scientific American) del fallecimiento de Randy Pausch, un profesor de ciencias de la computación que se hizo célebre con su "última clase". Pausch estaba enfermo de cáncer en el páncreas. Al confirmarse su diagnóstico y empezar los muy complejos y agresivos tratamientos contra el cáncer, impartió una clase que se ha hecho célebre, al llamar a sus escuchas a reordenar sus prioridades en la vida.

La última clase de Pausch se convirtió en un fenómeno de Internet cuando el video empezó a ser difundido de manera viral y luego fue publicado en Google video y YouTube. El discurso es extraordinariamente emotivo, quizás tanto más en tanto que es el de un ser totalmente racional que enfrenta su enfermedad con una entereza extraordinaria y una lucidez absolutamente inusual.

Pausch fue también un fenómeno de Internet a través de su blog, en el que fue consignando los avances de su quimioterapia así como los graves incidentes de su enfermedad y complicaciones, y sus reflexiones al respecto. Su trabajo en cómputo y en docencia, muy bueno, ha quedado opacado por estas contribuciones, pero también merece atención.

Vaya un homenaje a un maestro en el más amplio y generoso sentido de la palabra. Sea además un saludo a su viuda y sus hijos.