jueves, marzo 09, 2017

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos
Alejandro Pisanty


Introducción




Publicado originalmente en: Reflexiones de la Academia Mexicana de Informática a los 40 años de su fundación, Coords. Guillermo Levine, Enzo Molino y Carlos Zozaya, Universidad de Guadalajara - Academia Mexicana de Informática, A.C. Guadalajara, Jalisco, México, 2016, pags. 265-285 - ISBN 978-607-742-652-3

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.


El objetivo de este trabajo es compartir una reflexión de carácter estratégico alrededor de proyectos informáticos en los que el autor ha sido participante o líder. La visión estratégica que alimentó los proyectos en su inicio puede no ser bien conocida, y en muchos casos la visión hacia el futuro, una vez que los proyectos avanzan o terminan, amplía la visión inicial mucho más allá de sus alcances.
La cultura informática se enriquece cuando se puede ver en forma compacta el significado de un proyecto, sus consecuencias más allá de lo planeado, su impacto más sutil pero a la vez más duradero, y cuando de varios proyectos diferentes se puede extraer una tendencia más general.

En el caso de este artículo, la visión más general que ha alimentado buena parte de los trabajos y otros aquí referidos es la de generar infraestructuras –físicas, lógicas, de conocimiento o sociales– que se vuelvan “facilitadores”, lo que en inglés es popular llamar enablers. Los facilitadores que más aprecio son los relativamente neutrales respecto a actores y criterios externos, que permiten a grupos de usuarios, a instituciones y a veces a sociedades enteras contar con medios flexibles y adaptables para realizar nuevas tareas.

Esa ha sido la visión imperante en muchos otros proyectos en los que el autor ha participado: la dotación de servicios de supercómputo para la comunidad académica de la UNAM (y más allá, al encontrar fórmulas originales de colaboración con otras instituciones como la que dio origen a la Delta Metropolitana de Supercómputo); la creación del Observatorio de Visualización “Ixtli”, concebido a impulso del entonces Rector de la UNAM, Dr. Juan Ramón de la Fuente, un laboratorio de visualización tridimensional inmersivo al que junto con la Dra. Geneviéve Lucet y otros colaboradores dimos el carácter más general y escalable posible; la forma que ayudamos a impulsar que adoptara el Juicio en Línea en el Tribunal Federal de Justicia Fiscal y Administrativa (TFJFA); las múltiples e insidiosas herramientas computacionales para la educación que incorporamos en la Facultad de Química, y el modelo para expandir su alcance y uso, tomado del que desarrollamos junto con Jorge Martínez Peniche, Rita del Castillo, Ana Laura Márquez, Maribel Rodríguez y otros en la coordinación del proyecto de educación a distancia de la Rectoría del Dr. José Sarukhán y posteriormente en la Coordinación de Universidad Abierta y Educación a Distancia; y el impulso a que la Facultad de Química contara con cobertura de la Red Inalámbrica Universitaria, de tecnología Wi-Fi, en todos sus espacios académicos, proyecto que impulsó de manera decidida el Director, Dr. Jorge Vázquez Ramos.
En lo que resta de este trabajo particularizo el análisis de esta tónica en algunos otros proyectos puntuales. En todos los casos mi actividad contó con la colaboración, o incluso fue a la zaga, de equipos de personas de extraordinarios talento y dedicación. Sólo me es posible dar crédito explícito a algunas de ellas; ofrezco anticipadamente una disculpa a quien debiera haber sido mencionado y no lo haya sido.

Firma electrónica, una tecnología disruptiva

El proyecto de Firma Electrónica Avanzada (FEA) de la UNAM fue concebido como un paso indispensable para la modernización de las tareas informáticas de la Universidad. Las consecuencias de su implantación han ido mucho más allá de lo planeado porque indirectamente permitió recuperar hasta ocho semanas de cada año como tiempo académico útil.

Llevamos a cabo este proyecto en la entonces DGSCA, Dirección General de Servicios de Cómputo Académico de la Universidad Nacional Autónoma de México. El pilar de ejecución de este proyecto fue la Dirección de Cómputo para la Administración Académica, DCAA, y dentro de ella su director, el entonces Mtro. y hoy Dr. Juan Voutssás. Los equipos de trabajo de desarrollo de software fueron encabezados por Marcela Peñaloza y contaron con un gran conjunto de jóvenes brillantes. Inicialmente el proyecto fue concebido como un proyecto de seguridad informática y en tal calidad contó con las invaluables contribuciones del Dr. Enrique Daltabuit, el Lic. Juan Carlos Guel, el Dr. Guillermo Mallén, y otros. En el tema legal la participación del Dr. Alfredo Reyes Krafft, como profesionista independiente fue crucial.

El objetivo inicial de estos trabajos fue crear una infraestructura criptográfica de llave pública (PKI) para uso general en la institución, con el ánimo de tener desde la oferta un mecanismo ya indispensable entonces para la operación segura y eficiente de muchos sistemas. Al mismo tiempo, se trataría de identificar la demanda, es decir, sistemas o servicios con los que se pudiera producir beneficios a la comunidad usando esta infraestructura.

El proyecto fue concebido para llevarse a cabo en etapas bien definidas a lo largo de tres o cuatro años. En el primer año los grupos de trabajo se dedicaron al estudio de la criptografía y en particular de la PKI y la firma electrónica. En el segundo, se construyeron prototipos para entender y resolver los principales problemas conceptuales al confrontarlos con la aplicación, y para identificar y resolver los problemas del software, bases de datos, interacciones y arquitectura de software asociados. El tercer año se dedicó a producir el sistema de PKI y FEA e integrarlo a un sistema de información usado en la institución, a saber, la firma de actas de calificaciones de los alumnos de la Universidad. Al final del mismo tercer año se implantó el sistema, y el cuarto año se utilizó para estabilizarlo y explotarlo más ampliamente.

Un punto particularmente interesante es que el sistema al que se aplicó la FEA, la firma de actas de calificaciones, es uno de los más grandes y cruciales para la operación de la Universidad. En el momento de su implantación, este sistema comprendía la firma de más de un millón de actas cada semestre dentro de plazos estrechos y condiciones exigentes de exactitud, precisión, eficiencia y disponibilidad, así como de integridad de la información registrada con todos los mecanismos de autenticación correspondientes. El sistema sería operado por una fracción significativa de los 30,000 académicos de la UNAM en más de 20 escuelas y en cientos de instalaciones espacialmente distribuidas a lo largo y ancho del país; entre éstas se incluyen los hospitales en los que imparte docencia de licenciatura y de posgrado la Facultad de Medicina. Por ello, la gestión del cambio y los esfuerzos de capacitación deberían ser masivos.

Fue contrario a casi toda la lógica de que el primer sistema en que se implante una estructura novedosa como lo eran la PKI y la FEA sea uno tan extenso y exigente. Nuestra primera intención era, por supuesto, hacer una implantación piloto con un sistema mucho más sencillo, reducido y transparente, y bajo control de una sola autoridad. Éstos se encontrarían en las funciones administrativas “clásicas”, como presupuesto, personal, inventarios, etc. y allí hay algunos sistemas de dimensiones y riesgos muy limitados, como las transferencia presupuestales (pocos operadores, pocas operaciones al día, tiempos más flexibles y por todo ello mayor tolerancia a fallas en una primera implantación). Sin embargo, las instancias a cargo no aceptaron la invitación a incorporar la nueva tecnología, a pesar de los evidentes beneficios para todos sus usuarios, y en cambio la Dirección General de Asuntos Escolares, a cargo del Ing. Leopoldo Silva, y sus subdirecciones a cargo de los Mats. Facundo Ruiz y Yolanda Valencia, aceptaron el reto precisamente por la magnitud del beneficio que se obtendría para una comunidad entonces cercana a las 350,000 personas. Su audacia fue recompensada con creces.

La gestión del cambio incluyó la capacitación de personal para la autenticación de personas y entrega de certificados digitales a los académicos, la producción y distribución de manuales, la concientización de la comunidad y otras previsiones.

En paralelo al desarrollo del software y la integración de sistemas, algunos de ellos sin precedente en la institución y casi sin precedente en el país, se crearon los instrumentos legales necesarios para dar a la firma electrónica equivalencia funcional, con toda validez legal, a la firma autógrafa. Determinamos que el nivel adecuado de tratamiento sería un Acuerdo del Rector complementado con una normatividad técnica, en paralelo a la legislación federal de entonces, que establecía a nivel de ley las características generales de la FEA y remitía a una Norma Oficial Mexicana (NOM) los aspectos técnicos que más pueden variar con el tiempo. En ambos casos la idea es contar con un marco legal firme pero que no se convierta en una traba cuando los sistemas tengan que evolucionar por el cambio tecnológico inclemente que los acompaña –por ejemplo, para adaptarse a nuevos requerimientos sobre los certificados digitales y las autoridades certificadoras, o a los criterios criptográficos que acompañan a la evolución del poder de cómputo y técnicas de “crackeado”, como el aumento en el número de bits exigido para el tamaño de las llaves criptográficas.

Desde luego tuvimos el buen sentido de implantar el sistema primero como una prueba piloto en sólo dos facultades especialmente bien preparadas. La prueba fue un éxito gracias a la intensa colaboración de todas las partes, con talento y precisión, y una vez corregidos o mejorados los principales hallazgos, en un siguiente semestre el sistema se implantó para todas las escuelas y facultades excepto una, la de Ciencias. Esto último se debió a que toda la Universidad menos esta escuela modela el proceso de firma de actas por medio de la firma electrónica con el llenado del acta completa en una breve sesión de unos diez minutos de duración y la consecuente firma, y la facultad mencionada lo hacía con el llenado parcial, hasta de un alumno por sesión. Posteriormente se adaptaría al sistema general.

El aspecto más interesante, una vez creado e implantado el sistema, es su impacto a largo plazo. A corto plazo el impacto fue la firma sin papel de actas de calificaciones; a mediano plazo, dejar el uso del papel permitió evitar la construcción de un nuevo búnker (almacén de alta seguridad) para los siguientes millones de actas, aplazar la reforma de las oficinas de Administración Escolar al no tener que procesar esos mismos millones de actas, eliminar complejas operaciones de transporte, lectura óptica, etc. La administración del cambio permitió en este mediano plazo la reorientación del trabajo del personal que estaba a cargo de estas operaciones hacia funciones más difíciles de substituir o automatizar. Pero, repito, el impacto más importante es el de largo plazo.

El impacto de largo plazo de la implantación de la firma electrónica en la UNAM es la recuperación de tiempos académicos útiles y plenamente funcionales en lugar de un tiempo poco aprovechado académicamente. Los profesores que firman actas con firma electrónica lo hacen pocos días después del examen, pues hay un incentivo para librarse de la tarea pendiente, y una vez terminado el plazo legal las firmas son definitivas en expedientes de los alumnos (en el sistema anterior se requerían semanas para la lectura óptica de las actas y los procesos de “limpieza de datos” requeridos). Así, con la FEA, los alumnos conocen sus calificaciones definitivas con tiempo suficiente para tomar cursos intersemestrales con plena validez legal (permitida también gracias a la inmediatez con la que opera la FEA). En muchas escuelas y facultades estos cursos substituyen, con creces, a cursos remediales “de preparación” para exámenes extraordinarios y a los propios exámenes. Con ello se reducen dramáticamente las cifras de alumnos irregulares; un ejemplo del Departamento de Matemáticas de la Facultad de Química indica que aun con controles académicos rigurosos como los exámenes departamentales en los cursos intersemestrales, este proceso permite reducir en aproximadamente 50% el número de alumnos irregulares, y devolverlos al flujo normal de sus estudios profesionales. Un beneficio adicional es el alto nivel de motivación que deriva de que obtengan un resultado tangible para el esfuerzo particularmente intenso que desarrollan para aprobar los cursos intersemestrales. Este efecto inesperado es una especie de “dividendo digital” que hay que buscar en los proyectos informáticos y de Internet. Una institución ambiciosa debe continuar estos procesos disruptivos transformándose de mil maneras (los microcréditos académicos serían una posibilidad en este caso).

Para el equipo que realizó estos trabajos es motivo de orgullo adicional que la misma infraestructura de PKI y FEA siga en operación diez años más tarde (como sucede también con los sistemas creados en conjunto con la Dirección General de Bibliotecas para el acceso a la Biblioteca Digital de la UNAM o BiDi). En el segundo año de la administración que siguió se hizo un ajuste para que pudiera funcionar con el navegador “Chrome”. Seis años después, cuando Google, productora de Chrome, decidió abandonar el estándar NPAPI, la administración universitaria no adaptó el sistema de FEA, por lo cual actualmente no opera con el navegador que usa 80% de la población. Esta situación que viola el principio de interoperabilidad de Internet no puede ser más que lamentable, y lo es doblemente para quienes crearon la plataforma.

Internet necesario

La campaña #InternetNecesario (Briceño et al., 2010) permitió establecer Internet y sus valores fundamentales como un tema definido en la agenda pública. La imagen de que no se puede legislar ni hacer política pública para Internet sin la prudencia necesaria quedó así establecida en núcleos centrales de la esfera pública. La campaña también fue una muestra importante de que para discutir políticas públicas relacionadas con Internet el conocimiento técnico es un fundamento valioso y la colaboración multisectorial una herramienta indispensable.Entre octubre y noviembre de 2009, el gobierno federal de México presentó al Legislativo una iniciativa de Ley de Ingresos (presupuesto federal) que contenía la propuesta de aplicar un impuesto de 4% a toda facturación de servicios de telecomunicaciones. La iniciativa pretendía, además, aplicar este impuesto en la categoría de IEPS (Impuesto Especial sobre Productos y Servicios) que en general se aplica a bienes suntuarios o de consumo que se desea regular, como bebidas alcohólicas y tabaco.

La iniciativa encontró pronto oposición por parte de las empresas de telecomunicaciones, pero también de otros sectores. Estudios publicados entonces indicaban que el aumento en impuestos a este sector resultaría en incrementos de precios finales al consumidor, lo cual reduciría significativamente la demanda y con ello volvería más lenta la adopción de las telecomunicaciones e Internet. Para la comunidad técnica y la sociedad civil en México esto representaría una situación inaceptable y contradictoria con los propósitos de cobertura (además de los de convergencia y competencia) que se preconizaban como pilares de la política del gobierno federal para vencer la brecha digital e impulsar el desarrollo del país.

Un pequeño grupo de personas (tres, inicialmente: Raúl Ramírez -conocido como @isopixel en las redes sociales-, León Felipe Sánchez Ambiá y quien esto escribe) decidimos manifestar nuestra oposición a la medida en los entonces emergentes medios sociales, principalmente Twitter, que contaba con unos 40,000 usuarios en México. Redacté un texto que publiqué en mi blog, y en anuncio coordinado iniciamos la campaña impulsando el hashtag #InternetNecesario con diversas afirmaciones y llamados a la oposición.

Seleccionamos el hashtag con base en tres consideraciones:

a. En Venezuela, meses antes, una campaña contra la reducción de presupuesto para las telecomunicaciones y servicios de Internet de las universidades públicas había resultado efectiva, usando el hashtag #InternetLujo para simbolizar que Internet es necesario, vital, y no un lujo, para las universidades y más en general para las actividades relacionadas con el conocimiento.

b. La propuesta inicial era usar un hashtag explícito en contra del impuesto propuesto. Sin embargo, observamos que dicha línea discursiva, en oposición a los impuestos, representa un interés directo de la industria, que ya estaba activa al respecto. La industria había logrado ya reducir este impuesto del 4% al 3%. La comunidad técnica y la sociedad civil pueden tener puntos de vista respecto a los impuestos que no son necesariamente los mismos que los de las empresas.

c. Atendiendo a las lecciones del Ing. Gustavo Ross, uno de los primeros y hasta la fecha más experimentados especialistas mexicanos en mercadotecnia en Internet, observamos que a largo plazo son más efectivas las campañas con mensajes positivos que las que usan mensajes negativos o confrontacionales, si bien estas últimas atraen mayor atención en los lapsos iniciales. En vez de #NoIEPS, entonces, optamos por #InternetNecesario.
La campaña se desarrolló velozmente, de tal manera que al segundo día alcanzó el nivel de trending topic global. Esto a su vez atrajo la atención de algunos noticieros de medios masivos. Aparecer en estos noticieros, como nota y en entrevistas, a su vez atrajo la atención del Senado, en el que se discutía en segunda instancia la iniciativa de ley.
La campaña se distinguió también por su ángulo educativo. No se trataba sólo de movilizar masas con base en lemas simplistas sino de convencer; no se trataba sólo de convencer sino de producir una comprensión profunda de las razones para defender Internet de un ataque; no se trataba sólo de defender sino de impulsar; y no se trataba sólo de impulsar Internet como un vehículo operacional, un medio, sino de crear un futuro basado en la producción de Internet tanto o más que en su consumo.

El ángulo educativo se dio en numerosas conversaciones masivas en Twitter; y para complementarlas, en algunas publicaciones en blogs y artículos, que establecían texto extenso, reflexiones más completas, información articulada y detallada, en complemento al formato de metralla de los textos de 140 caracteres. #InternetNecesario no fue la primera campaña cívica exitosa en Twitter en México, pero sí una de las primeras, en un contexto en el que estábamos inventando el medio.

Quizás uno de los momentos más significativos de la campaña, y en particular de su efecto educativo, se encuentre en uno de sus pasos finales: el seguimiento del debate y la votación en el Senado. Esto ocurrió el 31 de octubre de 2009 muy avanzada la noche; debe recordarse que esta fecha es el inicio de un feriado significativo en México, en el que multitudes enormes se desplazan tanto a panteones como a fiestas y centros de diversión. Sin embargo, miles de personas fueron espectadores atentos del debate a través del Canal del Congreso; miles se informaron en esas últimas horas acerca del mecanismo de producción y aprobación de leyes en México y en particular del proceso legislativo que da lugar a los presupuestos de ingresos y de egresos de la Federación.

En el debate el Senador Francisco Javier Castellón llevó la atención a la voz de los participantes de la campaña hasta el último minuto, tomando del espacio público argumentos con el que reaccionábamos a los argumentos del debate. Su contribución y la del Lic. Jesús Ramírez Díaz, Secretario Técnico de la Comisión de Ciencia y Tecnología del Senado, marcaron un hito en la escucha, la participación y la producción de un debate amplio, multisectorial y razonado.

Como ha dicho posteriormente Castellón, esta campaña y la que llevó al rechazo al acuerdo internacional conocido como ACTA establecieron las características de Internet en la agenda pública mexicana: una Internet abierta y libre, defendida por sus principios, y a la que no se puede tratar de restringir impunemente. Numerosos intentos de legislación mal dirigida han quedado a la vera del camino desde entonces, para dejar testimonio de esta extendida convicción.

Una campaña como #InternetNecesario parece impracticable en la actualidad. Los factores sorpresa, solidaridad intergeneracional-geográfica-partidista, diálogo constructivo y foco en una causa transversal a la sociedad con una temporalidad definida parecen ahora ser inalcanzables.

El factor sorpresa de los medios sociales en 2009 ha sido substituido por un uso político y de campaña de estos medios basado en el golpeteo, la polarización y la manipulación. Tanto desde la militancia voluntaria como desde la compra masiva de medios y herramientas (tales como “bots”) el discurso en los medios sociales se ha polarizado de manera creciente; el centro se ha vaciado, el discurso tolerante y racional se ha refugiado en otros medios. En México es posible fijar una fecha como noviembre de 2011 para una verdadera transición de fase en este sentido: el momento en que las campañas electorales para las elecciones presidenciales y generales de 2012 se activaron con la intervención de “ejércitos digitales” de militantes disciplinados y con herramientas automáticas, con la manipulación de ” y otras técnicas relacionadas.

La esfera pública se ha enrarecido en todos los campos; la conjunción de grupos unidos por una causa pero diferentes en muchas otras escasea, la atención se abrevia y la visión de grandes metas comunes se evapora. Esto no es un fenómeno exclusivo de Internet y los medios sociales en línea; es un fenómeno social extendido, y al ser Internet cada vez más “un espejo de la sociedad” (Vint Cerf dixit), refleja cada vez más fielmente lo que en ella ocurre.

Si queremos conservar algún optimismo para el futuro de la sociedad, en particular en México, tendremos que abordar las bases y las formas de nuestra convivencia. Ojalá todavía encontremos un fulcro que dé esperanza al proyecto civilizador y constructor de futuro del diálogo público razonado en Internet.Neutralidad de la red


Neutralidad de la Red

El problema conocido como “neutralidad de la red” (Pisanty, 2014) es un asunto complejo y lleno de aristas a veces intratables. La definición más simple de neutralidad de la red, en Internet, es el trato no discriminatorio al tráfico en Internet, independient"emente de su origen, destino o contenido, y a veces más específicamente por número de puerto o de protocolo.La posibilidad de que exista la discriminación se da en varios planos. El más visible es la decisión que un proveedor de servicios de acceso a Internet (ISP) puede tomar de manipular su gestión de la red para favorecer el tráfico generado por sus propios negocios o los de sus aliados, y desfavorecer el de sus rivales comerciales u otras empresas que le resulten “inconvenientes”. El ejemplo clásico sería un operador de red que forma parte de una compañía cuyos otros negocios incluyen la televisión y el video; tendría incentivos fuertes para suprimir o dificultar el tráfico de otras productoras y emisoras, así como de los repositorios abiertos al video de terceros.

En otro extremo, la operación real de las redes de telecomunicaciones es imposible si no se administra el tráfico, y en esta administración se puede requerir por diversas razones reducir la velocidad o bloquear totalmente algunos orígenes, destinos, contenidos, protocolos o puertos. Las razones más evidentes para hacerlo incluyen el hecho de que algún punto de una red esté emitiendo tráfico malicioso o mal administrado que bloquee el tráfico legítimo de otros usuarios.

Entre los dos extremos, llamémoslos comercial y técnico, hay cientos de casos particulares, y en muchos de ellos es difícil identificar de manera decisiva una intención discriminatoria del operador.

La neutralidad de la red puede tener básicamente los siguientes enfoques:
• Técnico
• Comercial
• De competencia económica
• De cumplimiento de contratos
• De derechos del consumidor
• De derechos civiles o humanos, como la libertad de expresión

El tratamiento de la neutralidad de la red depende, además, de la naturaleza y condición de los mercados; así en Estados Unidos, con un cuasi-monopolio o duopolio en cada ciudad sobre las conexiones de banda ancha “de última milla” al consumidor, la situación es muy diferente de la que prevalece en Europa, donde los ISPs están en más fuerte competencia por el acceso al consumidor.

Otro aspecto que complica el tratamiento de la neutralidad de la red es la existencia de “mercados de dos lados” en los que participan los ISPs. Simplificando, el ISP tiene dos tipos de clientes y consumidores de los cuales busca obtener ingresos lucrativos: los consumidores finales y los proveedores de contenido. Si el ISP vende el acceso a un precio demasiado alto al consumidor final, no será atractivo para el proveedor de contenido pues éste busca en general grandes audiencias y clientelas; si el ISP dificulta o encarece el paso de los mensajes y productos del proveedor de contenido, será poco atractivo para el consumidor final. (El mejor ejemplo de mercados de dos lados se puede ver en diarios y revistas que tratan de obtener ingresos por la venta de ejemplares –sea por suscripción o individualmente– y por la venta de publicidad.)

Finalmente, el análisis de neutralidad de la red varía en el tiempo conforme los proveedores de contenido utilizan CDNs (Content Distribution Networks o redes de distribución de contenido), en las cuales el contenido está cada vez más cerca del usuario final mediante servidores de contenido instalados en centrales telefónicas y otros puntos de acceso a la red cercanos geográfica y topológicamente al consumidor, lo cual mejora la experiencia del usuario al disminuir los tiempos de latencia de las operaciones y dar fluidez a la transmisión y reproducción del video y otros contenidos. La negociación comercial entre proveedor de contenido y proveedor de acceso es muy diferente en estas condiciones de la que existe en un concepto simplista a partir de un proveedor de contenido que inyecta contenido a la red en un único punto, en un número muy grande de copias, para que llegue a Internet en el mundo entero. Este modelo hipotético no es realista más que para proveedores de contenido y servicios muy pequeños.

La supresión de publicidad en línea (Ad blocking) y la provisión de algunos servicios sin contabilizar su costo (Zero-rating) son temas emergentes en el campo de la neutralidad de la red. Su tratamiento depende fuertemente de la localidad porque depende de la legislación y las prácticas regulatorias de telecomunicaciones, contenidos, comercio, competencia y derechos del consumidor.

Durante varios años hemos tenido que analizar y proponer avances en el manejo de la neutralidad de la red en México; en particular tuve la responsabilidad respectiva en un grupo de trabajo del Consejo Consultivo de la entonces Comisión Federal de Telecomunicaciones, y posteriormente he sido requerido para opinar en muchos otros foros. En específico cuando fui invitado por la organización no gubernamental chilena Derechos Digitales produje, conjuntamente con Erik Huesca, un capítulo de libro que esperamos sea una buena orientación útil a lo largo de algunos años en el futuro (Pisanty & Huesca, 2016) .El enfoque que adoptamos para analizar la neutralidad de la red en Internet y para influir en legislación y política públicas ha resultado productivo al centrarse en los aspectos mejor definidos desde un punto de vista técnico. Separar los aspectos técnicos (a su vez divididos en diseño y operación) de los comerciales y políticos ha permitido proveer una base informada y evolutiva para las discusiones públicas del tema.

Principios fundamentales y gobernanza de Internet - "Core Values"


La gobernanza de Internet exige una colaboración entre los sectores técnico, comercial, gubernamental y no comercial. Este principio fundamental es la base de las recomendaciones sobre gobernanza de Internet de la Cumbre Mundial sobre la Sociedad de la Información surgidas en Túnez en 2005, y que han guiado al Foro sobre Gobernanza de Internet (IGF) y muchos mecanismos relacionados, en ámbitos tanto nacionales como supranacionales. Esta colaboración multistakeholder o multisectorial existe desde el origen de Internet y tuvo que ser reconocida explícitamente para desahogar debates que se habían vuelto insolubles en la Cumbre.

Al materializar esta colaboración multisectorial, es necesario que los participantes estén bien informados y cuenten con criterios sólidos para poder llevar los debates a que trasciendan más allá de lo coyuntural. Los participantes deben estar al tanto de las bases, posibilidades y límites de la tecnología, ser capaces de identificar los factores propiamente técnicos de los que no lo son y ver más allá, en las diversas interacciones que los entrelazan. Nuestro análisis del problema de neutralidad de la red pretendió contribuir a esta diversidad de enfoques enterados.
Core values, principios fundamentales de Internet: enseñanza, difusión, impacto
Identificar los valores fundamentales de Internet a partir de sus principios de diseño ha permitido educar y convencer a numerosos funcionarios, académicos y actores de la sociedad civil, empresas y gobierno, de la importancia de preservarlos, a la vez que ayuda a hacer mejores leyes e inducir mejores prácticas.

Para algunos de los especialistas que conocen la tecnología de Internet resulta sorprendente el nivel a veces pasmoso de desconocimiento con el que algunos usuarios e incluso tomadores de decisiones abordan este medio, a pesar de que la creación de sus tecnologías básicas data de hace 40 y hasta 50 años, y sobre todo de que su difusión masiva, explosiva, a partir de la Web, cumple ya 25 años.

Las mesas de ayuda y call centers sufren lo indecible con estos usuarios, según informan con frecuencia quienes trabajan en esos servicios y algunos de sus clientes. No es raro encontrar a quien se ufana de su desconocimiento en los niveles más elementales –“no sé qué es eso de ‘navegador’”; “¿entonces… la Web no es Internet?” Preguntas y afirmaciones similares son una pesadilla recurrente y que se desarrolla en vivo, durante nuestras horas de vigilia.

La pesadilla se transforma en terror puro cuando el mismo estado de insuficiencia se detecta en tomadores de decisiones que afectan a Internet y al desarrollo de las sociedades hacia el estado que llamamos Sociedad de la Información o Sociedad del Conocimiento. La posibilidad, probada dolorosamente en muchas realidades puntuales, de tomar e inducir muy malas decisiones es un motivo de alerta y acción constantes.
Uno de los espacios en los que esta alerta es motivo de mayor preocupación es la relacionada con gobernanza de Internet. Esto se observa lo mismo en niveles locales –una ordenanza municipal en una ciudad peruana que pretende regular de manera descabellada el uso de juegos de realidad virtual o aumentada en sus calles; un estado federal de una república que pretende criminalizar la ofensa a través de medios sociales en línea–, nacionales –un conjunto de leyes contra el delito cibernético que confunde medios y conductas, efectos y causas– o supranacionales –una política continental en materia de ciberseguridad, acuerdos de alcance transnacional sobre propiedad intelectual o decisiones sobre nombres de dominio, direcciones IP, filtrado y bloqueo de aplicaciones con motivos o pretextos de competencia de servicios en línea contra servicios regulados en redes a los que se pretende regular negando acceso a puertos o protocolos, e igualmente en las mil formas de censura e imposición de criterios ideológicos que toman como pretexto a los niños: en todas se detecta un efecto pernicioso de no conocer y no respetar los principios fundamentales de diseño de Internet.

Durante años hemos mantenido un esfuerzo constante por educar en esta materia a los tomadores de decisiones. El foco principal de estos trabajos ha estado en el Foro sobre Gobernanza de Internet (IGF) en el cual representantes de empresas, organizaciones de la sociedad civil, tecnólogos y representantes de gobiernos se reúnen para debatir e impulsar avances en gobernanza de Internet.
Ahí resulta especialmente crítico proveer elementos para acotar las que podrían ser malas decisiones, una vez los participantes del IGF salgan del Foro y se dirijan a los espacios decisorios propios de cada problema –sea éste spam, phishing, hostigamiento sexual, censura, IXPs (puntos de intercambio de tráfico de Internet), zero-rating, seguridad nacional, restricción del comercio de software de espionaje e intervención de telecomunicaciones, libertad de expresión, lo que sea. La cota inferior de todas estas decisiones debe ser el no alterar la naturaleza misma de Internet, y por ello es imprescindible educar constantemente sobre este tema.
Posteriormente a nuestro esfuerzo inicial, la Internet Society (ISOC) y algunos de sus actores principales tomaron también el tema en sus manos y han producido una serie de documentos sobre los “invariantes de Internet”, es decir, la misma pregunta: ¿qué vuelve Internet a Internet? ¿Qué, si se quitara o cambiara en Internet, haría que dejara de ser Internet?

Los principios fundamentales a que nos referimos son interoperabilidad, apertura, “punta a punta”, “red tonta – orilla inteligente”, descentralización, “mejor esfuerzo”, y las formas en que la contabilidad y rendición de cuentas se presentan en Internet. Todos tienen como base la arquitectura de capas y la conmutación por paquetes. Están definidos alrededor del protocolo IP y el “modelo de reloj de arena”. Se orientan al alcance global de la red y exigen robustez, resiliencia y colaboración global. Se construyen en la IETF (Internet Engineering Task Force) con base en el principio de Rough consensus and running code (“Consenso general y programas que funcionan”). Dan lugar a la innovación sin pedir permiso y a la condición de Permanent beta en la que todo se considera a prueba y sujeto a mejora. La simplicidad de algunos protocolos y diseños, como el de las direcciones IP y el del DNS (sistema de nombres de dominio), da a Internet una formidable escalabilidad. La seguridad (y con ella la privacidad) y otras funciones de alto nivel se remiten fundamentalmente a los extremos de la red y no su corazón operacional.

Para dar forma concreta a la educación alrededor del tema hemos realizado diversas acciones a lo largo de los años. Entre ellas destaco la inclusión de estos principios en la docencia sobre Internet en diplomados y otros programas de posgrado; las actividades de la Coalición Dinámica sobre Valores Fundamentales de Internet, en el marco del IGF; la participación en discusiones y debates públicos, incluso durante la campaña #InternetNecesario y en las campañas alrededor de malas iniciativas de legislación, así como en publicaciones (actualmente en prensa) (Pisanty, 2016a) . Uno de los documentos más valiosos producidos por la coalición es una sesión grabada en video en https://www.youtube.com/watch?v=3vrRGwSKl3A –un panel con Vinton Cerf y Scott Bradner que tuve el privilegio de moderar, en el que estos dos fundadores de Internet discuten las principales decisiones que le dieron forma.

El orden en que se priorizan estos principios es determinante para la forma en que Internet ha crecido (Clark, 1988) . Sería posible construir una red basada en la interoperabilidad pero no en la apertura, o en la que la rendición de cuentas se antepusiera a éstas y exigiera por tanto una autenticación de cada punto ante sus vecinos y la autorización del acceso a todo usuario. Pero no sería la Internet que conocemos.Un ejercicio docente interesante ha consistido en discutir en grupos (en cursos de posgrado orientados a la gestión de la tecnología) cómo sería una Internet en el que el orden de estos principios variara. Es relativamente fácil para los profesionales darse cuenta de que sería muy distinta, y que sólo con estos principios es posible crear una red de servicio generalizado, capaz de dar soporte indistintamente a voz, datos y video, interactivos o pasivos, sincrónicos o asincrónicos, de alta o baja capacidad y, sobre todo, con innovaciones tecnológicas y de modelos de uso que se renuevan sin cesar.

La experiencia en ICANN

ICANN, Internet Corporation for Assigned Names and Numbers, fue creada en 1998 para hacerse cargo de la coordinación central requerida en la administración de tres funciones: el centro del DNS (sistema de nombres de dominio), las políticas generales para la asignación de direcciones IP, y el registro de los parámetros de los protocolos de la IETF. ICANN es producto de múltiples balances: entre políticas públicas e intereses privados, entre descentralización y la necesidad de un registro central de sus tres conjuntos de parámetros que deben ser variables unívocas, entre el origen nacional de Internet en Estados Unidos y su alcance global, entre Estados Unidos y las otras economías desarrolladas, entre países desarrollados y países en vías de desarrollo, entre efectividad y representación, entre teoría y práctica.

La necesidad de crear un organismo con las funciones de ICANN surge hacia 1995, cuando Jon Postel, creador de la IANA (Internet Assigned Names Authority), co-creador con Paul Mockapetris del DNS, y gran autoridad moral de Internet en los años iniciales, observa junto con el gobierno de Estados Unidos que el creciente uso del DNS y la expansión de Internet van a producir litigios costosísimos y muy complejos que involucrarán a la Universidad del Sur de California, al propio Postel en lo personal y al gobierno de Estados Unidos en su conjunto; cuando la exasperación contra la conducta monopólica y abusiva de la empresa Network Solutions en el registro de nombres de dominio empieza a alcanzar niveles alarmantes, y cuando un primer intento de privatización de funciones centrales de Internet atrae en su contra furor internacional.

ICANN es un experimento innovador en organización social y corporativa tanto como es un organismo singular en la interrelación densamente entretejida de conocimiento técnico y toma de decisiones con impacto social amplio, global. El aparato de ICANN se construye exclusivamente con base en derecho privado, sobre contratos y reglas aceptadas por particulares, con intervención lateral de los gobiernos. Cuenta además con la participación de todos los sectores a los que les va algo –intereses o principios– en la gestión de los parámetros coordinados de Internet.

Mi primer contacto con lo que se convertiría en ICANN se presentó cuando asumí la presidencia de la Sociedad Internet de México, A.C, o ISOC México (capítulo mexicano de Internet Society) en 1997. Le pregunté a mi antecesor, Jeffry Fernández, qué asuntos merecían la mayor atención para darle continuidad a su gestión, y me mencionó los acuerdos que estaban en proceso para modificar la gestión del DNS. Poco después, en una reunión de ISOC global en San José, California, un grupo de latinoamericanos se reunión con Mike Roberts, quien encabezaba el grupo que formó ICANN y quien fue su primer director general. Allí conocimos aspectos cruciales del proyecto.

Mi interés, y el que representé por parte tanto de ISOC México como en beneficio de la UNAM y otras instituciones, giraba alrededor del hecho de que se estaba formando un nuevo sistema y había la oportunidad de contribuir a darle forma desde México, desde los países en desarrollo, desde la órbita de nuestra lengua y nuestra cultura, en vez de esperar una vez más a que los sistemas sociotécnicos fueran determinados en el “Norte global”. Se trataba de aportar una visión de principios, no sólo intereses.

La experiencia fue singularmente enriquecedora. Tuve oportunidad de contribuir a formar la primera agrupación de organizaciones no comerciales como parte del primer Consejo Directivo electo de ICANN, y de algunos comités y grupos de trabajo clave como el de gobierno del Consejo y el de evolución y reforma que realizó una gran reestructuración en 2003. Posteriormente presidí el grupo de trabajo sobre el cumplimiento de las obligaciones de ICANN en materia de Estabilidad, Seguridad y Resiliencia del DNS (SSR-RT).

Construimos ICANN –“construimos”… sobre hombros de gigantes, y al lado y de la mano de ellos– con una visión de stewardship, de cuidado por el bien común aun en sacrificio del propio, algo muy difícil para partes interesadas en el mercado de nombres de dominio en el que abundan la especulación y la extorsión, incluso como modelos de negocio. Administraciones posteriores a las primeras tres abrieron más espacios para la creación de nuevos negocios de esos tipos, pero siempre ha habido límites.

La participación multisectorial, estructuralmente en pie de igualdad, siempre fue un principio y un método en ICANN. Construimos estructuras para contrarrestar el poder liso y llano del dinero y su influencia en la política, con la visión de la tecnología y los principios ya descritos, y con el apego a posiciones de principio ante los embates de la política y el interés de lucro desmedido.

La dificultad que se presentó para llegar a conclusiones sobre gobernanza de Internet en la Cumbre Mundial sobre la Sociedad de la Información se explica en parte por la ambición de los organismos internacionales y algunos gobiernos por revertir la salida del control gubernamental de Internet. Hay una paradoja implícita en que el régimen preferido por la comunidad técnica y otras de Internet coincidiera con la de Estados Unidos, y que fuera el de mínima intervención gubernamental –por parte, irónicamente, del gobierno al que más se populariza odiar y confrontar en países como el nuestro. Sin inocencia respecto a los verdaderos enemigos y los verdaderos aliados de la causa de una Internet libre y abierta, en la Cumbre pudimos avanzar contra intentos de imponer controles y contra los efectos de la geopolítica de siempre.

Los gobiernos que clamaban exclusión en ICANN fueron los principales impulsores de la participación de todos a la mesa. El ingenio, el apego a los principios y una cuidadosa selección estratégica de aliados permitieron que esa participación se volviera realmente amplia y balanceada. De ahí el carácter del IGF en el que todas las voces tienen lugar y gracias al diseño institucional ninguna puede imponerse de manera definitiva en formas que resulten en detrimento profundo de la Internet global –por lo menos no sin violar gravemente reglas de convivencia y haciendo más daño a su propia comunidad que a ninguna otra.

El problema fundamental que ICANN está resolviendo al momento de redactar el presente texto es uno de los más espinosos de la gobernanza de Internet: la transición de un sistema en el que queda un control, limitado pero real, de última instancia, que corresponde a un gobierno, a un sistema totalmente multistakeholder. Se trata de la transición de la supervisión de IANA por parte del Departamento de Comercio de Estados Unidos a un sistema de supervisión integrado por la misma comunidad de Internet. Una de las claves para el éxito de este proceso reside en que la gobernanza de la organización tenga una visión de stewardship (Pisanty 2016b; Cerf et al. 2014).

Veo aquí ratificada la perspectiva de construir infraestructuras horizontales, accesibles a todos, flexibles y adaptables a toda innovación, democráticas de raíz; desde un laboratorio local de química computacional hasta diseños de alcance global y duradero. Ojalá el futuro nos permita ratificar y extender esta visión.

Referencias

Briceño, Y. et al. (2010) Políticas y demandas civiles en la sociedad interconectada. Una revisión de movimientos en defensa de Internet en México y Venezuela http://www.politicadigital.com.mx/documentos/politicasdemandascivilessociedadinterconectada.pdf
Cerf, V. G. et al. (2014). Strategy Panel on ICANN’s Role in the Internet Governance Ecosystem, Final Report, en https://www.icann.org/en/system/files/files/ig-ecosystem-report-23may14-en.pdf
Clark, D.C. (1988). The Design Philosophy of the Internet Protocols, Proc. SIGCOMM ‘88, Computer Communication Review Vol. 18, No. 4, Agosto, pp. 106–114 http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-clark.pdf
Pisanty, A. (2014), “Network Neutrality Debates in Telecommunications Reform – Actors, Incentives, Risks”,Network Neutrality: an Ongoing Regulatory Debate, 2nd Report of the Dynamic Coalition on Network Neutrality, L. Belli y P. de Filippi, Dynamic Coalition on Network Neutrality, en linea en:
https://docs.google.com/file/d/0B4CMvT0NORh9RHhKa2IybThhR0U/edit
Pisanty, A. (2016a) “Principios fundamentales y gobernanza de Internet”, en J. Thumfart ed. “Pensar Internet”, Ediciones del Sileno, Universidad Iberoamericana, México (en prensa).
Pisanty, A. (2016b) “The vexing problem of oversight and stewardship in Internet governance”, W.K. Drake (ed.), The Working Group on Internet Governance – 10th Anniversary Reflections, APC, pp 189-207, publicado en
https://www.apc.org/en/system/files/IG_10_Final.pdf
Pisanty, A. & Huesca, E. (2016), “Neutralidad de la Red en Internet”, en Internet en México – Derechos Humanos en un Entorno Digital, Derechos Digitales, México/Santiago. https://www.derechosdigitales.org/wp-content/uploads/Internet-en-Mx-2016.pdf pags. 199-240