martes, junio 29, 2021

Federated Platform Governance: a step forward in multistakeholder, bottom-up platform governance.

Federated Platform Governance: a step forward in multistakeholder, bottom-up platform governance

. Alejandro Pisanty
 
Facultad de Quimica, UNAM, Cd. Universitaria, Av. Universidad 3000,04510 Ciudad de México, México. 

 DRAFT. 

 Abstract 

 I propose to bring together the emerging platform governing and oversight boards in a bottom-up, multistakeholder federation. It will be flexible enough to accommodate each platform’s different rules and allow for cooperation on cross-cutting issues. 

 1. Introduction 

 a. Increasingly, platforms and social media like Facebook, Twitter, and TikTok are creating bodies like Facebook’s Content Oversight Board and TikTok’s Safety Councils. Some of them are global, like Facebook’s or Twitter’s, whereas in TikTok there are both global and national/regional structures being formed. 

 b. Fertmann and Kettermann further ascribe these Boards or Councils (Platformrätte) a legislative power, which is somewhat inexact. Facebook’s COB is more a judiciary that is now starting to write policies and rules by which Facebook will also abide, but it’s first line of action is to respond to complaints about content that has been removed. 

 c. This paper goes one step further by forecasting and proposing an interaction among these Boards and Councils that acknowledges and partly compensates their democratic deficit, contributes to a better governance, stays In the right Internet-architecture layer, and continues to respect competition and other needs some parties perceive for their regulation. 

 2. Federation and its benefits 

 a. It can be expected that there will be overlapping membership in these Boards or at least their immediate environment. 

 b. The companies are calling for membership in their Boards by convening a community of activists, legal scholars, former judges, and activists in fields like Internet rights, free speech, child protection, and cybercrime, together sometimes with members of a more technical bent. The universe of well-known specialists with a good reputation and sound judgement who are reasonably free of conflict of interest and multicultural is limited and all companies will be dipping into the same broader pool. 

 c. Further, the actual or prospective Board or Council members have built networks by their membership in organizations like the Internet Society, Electronic Frontier Foundation, Institute of Electrical and Electronic Engineers, Association for Computer Machinery, Dynamic Coalitions of the Internet Governance Forum, and many others. They interact in specialized, subject-oriented meetings; in the fora and meetings of their associations local chapters and regional and global meetings; in meetings of the International Telecommunications Union; in meetings convened by trade associations such as the GSMA, AIMX, and others; in intergovernmental meetings to which they provide documents and studies and occasionally attend as part of national or other delegations; and in the Internet Governance Forum and the National and Regional IG meetings. A few more are members of organizations like the Global Commission on the Stability of Cyberspace or Global Forum of Cyber Expertise. Many meet through ICANN and a few more through the IETF, or the OECD. The issue of Artificial Intelligence Ethics has already caused the emergence of maybe a hundred organizations, from high-level like the GPAI to rather local ones. Thus they have a set of issues in mind and principles upon which to act that are not homogeneous but are communicated with each other. 

 d. While the priorities by country, region, or organization may vary widely – witness the approaches to freedom of speech or private data protection between the United States and the European Union for one example – these specialists have a common ground to start upon, acknowledging their differences and aware of each other’s Weltanschauung and respect for their knowledge and experience. 

 e. A loose federation of Boards is likely to emerge informally, if it hasn’t yet, through the natural exchanges of opinion and knowledge of their members. 

 f. While each Board serves a platform in particular, and the importance of different issues varies among them, it is likely that some of these Boards will rely more on specialists in the staff assigned or the members themselves on the pressing issues of free speech, content takedowns, hate speech, deplatforming individuals and organizations, interference in elections, children abuse, person trafficking, the spread of malware and ransomware, bullying, online violence against women and minorities, and others. 

 g. At some point soon if not past, exchanges between platforms will be made in a search for consistency among them. While say Twitter may focus more on free speech and Facebook more on violence, they will not want to diverge widely. Also, naturally the specialists in each Board will communicate at least through vetted, public versions of their decisions, from which also ensues a mutual influence. 

 h. At some point soon it may turn out to be efficient (in a Coase-ian sense and others) to convene a meeting of say child protection members of the Boards and to lay down some ground rules and boundaries. At the very least a no-surprises policy may arise. 

 i. This loose, informal, voluntary, issue-focused, specialized, problem-solviing approach also means that there will not emerge a single overarching body with the intent to rule them all, and thus conserve the plasticity, generativity, and permissionless innovation (but not ungoverned behavior) characteristic of the Internet. 

 3. A modest proposal 

 a. All interested parties should convene a meeting of platform boards and councils in the Internet Governance Forum of 2021 in Kattowice, Poland, and online, to flesh out their possible participations in this proposal. This can be done by the IGF MAG convening a special session or a Main Session Panel, or else during a Dynamic Coalition or similar session. 

 b. The experience of building up ICANN and other multistakeholder mechanisms and organizations should be used for the many valuable lessons learned. It can provide guidance for identifying constituencies, setting up rules for meetings, and evolve into the formulation of consensus policies and organizational design. 

 4. Acknowlegments 

 a. I am thankful to the generous staff of Facebook and the people they convened in the explorations for establishing their Oversight Board (full disclosure: I am not a member nor in any way connected to any of the platforms.) 

 b. I am particularly thankful to Vint Cerf and Paul Twomey for discussions on this issue. 

 5. References 

 a. Fertmann and Kettermann, https://dashboard-dev.hiig.de/en/one-council-to-rule-them-all-can-social-media-become-more-democratic 

 A new version of this draft will be provided soon, with formatting, references, and other improvements.

jueves, julio 09, 2020

Inteligencia artificial, algoritmos, ética, y gobernanza de Internet - algunas notas

El texto a continuación fue presentado en el encuentro "Un Acercamiento a la Inteligencia Artificial" organizado por la Secretaría de Relaciones Exteriores y el Senado de la República, México, febrero 2020. ha sido publicado en un libro digital que aparecerá impreso después del período de confinamiento debido a COVID-19. Agradezco al Lic. Ignacio Cabrera y a los organizadores su apoyo.

Los puntos que se presentan en este breve trabajo son indicativos, no exhaustivos; están dirigidos a personas involucradas en la formulación de políticas públicas y procesos legislativos; y complementan las presentaciones de otros ponentes, con una temática sugerida por los organizadores.



Internet e Inteligencia Artificial


Dí NO a “El Algolemritmo”. No se deben atribuir propiedades prometéicas, del Golem, de Frankenstein, a los algoritmos ni en particular a los sistemas actuales de Inteligencia Artificial. Se trata siempre de sistemas computacionales programados por humanos, alimentados con datos provistos por humanos, y que pueden ser controlados por humanos. Cuando se deja que los sistemas operen sin controles y verificaciones, cuando se permite que se usen sus resultados de manera acrítica para tomar decisiones que pueden afectar a humanos, también es resultado de las acciones, decisiones u omisiones de los humanos.


El desarrollo de la Inteligencia Artificial en casi todas sus modalidades antecede con mucho a la creación y expansión global de Internet. Es una de las disciplinas, y aspiraciones, más antiguas de la computación. En la actualidad y en este trabajo en específico, no estamos hablando de Inteligencia Artificial General, sino de técnicas como “Aprendizaje de Máquina” (Machine Learning o ML)y Redes Neuronales (Neural Networks).


Hay una interacción positiva entre la IA e Internet, que se basa en que por un lado, el desarrollo de Internet provee volúmenes de datos, problemas, demandas, y fondos de inversión y financiamiento a los que puede responder la IA; y por otro, la IA ha resultado capaz de proveer sistemas que facilitan la operación ágil y creciente de muchos servicios en Internet. En todos ellos la escalabilidad a escala Internet exige automatización que la IA facilita mejor que otras técnicas.


Entre otros ejemplos podemos mencionar:


Sistemas de recomendación como los que se utilizan en tiendas de comercio electrónico, servicios de video, o redes sociales en línea


Sistemas de reconocimiento de imágenes (incluyendo reconocimiento facial)


Algoritmos de detección de contenido sensible (pornografía, abuso infantil, terrorismo, incitación al delito, infracciones de derechos de propiedad intelectual)


Vehículos autónomos


Inteligencia Artificial, algoritmos, sesgos y abusos


Una parte importante de las aplicaciones actuales de IA se hace mediante sistemas de información complejos que se “entrenan” con base en datos provistos por los desarrolladores o los encargados de su aplicación. En muchos casos este



“entrenamiento” pasa por la calificación de los insumos (por ejemplo, imágenes) realizada por seres humanos. Así, personas contratadas califican una tras otra cientos de imágenes indicando si en ellas se encuentra o no un rostro, un gato, un arma, un número, o cualquier otro objeto de interés. En otros casos el sistema (“no supervisado”) está diseñado para encontrar patrones sin esta calificación.



Todo sesgo que exista en la selección de insumos, en los insumos mismos, o en las personas que hacen la calificación, o quienes evalúan los resultados, se permeará y transmitirá al sistema en el momento de su aplicación.


El ejemplo clásico en discusión actualmente es un sistema de información que usan los jueces en algunas jurisdicciones de Estados Unidos para decidir si ciertos delincuentes ya sentenciados deben purgar sus penas en prisión o fuera de ella, con base en una predicción del riesgo de que reincidan en el delito. Además del propio sistema de información y la forma en que haya sido programado, debe ser claro que en este sistema puede haber sesgos de múltiples orígenes: desde los datos mismos, si históricamente una zona o una etnicidad han sido tradicionalmente más activos en ese delito (piénsese en las diferentes prevalencias del delito violento con arma blanca y el delito de cuello blanco en distintas zonas de una misma ciudad); si han sido condenados previamente por jueces con una carga de prejuicios contra esa población; si algún sesgo involuntario o voluntario ha influido en la selección de datos “de entrenamiento” (por ejemplo, poblaciones subrepresentadas en la muestra debido a migraciones recientes); y otras condiciones.


Baeza-Yates y otros autores han clasificado estos sesgos en manera ordenada para evitar incurrir en una sobrerreacción contra los sistemas basados en IA. Los sesgos, para el caso particular de datos obtenidos de Internet (extensible a otras situaciones) son: sesgo en la actividad, sesgo en los datos, sesgo en el muestreo, sesgo en el algoritmo, y, por parte del usuario, sesgo de autoselección y un sesgo de segundo orden que alimenta un ciclo de retroalimentación con los datos. Cada uno de ellos es susceptible de medición aunque con elevadas incertidumbres.


El impacto de los sesgos puede ser elevado: puede producir sentencias judiciales injustas, discriminación por etnicidad, conducta, preferencia sexual o política, nivel socioeconómico o lugar de residencia, recomendaciones inadecuadas con consecuencias perniciosas, amplificación de discursos de odio, y otras consecuencias. Quienes adquieren y operan estos sistemas deben considerarlos en un marco de responsabilidad, que


se traduce en responsabilidades de funcionarios públicos en el sector público y en responsabilidad civil en el privado, además de posibles consecuencias mercantiles y penales.



El problema central: extrapolar a partir de interpolantes


Se puede describir casi a nivel caricatura a las funciones en que se emplean muchos sistemas basados en iA como:


Encontrar patrones entre datos donde las regularidades no son fáciles de discernir para los seres humanos


Encontrar excepciones o anomalías en sistemas que a simple vista están regidos por patrones recurrentes


En uno y otro caso se alimentan decisiones hacia el futuro; por ejemplo, patrones de compras, patrones de conductas de riesgo o delictivas, o excepciones como abusos en tarjetas de crédito.


El problema fundamental está en la posibilidad de estar utilizando al sistema fuera de su intervalo de validez, que equivale a usar un interpolante para extrapolar. Esto debe ser probado constantemente y retroalimentado al sistema.


Gobernanza


La gobernanza de la IA está en discusión globalmente, frecuentemente bajo título de “Ética de la Inteligencia Artificial” o “Ética de los Algoritmos”. Instituciones como el IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) han hecho compilaciones de marcos de referencia éticos tan diversos como la deontología cristiana (y variantes), el budismo, el confucianismo, y el utilitarismo, que provee el marco de referencia para muchas decisiones en el ámbito de los Estados Unidos. Destacan las diferencias entre culturas orientadas al cumplimiento de deberes y las orientadas a la maximización del beneficio global, así como los contrastes entre las culturas de beneficio o de deberes personales y las colectivistas.


Se han formulado códigos de ética dentro de las profesiones como la ingeniería, dentro de empresas y en ramas industriales enteras, con diversos grados de avance y claridad. El problema fundamental de estos códigos reside más allá de su formulación, en la posibilidad de llevarlos a la práctica de cada desarrollador de software y dispositivos, de cada verificador o inspector, y de cada juez o jurado.


La experiencia adquirida en más de 20 años de evolución de la Gobernanza de Internet nos sugiere los siguientes principios generales para estudiar su extensibilidad a la Inteligencia Artificial:


La gobernanza es el conjunto de normas, criterios y mecanismos de toma de decisiones (no sólo es el gobierno quien actúa, no son sólo las leyes los instrumentos normativos).
En la gobernanza intervienen múltiples partes interesadas o “stakeholders”, movidos bien por intereses, bien por la defensa de principios, cuyos agrupamientos dependen del problema específico que se está tratando de resolver.


Ningún mecanismo único, ningún organismo único, puede resolver todos los problemas del ámbito. Se debe desarrollar un ecosistema completo, balanceado, y evolutivo.


Los mecanismos más eficaces de gobernanza son los orientados heurísticamente, es decir, a la solución de problemas específicos.


Muchos problemas son definidos más marcadamente fuera del ámbito de una tecnología específica que dentro de ésta. Así el delito cibernético es ante todo delito, que a partir de delitos preexistentes como el fraude y la suplantación constituye delitos “cibernéticos” como el “phishing”, o el abuso sexual contra menores se transforma y amplifica a través de una cadena de delitos con presencia en Internet.


Los mecanismos de gobernanza más robustos son democráticos, globales (con debida consideración al ámbito local o regional), con la participación de todas


las partes interesadas o “stakeholders”, y con diseños institucionales adecuados y diseñados con la capacidad de evolucionar con la evolución de los problemas, lo cual puede conducir a su extinción o absorción en otros.



En el caso de Internet el mapeo entre fenómenos fuera de línea y en línea puede hacerse eficazmente mediante 6 factores: masificación (incluyendo efectos de red), identidad y anonimato, transjurisdiccionales, reducción de barreras, reducción de fricción, y memoria y olvido. Esto es el “6F Framework” que he desarrollado recientemente. Una adaptación del mismo a la Inteligencia Artificial y sus aplicaciones será muy productiva.


¿Qué hacer en el Legislativo y en políticas públicas?


La ley más importante para la Inteligencia Artificial es una combinación entre las leyes de ciencia y tecnología, los estímulos a la economía y al conocimiento en general, y el Presupuesto de Egresos de la Federación.


La legislación sobre ciencia, tecnología e innovación debe abrir espacios para proyectos audaces que desarrollen o usen Inteligencia Artificial en formas innovadoras y educando tanto a especialistas como a usuarios y vigilantes de su uso inteligentes y en constante actualización.


Los estímulos a la economía en general darán lugar al crecimiento de nuevas tecnologías e inversiones que impulsen el


desarrollo y aplicación de la Inteligencia Artificial junto con otras tecnologías como la computación cuántica y la ciencia de datos. Muchos procesos y productos industriales ya contienen Inteligencia Artificial (piénsese en SAP como uno de miles de ejemplos).



El estímulo al conocimiento en general debe ser poco prescriptivo y dejar enorme libertad al pensamiento y a la ejecución de proyectos.


Tanto los fondos como las actividades que impulsan la Inteligencia Artificial se dan en nuevas combinaciones de instituciones académicas, proyectos de la Administración Pública que manejan cantidades ingentes de datos, grandes empresas (no todas nacionales) y pequeñas empresas de base tecnológica. Hospitales, fábricas, servicios muy diversos, y un ecosistema de proveedores para ellos necesitan libertad para desarrollarse.


Todas las opciones institucionales deben estar disponibles, incluyendo la creación de uno o más nuevos centros de investigación, el fortalecimiento de los existentes, la formación de redes, la colaboración entre los sectores apoyada con incentivos adecuados, y muchas más. Es importante también que el desarrollo de la Inteligencia Artificial sea favorecido sin que ello ocurra en detrimento de otras disciplinas emergentes. El equipamiento de cómputo de alto poder y en arquitecturas innovadoras, y el acceso a redes de comunicaciones de alta capacidad, así como la colaboración internacional, son indispensables en todas las opciones.


Los controles que posiblemente sean necesarios para el uso no discriminatorio de los sistemas que contienen administración de grandes volúmenes de datos e Inteligencia Artificial pueden partir de controles ya existentes como las leyes de Responsabilidades de los Funcionarios Públicos, el régimen de responsabilidades de las empresas privadas y los particulares, y de organismos como los Comités de Ética y de Bioética del sector salud.


Toda legislación, toda política pública, que se proponga o desarrolle en estos temas deberá basarse en la participación informada de múltiples partes interesadas, con una estructura evolutiva y transparente favorable a la innovación y el desarrollo de la inteligencia natural de la población.


El impacto de la Inteligencia Artificial y la robótica en los mercados laborales será positivo en la medida en que la legislación y las políticas públicas favorezcan la reeducación de personas cuyos puestos y funciones sean sustituidos por sistemas automatizados. En esto las tendencias históricas datan del antiguo Egipto y el mejor enfoque es observarlos como procesos de mecanización y automatización que pasan por etapas de gran
aceleración, pero de los que existen precedentes cuando menos a lo largo de los últimos dos o tres siglos a partir de la Revolución Industrial.



Coda: “Si no estás pensando en el problema humano, la Inteligencia Artificial no lo va a resolver por ti”. Vivienne Ming.

viernes, julio 03, 2020

Conectar a 77% de la población de México a Internet, programa de la SCT 2020-2024

Acaba de ser publicado el Programa Sectorial 2020-2024 de la SCT. El mismo puede ser consultado en http://www.dof.gob.mx/nota_detalle.php?codigo=5596042&fecha=02/07/2020

Una nota periodística al respecto, concentrada en el tema de acceso a Internet, aparece en el diario El Universal (México), en https://www.eluniversal.com.mx/cartera/amlo-preve-conectar-13-millones-internet

Esta información podría ser de interés para muchos/as.

Del Programa Sectorial extraigo lo relacionado con Internet por ameritar estudio en mayor detalle, además del par de párrafos que dicen "
En estos momentos donde el desarrollo tecnológico avanza a pasos agigantados, la incorporación dinámica y disruptiva de las tecnologías de la información y las comunicaciones, afecta todos los ámbitos de la vida, la forma de relación entre unos y otros, el desarrollo de las actividades económicas, e incluso la relación de las personas con la naturaleza. Se debe, por tanto, repensar el concepto mismo de información, su rol en un mundo cada vez más conectado y los cambios que se requiere promover para lograr la transformación digital de México.
Con políticas que impulsen a los habilitadores tecnológicos para la transformación digital, México será un país donde la inclusión y el desarrollo social generan cada vez mejores condiciones de vida y de bienestar para todas y todos. A pesar del crecimiento poblacional, que multiplicará la demanda en los servicios de telecomunicaciones, toda la población tendrá acceso a telecomunicaciones con calidad, y podrá migrar a tecnologías 5G y a IPv6. La Inteligencia Artificial y el Internet de las Cosas serán una realidad cotidiana que ayudarán a la organización social y al desarrollo tecnológico del país potenciándolo como una nación emergente del siglo XXI." y la recomendación de estudiar a fondo lo que el documento expresa respecto a las metas y métodos de medición de los indicadores respectivos: 
:

"
Objetivo prioritario 3.- Promover la cobertura, el acceso y el uso de servicios postales, de telecomunicaciones y radiodifusión, en condiciones que resulten alcanzables para la población, con énfasis en grupos prioritarios y en situación de vulnerabilidad, para fortalecer la inclusión digital y el desarrollo tecnológico.
Estrategia prioritaria 3.1 Impulsar el despliegue de infraestructura de telecomunicaciones y radiodifusión de redes críticas y de alto desempeño para el desarrollo de México.
Acción puntual
3.1.1 Reducir las barreras para el despliegue de infraestructura de redes de telecomunicaciones y radiodifusión, fomentando el aprovechamiento de bienes públicos y la compartición de infraestructura, así como generando mecanismos que favorezcan las inversiones en zonas prioritarias.
3.1.2 Promover el despliegue y desarrollo de infraestructura de telecomunicaciones, su interconexión, interoperabilidad, así como el uso eficiente del espectro radioeléctrico para contar con más y mejores redes seguras, de alto desempeño y de alta disponibilidad.
3.1.3 Fortalecer la Política Satelital del país, la planificación de recursos orbitales y el espectro radioeléctrico, y promover el uso del Sistema Satelital Mexicano, para contar con comunicaciones satelitales seguras y de alta disponibilidad que aporten a la cobertura social y a la seguridad nacional.
3.1.4 Promover la modernización y ampliación de las redes de seguridad nacional y control de emergencias, identificando tecnologías abiertas y generando mecanismos de coordinación que permitan lograr un uso eficiente de las mismas.
 
Estrategia prioritaria 3.2 Promover la cobertura social, el acceso a Internet y a la banda ancha, a la radiodifusión y el correo, como servicios fundamentales para el bienestar y la inclusión social, así como fomentar el aprovechamiento pacífico del espacio.
Acción puntual
3.2.1 Diseñar estrategias de aumento de la cobertura, a través de mecanismos de coordinación con actores públicos y privados, que permitan lograr condiciones de conectividad a Internet a través de servicios de banda ancha en el territorio nacional.
3.2.2 Promover condiciones de acceso a dispositivos y servicios de conectividad a Internet, así como favorecer mecanismos de organización social y comunitaria para la ampliación de los servicios de radiodifusión, para fortalecer la inclusión y el desarrollo social.
3.2.3 Modernizar al Servicio Postal Mexicano para optimizar su organización, procesos e infraestructura, así como fortalecer su capital humano, para garantizar el derecho al servicio postal universal y lograr que se constituya en actor relevante de la nueva economía digital.
 
Estrategia prioritaria 3.3 Desarrollar habilidades y modelos para la transformación digital de los individuos y las instituciones, incluyendo a los grupos en situación de vulnerabilidad.
Acción puntual
3.3.1 Identificar y definir el marco de habilidades digitales, con énfasis en las necesidades de los grupos prioritarios o en situación de vulnerabilidad, que permitan lograr la inclusión y la transformación digital de México.
3.3.2 Identificar modelos, herramientas y mejores prácticas para la transformación digital y el desarrollo sostenible.
3.3.3 Fomentar el uso de diversos canales de promoción, diseminación y adopción de herramientas para la formación de capacidades y habilidades digitales.
 
Estrategia prioritaria 3.4 Promover el desarrollo tecnológico en diversos campos de las telecomunicaciones, la radiodifusión y el uso pacífico del espacio para la transformación y la inclusión digital.
Acción puntual
3.4.1 Identificar, analizar y experimentar tecnologías y herramientas de telecomunicaciones, radiodifusión e información para fomentar el desarrollo tecnológico de México.
3.4.2 Generar mapas de ruta y promover recomendaciones y proyectos estratégicos que impulsen la modernización y adopción de modelos para el desarrollo tecnológico del país.
3.4.3 Fortalecer los mecanismos de gobernanza de Internet para lograr redes interconectadas, interoperables y seguras con respeto a los derechos y obligaciones de sus usuarios.
 
 
Estrategia prioritaria 3.5 Coordinar el proceso de elaboración y evaluación de Políticas Públicas para la transformación e inclusión digital de México, de manera participativa e impulsando la coordinación Interinstitucional.
Acción puntual
3.5.1 Identificar y coordinar la participación de actores clave para el desarrollo de un marco de política pública que permita satisfacer las necesidades de la población en materia de telecomunicaciones y radiodifusión, así como promover el desarrollo del sector.
3.5.2 Coordinar la elaboración y dar seguimiento a las políticas, programas y proyectos en materia postal, de telecomunicaciones y radiodifusión, así como proponer mejoras a los procesos de su operación.
3.5.3 Coordinar la relación con los organismos descentralizados del Sector Comunicaciones para promover su modernización y alineación con los objetivos del desarrollo nacional.
 

domingo, noviembre 03, 2019

Interdependencia digital - gobernanza de Internet y del ciberespacio

Interdependencia Digital
Alejandro Pisanty
Intervención en el evento multisectorial organizado por la Fundación Konrad Adenauer, México, 2019

Agradecimientos a la Fundación Konrad Adenauer, y en particular a Ann-Kathrin Beck por su inteligencia, amabilidad, visión y capacidad de organización, además del interés en el tema y su rápida absorción de los puntos esenciales.

1. Interdependencia Digital

El Panel del Secretario General de la ONU sobre Cooperación Digital es uno más, entre los más distinguidos sin duda, de los pasos que diversos organismos han dado para estudiar y proponer avances colectivos en la gestión del ciberespacio, Internet y sus impactos en la humanidad.
Conforme han pasado ya no sólo los años sino las décadas, las tecnologías de información y comunicación y en particular Internet han dejado una huella imborrable, acelerado tanto como producido grandes transformaciones sociales, y mostrado un espejo en el que la humanidad se mira no sólo en sus mejores rasgos y más altas aspiraciones sino también en algunos de sus aspectos más obscuros.
La cooperación y creatividad casi ilimitadas de los primeros años de Internet no se han interrumpido; más bien al contrario, se han acelerado, diversificado, y expandido a nuevos espacios geográficos, generacionales y culturales. A la vez, sin embargo, las conductas perjudiciales entre personas y entre organizaciones han encontrado vehículos y nuevos medios, se han transformado, y han adquirido nuevos alcances y métodos.
El reto para la humanidad no es menor, pues se trata de preservar los valores positivos y la posibilidad de que se sigan expandiendo a la vez que se contrarrestan las tendencias indeseables. Este reto se acrecienta dada la imposibilidad de unificar y uniformar las definiciones de lo deseable en sociedades diversas que están en contacto cada vez más intenso a través del ciberespacio.
Las actividades perjudiciales, además, entrelazan cada vez más a ámbitos que en ausencia de la interconexión actual podían verse y administrarse por separado, como por ejemplo la seguridad pública y la nacional.
La interdependencia entre sectores y grupos dentro de cada país y entre países y sectores es cada vez más intensa debido a la irrupción de los medios e interconexiones digitales. Aquello que tenemos en común sobresale a través de múltiples fronteras; aquello que puede dividirnos las atraviesa también, a velocidades superiores a las capacidades de proceso de los sistemas sociales, regulatorios y legales.
La colisión entre un utópico ciberespacio definido por la horizontalidad de Internet y un mundo tradicional ha generado una onda expansiva que en tres décadas ha pasado de la Declaración de Independencia del Ciberespacio a requerir la atención urgente de gobiernos y organismos multilaterales. Conviene disipar desde el primer momento la idea de que Internet ha sido o es un espacio sin ley ni gobierno.
Desde las primeras acciones orientadas a la normalización técnica para garantizar la interoperabilidad en Internet, con la creación de la IETF y el mecanismo de RFCs, la comunidad activa en Internet se ha dado formas de gobernanza. Éstas han sido variadas y adaptadas a la naturaleza de los problemas específicos que han surgido.
Es posible extraer algunas lecciones de lo observado y aprendido durante la formación de ICANN, en la Cumbre Mundial sobre la Sociedad de la Información, en el Foro sobre Gobernanza de Internet, y en otras experiencias. Volveré a esto hacia el final de esta intervención.
2. Cómo vivir entre el ciberespacio y el mundo pre-Internet
Una observación recurrente entre quienes trabajamos regularmente en las profundidades del contexto de Internet es el deslumbramiento que sufren quienes no lo hacen cuando se encuentran con algunos fenómenos que les resultan novedosos, sea por su reciente invención o por ser el primer encuentro con algo que ya funciona. En este deslumbramiento históricamente se han originado dos tendencias, el dualismo digital y la que juzga que “no hay nada nuevo bajo el Sol”.
Una postura que nos ha estado rindiendo buenos resultados es una que a la vez reconoce la innovación radical y las transformaciones profundas que nacen de Internet, y la permanencia de algunos fenómenos humanos y sociales básicos; éstos son modificados, a veces en forma profunda, por Internet, y es posible rastrear tanto el fenómeno básico como la modificación para encontrar formas de tratar a ambos en forma coherente y conducirlos, darles una gobernanza adecuada si ésta es requerida. Dos conjuntos de premisas nos permiten avanzar rápidamente al menos para dar a los problemas un adecuado encuadre.
El primero es el conjunto de principios de diseño de Internet, jerarquizados como arquitectura de capas, conmutación por paquetes, interoperabilidad, apertura, mejor esfuerzo, punta a punta (también conocido como “inteligencia en la orilla” o “red tonta, orilla inteligente”), robustez, (expresado entre otras formas como “ser generoso con lo que se recibe y parco con lo que se envía”), descentralización, escalabilidad, y la consecuente “innovación sin pedir permiso”.
Derivados de estos principios, seis parámetros parecen ser adecuados y suficientes para hacer esta cartografía entre lo digital, innovador, “cíber”, y sus precedentes en la conducta humana: masificación o escalamiento incluyendo efectos de red; identidad y anonimato; cruce de fronteras jurisdiccionales; reducción de barreras; reducción de fricción; y efectos de memoria y olvido.
Para explicar su aplicación en forma simplificada podemos concentrar nuestra atención por un momento en el delito conocido como “phishing”. Se trata de un fraude acompañado por una suplantación de persona. Lo que requeriría que en la calle una persona aceptara firmar una tarjeta de firmas de una cuenta bancaria para ceder el control de sus recursos, algo que cara a cara sería improbable, de bajo rendimiento y de relativamente alto riesgo para el delincuente, se vuelve accesible a millones de víctimas potenciales mediante la masificación; difícil de atribuir a un culpable específico a través del ocultamiento de identidad; difícil de rastrear, perseguir, imputar y castigar por los cruces de fronteras jurisdiccionales a países donde el rastreo es imposible o la conducta no es perseguida; con facilidad se forma una banda y se adquieren los recursos de software y datos necesarios para el delito al ser mínimas las barreras para relacionar a los delincuentes (como lo son para el comercio electrónico); la víctima actúa de manera instantánea para ceder sus credenciales debido a la mínima fricción necesaria para la transacción; y los delincuentes usan la memoria de Internet para adquirir los datos necesarios para el delito tanto como acuden al olvido para borrar sus huellas.
Muchos problemas, iniciativas de ley, acuerdos y proyectos se benefician de ser cribados por estos seis principios y sus consecuencias como la radical transparencia que Internet permite.
El éxito de muchos de los procesos de gobernanza de Internet y del ciberespacio hasta ahora – los exitosos, valga la redundancia – se origina en que atienden a estos principios (aun “avant la léttre”), se concentran en la capa adecuada, y, algo muy importante, atienden la necesidad de escalabilidad radical de Internet. Otros, en cambio, resultan problemáticos. Por ejemplo, el “derecho al olvido” o los bloqueos, filtros y “takedowns” enfrentan problemas severísimos de escalabilidad, al convertirse en procesos tipo “whack-a-mole”, reactivos y puntuales, o bien descansar en algoritmos y procesos automatizados que no pueden hacer las distinciones sutiles en materia de alcance e intención de las acciones de las que hasta ahora sólo los seres humanos son capaces.
Son exitosos en sus ámbitos la IETF para la normalización técnica; ICANN para la gestión de la parte centralizada del sistema de nombres de dominio y la asignación de direcciones IP; el APWG o Anti-Phishing Working Group y el M3AAWG o Mail, Messaging, and Multimedia Anti-Abuse Working Group; y el IGF o Foro sobre Gobernanza de Internet, cada uno dentro de sus objetivos, porque parten de un principio heurístico, reúnen a las partes realmente interesadas, están estructurados con los “dientes” proporcionales a su función, y tienen una organización escalable para el problema de que se ocupan.
Los mecanismos de gobernanza de Internet exitosos consideran de manera específica el rol de cada “stakeholder”, partiendo además de si su posición se basa en la defensa de un interés, en principios, o de manera diferenciada entre unos y otros. Suponen que cada actor puede tener un papel diferente en problemas diferentes; por ejemplo, los gobiernos pueden asumir un papel consultivo en el IGF, un papel consultivo pero con opinión que es obligatorio escuchar en ICANN, y un papel proactivo y actuante a través de la fuerza pública en el APWG. El papel de los gobiernos siempre será asimétrico y objeto de especial consideración.

3. Hacia dónde va la Cooperación Digital
Como lo señala el documento de la ONU sobre interdependencia y cooperación digital, las preocupaciones y focos de atención de las sociedades contemporáneas pasan por lo digital – desde las telecomunicaciones, evidentemente, hasta la justicia más elemental, la paz y el desarrollo.
La capacidad de Internet de amplificar masivamente las comunicaciones a través de las fronteras ha dado lugar a la existencia de empresas cuyo número de clientes y usuarios es similar o superior al país más poblado de la Tierra, y por ello a que éstas provean espacios a poblaciones inusitadas. Los modelos de negocio de algunas de estas empresas alteran de manera fundamental la naturaleza de la esfera pública. Sin restar importancia a la inclusión económica, los riesgos civilizatorios son extraordinarios y deben ser abordados. Al mismo tiempo, al hacerlo, debemos dejar de lado los pánicos morales, la exageración de los riesgos, y el deslumbramiento – positivo o negativo – de la novedad más reciente.
La Cooperación Digital exitosa será la que no sea impuesta desde arriba sino producto de acciones voluntarias, bien intencionadas, racionales, y basadas en evidencia. De los modelos que propone el informe del Panel debe surgir una síntesis dinámica, constantemente en ajuste, cada vez más incluyente y racional.
Debemos reconocer que se ha creado un régimen novedoso en el espacio “multistakeholder”. Este tipo de gobernanza no se inventó para Internet ni existe solamente en el ciberespacio. Campos tan variados como las finanzas, los bosques, el pastoreo, la pesca y los deportes muestran instancias de ella. Hay que prestar especial atención a actores poderosos y hábiles que cosechan éxitos o precedentes citables en este régimen para apalancar su posición en el multilateral y viceversa, en un ciclo que no es aprovechado igualmente por todos los actores. Ahí está uno de los mayores retos para la política exterior.
Debemos evitar también las trampas del lenguaje, desde el que significa demasiado por su contenido emocional como “seguridad” hasta el que pierde significado por su polisemia como “cíber”; el que carga los dados invocando a los niños o el que oculta la promoción del odio bajo una falsa defensa de la libertad de expresión. Cada uno de estos temas nos lleva a dobles y triples varas de medir que sólo podemos superar con comunicación honesta y eventualmente un nuevo contrato social, de grano muy fino y dinámico, en el que más allá de reglas escritas tengamos claro qué es permisible y qué no, con la información y datos de otros, con los riesgos de manipulación, con las diferencias culturales, y con los pisos de derechos humanos que no pueden ser ignorados.
Y debemos tener claro que la conducta se modula y regula en el plano de la conducta misma. Odio y discriminación, barreras al desarrollo, se amplifican o se pueden reducir en el ciberespacio, pero ante todo a través de sus herramientas para dar cauce a decisiones sobre lo humano y social.
Eventos como el que hoy nos congrega deben servir para la construcción de confianza, la expresión del disenso, el planteamiento de políticas creíbles desde la de acceso hasta las más abstractas de innovación experimental, y para identificar las múltiples áreas en que todavía no estamos todos para ir activamente por quienes faltan, dentro o fuera del país. Sabemos que un modelo monolítico es inviable. Es sospechoso de compatibilidad con la idea del gobierno único para la humanidad, no es escalable, no es suficientemente dinámico, y no prueba su legitimidad con el criterio que el sistema multilateral soslaya y la comunidad técnica privilegia: legitimidad basada en eficacia.

jueves, noviembre 15, 2018

Internet Core Principles under threat in the IGF

Discussion and position paper prepared for the Dynamic Coalition on Internet Core Values of the Internet Governance Forum, 2018
Presented (through a friendly reader) at the session in Paris, November 14, 2018.

Alejandro Pisanty – Dynamic Coalition on Internet Core Values, Internet Governance Forum (IGF) 2018

Internet Core Principles or Internet Core Values ?
We will discuss this difference in a few seconds. Let us first answer what they both mean to us: the principles and values which, if you take them away from a network, make it stop being the Internet.
Some of us prefer to concentrate on Internet Core Principles, starting from the technical design principles of the Internet. These are more stable over time, more fundamental, and less susceptible to interpretation differences among cultures.
Internet Core Principles are well known in the technical community and more heterogeneously outside it. They include:
Packet switching
Layered architecture
Interoperability
Best Effort
Openness
End-to-End
Decentralization
Robustness
Scalability
It may be said that some of these characteristics are principles and others are design goals; and one may wish to add others like universality (preferably in its most constrained definition, “universal reach”) and resilience.
The definitions of Best Effort and End-to-End are rather refined.
Best Effort is a fundamental principle from the early stages of design of the Internet, in order to let the network function over a wide and growing variety of physical supports like radio, copper wire, and optical fiber (optical fiber communications came into existence some 20 years after the Internet was conceived; the same applies for cellular telephony and other wireless technologies, whereas radio communications of more general types had been available since the end of the 19th century.)
End-to-End is often described as “having communications go from one end to another” or “having communications go from one end of another, regardless of where on the network both ends are” but it actually means something more sophisticated, “having communications’ characteristics defined mostly at the end points, leaving the network to do only the job of carrying them.”
Layered architectures and packet switching are not unique to the Internet but have become almost synonymous with it because other instances have faded away.
Another principle that has become part of the core set is Permissionless Innovation. Understood in this context it means something quite simple: there is no owner of the whole network, no authority that has to grant permission for an application or technology to be used on the Internet. Of course other permissions may be needed, such as legality in a given jurisdiction, or those derived from requirements of security, privacy, or the management of intellectual property. They are not permissions intrinsic to the Internet; they apply to the actors (individuals or organizations) that develop, operate, or use the innovations.
As a result, most human conduct can now take place on the Internet or through it. The effects of the Internet on human conduct are:
1. Massification.
2. Identity effects – anonymization is possible, as is the formation and following of precise, detailed digital identities.
3. Transjurisdictional effects – actions on the Internet can take place across many borders, often for each single act.
4. Barrier lowering – cost, legal registration, company size, capital investment, etc. for activities on the Internet are much lower, often negligible, for executing them over the Internet as compared to offline.
5. Friction reduction – obstacles and time such as purchasing authorization, money transfer, customer or seller decisions, participation in discussions, etc. can take place instantly and without intermediation.
6. Memory effects – often paradoxical, memory effects include the pervasiveness of memory in the form of files that eternally and pervasively propagate, and the loss, often massive, of memory in the form of websites, publications, archives, accounts and identities, which are lost through deletion, erasing, physical destruction, company breakdowns, website renewals, or loss of compatibility, media and devices to read and execute information and software which are not regularly transferred to new supports.
Contemporary questions about the Internet rest on the key issues of expanding access and the benefits of the Internet, and of trust on the Internet, on individuals and organizations on and through the Net, and on operations of all kinds held through the Internet. Understanding how the core principles can support trust is indispensable for the development of strategies in all fields.
The Internet is a general purpose interconnection of networks. Standards are defined in an open process and applied voluntarily. Being connected is its own prize, so most actors will comply with the Internet standards developed by the Internet Engineering Task Force and other applicable entities. The decentralization of the Internet also requires an extensive cooperation among all parties, yet allows each of them great freedom on how they choose to operate their part of the Net.
The governance model that has emerged for the Internet is consequent with the above. It is decentralized, multistakeholder, cross-sectional, centered on specific issues and the solution of problems in them, participatory, decentralized and robust. It is generally oriented to specific layers (for example, standards for the Internet layer are developed in the IETF; issues concerning the DNS standards are dealt with in the IETF while the policy for the global coordination of resources is developed within ICANN)
Shifting to Core Values terminology, we find a current of thought which considers the above but tends to focus more on some of the principles and goals already stated, like universal reach or openness, and adds to the list values like freedom – “a free and open Internet accessible to all” would be a fair summary of this view and aspiration. A creative tension within the Dynamic Coalition allows us to make progress based on the contrast between both views.
The flags of access, openness and freedom understood as human rights are also carried by other IGF Dynamic Coalitions, such as those on Internet Rights and Principles (IRP), Open Access and others related to libraries, Network Neutrality (an extension and application of the End-to-End principle), and on Publicness.
Over the years of its existence the Dynamic Coalition on Internet Core Values has examined, in a yearly fashion, developments that enhance or endanger the values and principles that make the Internet be the Internet. While these in turn may vary over time, they have been remarkably stable at the core, and fora such as the IETF serve well in discussing, planning, and executing their evolution. We have looked each year at the effect of major trends on the layered architecture, interoperability, best effort, openness, end-to-end (in this case especially through the lens of Network Neutrality, and leaving the brunt of this task to the excellent work of the DC NN), decentralization, robustness, and scalability.
For 2018 the most notable developments we observe are as follows:
1. National or regional regulations such as the European Union’s GDPR (General Data Protection Regulation) which intending to protect privacy (in the specific form of personal data protection) force Internet operators and intermediaries to establish rules for packet traffic based on geographical boundaries which are not well defined on the Internet, not even well represented by IP addresses. One of many undesirable consequences of this type of ruling has been the denial of service by some providers to users whose IP addresses are identified as related to the EU territories, as the providers are neither obliged under the applicable laws in their location nor equipped to comply with the GDPR (and may even actually break laws, contracts, policies, and accepted practices if they do comply.)
2. The EU’s Copyright Directive establishes obligations for Internet operators and intermediaries that can only be complied with by breaking the layered architecture’s derived obligation of avoiding cross-layer operations. The transit of packets between certain pairs of points has to be interrupted to intercept them and inspect their contents in the higher layers, then make a human (or human proxy through automated, algorithmic decision processes) decision on whether to let the packets arrive at their destination, or else start a notification process to parties such as sender, destination, operator, intermediaries, and authorities.
3. Some countries are establishing and putting in operation surveillance systems that violate the end-to-end principle and that force layer crossings in order to, in turn, affect the openness and decentralization process.
4. These type of systems also affect the scalability of the Internet and through it, the goal of universality.
5. We are generally concerned that the layered architecture is not well understood globally. “The Internet” has acquired too many meanings, ranging from the narrowest referring to the infrastructure of physical networks, IP-protocol packet transmission, routing, and TCP traffic control, to a broad one that encompasses all human activity that uses the networks. In this broader view, people and organizations attribute to the Internet problems that are entirely of human and organizational nature, such as cybercrime, harassment, “fake news” and other forms of disinformation, and tend therefore to seek solutions through intervention in the technology instead of focusing on human activity (as modified by the Internet, if needed.) The motivations of fraudsters or of disinformation campaigns are the same whether fraud be committed on the street or by phishing, whether disinformation be propagated by mouth or in online social media; their impact equally depends on the gullibility of victims and of their susceptibility to framing, or on the weaknesses of education and of political systems. This in turn leads to ill-advised legislation and other norms, such as treaties, standards, regulations, and policies which focus on the medium instead of on the actions and actors that are the actual viable subjects of such norms. An intense and extensive effort to educate legislators, policy makers and all stakeholders who can influence them is needed in order to focus on the right actions at the right layers and the right nodes.
6. We occupied ourselves with “Freedom from Harm” in our recent sessions. Better definitions of harms have been forthcoming, and actions have been started in different fora, such as standards and architectures that enclose IoT devices in distributed but not flat architectures, or laws demanding higher levels of security for devices. We cannot consider the issue closed and will revisit it in the upcoming year within our agenda.
7. The work of the International Telecommunications Union (ITU) leading to and during its Plenipotentiary Conference 2018 is also of serious concern from the point of view of regress on the Core Principles of the Internet. The stakeholders of the Internet are largely excluded from the conference and its preparation through a funnel process that ends up in exclusively intergovernmental decision making, with a humiliating, token presence of a few “sector members” deprived of voice. Decentralization is violated by trying to introduce a framework of decision-making that is concentrated in a highly vertical, controlled process, removed from the effective operation of the Net and interfering with the decentralized, issue-focused processes of the Internet community. The relevance of standards like “DOA”, forcibly reintroduced after almost being discarded in the preparatory processes, the abuse of cybersecurity terminology as a pretext, the imposition of national-boundary delimited norms and the support for their further entrenchment are but a few examples of how deleterious this process is for the Internet.
8. Recent calls made in preparation for and during the Internet Governance Forum’s session in Paris 2018 are also cause of concern from the standpoint of Core Principles and Values. They focus narrowly on some aspects of cybersecurity, imply measures that have already been tested and decried by the technical community for layer crossings, reductions in interoperability and openness, and other side effects. They disregard the best-effort nature of the Internet and the open, multistakeholder participatory processes of its governance. In a probably well-meaning attempt to increase the involvement of governments, with their unique roles and capabilities, they sideline what a broad, global community has been able to build over at least two decades. We call on the community to absorb the productive aspects of these proposals while increasing and consolidating the governance model’s best features.

jueves, marzo 09, 2017

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos
Alejandro Pisanty


Introducción




Publicado originalmente en: Reflexiones de la Academia Mexicana de Informática a los 40 años de su fundación, Coords. Guillermo Levine, Enzo Molino y Carlos Zozaya, Universidad de Guadalajara - Academia Mexicana de Informática, A.C. Guadalajara, Jalisco, México, 2016, pags. 265-285 - ISBN 978-607-742-652-3

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.


El objetivo de este trabajo es compartir una reflexión de carácter estratégico alrededor de proyectos informáticos en los que el autor ha sido participante o líder. La visión estratégica que alimentó los proyectos en su inicio puede no ser bien conocida, y en muchos casos la visión hacia el futuro, una vez que los proyectos avanzan o terminan, amplía la visión inicial mucho más allá de sus alcances.
La cultura informática se enriquece cuando se puede ver en forma compacta el significado de un proyecto, sus consecuencias más allá de lo planeado, su impacto más sutil pero a la vez más duradero, y cuando de varios proyectos diferentes se puede extraer una tendencia más general.

En el caso de este artículo, la visión más general que ha alimentado buena parte de los trabajos y otros aquí referidos es la de generar infraestructuras –físicas, lógicas, de conocimiento o sociales– que se vuelvan “facilitadores”, lo que en inglés es popular llamar enablers. Los facilitadores que más aprecio son los relativamente neutrales respecto a actores y criterios externos, que permiten a grupos de usuarios, a instituciones y a veces a sociedades enteras contar con medios flexibles y adaptables para realizar nuevas tareas.

Esa ha sido la visión imperante en muchos otros proyectos en los que el autor ha participado: la dotación de servicios de supercómputo para la comunidad académica de la UNAM (y más allá, al encontrar fórmulas originales de colaboración con otras instituciones como la que dio origen a la Delta Metropolitana de Supercómputo); la creación del Observatorio de Visualización “Ixtli”, concebido a impulso del entonces Rector de la UNAM, Dr. Juan Ramón de la Fuente, un laboratorio de visualización tridimensional inmersivo al que junto con la Dra. Geneviéve Lucet y otros colaboradores dimos el carácter más general y escalable posible; la forma que ayudamos a impulsar que adoptara el Juicio en Línea en el Tribunal Federal de Justicia Fiscal y Administrativa (TFJFA); las múltiples e insidiosas herramientas computacionales para la educación que incorporamos en la Facultad de Química, y el modelo para expandir su alcance y uso, tomado del que desarrollamos junto con Jorge Martínez Peniche, Rita del Castillo, Ana Laura Márquez, Maribel Rodríguez y otros en la coordinación del proyecto de educación a distancia de la Rectoría del Dr. José Sarukhán y posteriormente en la Coordinación de Universidad Abierta y Educación a Distancia; y el impulso a que la Facultad de Química contara con cobertura de la Red Inalámbrica Universitaria, de tecnología Wi-Fi, en todos sus espacios académicos, proyecto que impulsó de manera decidida el Director, Dr. Jorge Vázquez Ramos.
En lo que resta de este trabajo particularizo el análisis de esta tónica en algunos otros proyectos puntuales. En todos los casos mi actividad contó con la colaboración, o incluso fue a la zaga, de equipos de personas de extraordinarios talento y dedicación. Sólo me es posible dar crédito explícito a algunas de ellas; ofrezco anticipadamente una disculpa a quien debiera haber sido mencionado y no lo haya sido.

Firma electrónica, una tecnología disruptiva

El proyecto de Firma Electrónica Avanzada (FEA) de la UNAM fue concebido como un paso indispensable para la modernización de las tareas informáticas de la Universidad. Las consecuencias de su implantación han ido mucho más allá de lo planeado porque indirectamente permitió recuperar hasta ocho semanas de cada año como tiempo académico útil.

Llevamos a cabo este proyecto en la entonces DGSCA, Dirección General de Servicios de Cómputo Académico de la Universidad Nacional Autónoma de México. El pilar de ejecución de este proyecto fue la Dirección de Cómputo para la Administración Académica, DCAA, y dentro de ella su director, el entonces Mtro. y hoy Dr. Juan Voutssás. Los equipos de trabajo de desarrollo de software fueron encabezados por Marcela Peñaloza y contaron con un gran conjunto de jóvenes brillantes. Inicialmente el proyecto fue concebido como un proyecto de seguridad informática y en tal calidad contó con las invaluables contribuciones del Dr. Enrique Daltabuit, el Lic. Juan Carlos Guel, el Dr. Guillermo Mallén, y otros. En el tema legal la participación del Dr. Alfredo Reyes Krafft, como profesionista independiente fue crucial.

El objetivo inicial de estos trabajos fue crear una infraestructura criptográfica de llave pública (PKI) para uso general en la institución, con el ánimo de tener desde la oferta un mecanismo ya indispensable entonces para la operación segura y eficiente de muchos sistemas. Al mismo tiempo, se trataría de identificar la demanda, es decir, sistemas o servicios con los que se pudiera producir beneficios a la comunidad usando esta infraestructura.

El proyecto fue concebido para llevarse a cabo en etapas bien definidas a lo largo de tres o cuatro años. En el primer año los grupos de trabajo se dedicaron al estudio de la criptografía y en particular de la PKI y la firma electrónica. En el segundo, se construyeron prototipos para entender y resolver los principales problemas conceptuales al confrontarlos con la aplicación, y para identificar y resolver los problemas del software, bases de datos, interacciones y arquitectura de software asociados. El tercer año se dedicó a producir el sistema de PKI y FEA e integrarlo a un sistema de información usado en la institución, a saber, la firma de actas de calificaciones de los alumnos de la Universidad. Al final del mismo tercer año se implantó el sistema, y el cuarto año se utilizó para estabilizarlo y explotarlo más ampliamente.

Un punto particularmente interesante es que el sistema al que se aplicó la FEA, la firma de actas de calificaciones, es uno de los más grandes y cruciales para la operación de la Universidad. En el momento de su implantación, este sistema comprendía la firma de más de un millón de actas cada semestre dentro de plazos estrechos y condiciones exigentes de exactitud, precisión, eficiencia y disponibilidad, así como de integridad de la información registrada con todos los mecanismos de autenticación correspondientes. El sistema sería operado por una fracción significativa de los 30,000 académicos de la UNAM en más de 20 escuelas y en cientos de instalaciones espacialmente distribuidas a lo largo y ancho del país; entre éstas se incluyen los hospitales en los que imparte docencia de licenciatura y de posgrado la Facultad de Medicina. Por ello, la gestión del cambio y los esfuerzos de capacitación deberían ser masivos.

Fue contrario a casi toda la lógica de que el primer sistema en que se implante una estructura novedosa como lo eran la PKI y la FEA sea uno tan extenso y exigente. Nuestra primera intención era, por supuesto, hacer una implantación piloto con un sistema mucho más sencillo, reducido y transparente, y bajo control de una sola autoridad. Éstos se encontrarían en las funciones administrativas “clásicas”, como presupuesto, personal, inventarios, etc. y allí hay algunos sistemas de dimensiones y riesgos muy limitados, como las transferencia presupuestales (pocos operadores, pocas operaciones al día, tiempos más flexibles y por todo ello mayor tolerancia a fallas en una primera implantación). Sin embargo, las instancias a cargo no aceptaron la invitación a incorporar la nueva tecnología, a pesar de los evidentes beneficios para todos sus usuarios, y en cambio la Dirección General de Asuntos Escolares, a cargo del Ing. Leopoldo Silva, y sus subdirecciones a cargo de los Mats. Facundo Ruiz y Yolanda Valencia, aceptaron el reto precisamente por la magnitud del beneficio que se obtendría para una comunidad entonces cercana a las 350,000 personas. Su audacia fue recompensada con creces.

La gestión del cambio incluyó la capacitación de personal para la autenticación de personas y entrega de certificados digitales a los académicos, la producción y distribución de manuales, la concientización de la comunidad y otras previsiones.

En paralelo al desarrollo del software y la integración de sistemas, algunos de ellos sin precedente en la institución y casi sin precedente en el país, se crearon los instrumentos legales necesarios para dar a la firma electrónica equivalencia funcional, con toda validez legal, a la firma autógrafa. Determinamos que el nivel adecuado de tratamiento sería un Acuerdo del Rector complementado con una normatividad técnica, en paralelo a la legislación federal de entonces, que establecía a nivel de ley las características generales de la FEA y remitía a una Norma Oficial Mexicana (NOM) los aspectos técnicos que más pueden variar con el tiempo. En ambos casos la idea es contar con un marco legal firme pero que no se convierta en una traba cuando los sistemas tengan que evolucionar por el cambio tecnológico inclemente que los acompaña –por ejemplo, para adaptarse a nuevos requerimientos sobre los certificados digitales y las autoridades certificadoras, o a los criterios criptográficos que acompañan a la evolución del poder de cómputo y técnicas de “crackeado”, como el aumento en el número de bits exigido para el tamaño de las llaves criptográficas.

Desde luego tuvimos el buen sentido de implantar el sistema primero como una prueba piloto en sólo dos facultades especialmente bien preparadas. La prueba fue un éxito gracias a la intensa colaboración de todas las partes, con talento y precisión, y una vez corregidos o mejorados los principales hallazgos, en un siguiente semestre el sistema se implantó para todas las escuelas y facultades excepto una, la de Ciencias. Esto último se debió a que toda la Universidad menos esta escuela modela el proceso de firma de actas por medio de la firma electrónica con el llenado del acta completa en una breve sesión de unos diez minutos de duración y la consecuente firma, y la facultad mencionada lo hacía con el llenado parcial, hasta de un alumno por sesión. Posteriormente se adaptaría al sistema general.

El aspecto más interesante, una vez creado e implantado el sistema, es su impacto a largo plazo. A corto plazo el impacto fue la firma sin papel de actas de calificaciones; a mediano plazo, dejar el uso del papel permitió evitar la construcción de un nuevo búnker (almacén de alta seguridad) para los siguientes millones de actas, aplazar la reforma de las oficinas de Administración Escolar al no tener que procesar esos mismos millones de actas, eliminar complejas operaciones de transporte, lectura óptica, etc. La administración del cambio permitió en este mediano plazo la reorientación del trabajo del personal que estaba a cargo de estas operaciones hacia funciones más difíciles de substituir o automatizar. Pero, repito, el impacto más importante es el de largo plazo.

El impacto de largo plazo de la implantación de la firma electrónica en la UNAM es la recuperación de tiempos académicos útiles y plenamente funcionales en lugar de un tiempo poco aprovechado académicamente. Los profesores que firman actas con firma electrónica lo hacen pocos días después del examen, pues hay un incentivo para librarse de la tarea pendiente, y una vez terminado el plazo legal las firmas son definitivas en expedientes de los alumnos (en el sistema anterior se requerían semanas para la lectura óptica de las actas y los procesos de “limpieza de datos” requeridos). Así, con la FEA, los alumnos conocen sus calificaciones definitivas con tiempo suficiente para tomar cursos intersemestrales con plena validez legal (permitida también gracias a la inmediatez con la que opera la FEA). En muchas escuelas y facultades estos cursos substituyen, con creces, a cursos remediales “de preparación” para exámenes extraordinarios y a los propios exámenes. Con ello se reducen dramáticamente las cifras de alumnos irregulares; un ejemplo del Departamento de Matemáticas de la Facultad de Química indica que aun con controles académicos rigurosos como los exámenes departamentales en los cursos intersemestrales, este proceso permite reducir en aproximadamente 50% el número de alumnos irregulares, y devolverlos al flujo normal de sus estudios profesionales. Un beneficio adicional es el alto nivel de motivación que deriva de que obtengan un resultado tangible para el esfuerzo particularmente intenso que desarrollan para aprobar los cursos intersemestrales. Este efecto inesperado es una especie de “dividendo digital” que hay que buscar en los proyectos informáticos y de Internet. Una institución ambiciosa debe continuar estos procesos disruptivos transformándose de mil maneras (los microcréditos académicos serían una posibilidad en este caso).

Para el equipo que realizó estos trabajos es motivo de orgullo adicional que la misma infraestructura de PKI y FEA siga en operación diez años más tarde (como sucede también con los sistemas creados en conjunto con la Dirección General de Bibliotecas para el acceso a la Biblioteca Digital de la UNAM o BiDi). En el segundo año de la administración que siguió se hizo un ajuste para que pudiera funcionar con el navegador “Chrome”. Seis años después, cuando Google, productora de Chrome, decidió abandonar el estándar NPAPI, la administración universitaria no adaptó el sistema de FEA, por lo cual actualmente no opera con el navegador que usa 80% de la población. Esta situación que viola el principio de interoperabilidad de Internet no puede ser más que lamentable, y lo es doblemente para quienes crearon la plataforma.

Internet necesario

La campaña #InternetNecesario (Briceño et al., 2010) permitió establecer Internet y sus valores fundamentales como un tema definido en la agenda pública. La imagen de que no se puede legislar ni hacer política pública para Internet sin la prudencia necesaria quedó así establecida en núcleos centrales de la esfera pública. La campaña también fue una muestra importante de que para discutir políticas públicas relacionadas con Internet el conocimiento técnico es un fundamento valioso y la colaboración multisectorial una herramienta indispensable.Entre octubre y noviembre de 2009, el gobierno federal de México presentó al Legislativo una iniciativa de Ley de Ingresos (presupuesto federal) que contenía la propuesta de aplicar un impuesto de 4% a toda facturación de servicios de telecomunicaciones. La iniciativa pretendía, además, aplicar este impuesto en la categoría de IEPS (Impuesto Especial sobre Productos y Servicios) que en general se aplica a bienes suntuarios o de consumo que se desea regular, como bebidas alcohólicas y tabaco.

La iniciativa encontró pronto oposición por parte de las empresas de telecomunicaciones, pero también de otros sectores. Estudios publicados entonces indicaban que el aumento en impuestos a este sector resultaría en incrementos de precios finales al consumidor, lo cual reduciría significativamente la demanda y con ello volvería más lenta la adopción de las telecomunicaciones e Internet. Para la comunidad técnica y la sociedad civil en México esto representaría una situación inaceptable y contradictoria con los propósitos de cobertura (además de los de convergencia y competencia) que se preconizaban como pilares de la política del gobierno federal para vencer la brecha digital e impulsar el desarrollo del país.

Un pequeño grupo de personas (tres, inicialmente: Raúl Ramírez -conocido como @isopixel en las redes sociales-, León Felipe Sánchez Ambiá y quien esto escribe) decidimos manifestar nuestra oposición a la medida en los entonces emergentes medios sociales, principalmente Twitter, que contaba con unos 40,000 usuarios en México. Redacté un texto que publiqué en mi blog, y en anuncio coordinado iniciamos la campaña impulsando el hashtag #InternetNecesario con diversas afirmaciones y llamados a la oposición.

Seleccionamos el hashtag con base en tres consideraciones:

a. En Venezuela, meses antes, una campaña contra la reducción de presupuesto para las telecomunicaciones y servicios de Internet de las universidades públicas había resultado efectiva, usando el hashtag #InternetLujo para simbolizar que Internet es necesario, vital, y no un lujo, para las universidades y más en general para las actividades relacionadas con el conocimiento.

b. La propuesta inicial era usar un hashtag explícito en contra del impuesto propuesto. Sin embargo, observamos que dicha línea discursiva, en oposición a los impuestos, representa un interés directo de la industria, que ya estaba activa al respecto. La industria había logrado ya reducir este impuesto del 4% al 3%. La comunidad técnica y la sociedad civil pueden tener puntos de vista respecto a los impuestos que no son necesariamente los mismos que los de las empresas.

c. Atendiendo a las lecciones del Ing. Gustavo Ross, uno de los primeros y hasta la fecha más experimentados especialistas mexicanos en mercadotecnia en Internet, observamos que a largo plazo son más efectivas las campañas con mensajes positivos que las que usan mensajes negativos o confrontacionales, si bien estas últimas atraen mayor atención en los lapsos iniciales. En vez de #NoIEPS, entonces, optamos por #InternetNecesario.
La campaña se desarrolló velozmente, de tal manera que al segundo día alcanzó el nivel de trending topic global. Esto a su vez atrajo la atención de algunos noticieros de medios masivos. Aparecer en estos noticieros, como nota y en entrevistas, a su vez atrajo la atención del Senado, en el que se discutía en segunda instancia la iniciativa de ley.
La campaña se distinguió también por su ángulo educativo. No se trataba sólo de movilizar masas con base en lemas simplistas sino de convencer; no se trataba sólo de convencer sino de producir una comprensión profunda de las razones para defender Internet de un ataque; no se trataba sólo de defender sino de impulsar; y no se trataba sólo de impulsar Internet como un vehículo operacional, un medio, sino de crear un futuro basado en la producción de Internet tanto o más que en su consumo.

El ángulo educativo se dio en numerosas conversaciones masivas en Twitter; y para complementarlas, en algunas publicaciones en blogs y artículos, que establecían texto extenso, reflexiones más completas, información articulada y detallada, en complemento al formato de metralla de los textos de 140 caracteres. #InternetNecesario no fue la primera campaña cívica exitosa en Twitter en México, pero sí una de las primeras, en un contexto en el que estábamos inventando el medio.

Quizás uno de los momentos más significativos de la campaña, y en particular de su efecto educativo, se encuentre en uno de sus pasos finales: el seguimiento del debate y la votación en el Senado. Esto ocurrió el 31 de octubre de 2009 muy avanzada la noche; debe recordarse que esta fecha es el inicio de un feriado significativo en México, en el que multitudes enormes se desplazan tanto a panteones como a fiestas y centros de diversión. Sin embargo, miles de personas fueron espectadores atentos del debate a través del Canal del Congreso; miles se informaron en esas últimas horas acerca del mecanismo de producción y aprobación de leyes en México y en particular del proceso legislativo que da lugar a los presupuestos de ingresos y de egresos de la Federación.

En el debate el Senador Francisco Javier Castellón llevó la atención a la voz de los participantes de la campaña hasta el último minuto, tomando del espacio público argumentos con el que reaccionábamos a los argumentos del debate. Su contribución y la del Lic. Jesús Ramírez Díaz, Secretario Técnico de la Comisión de Ciencia y Tecnología del Senado, marcaron un hito en la escucha, la participación y la producción de un debate amplio, multisectorial y razonado.

Como ha dicho posteriormente Castellón, esta campaña y la que llevó al rechazo al acuerdo internacional conocido como ACTA establecieron las características de Internet en la agenda pública mexicana: una Internet abierta y libre, defendida por sus principios, y a la que no se puede tratar de restringir impunemente. Numerosos intentos de legislación mal dirigida han quedado a la vera del camino desde entonces, para dejar testimonio de esta extendida convicción.

Una campaña como #InternetNecesario parece impracticable en la actualidad. Los factores sorpresa, solidaridad intergeneracional-geográfica-partidista, diálogo constructivo y foco en una causa transversal a la sociedad con una temporalidad definida parecen ahora ser inalcanzables.

El factor sorpresa de los medios sociales en 2009 ha sido substituido por un uso político y de campaña de estos medios basado en el golpeteo, la polarización y la manipulación. Tanto desde la militancia voluntaria como desde la compra masiva de medios y herramientas (tales como “bots”) el discurso en los medios sociales se ha polarizado de manera creciente; el centro se ha vaciado, el discurso tolerante y racional se ha refugiado en otros medios. En México es posible fijar una fecha como noviembre de 2011 para una verdadera transición de fase en este sentido: el momento en que las campañas electorales para las elecciones presidenciales y generales de 2012 se activaron con la intervención de “ejércitos digitales” de militantes disciplinados y con herramientas automáticas, con la manipulación de ” y otras técnicas relacionadas.

La esfera pública se ha enrarecido en todos los campos; la conjunción de grupos unidos por una causa pero diferentes en muchas otras escasea, la atención se abrevia y la visión de grandes metas comunes se evapora. Esto no es un fenómeno exclusivo de Internet y los medios sociales en línea; es un fenómeno social extendido, y al ser Internet cada vez más “un espejo de la sociedad” (Vint Cerf dixit), refleja cada vez más fielmente lo que en ella ocurre.

Si queremos conservar algún optimismo para el futuro de la sociedad, en particular en México, tendremos que abordar las bases y las formas de nuestra convivencia. Ojalá todavía encontremos un fulcro que dé esperanza al proyecto civilizador y constructor de futuro del diálogo público razonado en Internet.Neutralidad de la red


Neutralidad de la Red

El problema conocido como “neutralidad de la red” (Pisanty, 2014) es un asunto complejo y lleno de aristas a veces intratables. La definición más simple de neutralidad de la red, en Internet, es el trato no discriminatorio al tráfico en Internet, independient"emente de su origen, destino o contenido, y a veces más específicamente por número de puerto o de protocolo.La posibilidad de que exista la discriminación se da en varios planos. El más visible es la decisión que un proveedor de servicios de acceso a Internet (ISP) puede tomar de manipular su gestión de la red para favorecer el tráfico generado por sus propios negocios o los de sus aliados, y desfavorecer el de sus rivales comerciales u otras empresas que le resulten “inconvenientes”. El ejemplo clásico sería un operador de red que forma parte de una compañía cuyos otros negocios incluyen la televisión y el video; tendría incentivos fuertes para suprimir o dificultar el tráfico de otras productoras y emisoras, así como de los repositorios abiertos al video de terceros.

En otro extremo, la operación real de las redes de telecomunicaciones es imposible si no se administra el tráfico, y en esta administración se puede requerir por diversas razones reducir la velocidad o bloquear totalmente algunos orígenes, destinos, contenidos, protocolos o puertos. Las razones más evidentes para hacerlo incluyen el hecho de que algún punto de una red esté emitiendo tráfico malicioso o mal administrado que bloquee el tráfico legítimo de otros usuarios.

Entre los dos extremos, llamémoslos comercial y técnico, hay cientos de casos particulares, y en muchos de ellos es difícil identificar de manera decisiva una intención discriminatoria del operador.

La neutralidad de la red puede tener básicamente los siguientes enfoques:
• Técnico
• Comercial
• De competencia económica
• De cumplimiento de contratos
• De derechos del consumidor
• De derechos civiles o humanos, como la libertad de expresión

El tratamiento de la neutralidad de la red depende, además, de la naturaleza y condición de los mercados; así en Estados Unidos, con un cuasi-monopolio o duopolio en cada ciudad sobre las conexiones de banda ancha “de última milla” al consumidor, la situación es muy diferente de la que prevalece en Europa, donde los ISPs están en más fuerte competencia por el acceso al consumidor.

Otro aspecto que complica el tratamiento de la neutralidad de la red es la existencia de “mercados de dos lados” en los que participan los ISPs. Simplificando, el ISP tiene dos tipos de clientes y consumidores de los cuales busca obtener ingresos lucrativos: los consumidores finales y los proveedores de contenido. Si el ISP vende el acceso a un precio demasiado alto al consumidor final, no será atractivo para el proveedor de contenido pues éste busca en general grandes audiencias y clientelas; si el ISP dificulta o encarece el paso de los mensajes y productos del proveedor de contenido, será poco atractivo para el consumidor final. (El mejor ejemplo de mercados de dos lados se puede ver en diarios y revistas que tratan de obtener ingresos por la venta de ejemplares –sea por suscripción o individualmente– y por la venta de publicidad.)

Finalmente, el análisis de neutralidad de la red varía en el tiempo conforme los proveedores de contenido utilizan CDNs (Content Distribution Networks o redes de distribución de contenido), en las cuales el contenido está cada vez más cerca del usuario final mediante servidores de contenido instalados en centrales telefónicas y otros puntos de acceso a la red cercanos geográfica y topológicamente al consumidor, lo cual mejora la experiencia del usuario al disminuir los tiempos de latencia de las operaciones y dar fluidez a la transmisión y reproducción del video y otros contenidos. La negociación comercial entre proveedor de contenido y proveedor de acceso es muy diferente en estas condiciones de la que existe en un concepto simplista a partir de un proveedor de contenido que inyecta contenido a la red en un único punto, en un número muy grande de copias, para que llegue a Internet en el mundo entero. Este modelo hipotético no es realista más que para proveedores de contenido y servicios muy pequeños.

La supresión de publicidad en línea (Ad blocking) y la provisión de algunos servicios sin contabilizar su costo (Zero-rating) son temas emergentes en el campo de la neutralidad de la red. Su tratamiento depende fuertemente de la localidad porque depende de la legislación y las prácticas regulatorias de telecomunicaciones, contenidos, comercio, competencia y derechos del consumidor.

Durante varios años hemos tenido que analizar y proponer avances en el manejo de la neutralidad de la red en México; en particular tuve la responsabilidad respectiva en un grupo de trabajo del Consejo Consultivo de la entonces Comisión Federal de Telecomunicaciones, y posteriormente he sido requerido para opinar en muchos otros foros. En específico cuando fui invitado por la organización no gubernamental chilena Derechos Digitales produje, conjuntamente con Erik Huesca, un capítulo de libro que esperamos sea una buena orientación útil a lo largo de algunos años en el futuro (Pisanty & Huesca, 2016) .El enfoque que adoptamos para analizar la neutralidad de la red en Internet y para influir en legislación y política públicas ha resultado productivo al centrarse en los aspectos mejor definidos desde un punto de vista técnico. Separar los aspectos técnicos (a su vez divididos en diseño y operación) de los comerciales y políticos ha permitido proveer una base informada y evolutiva para las discusiones públicas del tema.

Principios fundamentales y gobernanza de Internet - "Core Values"


La gobernanza de Internet exige una colaboración entre los sectores técnico, comercial, gubernamental y no comercial. Este principio fundamental es la base de las recomendaciones sobre gobernanza de Internet de la Cumbre Mundial sobre la Sociedad de la Información surgidas en Túnez en 2005, y que han guiado al Foro sobre Gobernanza de Internet (IGF) y muchos mecanismos relacionados, en ámbitos tanto nacionales como supranacionales. Esta colaboración multistakeholder o multisectorial existe desde el origen de Internet y tuvo que ser reconocida explícitamente para desahogar debates que se habían vuelto insolubles en la Cumbre.

Al materializar esta colaboración multisectorial, es necesario que los participantes estén bien informados y cuenten con criterios sólidos para poder llevar los debates a que trasciendan más allá de lo coyuntural. Los participantes deben estar al tanto de las bases, posibilidades y límites de la tecnología, ser capaces de identificar los factores propiamente técnicos de los que no lo son y ver más allá, en las diversas interacciones que los entrelazan. Nuestro análisis del problema de neutralidad de la red pretendió contribuir a esta diversidad de enfoques enterados.
Core values, principios fundamentales de Internet: enseñanza, difusión, impacto
Identificar los valores fundamentales de Internet a partir de sus principios de diseño ha permitido educar y convencer a numerosos funcionarios, académicos y actores de la sociedad civil, empresas y gobierno, de la importancia de preservarlos, a la vez que ayuda a hacer mejores leyes e inducir mejores prácticas.

Para algunos de los especialistas que conocen la tecnología de Internet resulta sorprendente el nivel a veces pasmoso de desconocimiento con el que algunos usuarios e incluso tomadores de decisiones abordan este medio, a pesar de que la creación de sus tecnologías básicas data de hace 40 y hasta 50 años, y sobre todo de que su difusión masiva, explosiva, a partir de la Web, cumple ya 25 años.

Las mesas de ayuda y call centers sufren lo indecible con estos usuarios, según informan con frecuencia quienes trabajan en esos servicios y algunos de sus clientes. No es raro encontrar a quien se ufana de su desconocimiento en los niveles más elementales –“no sé qué es eso de ‘navegador’”; “¿entonces… la Web no es Internet?” Preguntas y afirmaciones similares son una pesadilla recurrente y que se desarrolla en vivo, durante nuestras horas de vigilia.

La pesadilla se transforma en terror puro cuando el mismo estado de insuficiencia se detecta en tomadores de decisiones que afectan a Internet y al desarrollo de las sociedades hacia el estado que llamamos Sociedad de la Información o Sociedad del Conocimiento. La posibilidad, probada dolorosamente en muchas realidades puntuales, de tomar e inducir muy malas decisiones es un motivo de alerta y acción constantes.
Uno de los espacios en los que esta alerta es motivo de mayor preocupación es la relacionada con gobernanza de Internet. Esto se observa lo mismo en niveles locales –una ordenanza municipal en una ciudad peruana que pretende regular de manera descabellada el uso de juegos de realidad virtual o aumentada en sus calles; un estado federal de una república que pretende criminalizar la ofensa a través de medios sociales en línea–, nacionales –un conjunto de leyes contra el delito cibernético que confunde medios y conductas, efectos y causas– o supranacionales –una política continental en materia de ciberseguridad, acuerdos de alcance transnacional sobre propiedad intelectual o decisiones sobre nombres de dominio, direcciones IP, filtrado y bloqueo de aplicaciones con motivos o pretextos de competencia de servicios en línea contra servicios regulados en redes a los que se pretende regular negando acceso a puertos o protocolos, e igualmente en las mil formas de censura e imposición de criterios ideológicos que toman como pretexto a los niños: en todas se detecta un efecto pernicioso de no conocer y no respetar los principios fundamentales de diseño de Internet.

Durante años hemos mantenido un esfuerzo constante por educar en esta materia a los tomadores de decisiones. El foco principal de estos trabajos ha estado en el Foro sobre Gobernanza de Internet (IGF) en el cual representantes de empresas, organizaciones de la sociedad civil, tecnólogos y representantes de gobiernos se reúnen para debatir e impulsar avances en gobernanza de Internet.
Ahí resulta especialmente crítico proveer elementos para acotar las que podrían ser malas decisiones, una vez los participantes del IGF salgan del Foro y se dirijan a los espacios decisorios propios de cada problema –sea éste spam, phishing, hostigamiento sexual, censura, IXPs (puntos de intercambio de tráfico de Internet), zero-rating, seguridad nacional, restricción del comercio de software de espionaje e intervención de telecomunicaciones, libertad de expresión, lo que sea. La cota inferior de todas estas decisiones debe ser el no alterar la naturaleza misma de Internet, y por ello es imprescindible educar constantemente sobre este tema.
Posteriormente a nuestro esfuerzo inicial, la Internet Society (ISOC) y algunos de sus actores principales tomaron también el tema en sus manos y han producido una serie de documentos sobre los “invariantes de Internet”, es decir, la misma pregunta: ¿qué vuelve Internet a Internet? ¿Qué, si se quitara o cambiara en Internet, haría que dejara de ser Internet?

Los principios fundamentales a que nos referimos son interoperabilidad, apertura, “punta a punta”, “red tonta – orilla inteligente”, descentralización, “mejor esfuerzo”, y las formas en que la contabilidad y rendición de cuentas se presentan en Internet. Todos tienen como base la arquitectura de capas y la conmutación por paquetes. Están definidos alrededor del protocolo IP y el “modelo de reloj de arena”. Se orientan al alcance global de la red y exigen robustez, resiliencia y colaboración global. Se construyen en la IETF (Internet Engineering Task Force) con base en el principio de Rough consensus and running code (“Consenso general y programas que funcionan”). Dan lugar a la innovación sin pedir permiso y a la condición de Permanent beta en la que todo se considera a prueba y sujeto a mejora. La simplicidad de algunos protocolos y diseños, como el de las direcciones IP y el del DNS (sistema de nombres de dominio), da a Internet una formidable escalabilidad. La seguridad (y con ella la privacidad) y otras funciones de alto nivel se remiten fundamentalmente a los extremos de la red y no su corazón operacional.

Para dar forma concreta a la educación alrededor del tema hemos realizado diversas acciones a lo largo de los años. Entre ellas destaco la inclusión de estos principios en la docencia sobre Internet en diplomados y otros programas de posgrado; las actividades de la Coalición Dinámica sobre Valores Fundamentales de Internet, en el marco del IGF; la participación en discusiones y debates públicos, incluso durante la campaña #InternetNecesario y en las campañas alrededor de malas iniciativas de legislación, así como en publicaciones (actualmente en prensa) (Pisanty, 2016a) . Uno de los documentos más valiosos producidos por la coalición es una sesión grabada en video en https://www.youtube.com/watch?v=3vrRGwSKl3A –un panel con Vinton Cerf y Scott Bradner que tuve el privilegio de moderar, en el que estos dos fundadores de Internet discuten las principales decisiones que le dieron forma.

El orden en que se priorizan estos principios es determinante para la forma en que Internet ha crecido (Clark, 1988) . Sería posible construir una red basada en la interoperabilidad pero no en la apertura, o en la que la rendición de cuentas se antepusiera a éstas y exigiera por tanto una autenticación de cada punto ante sus vecinos y la autorización del acceso a todo usuario. Pero no sería la Internet que conocemos.Un ejercicio docente interesante ha consistido en discutir en grupos (en cursos de posgrado orientados a la gestión de la tecnología) cómo sería una Internet en el que el orden de estos principios variara. Es relativamente fácil para los profesionales darse cuenta de que sería muy distinta, y que sólo con estos principios es posible crear una red de servicio generalizado, capaz de dar soporte indistintamente a voz, datos y video, interactivos o pasivos, sincrónicos o asincrónicos, de alta o baja capacidad y, sobre todo, con innovaciones tecnológicas y de modelos de uso que se renuevan sin cesar.

La experiencia en ICANN

ICANN, Internet Corporation for Assigned Names and Numbers, fue creada en 1998 para hacerse cargo de la coordinación central requerida en la administración de tres funciones: el centro del DNS (sistema de nombres de dominio), las políticas generales para la asignación de direcciones IP, y el registro de los parámetros de los protocolos de la IETF. ICANN es producto de múltiples balances: entre políticas públicas e intereses privados, entre descentralización y la necesidad de un registro central de sus tres conjuntos de parámetros que deben ser variables unívocas, entre el origen nacional de Internet en Estados Unidos y su alcance global, entre Estados Unidos y las otras economías desarrolladas, entre países desarrollados y países en vías de desarrollo, entre efectividad y representación, entre teoría y práctica.

La necesidad de crear un organismo con las funciones de ICANN surge hacia 1995, cuando Jon Postel, creador de la IANA (Internet Assigned Names Authority), co-creador con Paul Mockapetris del DNS, y gran autoridad moral de Internet en los años iniciales, observa junto con el gobierno de Estados Unidos que el creciente uso del DNS y la expansión de Internet van a producir litigios costosísimos y muy complejos que involucrarán a la Universidad del Sur de California, al propio Postel en lo personal y al gobierno de Estados Unidos en su conjunto; cuando la exasperación contra la conducta monopólica y abusiva de la empresa Network Solutions en el registro de nombres de dominio empieza a alcanzar niveles alarmantes, y cuando un primer intento de privatización de funciones centrales de Internet atrae en su contra furor internacional.

ICANN es un experimento innovador en organización social y corporativa tanto como es un organismo singular en la interrelación densamente entretejida de conocimiento técnico y toma de decisiones con impacto social amplio, global. El aparato de ICANN se construye exclusivamente con base en derecho privado, sobre contratos y reglas aceptadas por particulares, con intervención lateral de los gobiernos. Cuenta además con la participación de todos los sectores a los que les va algo –intereses o principios– en la gestión de los parámetros coordinados de Internet.

Mi primer contacto con lo que se convertiría en ICANN se presentó cuando asumí la presidencia de la Sociedad Internet de México, A.C, o ISOC México (capítulo mexicano de Internet Society) en 1997. Le pregunté a mi antecesor, Jeffry Fernández, qué asuntos merecían la mayor atención para darle continuidad a su gestión, y me mencionó los acuerdos que estaban en proceso para modificar la gestión del DNS. Poco después, en una reunión de ISOC global en San José, California, un grupo de latinoamericanos se reunión con Mike Roberts, quien encabezaba el grupo que formó ICANN y quien fue su primer director general. Allí conocimos aspectos cruciales del proyecto.

Mi interés, y el que representé por parte tanto de ISOC México como en beneficio de la UNAM y otras instituciones, giraba alrededor del hecho de que se estaba formando un nuevo sistema y había la oportunidad de contribuir a darle forma desde México, desde los países en desarrollo, desde la órbita de nuestra lengua y nuestra cultura, en vez de esperar una vez más a que los sistemas sociotécnicos fueran determinados en el “Norte global”. Se trataba de aportar una visión de principios, no sólo intereses.

La experiencia fue singularmente enriquecedora. Tuve oportunidad de contribuir a formar la primera agrupación de organizaciones no comerciales como parte del primer Consejo Directivo electo de ICANN, y de algunos comités y grupos de trabajo clave como el de gobierno del Consejo y el de evolución y reforma que realizó una gran reestructuración en 2003. Posteriormente presidí el grupo de trabajo sobre el cumplimiento de las obligaciones de ICANN en materia de Estabilidad, Seguridad y Resiliencia del DNS (SSR-RT).

Construimos ICANN –“construimos”… sobre hombros de gigantes, y al lado y de la mano de ellos– con una visión de stewardship, de cuidado por el bien común aun en sacrificio del propio, algo muy difícil para partes interesadas en el mercado de nombres de dominio en el que abundan la especulación y la extorsión, incluso como modelos de negocio. Administraciones posteriores a las primeras tres abrieron más espacios para la creación de nuevos negocios de esos tipos, pero siempre ha habido límites.

La participación multisectorial, estructuralmente en pie de igualdad, siempre fue un principio y un método en ICANN. Construimos estructuras para contrarrestar el poder liso y llano del dinero y su influencia en la política, con la visión de la tecnología y los principios ya descritos, y con el apego a posiciones de principio ante los embates de la política y el interés de lucro desmedido.

La dificultad que se presentó para llegar a conclusiones sobre gobernanza de Internet en la Cumbre Mundial sobre la Sociedad de la Información se explica en parte por la ambición de los organismos internacionales y algunos gobiernos por revertir la salida del control gubernamental de Internet. Hay una paradoja implícita en que el régimen preferido por la comunidad técnica y otras de Internet coincidiera con la de Estados Unidos, y que fuera el de mínima intervención gubernamental –por parte, irónicamente, del gobierno al que más se populariza odiar y confrontar en países como el nuestro. Sin inocencia respecto a los verdaderos enemigos y los verdaderos aliados de la causa de una Internet libre y abierta, en la Cumbre pudimos avanzar contra intentos de imponer controles y contra los efectos de la geopolítica de siempre.

Los gobiernos que clamaban exclusión en ICANN fueron los principales impulsores de la participación de todos a la mesa. El ingenio, el apego a los principios y una cuidadosa selección estratégica de aliados permitieron que esa participación se volviera realmente amplia y balanceada. De ahí el carácter del IGF en el que todas las voces tienen lugar y gracias al diseño institucional ninguna puede imponerse de manera definitiva en formas que resulten en detrimento profundo de la Internet global –por lo menos no sin violar gravemente reglas de convivencia y haciendo más daño a su propia comunidad que a ninguna otra.

El problema fundamental que ICANN está resolviendo al momento de redactar el presente texto es uno de los más espinosos de la gobernanza de Internet: la transición de un sistema en el que queda un control, limitado pero real, de última instancia, que corresponde a un gobierno, a un sistema totalmente multistakeholder. Se trata de la transición de la supervisión de IANA por parte del Departamento de Comercio de Estados Unidos a un sistema de supervisión integrado por la misma comunidad de Internet. Una de las claves para el éxito de este proceso reside en que la gobernanza de la organización tenga una visión de stewardship (Pisanty 2016b; Cerf et al. 2014).

Veo aquí ratificada la perspectiva de construir infraestructuras horizontales, accesibles a todos, flexibles y adaptables a toda innovación, democráticas de raíz; desde un laboratorio local de química computacional hasta diseños de alcance global y duradero. Ojalá el futuro nos permita ratificar y extender esta visión.

Referencias

Briceño, Y. et al. (2010) Políticas y demandas civiles en la sociedad interconectada. Una revisión de movimientos en defensa de Internet en México y Venezuela http://www.politicadigital.com.mx/documentos/politicasdemandascivilessociedadinterconectada.pdf
Cerf, V. G. et al. (2014). Strategy Panel on ICANN’s Role in the Internet Governance Ecosystem, Final Report, en https://www.icann.org/en/system/files/files/ig-ecosystem-report-23may14-en.pdf
Clark, D.C. (1988). The Design Philosophy of the Internet Protocols, Proc. SIGCOMM ‘88, Computer Communication Review Vol. 18, No. 4, Agosto, pp. 106–114 http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-clark.pdf
Pisanty, A. (2014), “Network Neutrality Debates in Telecommunications Reform – Actors, Incentives, Risks”,Network Neutrality: an Ongoing Regulatory Debate, 2nd Report of the Dynamic Coalition on Network Neutrality, L. Belli y P. de Filippi, Dynamic Coalition on Network Neutrality, en linea en:
https://docs.google.com/file/d/0B4CMvT0NORh9RHhKa2IybThhR0U/edit
Pisanty, A. (2016a) “Principios fundamentales y gobernanza de Internet”, en J. Thumfart ed. “Pensar Internet”, Ediciones del Sileno, Universidad Iberoamericana, México (en prensa).
Pisanty, A. (2016b) “The vexing problem of oversight and stewardship in Internet governance”, W.K. Drake (ed.), The Working Group on Internet Governance – 10th Anniversary Reflections, APC, pp 189-207, publicado en
https://www.apc.org/en/system/files/IG_10_Final.pdf
Pisanty, A. & Huesca, E. (2016), “Neutralidad de la Red en Internet”, en Internet en México – Derechos Humanos en un Entorno Digital, Derechos Digitales, México/Santiago. https://www.derechosdigitales.org/wp-content/uploads/Internet-en-Mx-2016.pdf pags. 199-240