jueves, noviembre 15, 2018

Internet Core Principles under threat in the IGF

Discussion and position paper prepared for the Dynamic Coalition on Internet Core Values of the Internet Governance Forum, 2018
Presented (through a friendly reader) at the session in Paris, November 14, 2018.

Alejandro Pisanty – Dynamic Coalition on Internet Core Values, Internet Governance Forum (IGF) 2018

Internet Core Principles or Internet Core Values ?
We will discuss this difference in a few seconds. Let us first answer what they both mean to us: the principles and values which, if you take them away from a network, make it stop being the Internet.
Some of us prefer to concentrate on Internet Core Principles, starting from the technical design principles of the Internet. These are more stable over time, more fundamental, and less susceptible to interpretation differences among cultures.
Internet Core Principles are well known in the technical community and more heterogeneously outside it. They include:
Packet switching
Layered architecture
Best Effort
It may be said that some of these characteristics are principles and others are design goals; and one may wish to add others like universality (preferably in its most constrained definition, “universal reach”) and resilience.
The definitions of Best Effort and End-to-End are rather refined.
Best Effort is a fundamental principle from the early stages of design of the Internet, in order to let the network function over a wide and growing variety of physical supports like radio, copper wire, and optical fiber (optical fiber communications came into existence some 20 years after the Internet was conceived; the same applies for cellular telephony and other wireless technologies, whereas radio communications of more general types had been available since the end of the 19th century.)
End-to-End is often described as “having communications go from one end to another” or “having communications go from one end of another, regardless of where on the network both ends are” but it actually means something more sophisticated, “having communications’ characteristics defined mostly at the end points, leaving the network to do only the job of carrying them.”
Layered architectures and packet switching are not unique to the Internet but have become almost synonymous with it because other instances have faded away.
Another principle that has become part of the core set is Permissionless Innovation. Understood in this context it means something quite simple: there is no owner of the whole network, no authority that has to grant permission for an application or technology to be used on the Internet. Of course other permissions may be needed, such as legality in a given jurisdiction, or those derived from requirements of security, privacy, or the management of intellectual property. They are not permissions intrinsic to the Internet; they apply to the actors (individuals or organizations) that develop, operate, or use the innovations.
As a result, most human conduct can now take place on the Internet or through it. The effects of the Internet on human conduct are:
1. Massification.
2. Identity effects – anonymization is possible, as is the formation and following of precise, detailed digital identities.
3. Transjurisdictional effects – actions on the Internet can take place across many borders, often for each single act.
4. Barrier lowering – cost, legal registration, company size, capital investment, etc. for activities on the Internet are much lower, often negligible, for executing them over the Internet as compared to offline.
5. Friction reduction – obstacles and time such as purchasing authorization, money transfer, customer or seller decisions, participation in discussions, etc. can take place instantly and without intermediation.
6. Memory effects – often paradoxical, memory effects include the pervasiveness of memory in the form of files that eternally and pervasively propagate, and the loss, often massive, of memory in the form of websites, publications, archives, accounts and identities, which are lost through deletion, erasing, physical destruction, company breakdowns, website renewals, or loss of compatibility, media and devices to read and execute information and software which are not regularly transferred to new supports.
Contemporary questions about the Internet rest on the key issues of expanding access and the benefits of the Internet, and of trust on the Internet, on individuals and organizations on and through the Net, and on operations of all kinds held through the Internet. Understanding how the core principles can support trust is indispensable for the development of strategies in all fields.
The Internet is a general purpose interconnection of networks. Standards are defined in an open process and applied voluntarily. Being connected is its own prize, so most actors will comply with the Internet standards developed by the Internet Engineering Task Force and other applicable entities. The decentralization of the Internet also requires an extensive cooperation among all parties, yet allows each of them great freedom on how they choose to operate their part of the Net.
The governance model that has emerged for the Internet is consequent with the above. It is decentralized, multistakeholder, cross-sectional, centered on specific issues and the solution of problems in them, participatory, decentralized and robust. It is generally oriented to specific layers (for example, standards for the Internet layer are developed in the IETF; issues concerning the DNS standards are dealt with in the IETF while the policy for the global coordination of resources is developed within ICANN)
Shifting to Core Values terminology, we find a current of thought which considers the above but tends to focus more on some of the principles and goals already stated, like universal reach or openness, and adds to the list values like freedom – “a free and open Internet accessible to all” would be a fair summary of this view and aspiration. A creative tension within the Dynamic Coalition allows us to make progress based on the contrast between both views.
The flags of access, openness and freedom understood as human rights are also carried by other IGF Dynamic Coalitions, such as those on Internet Rights and Principles (IRP), Open Access and others related to libraries, Network Neutrality (an extension and application of the End-to-End principle), and on Publicness.
Over the years of its existence the Dynamic Coalition on Internet Core Values has examined, in a yearly fashion, developments that enhance or endanger the values and principles that make the Internet be the Internet. While these in turn may vary over time, they have been remarkably stable at the core, and fora such as the IETF serve well in discussing, planning, and executing their evolution. We have looked each year at the effect of major trends on the layered architecture, interoperability, best effort, openness, end-to-end (in this case especially through the lens of Network Neutrality, and leaving the brunt of this task to the excellent work of the DC NN), decentralization, robustness, and scalability.
For 2018 the most notable developments we observe are as follows:
1. National or regional regulations such as the European Union’s GDPR (General Data Protection Regulation) which intending to protect privacy (in the specific form of personal data protection) force Internet operators and intermediaries to establish rules for packet traffic based on geographical boundaries which are not well defined on the Internet, not even well represented by IP addresses. One of many undesirable consequences of this type of ruling has been the denial of service by some providers to users whose IP addresses are identified as related to the EU territories, as the providers are neither obliged under the applicable laws in their location nor equipped to comply with the GDPR (and may even actually break laws, contracts, policies, and accepted practices if they do comply.)
2. The EU’s Copyright Directive establishes obligations for Internet operators and intermediaries that can only be complied with by breaking the layered architecture’s derived obligation of avoiding cross-layer operations. The transit of packets between certain pairs of points has to be interrupted to intercept them and inspect their contents in the higher layers, then make a human (or human proxy through automated, algorithmic decision processes) decision on whether to let the packets arrive at their destination, or else start a notification process to parties such as sender, destination, operator, intermediaries, and authorities.
3. Some countries are establishing and putting in operation surveillance systems that violate the end-to-end principle and that force layer crossings in order to, in turn, affect the openness and decentralization process.
4. These type of systems also affect the scalability of the Internet and through it, the goal of universality.
5. We are generally concerned that the layered architecture is not well understood globally. “The Internet” has acquired too many meanings, ranging from the narrowest referring to the infrastructure of physical networks, IP-protocol packet transmission, routing, and TCP traffic control, to a broad one that encompasses all human activity that uses the networks. In this broader view, people and organizations attribute to the Internet problems that are entirely of human and organizational nature, such as cybercrime, harassment, “fake news” and other forms of disinformation, and tend therefore to seek solutions through intervention in the technology instead of focusing on human activity (as modified by the Internet, if needed.) The motivations of fraudsters or of disinformation campaigns are the same whether fraud be committed on the street or by phishing, whether disinformation be propagated by mouth or in online social media; their impact equally depends on the gullibility of victims and of their susceptibility to framing, or on the weaknesses of education and of political systems. This in turn leads to ill-advised legislation and other norms, such as treaties, standards, regulations, and policies which focus on the medium instead of on the actions and actors that are the actual viable subjects of such norms. An intense and extensive effort to educate legislators, policy makers and all stakeholders who can influence them is needed in order to focus on the right actions at the right layers and the right nodes.
6. We occupied ourselves with “Freedom from Harm” in our recent sessions. Better definitions of harms have been forthcoming, and actions have been started in different fora, such as standards and architectures that enclose IoT devices in distributed but not flat architectures, or laws demanding higher levels of security for devices. We cannot consider the issue closed and will revisit it in the upcoming year within our agenda.
7. The work of the International Telecommunications Union (ITU) leading to and during its Plenipotentiary Conference 2018 is also of serious concern from the point of view of regress on the Core Principles of the Internet. The stakeholders of the Internet are largely excluded from the conference and its preparation through a funnel process that ends up in exclusively intergovernmental decision making, with a humiliating, token presence of a few “sector members” deprived of voice. Decentralization is violated by trying to introduce a framework of decision-making that is concentrated in a highly vertical, controlled process, removed from the effective operation of the Net and interfering with the decentralized, issue-focused processes of the Internet community. The relevance of standards like “DOA”, forcibly reintroduced after almost being discarded in the preparatory processes, the abuse of cybersecurity terminology as a pretext, the imposition of national-boundary delimited norms and the support for their further entrenchment are but a few examples of how deleterious this process is for the Internet.
8. Recent calls made in preparation for and during the Internet Governance Forum’s session in Paris 2018 are also cause of concern from the standpoint of Core Principles and Values. They focus narrowly on some aspects of cybersecurity, imply measures that have already been tested and decried by the technical community for layer crossings, reductions in interoperability and openness, and other side effects. They disregard the best-effort nature of the Internet and the open, multistakeholder participatory processes of its governance. In a probably well-meaning attempt to increase the involvement of governments, with their unique roles and capabilities, they sideline what a broad, global community has been able to build over at least two decades. We call on the community to absorb the productive aspects of these proposals while increasing and consolidating the governance model’s best features.

jueves, marzo 09, 2017

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos

Facilitadores generales de proyectos informáticos: una filosofía en cinco casos
Alejandro Pisanty


Publicado originalmente en: Reflexiones de la Academia Mexicana de Informática a los 40 años de su fundación, Coords. Guillermo Levine, Enzo Molino y Carlos Zozaya, Universidad de Guadalajara - Academia Mexicana de Informática, A.C. Guadalajara, Jalisco, México, 2016, pags. 265-285 - ISBN 978-607-742-652-3

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

El objetivo de este trabajo es compartir una reflexión de carácter estratégico alrededor de proyectos informáticos en los que el autor ha sido participante o líder. La visión estratégica que alimentó los proyectos en su inicio puede no ser bien conocida, y en muchos casos la visión hacia el futuro, una vez que los proyectos avanzan o terminan, amplía la visión inicial mucho más allá de sus alcances.
La cultura informática se enriquece cuando se puede ver en forma compacta el significado de un proyecto, sus consecuencias más allá de lo planeado, su impacto más sutil pero a la vez más duradero, y cuando de varios proyectos diferentes se puede extraer una tendencia más general.

En el caso de este artículo, la visión más general que ha alimentado buena parte de los trabajos y otros aquí referidos es la de generar infraestructuras –físicas, lógicas, de conocimiento o sociales– que se vuelvan “facilitadores”, lo que en inglés es popular llamar enablers. Los facilitadores que más aprecio son los relativamente neutrales respecto a actores y criterios externos, que permiten a grupos de usuarios, a instituciones y a veces a sociedades enteras contar con medios flexibles y adaptables para realizar nuevas tareas.

Esa ha sido la visión imperante en muchos otros proyectos en los que el autor ha participado: la dotación de servicios de supercómputo para la comunidad académica de la UNAM (y más allá, al encontrar fórmulas originales de colaboración con otras instituciones como la que dio origen a la Delta Metropolitana de Supercómputo); la creación del Observatorio de Visualización “Ixtli”, concebido a impulso del entonces Rector de la UNAM, Dr. Juan Ramón de la Fuente, un laboratorio de visualización tridimensional inmersivo al que junto con la Dra. Geneviéve Lucet y otros colaboradores dimos el carácter más general y escalable posible; la forma que ayudamos a impulsar que adoptara el Juicio en Línea en el Tribunal Federal de Justicia Fiscal y Administrativa (TFJFA); las múltiples e insidiosas herramientas computacionales para la educación que incorporamos en la Facultad de Química, y el modelo para expandir su alcance y uso, tomado del que desarrollamos junto con Jorge Martínez Peniche, Rita del Castillo, Ana Laura Márquez, Maribel Rodríguez y otros en la coordinación del proyecto de educación a distancia de la Rectoría del Dr. José Sarukhán y posteriormente en la Coordinación de Universidad Abierta y Educación a Distancia; y el impulso a que la Facultad de Química contara con cobertura de la Red Inalámbrica Universitaria, de tecnología Wi-Fi, en todos sus espacios académicos, proyecto que impulsó de manera decidida el Director, Dr. Jorge Vázquez Ramos.
En lo que resta de este trabajo particularizo el análisis de esta tónica en algunos otros proyectos puntuales. En todos los casos mi actividad contó con la colaboración, o incluso fue a la zaga, de equipos de personas de extraordinarios talento y dedicación. Sólo me es posible dar crédito explícito a algunas de ellas; ofrezco anticipadamente una disculpa a quien debiera haber sido mencionado y no lo haya sido.

Firma electrónica, una tecnología disruptiva

El proyecto de Firma Electrónica Avanzada (FEA) de la UNAM fue concebido como un paso indispensable para la modernización de las tareas informáticas de la Universidad. Las consecuencias de su implantación han ido mucho más allá de lo planeado porque indirectamente permitió recuperar hasta ocho semanas de cada año como tiempo académico útil.

Llevamos a cabo este proyecto en la entonces DGSCA, Dirección General de Servicios de Cómputo Académico de la Universidad Nacional Autónoma de México. El pilar de ejecución de este proyecto fue la Dirección de Cómputo para la Administración Académica, DCAA, y dentro de ella su director, el entonces Mtro. y hoy Dr. Juan Voutssás. Los equipos de trabajo de desarrollo de software fueron encabezados por Marcela Peñaloza y contaron con un gran conjunto de jóvenes brillantes. Inicialmente el proyecto fue concebido como un proyecto de seguridad informática y en tal calidad contó con las invaluables contribuciones del Dr. Enrique Daltabuit, el Lic. Juan Carlos Guel, el Dr. Guillermo Mallén, y otros. En el tema legal la participación del Dr. Alfredo Reyes Krafft, como profesionista independiente fue crucial.

El objetivo inicial de estos trabajos fue crear una infraestructura criptográfica de llave pública (PKI) para uso general en la institución, con el ánimo de tener desde la oferta un mecanismo ya indispensable entonces para la operación segura y eficiente de muchos sistemas. Al mismo tiempo, se trataría de identificar la demanda, es decir, sistemas o servicios con los que se pudiera producir beneficios a la comunidad usando esta infraestructura.

El proyecto fue concebido para llevarse a cabo en etapas bien definidas a lo largo de tres o cuatro años. En el primer año los grupos de trabajo se dedicaron al estudio de la criptografía y en particular de la PKI y la firma electrónica. En el segundo, se construyeron prototipos para entender y resolver los principales problemas conceptuales al confrontarlos con la aplicación, y para identificar y resolver los problemas del software, bases de datos, interacciones y arquitectura de software asociados. El tercer año se dedicó a producir el sistema de PKI y FEA e integrarlo a un sistema de información usado en la institución, a saber, la firma de actas de calificaciones de los alumnos de la Universidad. Al final del mismo tercer año se implantó el sistema, y el cuarto año se utilizó para estabilizarlo y explotarlo más ampliamente.

Un punto particularmente interesante es que el sistema al que se aplicó la FEA, la firma de actas de calificaciones, es uno de los más grandes y cruciales para la operación de la Universidad. En el momento de su implantación, este sistema comprendía la firma de más de un millón de actas cada semestre dentro de plazos estrechos y condiciones exigentes de exactitud, precisión, eficiencia y disponibilidad, así como de integridad de la información registrada con todos los mecanismos de autenticación correspondientes. El sistema sería operado por una fracción significativa de los 30,000 académicos de la UNAM en más de 20 escuelas y en cientos de instalaciones espacialmente distribuidas a lo largo y ancho del país; entre éstas se incluyen los hospitales en los que imparte docencia de licenciatura y de posgrado la Facultad de Medicina. Por ello, la gestión del cambio y los esfuerzos de capacitación deberían ser masivos.

Fue contrario a casi toda la lógica de que el primer sistema en que se implante una estructura novedosa como lo eran la PKI y la FEA sea uno tan extenso y exigente. Nuestra primera intención era, por supuesto, hacer una implantación piloto con un sistema mucho más sencillo, reducido y transparente, y bajo control de una sola autoridad. Éstos se encontrarían en las funciones administrativas “clásicas”, como presupuesto, personal, inventarios, etc. y allí hay algunos sistemas de dimensiones y riesgos muy limitados, como las transferencia presupuestales (pocos operadores, pocas operaciones al día, tiempos más flexibles y por todo ello mayor tolerancia a fallas en una primera implantación). Sin embargo, las instancias a cargo no aceptaron la invitación a incorporar la nueva tecnología, a pesar de los evidentes beneficios para todos sus usuarios, y en cambio la Dirección General de Asuntos Escolares, a cargo del Ing. Leopoldo Silva, y sus subdirecciones a cargo de los Mats. Facundo Ruiz y Yolanda Valencia, aceptaron el reto precisamente por la magnitud del beneficio que se obtendría para una comunidad entonces cercana a las 350,000 personas. Su audacia fue recompensada con creces.

La gestión del cambio incluyó la capacitación de personal para la autenticación de personas y entrega de certificados digitales a los académicos, la producción y distribución de manuales, la concientización de la comunidad y otras previsiones.

En paralelo al desarrollo del software y la integración de sistemas, algunos de ellos sin precedente en la institución y casi sin precedente en el país, se crearon los instrumentos legales necesarios para dar a la firma electrónica equivalencia funcional, con toda validez legal, a la firma autógrafa. Determinamos que el nivel adecuado de tratamiento sería un Acuerdo del Rector complementado con una normatividad técnica, en paralelo a la legislación federal de entonces, que establecía a nivel de ley las características generales de la FEA y remitía a una Norma Oficial Mexicana (NOM) los aspectos técnicos que más pueden variar con el tiempo. En ambos casos la idea es contar con un marco legal firme pero que no se convierta en una traba cuando los sistemas tengan que evolucionar por el cambio tecnológico inclemente que los acompaña –por ejemplo, para adaptarse a nuevos requerimientos sobre los certificados digitales y las autoridades certificadoras, o a los criterios criptográficos que acompañan a la evolución del poder de cómputo y técnicas de “crackeado”, como el aumento en el número de bits exigido para el tamaño de las llaves criptográficas.

Desde luego tuvimos el buen sentido de implantar el sistema primero como una prueba piloto en sólo dos facultades especialmente bien preparadas. La prueba fue un éxito gracias a la intensa colaboración de todas las partes, con talento y precisión, y una vez corregidos o mejorados los principales hallazgos, en un siguiente semestre el sistema se implantó para todas las escuelas y facultades excepto una, la de Ciencias. Esto último se debió a que toda la Universidad menos esta escuela modela el proceso de firma de actas por medio de la firma electrónica con el llenado del acta completa en una breve sesión de unos diez minutos de duración y la consecuente firma, y la facultad mencionada lo hacía con el llenado parcial, hasta de un alumno por sesión. Posteriormente se adaptaría al sistema general.

El aspecto más interesante, una vez creado e implantado el sistema, es su impacto a largo plazo. A corto plazo el impacto fue la firma sin papel de actas de calificaciones; a mediano plazo, dejar el uso del papel permitió evitar la construcción de un nuevo búnker (almacén de alta seguridad) para los siguientes millones de actas, aplazar la reforma de las oficinas de Administración Escolar al no tener que procesar esos mismos millones de actas, eliminar complejas operaciones de transporte, lectura óptica, etc. La administración del cambio permitió en este mediano plazo la reorientación del trabajo del personal que estaba a cargo de estas operaciones hacia funciones más difíciles de substituir o automatizar. Pero, repito, el impacto más importante es el de largo plazo.

El impacto de largo plazo de la implantación de la firma electrónica en la UNAM es la recuperación de tiempos académicos útiles y plenamente funcionales en lugar de un tiempo poco aprovechado académicamente. Los profesores que firman actas con firma electrónica lo hacen pocos días después del examen, pues hay un incentivo para librarse de la tarea pendiente, y una vez terminado el plazo legal las firmas son definitivas en expedientes de los alumnos (en el sistema anterior se requerían semanas para la lectura óptica de las actas y los procesos de “limpieza de datos” requeridos). Así, con la FEA, los alumnos conocen sus calificaciones definitivas con tiempo suficiente para tomar cursos intersemestrales con plena validez legal (permitida también gracias a la inmediatez con la que opera la FEA). En muchas escuelas y facultades estos cursos substituyen, con creces, a cursos remediales “de preparación” para exámenes extraordinarios y a los propios exámenes. Con ello se reducen dramáticamente las cifras de alumnos irregulares; un ejemplo del Departamento de Matemáticas de la Facultad de Química indica que aun con controles académicos rigurosos como los exámenes departamentales en los cursos intersemestrales, este proceso permite reducir en aproximadamente 50% el número de alumnos irregulares, y devolverlos al flujo normal de sus estudios profesionales. Un beneficio adicional es el alto nivel de motivación que deriva de que obtengan un resultado tangible para el esfuerzo particularmente intenso que desarrollan para aprobar los cursos intersemestrales. Este efecto inesperado es una especie de “dividendo digital” que hay que buscar en los proyectos informáticos y de Internet. Una institución ambiciosa debe continuar estos procesos disruptivos transformándose de mil maneras (los microcréditos académicos serían una posibilidad en este caso).

Para el equipo que realizó estos trabajos es motivo de orgullo adicional que la misma infraestructura de PKI y FEA siga en operación diez años más tarde (como sucede también con los sistemas creados en conjunto con la Dirección General de Bibliotecas para el acceso a la Biblioteca Digital de la UNAM o BiDi). En el segundo año de la administración que siguió se hizo un ajuste para que pudiera funcionar con el navegador “Chrome”. Seis años después, cuando Google, productora de Chrome, decidió abandonar el estándar NPAPI, la administración universitaria no adaptó el sistema de FEA, por lo cual actualmente no opera con el navegador que usa 80% de la población. Esta situación que viola el principio de interoperabilidad de Internet no puede ser más que lamentable, y lo es doblemente para quienes crearon la plataforma.

Internet necesario

La campaña #InternetNecesario (Briceño et al., 2010) permitió establecer Internet y sus valores fundamentales como un tema definido en la agenda pública. La imagen de que no se puede legislar ni hacer política pública para Internet sin la prudencia necesaria quedó así establecida en núcleos centrales de la esfera pública. La campaña también fue una muestra importante de que para discutir políticas públicas relacionadas con Internet el conocimiento técnico es un fundamento valioso y la colaboración multisectorial una herramienta indispensable.Entre octubre y noviembre de 2009, el gobierno federal de México presentó al Legislativo una iniciativa de Ley de Ingresos (presupuesto federal) que contenía la propuesta de aplicar un impuesto de 4% a toda facturación de servicios de telecomunicaciones. La iniciativa pretendía, además, aplicar este impuesto en la categoría de IEPS (Impuesto Especial sobre Productos y Servicios) que en general se aplica a bienes suntuarios o de consumo que se desea regular, como bebidas alcohólicas y tabaco.

La iniciativa encontró pronto oposición por parte de las empresas de telecomunicaciones, pero también de otros sectores. Estudios publicados entonces indicaban que el aumento en impuestos a este sector resultaría en incrementos de precios finales al consumidor, lo cual reduciría significativamente la demanda y con ello volvería más lenta la adopción de las telecomunicaciones e Internet. Para la comunidad técnica y la sociedad civil en México esto representaría una situación inaceptable y contradictoria con los propósitos de cobertura (además de los de convergencia y competencia) que se preconizaban como pilares de la política del gobierno federal para vencer la brecha digital e impulsar el desarrollo del país.

Un pequeño grupo de personas (tres, inicialmente: Raúl Ramírez -conocido como @isopixel en las redes sociales-, León Felipe Sánchez Ambiá y quien esto escribe) decidimos manifestar nuestra oposición a la medida en los entonces emergentes medios sociales, principalmente Twitter, que contaba con unos 40,000 usuarios en México. Redacté un texto que publiqué en mi blog, y en anuncio coordinado iniciamos la campaña impulsando el hashtag #InternetNecesario con diversas afirmaciones y llamados a la oposición.

Seleccionamos el hashtag con base en tres consideraciones:

a. En Venezuela, meses antes, una campaña contra la reducción de presupuesto para las telecomunicaciones y servicios de Internet de las universidades públicas había resultado efectiva, usando el hashtag #InternetLujo para simbolizar que Internet es necesario, vital, y no un lujo, para las universidades y más en general para las actividades relacionadas con el conocimiento.

b. La propuesta inicial era usar un hashtag explícito en contra del impuesto propuesto. Sin embargo, observamos que dicha línea discursiva, en oposición a los impuestos, representa un interés directo de la industria, que ya estaba activa al respecto. La industria había logrado ya reducir este impuesto del 4% al 3%. La comunidad técnica y la sociedad civil pueden tener puntos de vista respecto a los impuestos que no son necesariamente los mismos que los de las empresas.

c. Atendiendo a las lecciones del Ing. Gustavo Ross, uno de los primeros y hasta la fecha más experimentados especialistas mexicanos en mercadotecnia en Internet, observamos que a largo plazo son más efectivas las campañas con mensajes positivos que las que usan mensajes negativos o confrontacionales, si bien estas últimas atraen mayor atención en los lapsos iniciales. En vez de #NoIEPS, entonces, optamos por #InternetNecesario.
La campaña se desarrolló velozmente, de tal manera que al segundo día alcanzó el nivel de trending topic global. Esto a su vez atrajo la atención de algunos noticieros de medios masivos. Aparecer en estos noticieros, como nota y en entrevistas, a su vez atrajo la atención del Senado, en el que se discutía en segunda instancia la iniciativa de ley.
La campaña se distinguió también por su ángulo educativo. No se trataba sólo de movilizar masas con base en lemas simplistas sino de convencer; no se trataba sólo de convencer sino de producir una comprensión profunda de las razones para defender Internet de un ataque; no se trataba sólo de defender sino de impulsar; y no se trataba sólo de impulsar Internet como un vehículo operacional, un medio, sino de crear un futuro basado en la producción de Internet tanto o más que en su consumo.

El ángulo educativo se dio en numerosas conversaciones masivas en Twitter; y para complementarlas, en algunas publicaciones en blogs y artículos, que establecían texto extenso, reflexiones más completas, información articulada y detallada, en complemento al formato de metralla de los textos de 140 caracteres. #InternetNecesario no fue la primera campaña cívica exitosa en Twitter en México, pero sí una de las primeras, en un contexto en el que estábamos inventando el medio.

Quizás uno de los momentos más significativos de la campaña, y en particular de su efecto educativo, se encuentre en uno de sus pasos finales: el seguimiento del debate y la votación en el Senado. Esto ocurrió el 31 de octubre de 2009 muy avanzada la noche; debe recordarse que esta fecha es el inicio de un feriado significativo en México, en el que multitudes enormes se desplazan tanto a panteones como a fiestas y centros de diversión. Sin embargo, miles de personas fueron espectadores atentos del debate a través del Canal del Congreso; miles se informaron en esas últimas horas acerca del mecanismo de producción y aprobación de leyes en México y en particular del proceso legislativo que da lugar a los presupuestos de ingresos y de egresos de la Federación.

En el debate el Senador Francisco Javier Castellón llevó la atención a la voz de los participantes de la campaña hasta el último minuto, tomando del espacio público argumentos con el que reaccionábamos a los argumentos del debate. Su contribución y la del Lic. Jesús Ramírez Díaz, Secretario Técnico de la Comisión de Ciencia y Tecnología del Senado, marcaron un hito en la escucha, la participación y la producción de un debate amplio, multisectorial y razonado.

Como ha dicho posteriormente Castellón, esta campaña y la que llevó al rechazo al acuerdo internacional conocido como ACTA establecieron las características de Internet en la agenda pública mexicana: una Internet abierta y libre, defendida por sus principios, y a la que no se puede tratar de restringir impunemente. Numerosos intentos de legislación mal dirigida han quedado a la vera del camino desde entonces, para dejar testimonio de esta extendida convicción.

Una campaña como #InternetNecesario parece impracticable en la actualidad. Los factores sorpresa, solidaridad intergeneracional-geográfica-partidista, diálogo constructivo y foco en una causa transversal a la sociedad con una temporalidad definida parecen ahora ser inalcanzables.

El factor sorpresa de los medios sociales en 2009 ha sido substituido por un uso político y de campaña de estos medios basado en el golpeteo, la polarización y la manipulación. Tanto desde la militancia voluntaria como desde la compra masiva de medios y herramientas (tales como “bots”) el discurso en los medios sociales se ha polarizado de manera creciente; el centro se ha vaciado, el discurso tolerante y racional se ha refugiado en otros medios. En México es posible fijar una fecha como noviembre de 2011 para una verdadera transición de fase en este sentido: el momento en que las campañas electorales para las elecciones presidenciales y generales de 2012 se activaron con la intervención de “ejércitos digitales” de militantes disciplinados y con herramientas automáticas, con la manipulación de ” y otras técnicas relacionadas.

La esfera pública se ha enrarecido en todos los campos; la conjunción de grupos unidos por una causa pero diferentes en muchas otras escasea, la atención se abrevia y la visión de grandes metas comunes se evapora. Esto no es un fenómeno exclusivo de Internet y los medios sociales en línea; es un fenómeno social extendido, y al ser Internet cada vez más “un espejo de la sociedad” (Vint Cerf dixit), refleja cada vez más fielmente lo que en ella ocurre.

Si queremos conservar algún optimismo para el futuro de la sociedad, en particular en México, tendremos que abordar las bases y las formas de nuestra convivencia. Ojalá todavía encontremos un fulcro que dé esperanza al proyecto civilizador y constructor de futuro del diálogo público razonado en Internet.Neutralidad de la red

Neutralidad de la Red

El problema conocido como “neutralidad de la red” (Pisanty, 2014) es un asunto complejo y lleno de aristas a veces intratables. La definición más simple de neutralidad de la red, en Internet, es el trato no discriminatorio al tráfico en Internet, independient"emente de su origen, destino o contenido, y a veces más específicamente por número de puerto o de protocolo.La posibilidad de que exista la discriminación se da en varios planos. El más visible es la decisión que un proveedor de servicios de acceso a Internet (ISP) puede tomar de manipular su gestión de la red para favorecer el tráfico generado por sus propios negocios o los de sus aliados, y desfavorecer el de sus rivales comerciales u otras empresas que le resulten “inconvenientes”. El ejemplo clásico sería un operador de red que forma parte de una compañía cuyos otros negocios incluyen la televisión y el video; tendría incentivos fuertes para suprimir o dificultar el tráfico de otras productoras y emisoras, así como de los repositorios abiertos al video de terceros.

En otro extremo, la operación real de las redes de telecomunicaciones es imposible si no se administra el tráfico, y en esta administración se puede requerir por diversas razones reducir la velocidad o bloquear totalmente algunos orígenes, destinos, contenidos, protocolos o puertos. Las razones más evidentes para hacerlo incluyen el hecho de que algún punto de una red esté emitiendo tráfico malicioso o mal administrado que bloquee el tráfico legítimo de otros usuarios.

Entre los dos extremos, llamémoslos comercial y técnico, hay cientos de casos particulares, y en muchos de ellos es difícil identificar de manera decisiva una intención discriminatoria del operador.

La neutralidad de la red puede tener básicamente los siguientes enfoques:
• Técnico
• Comercial
• De competencia económica
• De cumplimiento de contratos
• De derechos del consumidor
• De derechos civiles o humanos, como la libertad de expresión

El tratamiento de la neutralidad de la red depende, además, de la naturaleza y condición de los mercados; así en Estados Unidos, con un cuasi-monopolio o duopolio en cada ciudad sobre las conexiones de banda ancha “de última milla” al consumidor, la situación es muy diferente de la que prevalece en Europa, donde los ISPs están en más fuerte competencia por el acceso al consumidor.

Otro aspecto que complica el tratamiento de la neutralidad de la red es la existencia de “mercados de dos lados” en los que participan los ISPs. Simplificando, el ISP tiene dos tipos de clientes y consumidores de los cuales busca obtener ingresos lucrativos: los consumidores finales y los proveedores de contenido. Si el ISP vende el acceso a un precio demasiado alto al consumidor final, no será atractivo para el proveedor de contenido pues éste busca en general grandes audiencias y clientelas; si el ISP dificulta o encarece el paso de los mensajes y productos del proveedor de contenido, será poco atractivo para el consumidor final. (El mejor ejemplo de mercados de dos lados se puede ver en diarios y revistas que tratan de obtener ingresos por la venta de ejemplares –sea por suscripción o individualmente– y por la venta de publicidad.)

Finalmente, el análisis de neutralidad de la red varía en el tiempo conforme los proveedores de contenido utilizan CDNs (Content Distribution Networks o redes de distribución de contenido), en las cuales el contenido está cada vez más cerca del usuario final mediante servidores de contenido instalados en centrales telefónicas y otros puntos de acceso a la red cercanos geográfica y topológicamente al consumidor, lo cual mejora la experiencia del usuario al disminuir los tiempos de latencia de las operaciones y dar fluidez a la transmisión y reproducción del video y otros contenidos. La negociación comercial entre proveedor de contenido y proveedor de acceso es muy diferente en estas condiciones de la que existe en un concepto simplista a partir de un proveedor de contenido que inyecta contenido a la red en un único punto, en un número muy grande de copias, para que llegue a Internet en el mundo entero. Este modelo hipotético no es realista más que para proveedores de contenido y servicios muy pequeños.

La supresión de publicidad en línea (Ad blocking) y la provisión de algunos servicios sin contabilizar su costo (Zero-rating) son temas emergentes en el campo de la neutralidad de la red. Su tratamiento depende fuertemente de la localidad porque depende de la legislación y las prácticas regulatorias de telecomunicaciones, contenidos, comercio, competencia y derechos del consumidor.

Durante varios años hemos tenido que analizar y proponer avances en el manejo de la neutralidad de la red en México; en particular tuve la responsabilidad respectiva en un grupo de trabajo del Consejo Consultivo de la entonces Comisión Federal de Telecomunicaciones, y posteriormente he sido requerido para opinar en muchos otros foros. En específico cuando fui invitado por la organización no gubernamental chilena Derechos Digitales produje, conjuntamente con Erik Huesca, un capítulo de libro que esperamos sea una buena orientación útil a lo largo de algunos años en el futuro (Pisanty & Huesca, 2016) .El enfoque que adoptamos para analizar la neutralidad de la red en Internet y para influir en legislación y política públicas ha resultado productivo al centrarse en los aspectos mejor definidos desde un punto de vista técnico. Separar los aspectos técnicos (a su vez divididos en diseño y operación) de los comerciales y políticos ha permitido proveer una base informada y evolutiva para las discusiones públicas del tema.

Principios fundamentales y gobernanza de Internet - "Core Values"

La gobernanza de Internet exige una colaboración entre los sectores técnico, comercial, gubernamental y no comercial. Este principio fundamental es la base de las recomendaciones sobre gobernanza de Internet de la Cumbre Mundial sobre la Sociedad de la Información surgidas en Túnez en 2005, y que han guiado al Foro sobre Gobernanza de Internet (IGF) y muchos mecanismos relacionados, en ámbitos tanto nacionales como supranacionales. Esta colaboración multistakeholder o multisectorial existe desde el origen de Internet y tuvo que ser reconocida explícitamente para desahogar debates que se habían vuelto insolubles en la Cumbre.

Al materializar esta colaboración multisectorial, es necesario que los participantes estén bien informados y cuenten con criterios sólidos para poder llevar los debates a que trasciendan más allá de lo coyuntural. Los participantes deben estar al tanto de las bases, posibilidades y límites de la tecnología, ser capaces de identificar los factores propiamente técnicos de los que no lo son y ver más allá, en las diversas interacciones que los entrelazan. Nuestro análisis del problema de neutralidad de la red pretendió contribuir a esta diversidad de enfoques enterados.
Core values, principios fundamentales de Internet: enseñanza, difusión, impacto
Identificar los valores fundamentales de Internet a partir de sus principios de diseño ha permitido educar y convencer a numerosos funcionarios, académicos y actores de la sociedad civil, empresas y gobierno, de la importancia de preservarlos, a la vez que ayuda a hacer mejores leyes e inducir mejores prácticas.

Para algunos de los especialistas que conocen la tecnología de Internet resulta sorprendente el nivel a veces pasmoso de desconocimiento con el que algunos usuarios e incluso tomadores de decisiones abordan este medio, a pesar de que la creación de sus tecnologías básicas data de hace 40 y hasta 50 años, y sobre todo de que su difusión masiva, explosiva, a partir de la Web, cumple ya 25 años.

Las mesas de ayuda y call centers sufren lo indecible con estos usuarios, según informan con frecuencia quienes trabajan en esos servicios y algunos de sus clientes. No es raro encontrar a quien se ufana de su desconocimiento en los niveles más elementales –“no sé qué es eso de ‘navegador’”; “¿entonces… la Web no es Internet?” Preguntas y afirmaciones similares son una pesadilla recurrente y que se desarrolla en vivo, durante nuestras horas de vigilia.

La pesadilla se transforma en terror puro cuando el mismo estado de insuficiencia se detecta en tomadores de decisiones que afectan a Internet y al desarrollo de las sociedades hacia el estado que llamamos Sociedad de la Información o Sociedad del Conocimiento. La posibilidad, probada dolorosamente en muchas realidades puntuales, de tomar e inducir muy malas decisiones es un motivo de alerta y acción constantes.
Uno de los espacios en los que esta alerta es motivo de mayor preocupación es la relacionada con gobernanza de Internet. Esto se observa lo mismo en niveles locales –una ordenanza municipal en una ciudad peruana que pretende regular de manera descabellada el uso de juegos de realidad virtual o aumentada en sus calles; un estado federal de una república que pretende criminalizar la ofensa a través de medios sociales en línea–, nacionales –un conjunto de leyes contra el delito cibernético que confunde medios y conductas, efectos y causas– o supranacionales –una política continental en materia de ciberseguridad, acuerdos de alcance transnacional sobre propiedad intelectual o decisiones sobre nombres de dominio, direcciones IP, filtrado y bloqueo de aplicaciones con motivos o pretextos de competencia de servicios en línea contra servicios regulados en redes a los que se pretende regular negando acceso a puertos o protocolos, e igualmente en las mil formas de censura e imposición de criterios ideológicos que toman como pretexto a los niños: en todas se detecta un efecto pernicioso de no conocer y no respetar los principios fundamentales de diseño de Internet.

Durante años hemos mantenido un esfuerzo constante por educar en esta materia a los tomadores de decisiones. El foco principal de estos trabajos ha estado en el Foro sobre Gobernanza de Internet (IGF) en el cual representantes de empresas, organizaciones de la sociedad civil, tecnólogos y representantes de gobiernos se reúnen para debatir e impulsar avances en gobernanza de Internet.
Ahí resulta especialmente crítico proveer elementos para acotar las que podrían ser malas decisiones, una vez los participantes del IGF salgan del Foro y se dirijan a los espacios decisorios propios de cada problema –sea éste spam, phishing, hostigamiento sexual, censura, IXPs (puntos de intercambio de tráfico de Internet), zero-rating, seguridad nacional, restricción del comercio de software de espionaje e intervención de telecomunicaciones, libertad de expresión, lo que sea. La cota inferior de todas estas decisiones debe ser el no alterar la naturaleza misma de Internet, y por ello es imprescindible educar constantemente sobre este tema.
Posteriormente a nuestro esfuerzo inicial, la Internet Society (ISOC) y algunos de sus actores principales tomaron también el tema en sus manos y han producido una serie de documentos sobre los “invariantes de Internet”, es decir, la misma pregunta: ¿qué vuelve Internet a Internet? ¿Qué, si se quitara o cambiara en Internet, haría que dejara de ser Internet?

Los principios fundamentales a que nos referimos son interoperabilidad, apertura, “punta a punta”, “red tonta – orilla inteligente”, descentralización, “mejor esfuerzo”, y las formas en que la contabilidad y rendición de cuentas se presentan en Internet. Todos tienen como base la arquitectura de capas y la conmutación por paquetes. Están definidos alrededor del protocolo IP y el “modelo de reloj de arena”. Se orientan al alcance global de la red y exigen robustez, resiliencia y colaboración global. Se construyen en la IETF (Internet Engineering Task Force) con base en el principio de Rough consensus and running code (“Consenso general y programas que funcionan”). Dan lugar a la innovación sin pedir permiso y a la condición de Permanent beta en la que todo se considera a prueba y sujeto a mejora. La simplicidad de algunos protocolos y diseños, como el de las direcciones IP y el del DNS (sistema de nombres de dominio), da a Internet una formidable escalabilidad. La seguridad (y con ella la privacidad) y otras funciones de alto nivel se remiten fundamentalmente a los extremos de la red y no su corazón operacional.

Para dar forma concreta a la educación alrededor del tema hemos realizado diversas acciones a lo largo de los años. Entre ellas destaco la inclusión de estos principios en la docencia sobre Internet en diplomados y otros programas de posgrado; las actividades de la Coalición Dinámica sobre Valores Fundamentales de Internet, en el marco del IGF; la participación en discusiones y debates públicos, incluso durante la campaña #InternetNecesario y en las campañas alrededor de malas iniciativas de legislación, así como en publicaciones (actualmente en prensa) (Pisanty, 2016a) . Uno de los documentos más valiosos producidos por la coalición es una sesión grabada en video en https://www.youtube.com/watch?v=3vrRGwSKl3A –un panel con Vinton Cerf y Scott Bradner que tuve el privilegio de moderar, en el que estos dos fundadores de Internet discuten las principales decisiones que le dieron forma.

El orden en que se priorizan estos principios es determinante para la forma en que Internet ha crecido (Clark, 1988) . Sería posible construir una red basada en la interoperabilidad pero no en la apertura, o en la que la rendición de cuentas se antepusiera a éstas y exigiera por tanto una autenticación de cada punto ante sus vecinos y la autorización del acceso a todo usuario. Pero no sería la Internet que conocemos.Un ejercicio docente interesante ha consistido en discutir en grupos (en cursos de posgrado orientados a la gestión de la tecnología) cómo sería una Internet en el que el orden de estos principios variara. Es relativamente fácil para los profesionales darse cuenta de que sería muy distinta, y que sólo con estos principios es posible crear una red de servicio generalizado, capaz de dar soporte indistintamente a voz, datos y video, interactivos o pasivos, sincrónicos o asincrónicos, de alta o baja capacidad y, sobre todo, con innovaciones tecnológicas y de modelos de uso que se renuevan sin cesar.

La experiencia en ICANN

ICANN, Internet Corporation for Assigned Names and Numbers, fue creada en 1998 para hacerse cargo de la coordinación central requerida en la administración de tres funciones: el centro del DNS (sistema de nombres de dominio), las políticas generales para la asignación de direcciones IP, y el registro de los parámetros de los protocolos de la IETF. ICANN es producto de múltiples balances: entre políticas públicas e intereses privados, entre descentralización y la necesidad de un registro central de sus tres conjuntos de parámetros que deben ser variables unívocas, entre el origen nacional de Internet en Estados Unidos y su alcance global, entre Estados Unidos y las otras economías desarrolladas, entre países desarrollados y países en vías de desarrollo, entre efectividad y representación, entre teoría y práctica.

La necesidad de crear un organismo con las funciones de ICANN surge hacia 1995, cuando Jon Postel, creador de la IANA (Internet Assigned Names Authority), co-creador con Paul Mockapetris del DNS, y gran autoridad moral de Internet en los años iniciales, observa junto con el gobierno de Estados Unidos que el creciente uso del DNS y la expansión de Internet van a producir litigios costosísimos y muy complejos que involucrarán a la Universidad del Sur de California, al propio Postel en lo personal y al gobierno de Estados Unidos en su conjunto; cuando la exasperación contra la conducta monopólica y abusiva de la empresa Network Solutions en el registro de nombres de dominio empieza a alcanzar niveles alarmantes, y cuando un primer intento de privatización de funciones centrales de Internet atrae en su contra furor internacional.

ICANN es un experimento innovador en organización social y corporativa tanto como es un organismo singular en la interrelación densamente entretejida de conocimiento técnico y toma de decisiones con impacto social amplio, global. El aparato de ICANN se construye exclusivamente con base en derecho privado, sobre contratos y reglas aceptadas por particulares, con intervención lateral de los gobiernos. Cuenta además con la participación de todos los sectores a los que les va algo –intereses o principios– en la gestión de los parámetros coordinados de Internet.

Mi primer contacto con lo que se convertiría en ICANN se presentó cuando asumí la presidencia de la Sociedad Internet de México, A.C, o ISOC México (capítulo mexicano de Internet Society) en 1997. Le pregunté a mi antecesor, Jeffry Fernández, qué asuntos merecían la mayor atención para darle continuidad a su gestión, y me mencionó los acuerdos que estaban en proceso para modificar la gestión del DNS. Poco después, en una reunión de ISOC global en San José, California, un grupo de latinoamericanos se reunión con Mike Roberts, quien encabezaba el grupo que formó ICANN y quien fue su primer director general. Allí conocimos aspectos cruciales del proyecto.

Mi interés, y el que representé por parte tanto de ISOC México como en beneficio de la UNAM y otras instituciones, giraba alrededor del hecho de que se estaba formando un nuevo sistema y había la oportunidad de contribuir a darle forma desde México, desde los países en desarrollo, desde la órbita de nuestra lengua y nuestra cultura, en vez de esperar una vez más a que los sistemas sociotécnicos fueran determinados en el “Norte global”. Se trataba de aportar una visión de principios, no sólo intereses.

La experiencia fue singularmente enriquecedora. Tuve oportunidad de contribuir a formar la primera agrupación de organizaciones no comerciales como parte del primer Consejo Directivo electo de ICANN, y de algunos comités y grupos de trabajo clave como el de gobierno del Consejo y el de evolución y reforma que realizó una gran reestructuración en 2003. Posteriormente presidí el grupo de trabajo sobre el cumplimiento de las obligaciones de ICANN en materia de Estabilidad, Seguridad y Resiliencia del DNS (SSR-RT).

Construimos ICANN –“construimos”… sobre hombros de gigantes, y al lado y de la mano de ellos– con una visión de stewardship, de cuidado por el bien común aun en sacrificio del propio, algo muy difícil para partes interesadas en el mercado de nombres de dominio en el que abundan la especulación y la extorsión, incluso como modelos de negocio. Administraciones posteriores a las primeras tres abrieron más espacios para la creación de nuevos negocios de esos tipos, pero siempre ha habido límites.

La participación multisectorial, estructuralmente en pie de igualdad, siempre fue un principio y un método en ICANN. Construimos estructuras para contrarrestar el poder liso y llano del dinero y su influencia en la política, con la visión de la tecnología y los principios ya descritos, y con el apego a posiciones de principio ante los embates de la política y el interés de lucro desmedido.

La dificultad que se presentó para llegar a conclusiones sobre gobernanza de Internet en la Cumbre Mundial sobre la Sociedad de la Información se explica en parte por la ambición de los organismos internacionales y algunos gobiernos por revertir la salida del control gubernamental de Internet. Hay una paradoja implícita en que el régimen preferido por la comunidad técnica y otras de Internet coincidiera con la de Estados Unidos, y que fuera el de mínima intervención gubernamental –por parte, irónicamente, del gobierno al que más se populariza odiar y confrontar en países como el nuestro. Sin inocencia respecto a los verdaderos enemigos y los verdaderos aliados de la causa de una Internet libre y abierta, en la Cumbre pudimos avanzar contra intentos de imponer controles y contra los efectos de la geopolítica de siempre.

Los gobiernos que clamaban exclusión en ICANN fueron los principales impulsores de la participación de todos a la mesa. El ingenio, el apego a los principios y una cuidadosa selección estratégica de aliados permitieron que esa participación se volviera realmente amplia y balanceada. De ahí el carácter del IGF en el que todas las voces tienen lugar y gracias al diseño institucional ninguna puede imponerse de manera definitiva en formas que resulten en detrimento profundo de la Internet global –por lo menos no sin violar gravemente reglas de convivencia y haciendo más daño a su propia comunidad que a ninguna otra.

El problema fundamental que ICANN está resolviendo al momento de redactar el presente texto es uno de los más espinosos de la gobernanza de Internet: la transición de un sistema en el que queda un control, limitado pero real, de última instancia, que corresponde a un gobierno, a un sistema totalmente multistakeholder. Se trata de la transición de la supervisión de IANA por parte del Departamento de Comercio de Estados Unidos a un sistema de supervisión integrado por la misma comunidad de Internet. Una de las claves para el éxito de este proceso reside en que la gobernanza de la organización tenga una visión de stewardship (Pisanty 2016b; Cerf et al. 2014).

Veo aquí ratificada la perspectiva de construir infraestructuras horizontales, accesibles a todos, flexibles y adaptables a toda innovación, democráticas de raíz; desde un laboratorio local de química computacional hasta diseños de alcance global y duradero. Ojalá el futuro nos permita ratificar y extender esta visión.


Briceño, Y. et al. (2010) Políticas y demandas civiles en la sociedad interconectada. Una revisión de movimientos en defensa de Internet en México y Venezuela http://www.politicadigital.com.mx/documentos/politicasdemandascivilessociedadinterconectada.pdf
Cerf, V. G. et al. (2014). Strategy Panel on ICANN’s Role in the Internet Governance Ecosystem, Final Report, en https://www.icann.org/en/system/files/files/ig-ecosystem-report-23may14-en.pdf
Clark, D.C. (1988). The Design Philosophy of the Internet Protocols, Proc. SIGCOMM ‘88, Computer Communication Review Vol. 18, No. 4, Agosto, pp. 106–114 http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-clark.pdf
Pisanty, A. (2014), “Network Neutrality Debates in Telecommunications Reform – Actors, Incentives, Risks”,Network Neutrality: an Ongoing Regulatory Debate, 2nd Report of the Dynamic Coalition on Network Neutrality, L. Belli y P. de Filippi, Dynamic Coalition on Network Neutrality, en linea en:
Pisanty, A. (2016a) “Principios fundamentales y gobernanza de Internet”, en J. Thumfart ed. “Pensar Internet”, Ediciones del Sileno, Universidad Iberoamericana, México (en prensa).
Pisanty, A. (2016b) “The vexing problem of oversight and stewardship in Internet governance”, W.K. Drake (ed.), The Working Group on Internet Governance – 10th Anniversary Reflections, APC, pp 189-207, publicado en
Pisanty, A. & Huesca, E. (2016), “Neutralidad de la Red en Internet”, en Internet en México – Derechos Humanos en un Entorno Digital, Derechos Digitales, México/Santiago. https://www.derechosdigitales.org/wp-content/uploads/Internet-en-Mx-2016.pdf pags. 199-240

domingo, diciembre 04, 2016

Adentrándonos en el IGF 2016: las primeras sesiones, el Día Cero

El Internet Governance Forum o Foro sobre Gobernanza de Internet está por comenzar, el 5 de diciembre de 2016 en Guadalajara, México.

Alejandro Pisanty

Licencia Creative Commons
Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional.

El denominado "Día Cero" se caracteriza por eventos que no son propiamente parte del programa del Foro aprobado por el MAG (Comité Asesor Multisectorial), pero contribuyen directamente a la reflexión del Foro y reúnen a actores presentes en la ciudad.

Haré referencia a continuación a algunos de los eventos del Día Cero a los que daré seguimiento (y en los que participaré) esperando que sean de interés más general.

El primero de estos eventos que describiré es GIGANET, la reunión de la red de académicos interesados o especializados en gobernanza de Internet como tema de investigación.


Se presentarán trabajos de investigación sobre diversos temas de gobernanza de Internet, en cuatro sesiones, a saber:

1. Participación, transparencia y responsabilidad, en la cual se discutirán temas como transparencia algorítmica, criptografía y libertad en relación con el Estado, e innovación en procesos multisectoriales.

2. Desafíos legales, en la cual se presentarán avances de investigación sobre la construcción de estructuras normativas, el principio de “persecución en caliente” en el ciberespacio, constitucionalismo digital y legitimidad, y el régimen de copyright en el contexto del conocimiento tradicional.

3. Acciones y políticas en gobernanza de Internet, con temas como perspectiva teórica de la fundación del IGF, papel de la juventud en el IGF, y evaluación de la expansión del espacio de nombres de dominio de primer nivel (gTLDs).

4. Economías emergentes y crisis, en la que las ponencias tratan de Internet y colonialismo, políticas en países emergentes con el caso del Marco Civil brasileño, y gobernanza de Internet durante las crisis considerando el caso concreto de Tailandia.

El segundo evento de esta publicación es el Foro Abierto que organiza ICANN sobre la transición en la supervisión de IANA, que ha pasado de ser una función del gobierno de Estados Unidos a una ejercida de manera autónoma por la organización.

El tercer evento de este día al que me refiero es la sesión organizada conjuntamente por ISOC (Internet Society), APC (Association for Progressive Communications) y la Fundacao Getulio Vargas sobre Conectividad Comunitaria, orientada a la construcción y puesta en operación de redes para acceso a Internet en comunidades aisaladas, marginadas, o no atendidas por actores de los mercados. En esta sesión se analizarán los principales problemas físicos, técnicos, legales y de políticas que dificultan el acceso a Internet en estas comunidades; tecnólogos de primera como Bob Frankston presentarán una visión de las alternativas técnicas; y se pondrá a discusión un manifiesto para atraer la atención y la acción colectivas en la materia en todo el mundo.

Hay muchos más eventos interesantes en la agenda. No dejen de visitarla y seleccionar algunos, ya sea que estén Uds. presentes en Guadalajara o bien puedan participar de manera remota a través de Internet.

miércoles, noviembre 16, 2016

Qué esperar del IGF o Foro sobre Gobernanza de Internet 2016

Qué esperar del IGF o Foro sobre Gobernanza de Internet 2016

Alejandro Pisanty

Facultad de Química, UNAM

Sociedad Internet de México, A.C.

Licencia Creative Commons
Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional.

El objetivo de este documento es presentar un esquema general del IGF 2016 para facilitar una participación efectiva.


El Internet Governance Forum (IGF) o Foro sobre Gobernanza de Internet (FGI o IGF) es un evento anual que reúne a los distintos sectores interesados (“stakeholders”) de la gobernanza global de Internet, para discutir los principales avances y problemas que se presentan en esta materia. El IGF es organizado por la ONU pero a diferencia de otros eventos de la misma, no es un foro gubernamental sino que todas las partes participan, en principio, en pie de igualdad.

El IGF está formado por distintos tipos de sesiones, de las que destacan sesiones plenarias, talleres, foros de mejores prácticas, coaliciones dinámicas, “flash sessions” y foros abiertos. Éstos serán descritos en las siguientes secciones junto con las modalidades de participación.

El programa del IGF es organizado a lo largo del año por el MAG o Grupo Asesor Multisectorial, siguiendo distintos procedimientos para cada tipo de sesión. Existe además un grupo de sesiones llamado “Día Cero”, previstas para el día anterior al inicio formal del foro, que se describe también en las secciones subsecuentes.

El Foro resulta desconcertante para algunos participantes ya que tiene como objetivo el análisis, la discusión, el debate y el estudio a fondo de los temas, pero explícitamente no debe formular conclusiones ni decisiones que se lleven a la acción. Esto se reserva a las organizaciones y mecanismos existentes apropiados para cada tema a nivel subnacional, nacional, regional, internacional o global. El Foro evita formular documentos para que no se presenten negociaciones sobre textos acordados, las cuales son vistas como limitantes de la discusión abierta, y evita tomar decisiones que en general serían duplicativas de las funciones de las organizaciones y mecanismos citados. Si se detectan temas no cubiertos de esta manera, las partes tendrán que negociar su solución.

Así, el principal valor del IGF es que los participantes pueden volver a sus lugares de origen y organizaciones informados, actualizados, empapados de los diversos criterios en juego, y preparados para avanzar en cada tema con una orientación a la solución de problemas bien definidos, con los actores y estructuras adecuados, y con base en un principio de subsidiaridad, todos los cuales son rasgos de la gobernanza de Internet más efectiva hasta ahora.


1. Plenarias

Las sesiones plenarias en general son paneles multisectoriales que discuten los grandes temas y subtemas seleccionados cada año para el Foro. Cada plenaria se alimenta de los contenidos de los talleres agrupados bajo su temática, o les provee bases e información. Las plenarias son organizadas por el MAG.

Además de los paneles plenarios, se debe contar en este tipo de sesiones a la inauguración, una sesión general inicial, el panel de puesta en escena de los temas generales, un panel de cierre del evento, la presentación del sumario del Presidente del Foro, y la sesión de clausura.

En los paneles de discusión se prevé la discusión entre los panelistas y la extensión de ésta a la audiencia tanto presente como la participante a distancia. A diferencia del formato usual en México, para tomar la palabra es necesario formar una fila delante del micrófono ubicado generalmente al frente de la sala y previsto para la participación del público. Las sesiones plenarias proveen una ocasión inigualable para conocer las visiones más avanzadas – y frecuentemente contrapuestas – sobre el futuro de Internet, en boca de los actores más autorizados y representativos, incluyendo a los creadores mismos de la tecnología y a sus realizadores más avanzados.

2. Talleres

Los talleres son reuniones de discusión concentradas en temas específicos de los grandes temas generales del Foro. Son organizados por grupos de personas o instituciones que los proponen al MAG, y seleccionados por el mismo MAG de entre el conjunto de propuestas mediante un complejo proceso de selección basado en criterios fijados con anterioridad.

Cada taller debe ser multisectorial y contar con balances de género, región y grupos funcionales o profesionales, en la medida de lo posible. En los talleres se prevé una discusión entre los panelistas invitados y una extensión de ésta a la audiencia tanto presente en sala como por vía remota.

La diversidad de temas y participantes de los talleres prácticamente garantiza que los intereses y objetivos de todo posible participante del Foro estén atendidos y que haya para cada quien suficiencia y hasta exceso de sesiones a las cuales acudir, y otros participantes con los cuales formar redes y comunidades de interés y de proyecto. Éste es sin duda uno de los mayores incentivos para participar en el IGF.

3. Foros de Mejores Prácticas (BPF)

Los Foros de Mejores Prácticas o BPF estudian las soluciones que se están dando, con los mejores resultados, a temas como ciberseguridad, género, IPv6, IXPs o puntos de intercambio de tráfico de Internet, y acceso a Internet. Estos foros son conducidos por expertos y se basan en documentos creados a lo largo de algunos meses por grupos de especialistas.

Las sesiones de los BPF permiten investigar a fondo los problemas y extraer lecciones acerca de las soluciones propuestas, las dificultades que éstas encuentran en distintos contextos, y las formas en que tales dificultades pueden ser superadas eficazmente. Los BPF se distinguen del resto de las sesiones en que sí tienen el propósito de producir conocimiento concluyente y sobre el cual es posible actuar empezando desde el corto plazo.

Los documentos de los BPF están disponibles con anticipación para su estudio y comentario, como preparación para el Foro. Es conveniente estudiarlos y darlos a conocer a especialistas que puedan interesarse en ellos y participar o apoyar a los participantes. Una vez terminado el IGF, lo aprendido y los documentos de los BPF pueden ser aprovechados de manera inmediata.

4. Coaliciones Dinámicas (DC)

Las Coaliciones Dinámicas (DC o CD) son agrupamientos que se forman entre los participantes del IGF con una temática y un objetivo determinados, y que perduran a través de algunos años. Algunas DC son la de Derechos y Principios en Internet, la de Valores Centrales de Internet, la de Neutralidad de la Red, la de Acceso a Internet en Bibliotecas, y otras de formación reciente.

Las DC deben organizar en principio dos tipos de sesión: una interna de trabajo en la que discutan su organización y planeen su actividad, y una pública de discusión multisectorial y experta que ilustre sus resultados, invite a la participación, y abra un análisis más amplio de su temática.

La creación de nuevas DC está sujeta a algunos criterios normados por el MAG; debe considerarse abierta siempre que éstos se reúnan. Durante el IGF 2016, una de las sesiones plenarias estará dedicada al trabajo de las Coaliciones Dinámicas.

En 2016 se presentará al menos una nueva DC en formación cuyo tema es la publicidad, no en el sentido de la mercadotecnia y ventas sino alrededor del necesario carácter público de algunos tipos de información, y su contraste con el “derecho al olvido”.

5. Foros Abiertos

Los Foros Abiertos son sesiones de un solo organizador, que tienden a presentar a las organizaciones o a formular la discusión de temas muy específicos por parte de un número de actores reducido. Ello no obsta para que puedan ser de gran interés, como serán en 2016 las sesiones organizadas por ICANN y por la Internet Society.

6. “Día cero”

a. Evento de Alto Nivel del País Anfitrión

El gobierno del país anfitrión organiza, desde hace algunos años, un evento bajo su conducción el día previo al inicio formal de las sesiones del IGF. Quizás el hito inicial de este tipo de eventos fuera la Reunión Ministerial organizada por el gobierno de Kenia previa al inicio del IGF de Nairobi hace algunos años. Dado que la reunión necesitó información, criterios y debate de otros sectores, cambió de nombre en los años siguientes. Es muy probable que resulte de interés general. Es facultad del gobierno anfitrión determinar si esta reunión es abierta o cerrada.

b. Otros

Diversos actores como empresas y organizaciones internacionales llevan a cabo eventos en el “Día Cero”, autorizados por el MAG y el Secretariado para realizarlos en las instalaciones del Foro, o bien en su periferia inmediata sin necesidad de autorización. Algunos son de interés general y otros especializados por tema, región o sector. En esta categoría están también las “flash sessions” que se organizan impromptu.

7. Otros eventos

A lo largo de la semana, desde antes y hasta después del período oficial del IGF, se llevan a cabo eventos como cursos de capacitación, reuniones de debate, reuniones sociales y otras. Organizaciones como ICANN y la Internet Society reúnen a interesados o a sus miembros. Internet Society y otras organizaciones llevarán a cabo un taller de capacitación sobre redes comunitarias para la conexión a Internet de poblaciones aisladas o marginadas. Algunas organizaciones orientadas a la defensa de los derechos humanos llevarán a cabo reuniones de coordinación. Gobiernos de distintos países y empresas también llevan a cabo procesos formativos.

GIGANET es un simposio de investigación de la Red Global de Investigación sobre Gobernanza de Internet, una asociación académica. Los trabajos presentados han sido seleccionados por un comité evaluador y representan algunas líneas de investigación de elevado interés. La asistencia es libre

En muchos países y regiones supranacionales se están llevando a cabo con cierta regularidad reuniones de trabajo sobre gobernanza de Internet. En algunos casos se trata de reuniones con conclusiones operativas, mientras que en otras se mantiene la orientación al diálogo abierto del IGF global. En algunas sesiones del IGF se mencionarán estas iniciativas bajo el título NRI (“National and Regional Initiatives”). En el caso de México, se han llevado a cabo en los últimos años dos sesiones de los “Diálogos sobre Gobernanza de Internet”.

La Internet Society organiza durante el “Día Cero” el CLX o “Collaborative Leader ship Exchange” para reunir a los líderes globales y regionales de la Sociedad y a los expertos y grupos focales de jóvenes cuya asistencia patrocina.

8. Participación y otros temas relacionados

La participación en el IGF está abierta a todos, como ya se ha dicho en este documento. Los aspirantes a participar deben registrarse (antes del 17 de noviembre de 2016) en el sitio Web del Foro, o bien presentándose físicamente en la sede (PALCCO, en Zapopan, Jalisco, en la Zona Metropolitana de Guadalajara) a partir del 3 de diciembre.

El IGF procura activamente la participación a distancia para quienes no pueden asistir físicamente a las sesiones. En cada sesión principal se asigna un moderador para la participación remota, quien la impulsa activamente ante los participantes presentes en el sitio. Adicionalmente, se constituyen “hubs” o polos de participación remota en los cuales se organiza una reunión alrededor de un sistema de conexión a Internet. Los “hubs” deben ser registrados previamente y reciben una atención especial.

Si bien el idioma dominante en el Foro es el inglés, se provee interpretación simultánea a los idiomas oficiales de la ONU en las sesiones principales. En los talleres y otras sesiones que no son plenarias, la disponibilidad de interpretación simultánea depende de que la financie el organizador de la sesión o un donador que haga la aportación necesaria.

Es importante notar que la participación en el IGF está regida por un Código de Conducta (ver https://www.intgovforum.org/multilingual/content/igf-code-of-conduct-0 para conocerlo). Este Código está orientado a permitir la máxima apertura en las discusiones dentro de un marco de respeto mutuo propio de los organismos internacionales. Por ello protege la libertad de expresión bajo bandera de la ONU y al hacerlo limita las expresiones dirigidas a individuos o países específicos, la exhibición de pancartas, y otras actividades similares.

El recinto del Foro se pone bajo bandera de la ONU lo cual quiere decir que las reglas de conducta, que protegen a los ciudadanos de países sujetos a gobiernos autoritarios y restricciones severas a las libertades de expresión y asociación. Para los habitantes de algunos países liberales es importante entender el valor liberador de estas condiciones y hacerse cargo del origen y valor de las restricciones que pueden acompañar a estas normas. La seguridad física del recinto también está normada por la ONU y se materializa a través de una colaboración entre las fuerzas de seguridad de la propia ONU y las autoridades locales.

En el exterior del recinto se suele crear un espacio más abierto pero que está sujeto a las reglas nacionales, estatales y municipales de la localidad donde se ubica. En éste se ubican espacios tipo “booth” o “stand” de diversas organizaciones en los que se difunde información y se favorecen las interacciones informales.

Numerosas y muy diversas organizaciones apoyan activamente, incluso con financiamiento, la asistencia de grupos de expertos, de jóvenes, de activistas, de periodistas, etc., de acuerdo con los objetivos de cada una. Esto enriquece la participación y la diversidad del Foro y lo hace especialmente atractivo para la formación y consolidación de redes de interacción entre personas y organizaciones. En este momento (noviembre de 2016) estos programas han cerrado sus convocatorias.

La asistencia al Foro no exime a los participantes de alcanzar por su propia cuenta una situación migratoria adecuada para estar presentes en la sede. Las visas y permisos de internación deben gestionarse con suficiente anticipación ante las representaciones del país sede aplicables al lugar de residencia de los participantes extranjeros.


El IGF 2016 continúa la temática original prescrita para el Foro en los acuerdos de la Cumbre Mundial sobre la Sociedad de la Información (CMSI o WSIS) y la evolución que han tenido a lo largo de los años. El Foro fue creado por acuerdo de la Asamblea General de la ONU con base en los de la CMSI y ha sido prorrogado por la misma AG a partir de la evaluación de la primera década en diciembre de 2015.

El programa completo se puede visitar en http://www.intgovforum.org/multilingual/index.php?q=filedepot_download/12/123 y, en formato interactivo, en la página principal http://intgovforum.org con actualizaciones constantes y opciones para usarlo dinámicamente en dispositivos móviles.

Los temas de 2016 son Acceso y Diversidad, Recursos Críticos de Internet (un eufemismo para los identificadores como nombres de dominio y direcciones IP), Ciberseguridad, Temas Emergentes, Gpenero y Juventud, Derechos Humanos en Línea, Cooperación Multisectorial (“Multistakeholder”) y Desarrollo Sustentable y la Economía de Internet. Como se mencionó antes, a cada uno de ellos le corresponde una sesión plenaria y numerosos talleres. Algunos talleres pueden asociarse a diversos temas; por ejemplo los temas de Género aparecerán también al discutir Ciberseguridad, Derechos Humanos en Línea, Cooperación Multisectorial, y Desarrollo Sustentable, cuando menos.

AGRADECIMIENTO: agradezco a Fátima Cambronero sus observaciones críticas y aportaciones de recursos informativos, y a Israel Rosas, Luis Miguel Martínez, León Felipe Sánchez Ambiá y Karina Martínez su revisión.

Referencias e información adicional

CÓDIGO DE ÉTICA - https://www.intgovforum.org/multilingual/content/igf-code-of-conduct-0

Programa del IGF: http://www.intgovforum.org/multilingual/index.php?q=filedepot_download/12/123

Página oficial del Foro de Gobernanza de Internet:




Nota: plazo para registrarse y participar presencialmente del IGF vence el 17 de noviembre.

Coaliciones Dinámicas: https://www.intgovforum.org/multilingual/content/dynamic-coalitions-4

Foros de mejores prácticas: https://www.intgovforum.org/multilingual/content/best-practice-forums-4

Documentos informativos sobre políticas en Internet de la Internet Society, “Policy Briefings”, http://www.internetsociety.org/what-we-do/policy

“The Internet Ecosystem”: (Ecosistema de Internet, documento de la Internet Society): http://www.internetsociety.org/sites/default/files/Ecosystem_Factsheet.pdf

“Introduction to Internet Governance” e-book de la Fundación Diplo (disponible en varios idiomas): http://www.diplomacy.edu/igbook

Cómo preparar propuestas de talleres para el IGF 2016 (y un repaso por las diferentes modalidades de sesiones) https://www.youtube.com/watch?v=xNnmoyDZ0wk&feature=youtu.be

sábado, octubre 29, 2016

ccTLD management is a global responsiblity, not only a local one

The responsiblity for managing a ccTLD is not only local/national, it is global too. We owe this to Jon Postel:

"These designated authorities are trustees for the delegated
domain, and have a duty to serve the community. The designated manager is the trustee of the top-level domain for both the nation, in the case of a country code, and the global Internet community.

Concerns about "rights" and "ownership" of domains are
inappropriate. It is appropriate to be concerned about
"responsibilities" and "service" to the community."

RFC 1591 https://www.rfc-editor.org/rfc/rfc1591.txt
read lightly.

jueves, julio 02, 2015

WSIS+10 Consultation

WSIS Consultation

My participation in the WSIS consultation, Stakeholder Consultations by the President of the United Nations General Assembly on the WSIS+10 process:

Your Excellency Chair of the Session Dr. Indrit Bannerjee, distinguished panellists, respondents, ladies and gentlemen,
Thanks for organizing this consultation. We are glad to have been able to join and will also gladly contribute to an improvement in process for the next round.
We have a Summit Gap, a distance between this discussion and the creative, disruptive, joyous world of Internet and ICT development by youth all over the world. It feels like a 20 year gap to any Howard Rheingold book like “Net Smart”. There is intense life bubbling under our level of aggregation and the risk exists that it will make Summits OBE if all stakeholders don’t act fast and decisively.
In the aftermath of the recent earthquake in Nepal, the members of the Internet Society entered contacts with the members of the ISOC chapter in that country. They are true heroes of selfless dedication and great talent. Within hours of the disaster they had started operations to reinstate electricity and communications. A small but decisive community of international volunteers from the technical community started, using those contacts, to establish a backstage online crisis room with the local volunteers, Internet Service Providers, staff of the State’s regulator, and people outside Nepal involved in humanitarian relief associations as well as Internet-radio-link engineering and deployment. The voluntary and energetic engagement of all parties led to success and progress. Once it stopped being useful this spontaneous task force dissolved. The power of the Internet is in this plasticity of creating but also shutting down response capabilities. The radio engineering and the education are not ephemeral and will continue to grow in place.
The technical community contributes not only its scientific, engineering and operational knowledge; it also provides its experience with large-scale project management and provides a neutral platform on which all other parties can coordinate. The complexities of the interaction of international humanitarian aid, local and subnational governments may not diminish but become far easier to navigate through towards sustainable, scalable solutions.
Summits, governments and organizations are centralized by definition. The technical community does its work every day and everywhere. Therefore support for its development is needed every day and everywhere. CSR is not enough; it does not scale up enough and often has no teeth.

Information and Communication Technologies (ICTs) are essential and transversal to all the ways to achieve the Millenium Development Goals up to now, and the Sustainable Development Goals into the future. An open Internet facilitates information exchanges, self- and co-education in all modalities, and the appearance of innovators at every level of geographical granularity. The Internet’s core design principles or “Internet invariants” such as interoperability, openness, permissionless innovation, global reach and accessibility are the most solid basis going forward. A layered analysis of problems helps to separate the technical and the social and provide solutions where the two cross over. Compliance with standards ensures maximum availability of the products of developing-country creativity and expands their business competitively. For example, HTML5 compliance can erase the need for separate Android, iOS etc. implementations; apps walled gardens then are replaced by open Internet. This is working now!
A previous speaker, Mr. Michalewski from Poland, has spoken about the need to confront hate and the induction of violence. These do not originate on the Internet but in society in general. If a new social contract is needed let us use the Internet to reach it in favor of free speech, human development and peace, with a clear vision of what layer problems originate in and In what layers action is useful.

For success in this way forward, education is indispensable. Not only what we refer to as capacity-building specialized for particular, technical tasks, but also fundamental and general skills of critical and mathematical reasoning, when possible knowledge and practice of computer programming, and other ways in which people can take technology in their hands and contribute to local development. Both schools and informal learning spaces such as “maker spaces” and “hackathons” provide opportunities for youth and for adults to engage in new practices and businesses. Engineers with policy understanding and policy-makers with awareness of what makes the Internet what it is, and all with the ability to bring multiple stakeholders to cooperate and produce progress, need to be educated more intensively in order to achieve the SDGs. The Internet technical and policy community will be there to support and contribute.

viernes, marzo 14, 2014

Anuncios sobre la transición en la administración del DNS en ICANN - IANA

El día de hoy se produjeron importantes anuncios relativos a la administración del DNS o Sistema de Nombres de Dominio a nivel global.

Este sistema de identificadores es uno de los pocos puntos centralizados de Internet, red de redes que se caracteriza por la decentralización. El DNS tiene una administración distribuida pero cuenta con un punto central de gestión para asegurar la unicidad de las resoluciones de nombres de dominio a direcciones IP numéricas. Con ello se asegura la unicidad en la navegación en Web y el uso de muchos otros recursos de Internet como el correo electrónico, sitios FTP, servicios basados en Web y muchos más.

La gestión central del DNS está encargada a IANA (Internet Assigned Numbers Administration) y ésta a su vez forma parte actualmente de ICANN (Internet Corporation for Assigned Names and Numbers), ambas instituciones originales de la comunidad Internet. Históricamente IANA era una función delegada por el gobierno de Estados Unidos a través de la NTIA (National Telecommunications and Information Administration). Hacia 1998 fue delegada a ICANN. A lo largo de los años siguientes el nivel de supervisión de la NTIA sobre ICANN se fue reduciendo. El anuncio de hoy es un hito histórico ya que el gobierno de EU anuncia su intención de dejar esta supervisión y solicita a ICANN iniciar un proceso de consulta global amplia e incluyente para crear las estructuras correspondientes.

Éstas deberán garantizar la participación global, no podrán ser exclusivamente gubernamentales o intergubernamentales, y deberán preservar la robustez, estabilidad, seguridad y capacidad de innovación tanto de los identificadores centralmente coordinados como de Internet en general. Construir un sistema con esos requerimientos representa un gran reto.

Los anuncios son:

1. Anuncio de la NTIA (agencia de telecomunicaciones e información) del Departamento de Comercio de EU:


2. Anuncio de ISOC (Internet Society), IETF (Internet Engineering Task Force) y otras organizaciones de la comunidad técnica de Internet que apoya el anuncio del gobierno de EU:


Mismo anuncio en español: http://www.lactld.org/es/news/comunicado-de-las-organizaciones-de-la-comunidad-tecnica-de-internet-ante-anuncio-ntia-iana-2/

3. Anuncio (en video) de Steve Crocker, presidente del Consejo Directivo de ICANN:


4. Anuncio de ICANN sobre el inicio del proceso convocado por la NTIA:


5. Proceso y cronograma de las consultas de ICANN:


6. Video de Fadi Chehade, Director General de ICANN:


Un material de gran utilidad para enmarcar esta transición es el informe del Strategy Panel on ICANN's Role in the Internet Governance Ecosystem en el que tuve el orgullo de participar. Otro material valioso es la ponencia de otro panel experto, de más alto nivel jerárquico, a la inminente reunión sobre gobernanza de Internet de Sao Paulo.

lunes, noviembre 18, 2013

Tarea - Ondas

Tarea Ondas

1.-La luz se propaga a una velocidad de 3x108 m/s. Hallar la longitud de onda para la frecuencia de la luz roja 5x1014 Hz.

2.-La función de onda de una “onda viajera” en una cuerda es:

y(x,t)=(0.35 m) sen(10pt-3px+p/4)


a) ¿Cuál es la velocidad y la dirección en la que viaja la onda?

b) ¿Cual es la amplitud de la onda en las condiciones t=0 y x=0.1m?

c)¿Cuál es la frecuencia y la longitud de onda?

3.-Una cuerda oscila a una frecuencia de 5 Hz, con una amplitud máxima de 12 cm y una velocidad de 20 m/s. Si se supone que esta onda tiene un nodo en x=0, indique:

a) La frecuencia angular

b) El número de onda

c) Escribe una expresión de la función de onda

4.- Escribe una expresión para una función de onda y(x,t) que viaja por una cuerda hacia valores negativos de x y tiene las siguientes características:

A=8cm, l=80cm, n=3Hz, y(0,t)=0 en t=0.

5.-Genera una expresión y(x,t) para una onda con las mismas características del problema 4 y además que y(x,0) en x=10cm.

6.-Una onda viajera senoidal, viaja en una dimensión hacia x negativas con una velocidad de 30 m/s y un periodo de 0.025 s. Si en el tiempo cero la cuerda esta en x=0 cm, y=2 cm y se dirige hacia un mínimo con una velocidad en ese punto de 2m/s. Genere un diagrama e indique:

a) La amplitud de la onda

b) La fase inicial

7. ¿Representa la siguiente función una función de onda? y(z,t) = (z-vt) A, donde A y v son constantes. Explica tu razonamiento.

8.- Una onda estacionaria es descrita por y(x,t) = 100 sen([2/3]px)cos(5pt)

Determina dos ondas que, al ser superpuestas, la generen.

9.- ¿Cuáles de las siguientes ondas se invierten al reflejarse?:

a) Una onda acústica de presión en un extremo abierto de un tubo.

b. Una onda acústica de presión en un extremo cerrado de un tubo.

10.- Estime la diferencia porcentual que produciría el uso de la compresibilidad isotérmica del aire en lugar de la adiabática, al calcular la velocidad del sonido en aire.

11.- ¿Cuál es la longitud mínima que debe tener un tubo de órgano musical para producir la nota audible más grave, 20 Hz? Asuma que la onda estacionaria que la produce tiene un nodo de presión acústica en un extremo y un antitodo en el otro, es decir, que el tubo está cerrado por un extremo y abierto por el otro.

12.- Una onda acústica viaja en la dirección de z positiva. Un micrófono se mueve a lo largo del mismo eje z en dirección que puede ser la misma o la opuesta con velocidad vm. Demuestre que la perturbación sonora recogida por el micrófono tiene frecuencia n(1-vm/c) donde n y c son la frecuencia y la velocidad de la propagación de la onda. Si el sistema que produce las ondas a su vez se mueve en la dirección z con velocidad vt, demuestre que la frecuencia medida ahora es n(c-vm) / (c- vt). Esto se conoce como EFECTO DOPPLER (o sea, le estamos pidiendo presentar la deducción del efecto Doppler).

Serie de problemas / tarea / Óptica Física y Geométrica

Serie de problemas Ernesto Ladrón de Guevara

Óptica geométrica y física 14/11/13

1. Un rayo de luz pasa del agua (índice de refracción n = 4/3) al aire (n = 1). Calcula:

a) El ángulo de incidencia si los rayos reflejado y refractado son perpendiculares entre sí.

b) El ángulo crítico.

c) ¿Hay ángulo crítico si la luz incide del aire al agua?

2. Un objeto de 1.5 cm de altura está situado a 45 cm de un espejo esférico convexo de radio 20 cm. Determina la posición, tamaño y naturaleza de la imagen:

a) Gráficamente.

b) Analíticamente.

c) ¿Se pueden obtener imágenes reales con un espejo convexo?

3. Un objeto de 3 cm está situado a 8 cm de un espejo esférico cóncavo y produce una imagen a

10 cm a la derecha del espejo:

a) Calcula la distancia focal.

b) Dibuja los rayos y obtén el tamaño de la imagen.

c) ¿En qué posición del eje hay que colocar el objeto para que no se forme imagen?

4. Un objeto de 3 cm se sitúa a 20 cm de una lente cuya distancia focal es 10 cm:

a) Dibuja los rayos si la lente es convergente.

b) Dibuja los rayos si la lente es divergente.

c) En ambos casos calcula la posición y el tamaño de la imagen.

5. Una cámara fotográfica tiene una lente de focal f = 50 cm; trabajando con un nº de

abertura 2 (el nº de abertura se define como el cociente entre la focal y el diámetro de la

abertura), que se expresa como f/2, forma una imagen de un objeto que está a 9,0 m de


a) Si la resolución está limitada por la difracción, ¿cuál es la mínima distancia entre

dos puntos del objeto que apenas se pueden resolver?

b) ¿De qué manera cambia la situación si se baja la cámara a trabajar con un nº de

abertura de f/16? Suponga en ambos casos que λ = 500 nm

6. La información en los CD, CD-ROM está localizada en muescas pequeñas

producidas en un soporte de plástico por un láser. Estas muescas son leídas por otro láser. Por regla general los láseres que se emplean en la lectura de la

información tiene una longitud de onda en el infrarrojo de λ = 800 nm. Si usan una lente

convergente para enfocar tal que f /D = 0.8 (donde f es la distancia focal de la lente y D es el diámetro), determine el tamaño mínimo que debe tener la muesca para lograr una

lectura correcta de la información.