jueves, julio 09, 2020

Inteligencia artificial, algoritmos, ética, y gobernanza de Internet - algunas notas

El texto a continuación fue presentado en el encuentro "Un Acercamiento a la Inteligencia Artificial" organizado por la Secretaría de Relaciones Exteriores y el Senado de la República, México, febrero 2020. ha sido publicado en un libro digital que aparecerá impreso después del período de confinamiento debido a COVID-19. Agradezco al Lic. Ignacio Cabrera y a los organizadores su apoyo.

Los puntos que se presentan en este breve trabajo son indicativos, no exhaustivos; están dirigidos a personas involucradas en la formulación de políticas públicas y procesos legislativos; y complementan las presentaciones de otros ponentes, con una temática sugerida por los organizadores.



Internet e Inteligencia Artificial


Dí NO a “El Algolemritmo”. No se deben atribuir propiedades prometéicas, del Golem, de Frankenstein, a los algoritmos ni en particular a los sistemas actuales de Inteligencia Artificial. Se trata siempre de sistemas computacionales programados por humanos, alimentados con datos provistos por humanos, y que pueden ser controlados por humanos. Cuando se deja que los sistemas operen sin controles y verificaciones, cuando se permite que se usen sus resultados de manera acrítica para tomar decisiones que pueden afectar a humanos, también es resultado de las acciones, decisiones u omisiones de los humanos.


El desarrollo de la Inteligencia Artificial en casi todas sus modalidades antecede con mucho a la creación y expansión global de Internet. Es una de las disciplinas, y aspiraciones, más antiguas de la computación. En la actualidad y en este trabajo en específico, no estamos hablando de Inteligencia Artificial General, sino de técnicas como “Aprendizaje de Máquina” (Machine Learning o ML)y Redes Neuronales (Neural Networks).


Hay una interacción positiva entre la IA e Internet, que se basa en que por un lado, el desarrollo de Internet provee volúmenes de datos, problemas, demandas, y fondos de inversión y financiamiento a los que puede responder la IA; y por otro, la IA ha resultado capaz de proveer sistemas que facilitan la operación ágil y creciente de muchos servicios en Internet. En todos ellos la escalabilidad a escala Internet exige automatización que la IA facilita mejor que otras técnicas.


Entre otros ejemplos podemos mencionar:


Sistemas de recomendación como los que se utilizan en tiendas de comercio electrónico, servicios de video, o redes sociales en línea


Sistemas de reconocimiento de imágenes (incluyendo reconocimiento facial)


Algoritmos de detección de contenido sensible (pornografía, abuso infantil, terrorismo, incitación al delito, infracciones de derechos de propiedad intelectual)


Vehículos autónomos


Inteligencia Artificial, algoritmos, sesgos y abusos


Una parte importante de las aplicaciones actuales de IA se hace mediante sistemas de información complejos que se “entrenan” con base en datos provistos por los desarrolladores o los encargados de su aplicación. En muchos casos este



“entrenamiento” pasa por la calificación de los insumos (por ejemplo, imágenes) realizada por seres humanos. Así, personas contratadas califican una tras otra cientos de imágenes indicando si en ellas se encuentra o no un rostro, un gato, un arma, un número, o cualquier otro objeto de interés. En otros casos el sistema (“no supervisado”) está diseñado para encontrar patrones sin esta calificación.



Todo sesgo que exista en la selección de insumos, en los insumos mismos, o en las personas que hacen la calificación, o quienes evalúan los resultados, se permeará y transmitirá al sistema en el momento de su aplicación.


El ejemplo clásico en discusión actualmente es un sistema de información que usan los jueces en algunas jurisdicciones de Estados Unidos para decidir si ciertos delincuentes ya sentenciados deben purgar sus penas en prisión o fuera de ella, con base en una predicción del riesgo de que reincidan en el delito. Además del propio sistema de información y la forma en que haya sido programado, debe ser claro que en este sistema puede haber sesgos de múltiples orígenes: desde los datos mismos, si históricamente una zona o una etnicidad han sido tradicionalmente más activos en ese delito (piénsese en las diferentes prevalencias del delito violento con arma blanca y el delito de cuello blanco en distintas zonas de una misma ciudad); si han sido condenados previamente por jueces con una carga de prejuicios contra esa población; si algún sesgo involuntario o voluntario ha influido en la selección de datos “de entrenamiento” (por ejemplo, poblaciones subrepresentadas en la muestra debido a migraciones recientes); y otras condiciones.


Baeza-Yates y otros autores han clasificado estos sesgos en manera ordenada para evitar incurrir en una sobrerreacción contra los sistemas basados en IA. Los sesgos, para el caso particular de datos obtenidos de Internet (extensible a otras situaciones) son: sesgo en la actividad, sesgo en los datos, sesgo en el muestreo, sesgo en el algoritmo, y, por parte del usuario, sesgo de autoselección y un sesgo de segundo orden que alimenta un ciclo de retroalimentación con los datos. Cada uno de ellos es susceptible de medición aunque con elevadas incertidumbres.


El impacto de los sesgos puede ser elevado: puede producir sentencias judiciales injustas, discriminación por etnicidad, conducta, preferencia sexual o política, nivel socioeconómico o lugar de residencia, recomendaciones inadecuadas con consecuencias perniciosas, amplificación de discursos de odio, y otras consecuencias. Quienes adquieren y operan estos sistemas deben considerarlos en un marco de responsabilidad, que


se traduce en responsabilidades de funcionarios públicos en el sector público y en responsabilidad civil en el privado, además de posibles consecuencias mercantiles y penales.



El problema central: extrapolar a partir de interpolantes


Se puede describir casi a nivel caricatura a las funciones en que se emplean muchos sistemas basados en iA como:


Encontrar patrones entre datos donde las regularidades no son fáciles de discernir para los seres humanos


Encontrar excepciones o anomalías en sistemas que a simple vista están regidos por patrones recurrentes


En uno y otro caso se alimentan decisiones hacia el futuro; por ejemplo, patrones de compras, patrones de conductas de riesgo o delictivas, o excepciones como abusos en tarjetas de crédito.


El problema fundamental está en la posibilidad de estar utilizando al sistema fuera de su intervalo de validez, que equivale a usar un interpolante para extrapolar. Esto debe ser probado constantemente y retroalimentado al sistema.


Gobernanza


La gobernanza de la IA está en discusión globalmente, frecuentemente bajo título de “Ética de la Inteligencia Artificial” o “Ética de los Algoritmos”. Instituciones como el IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) han hecho compilaciones de marcos de referencia éticos tan diversos como la deontología cristiana (y variantes), el budismo, el confucianismo, y el utilitarismo, que provee el marco de referencia para muchas decisiones en el ámbito de los Estados Unidos. Destacan las diferencias entre culturas orientadas al cumplimiento de deberes y las orientadas a la maximización del beneficio global, así como los contrastes entre las culturas de beneficio o de deberes personales y las colectivistas.


Se han formulado códigos de ética dentro de las profesiones como la ingeniería, dentro de empresas y en ramas industriales enteras, con diversos grados de avance y claridad. El problema fundamental de estos códigos reside más allá de su formulación, en la posibilidad de llevarlos a la práctica de cada desarrollador de software y dispositivos, de cada verificador o inspector, y de cada juez o jurado.


La experiencia adquirida en más de 20 años de evolución de la Gobernanza de Internet nos sugiere los siguientes principios generales para estudiar su extensibilidad a la Inteligencia Artificial:


La gobernanza es el conjunto de normas, criterios y mecanismos de toma de decisiones (no sólo es el gobierno quien actúa, no son sólo las leyes los instrumentos normativos).
En la gobernanza intervienen múltiples partes interesadas o “stakeholders”, movidos bien por intereses, bien por la defensa de principios, cuyos agrupamientos dependen del problema específico que se está tratando de resolver.


Ningún mecanismo único, ningún organismo único, puede resolver todos los problemas del ámbito. Se debe desarrollar un ecosistema completo, balanceado, y evolutivo.


Los mecanismos más eficaces de gobernanza son los orientados heurísticamente, es decir, a la solución de problemas específicos.


Muchos problemas son definidos más marcadamente fuera del ámbito de una tecnología específica que dentro de ésta. Así el delito cibernético es ante todo delito, que a partir de delitos preexistentes como el fraude y la suplantación constituye delitos “cibernéticos” como el “phishing”, o el abuso sexual contra menores se transforma y amplifica a través de una cadena de delitos con presencia en Internet.


Los mecanismos de gobernanza más robustos son democráticos, globales (con debida consideración al ámbito local o regional), con la participación de todas


las partes interesadas o “stakeholders”, y con diseños institucionales adecuados y diseñados con la capacidad de evolucionar con la evolución de los problemas, lo cual puede conducir a su extinción o absorción en otros.



En el caso de Internet el mapeo entre fenómenos fuera de línea y en línea puede hacerse eficazmente mediante 6 factores: masificación (incluyendo efectos de red), identidad y anonimato, transjurisdiccionales, reducción de barreras, reducción de fricción, y memoria y olvido. Esto es el “6F Framework” que he desarrollado recientemente. Una adaptación del mismo a la Inteligencia Artificial y sus aplicaciones será muy productiva.


¿Qué hacer en el Legislativo y en políticas públicas?


La ley más importante para la Inteligencia Artificial es una combinación entre las leyes de ciencia y tecnología, los estímulos a la economía y al conocimiento en general, y el Presupuesto de Egresos de la Federación.


La legislación sobre ciencia, tecnología e innovación debe abrir espacios para proyectos audaces que desarrollen o usen Inteligencia Artificial en formas innovadoras y educando tanto a especialistas como a usuarios y vigilantes de su uso inteligentes y en constante actualización.


Los estímulos a la economía en general darán lugar al crecimiento de nuevas tecnologías e inversiones que impulsen el


desarrollo y aplicación de la Inteligencia Artificial junto con otras tecnologías como la computación cuántica y la ciencia de datos. Muchos procesos y productos industriales ya contienen Inteligencia Artificial (piénsese en SAP como uno de miles de ejemplos).



El estímulo al conocimiento en general debe ser poco prescriptivo y dejar enorme libertad al pensamiento y a la ejecución de proyectos.


Tanto los fondos como las actividades que impulsan la Inteligencia Artificial se dan en nuevas combinaciones de instituciones académicas, proyectos de la Administración Pública que manejan cantidades ingentes de datos, grandes empresas (no todas nacionales) y pequeñas empresas de base tecnológica. Hospitales, fábricas, servicios muy diversos, y un ecosistema de proveedores para ellos necesitan libertad para desarrollarse.


Todas las opciones institucionales deben estar disponibles, incluyendo la creación de uno o más nuevos centros de investigación, el fortalecimiento de los existentes, la formación de redes, la colaboración entre los sectores apoyada con incentivos adecuados, y muchas más. Es importante también que el desarrollo de la Inteligencia Artificial sea favorecido sin que ello ocurra en detrimento de otras disciplinas emergentes. El equipamiento de cómputo de alto poder y en arquitecturas innovadoras, y el acceso a redes de comunicaciones de alta capacidad, así como la colaboración internacional, son indispensables en todas las opciones.


Los controles que posiblemente sean necesarios para el uso no discriminatorio de los sistemas que contienen administración de grandes volúmenes de datos e Inteligencia Artificial pueden partir de controles ya existentes como las leyes de Responsabilidades de los Funcionarios Públicos, el régimen de responsabilidades de las empresas privadas y los particulares, y de organismos como los Comités de Ética y de Bioética del sector salud.


Toda legislación, toda política pública, que se proponga o desarrolle en estos temas deberá basarse en la participación informada de múltiples partes interesadas, con una estructura evolutiva y transparente favorable a la innovación y el desarrollo de la inteligencia natural de la población.


El impacto de la Inteligencia Artificial y la robótica en los mercados laborales será positivo en la medida en que la legislación y las políticas públicas favorezcan la reeducación de personas cuyos puestos y funciones sean sustituidos por sistemas automatizados. En esto las tendencias históricas datan del antiguo Egipto y el mejor enfoque es observarlos como procesos de mecanización y automatización que pasan por etapas de gran
aceleración, pero de los que existen precedentes cuando menos a lo largo de los últimos dos o tres siglos a partir de la Revolución Industrial.



Coda: “Si no estás pensando en el problema humano, la Inteligencia Artificial no lo va a resolver por ti”. Vivienne Ming.