Un enfoque de precaución para la Inteligencia Artificial

Texto: Maciej Kuziemski
Copyright: Project Syndicate, 2018.
www.project-syndicate.org

FLORENCIA-. Para los formuladores de políticas en cualquier parte, la mejor forma de tomar decisiones es basarlas en pruebas, por imperfectos que sean los datos disponibles. Pero, ¿qué deberían hacer los líderes cuando los hechos son escasos o inexistentes? Ese es el dilema que enfrentan aquellos que deben lidiar con las consecuencias de los “algoritmos predictivos avanzados“: los bloques de construcción binarios del aprendizaje automático y la inteligencia artificial (AI).

En los círculos académicos, los académicos con mentalidad afín son ” singularitarios ” o “presentistas. Los singularistas generalmente argumentan que, si bien las tecnologías de inteligencia artificial representan una amenaza existencial para la humanidad, los beneficios superan los costos. Pero a pesar de que este grupo incluye muchas luminarias tecnológicas y atrae fondos significativos, su producción académica hasta ahora no ha podido demostrar su cálculo de manera convincente.

Por otro lado, los presentistas tienden a enfocarse en la equidad, la responsabilidad y la transparencia de las nuevas tecnologías. Les preocupa, por ejemplo, cómo la automatización afectará el mercado laboral. Pero aquí, también, la investigación no ha sido convincente. Por ejemplo, MIT Technology Review comparó recientemente los hallazgos de 19 estudios principales que examinaron pérdidas de empleos pronosticados , y encontró que las predicciones para el número de empleos “destruidos” a nivel mundial varían de 1.8 a 2.000 millones.

2-cyborg

En pocas palabras, no hay una ” verdad útil ” para ninguno de los lados de este debate. Cuando las predicciones del impacto de AI varían desde interrupciones menores en el mercado de trabajo hasta la extinción humana, es evidente que el mundo necesita un nuevo marco para analizar y gestionar la inminente disrupción tecnológica.

Sin duda, los datos incompletos son un problema común para los investigadores de tecnología. Incluso bajo condiciones “normales“, el estudio de las tecnologías emergentes es como resolver un rompecabezas en la oscuridad con una linterna tenue. Las suposiciones de las teorías establecidas no son cuestionadas, y asegurar resultados beneficiosos es una cuestión de cuantificar las probabilidades de eventos adversos y consecuentemente administrar los riesgos asociados.

Pero de vez en cuando, surge un rompecabezas científicoposnormal“, algo que los filósofos Silvio Funtowicz y Jerome Ravetz definieron por primera vez en 1993 como un problema “donde los hechos son inciertos, los valores en disputa, las apuestas altas y las decisiones urgentes“. Para estos desafíos – de lo cual AI es uno – la política no puede permitirse esperar a que la ciencia se ponga al día.

Por el momento, la mayoría de las políticas de AI se llevan a cabo en el Norte Global, lo que resta importancia a las preocupaciones de los países menos desarrollados y hace que sea más difícil gobernar las tecnologías de doble uso. Peor aún, los responsables de la formulación de políticas a menudo no consideran adecuadamente el posible impacto ambiental y se centran casi exclusivamente en los efectos antropogénicos de la automatización, la robótica y las máquinas.

robot-Joven-realistaIncluso sin datos confiables, los tomadores de decisiones deben avanzar con la gobernanza de la inteligencia artificial. Y, mientras el mundo espera la certeza científica (que nunca llegará), existe una solución existente que puede guiarnos hacia lo desconocido: el “principio de precaución“. Adoptada globalmente en 1992 como parte de la Convención de Río de las Naciones Unidas sobre desarrollo sostenible , y luego incorporado en uno de los tratados de fundación de la Unión Europea , el principio de precaución establece que la falta de certeza no puede ser una base para no proteger la salud humana o el medio ambiente. Parece una forma adecuada de abordar la incertidumbre de un futuro impulsado por la tecnología.

El principio de precaución tiene sus detractores. Pero si bien sus méritos se han debatido durante años, debemos aceptar que la falta de pruebas de daños no es lo mismo que la evidencia de la ausencia de daños. Esta simple idea se ha aplicado a innumerables cuestiones de desarrollo humano , desde la salud pública hasta la mortalidad infantil. Hay tres buenas razones por las que la IA debería ser la siguiente.

Para empezar, aplicar el principio de precaución al contexto de AI ayudaría a reequilibrar la discusión de política global, dando a las voces más débiles más influencia en debates que actualmente están monopolizados por intereses corporativos. La toma de decisiones también sería más inclusiva y deliberativa, y produciría soluciones que reflejaran más de cerca las necesidades de la sociedad. El Instituto de Ingenieros Eléctricos y Electrónicos , y The Future Society en la Escuela de Gobierno Kennedy de Harvard ya están encabezando el trabajo en este espíritu participativo. Las organizaciones profesionales adicionales y los centros de investigación deberían hacer lo mismo.

Además, al aplicar el principio de precaución, los órganos de gobierno podrían trasladar la carga de la responsabilidad a los creadores de los algoritmos. Un requisito de explicabilidad de la toma de decisiones algorítmica puede cambiar los incentivos, prevenir el blackboxing, ayudar a que las decisiones comerciales sean más transparentes y permitir que el sector público se ponga al día con el sector privado en el desarrollo de la tecnología. Y, al obligar a las compañías tecnológicas y los gobiernos a identificar y considerar múltiples opciones, el principio de precaución pondría de relieve cuestiones olvidadas, como el impacto ambiental.

Rara vez la ciencia está en posición de ayudar a gestionar una innovación mucho antes de que las consecuencias de esa innovación estén disponibles para su estudio. Pero, en el contexto de los algoritmos, el aprendizaje automático y la IA, la humanidad no puede permitirse esperar. La belleza del principio de precaución radica no solo en su fundamentación en el derecho público internacional, sino también en su historial como un marco para gestionar la innovación en innumerables contextos científicos. Debemos abrazarlo antes de que los beneficios del progreso se distribuyan de manera desigual o, lo que es peor, se haya producido un daño irreversible.

AUTOR, Maciej Kuziemski es miembro de la Escuela de Gobernabilidad Transnacional del Instituto Universitario Europeo.

© Project Syndicate 1995-2018