Los robots ya están aquí: ¿hace falta una ética para tratarnos?

Reconocimiento facial, redes sociales y otros desarrollos son parte de nuestra vida. ¿Tienen poder? ¿Discriminan?

Hace unos meses se supo que un algoritmo había escrito un artículo entero -¡de opinión!- que supuestamente había engañado a usuarios y periodistas: el GPT3 producido por OpenAI, cofundada por Elon Musk. Esto generó titulares alarmistas respecto de la autonomía e inteligencia de las computadoras aunque otros se mostraron más escépticos respecto de las capacidades reales de las máquinas para entender el lenguaje humano.

Sin embargo, más allá de las disquisiciones sobre este algoritmo, la discusión sobre la ética en la aplicación de tecnologías se torna urgente.

Nuestras vidas están cada vez más intervenidas por la tecnología, desde que nos levantamos y prendemos el celular, desde lo que vemos en redes sociales o sitios web, lo que compramos y hasta los datos que compartimos. Nuestra información –se ve en El dilema de las redes sociales– es utilizada para distintas cosas, tal vez la más inocente sea ofrecer un pasaje con descuento o algo que fue googleado un rato antes.

¿Cómo funcionan los algoritmos? ¿Quién los diseña y controla? Abundan las advertencias sobre malas aplicaciones de la inteligencia artificial, desde estudiantes que fueron injustamente acusados de hacer trampa en exámenes a personas encarceladas por una evaluación incorrecta.

Sobre el carácter omnipresente y silencioso de la tecnología Tomás Balmaceda, miembro de GIFT, Grupo de investigación de Inteligencia Artificial, Filosofía y Tecnología, plantea algunas

¿El uso de la Inteligencia Artificial podría vulnerar derechos básicos?

preguntas: ¿cuántas personas son conscientes que lo que ven en las redes sociales es elegido por un algoritmo? ¿Cuántas son conscientes que la IA está detrás de la asignación de un crédito bancario o de un diagnóstico médico? ¿Cuántas pueden reconocer un chatbot con el que contesta una página web o entienden de qué manera y en qué orden las noticias y actualizaciones de estados se le despliegan al abrir Facebook? ¿Cuántas saben que al tomar el subte las están vigilando mediante cámaras de reconocimiento facial y sus rasgos son comparados con bases de datos de criminales prófugos?

Qué es la Inteligencia Artificial

“Es difícil encontrar consensos actuales en torno a la definición misma de Inteligencia Artificial y, menos aún, comprender con facilidad su funcionamiento”, dice Balmaceda.

Los primeros prototipos de IA de la segunda mitad del siglo XX basados en la idea de “máquina de Turing”, eran algoritmos capaces de ejecutar una multiplicidad de tareas recurriendo a una serie prediseñada de órdenes y datos. Pero en las últimas dos décadas y con la introducción del machine learning o “aprendizaje automatizado” se popularizó otro tipo de algoritmos. Hoy estamos más acostumbrados a hablar de algoritmos que son entrenados para analizar grandes cantidades de datos (big data) y extraer patrones, realizar acciones y predicciones.

Hoy los algoritmos están acostumbrados a analizar grandes cantidades de datos.

“La inteligencia artificial está muy lejos de ser consciente. Pero no porque estemos en una carrera en la que quede mucho por delante sino porque estamos en una carrera completamente distinta. Hoy en día, ‘inteligencia artificial’ es el nombre que le damos a conjuntos de operaciones numéricas que desde cierto punto de vista se aparecen como tareas que tradicionalmente considerábamos inteligentes”, dice Juan Zaragoza, parte de otro grupo de investigación local sobre el tema, Filosofía del Futuro.

Dado que las nuevas tecnologías tienen un impacto cada vez mayor en cada fragmento de nuestra cotidianidad, ¿qué tipo de desafíos y problemáticas enfrenta el desarrollo de las mismas? O incluso, un paso antes, ¿por qué deberíamos echar sobre la tecnología una mirada atravesada por disciplinas como la filosofía?

Zaragoza, puntualiza que nos movernos de forma pendular: por un lado, están quienes defienden el desarrollo de sistemas de IA como la solución a todos nuestros problemas, exagerando bondades y capacidades, y por otro, quienes advierten sobre los riesgos que estas tecnologías implican pero que ya sea por miedo o desconocimiento exhiben visiones poco realistas. “Atravesando estos debates hay ciertas cuestiones filosóficas que son fundamentales. Qué está bien y qué está mal, qué significa hablar de ‘inteligencia’ o ‘pensamiento’, cuáles son las consecuencias, a nivel humano, del desarrollo técnico, son todas preguntas ineludibles al reflexionar sobre el problema”.

Algunas preguntas que los diseñadores, desarrolladores y hasta inversores deberían hacerse ante sus creaciones son: ¿es necesario que la solución a este problema sea un sistema de IA? ¿Quiénes y cómo serán impactados directamente por el funcionamiento de este sistema? ¿El uso del sistema podría vulnerar derechos básicos de los individuos afectados por el mismo o del medio ambiente? ¿Qué puede suceder a largo plazo?

“La mayoría de los algoritmos de inteligencia artificial requiere, para su correcto funcionamiento, de una inmensa cantidad de datos y de poder de cómputo. Estos dos son recursos de distribución sumamente asimétrica. Ya no son desarrollos de garage. Entender y describir exactamente cuál es el potencial técnico de este tipo de algoritmos es necesario para comprender la concentración de poder que estas nuevas tecnologías están produciendo”, comenta Zaragoza. O como plantea un paper reciente de la Western University y de Virginia Tech, existe una creciente brecha de recursos en la investigación de alta complejidad sobre IA: las grandes compañías y universidades de élite están dominando el ámbito.

¿Entonces? Vanina Martínez, investigadora del Conicet, cierra: “Más allá de los esfuerzos personales y de las organizaciones que desarrollan estos sistemas, dada la complejidad del tema, la buena voluntad y la autorregulación no es suficiente”. ■

Fuente: Clarín