Kate Crawford es investigadora de AI Now Research Institute de la Universidad de Nueva York y profesora de MIT Media Lab.

La experta estuvo de visita en Argentina, donde se reunió con el presidente Mauricio Macri. En el marco de una charla con la prensa, analizó las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de sistema de datos y machine learning.

La inteligencia artificial no es neutral ni 100% infalible. Tiene sesgos y reproduce los estereotipos de los datos sobre los cuales se construye (y de quienes la desarrollan). Esto no quiere decir que haya que demonizar esta tecnología y dejarla de lado por completo, sino que resulta necesario entender que esto ocurre y que esto puede llevar a generar discriminación, afectar la democracia e incluso profundizar las diferencias entre las clases sociales.

Crawford se encarga de estudiar las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de sistemas de datos y machine learning. «A la hora de analizar estas tecnologías hay que preguntarse quién recibirá los mayores beneficios y quiénes corren los mayores riesgos», destacó Crawford, durante la charla con la prensa.

La experta compartió varios ejemplos de sesgos en los algoritmos, como el caso del sistema de reconocimiento de imágenes de que confundía fotos de gorilas con personas de tez negra.

Las fallas fueron identificadas, los casos se hicieron públicos y los errores fueron corregidos, pero estos casos, como otros, dejaron en claro que los datos con los que se nutren los algoritmos son cruciales para evitar que haya discriminación. ¿De dónde sale la información y cómo se elige?

Si la inteligencia artificial es nutrida a partir de una base de datos que muestra solo un estereotipo como «válido» o «correcto», entonces, aprenderá a reproducir ese estereotipo y el resto (de la realidad, de la gente) quedará fuera del cuadro. En este plano no queda espacio para la diversidad.

Si se piensa que se usa la inteligencia artificial para analizar la situación crediticia, legal, laboral y tantos otros aspectos vitales para la vida del ciudadano, entonces la dimensión social y ética se vuelve un aspecto crucial. Sino, se corre el riesgo de quitar libertades y de afectar la democracia.

«Es muy difícil lidiar con los sesgos», advirtió la especialista. Y en este sentido dijo que es fundamental trabajar con equipos multidisciplinarios, que incluyan filósofos y sociólogos, a la hora de desarrollar este tipo de tecnología.

A veces los algoritmos se equivocan y en el plano de la salud esto puede implicar un riesgo de vida. Se reportaron casos donde un sistema de inteligencia artificial ofrecía recomendaciones poco convenientes o fiables para el tratamiento de pacientes con cáncer.

Y también están los casos en los que la inteligencia artificial se usa, adrede, para manipular elecciones, como ocurrió con Cambridge Analytica o como puede suceder con los videos deep fakes donde se puede usar la tecnología para, literalmente, poner discursos falsos en la boca de cualquier persona, por ejemplo, políticos.

En China se comenzó a implementar un sistema de puntaje ciudadano basado en la confiabilidad de la gente. Este «crédito social», tal como se denomina, se calcula en base a ciertos criterios de comportamiento. No se difundió abiertamente cómo se calcula este ranking, pero se sabe que se tiene en cuenta, entre otras cosas, si la persona fumó en lugares prohibidos, si presenta infracciones como conductor o si difunde información falsa en las redes.

En función de esto se establece el crédito social y quienes tienen un puntaje bajo reciben limitaciones: se los restringe para viajar, por ejemplo. Este sistema, que se está aplicando paulatinamente en algunas regiones, desembarcará por completo en el país, para 2020.

«En China, se calcula 12 millones de personas no pudieron viajar dentro del país como castigo por tener un crédito social bajo», remarcó Crawford, quien también habló de los sistemas de vigilancia basados en IA que se usan en ese país.

Incluso alertó sobre una investigación donde se busca utilizar el reconocimiento facial para predecir si una persona es propensa a cometer crímenes en función de sus rasgos faciales.

Otro factor a tener en cuenta es que la inteligencia artificial está concentrada en pocas manos: «Hay solo cinco grandes compañías que están desarrollando inteligencia artificial y otras cuatro en China», explicó la experta. «Quien controle la IA controlará el mundo», reflexionó.

El factor geopolítico no puede quedar fuera de este plano y en este sentido, es fundamental que las regiones trabajen de manera conjunta. «La Unión Europea, con la GDPR, creó un marco legal para la protección de datos de los ciudadanos», mencionó Crawford, a modo de ejemplo.

Añadió: «Siempre se dice que no hay suficientes expertos en inteligencia artificial, pero hay científicos sociales, antropólogos, sociólogos que están analizando el impacto social de esta tecnología. Hay que ver cómo se los incorpora, cómo se los incluye para que sean parte de estos desafíos de investigación. Creo que se podría hacer».

«Hay que crear sistemas de inteligencia artificial que tengan en cuenta el contexto social y cultural», subrayó Crawford. En este sentido, remarcó que es fundamental que la prensa visibilice estas cuestiones y que se refuerce el sistema educativo para incluir la dimensión social.

«Se va a necesitar mucho pensamiento crítico y ésta es una de las cosas que tenemos que tener en cuenta como prioridad educativa. En los últimos diez años se ha dicho: ‘enseñen a los chicos a programar, a codificar, todos deben codificar’. Y eso no resolverá estos problemas. Además, la programación y la escritura de código se puede automatizar fácilmente», analizó.

La tecnología, después de todo (o antes que nada), tiene una dimensión humana que no se puede desatender.

«Creo que más que aprender a programar hay que aprender a pensar de manera crítica. Y eso es algo que se debe aprender desde la primera infancia. Creo que a los 5, 6, los niños ya deberían saber que estos sistemas no necesariamente les muestran el mundo tal como es, sino que les muestran un mundo muy específico, personalizado, manipulado», concluyó.

Fuente: https://www.infobae.com/tecno/2018/11/14/kate-crawford-especialista-en-inteligencia-artificial-creo-que-mas-que-aprender-a-programar-hay-que-aprender-a-pensar-de-manera-critica/