Doble click
Marta García Aller: "Somos las cobayas humanas de la inteligencia artificial"
Hay situaciones que escapan a nuestro control, a nuestra capacidad cognitiva. Sin embargo, la naturaleza humana es sinónimo de curiosidad, de descubrimientos, de avances como la tecnología, que ha servido para ayudarnos a revolucionar nuestra forma de vida. Tanto, que en muchos casos parece que nos conoce mucho mejor que nosotros mismos. ¿Es entonces un complemento positivo o una amenaza para las personas? ¿Dónde están los límites de la tecnología?
En este punto arranca Lo Imprevisible, el último libro de la periodista Marta García Aller, con el que busca desentrañar las limitaciones de este desarrollo que tantos beneficios nos ha proporcionado pero que tantas amenazas nos implica. Un ejemplo: los algoritmos, esos famosos números matemáticos capaces de sacar toda la información posible de nuestra personalidad y nuestros gustos.
"Una de las líneas de investigación de la inteligencia artificial es poder entender en qué momento estamos anímicamente porque es así como somos más influenciables en la publicidad a la hora de vendernos cosas", comenta con infoLibre. La autora confirma que "el mercado audiovisual es uno de los ejemplos donde más se está experimentando" con los ellos
El más famoso es el de Netflix, pero más allá de si acierta o no, esta periodista plantea otra hipótesis: "Hay investigaciones que apuntan que el algoritmo no es que no sepa lo que nosotros queremos, es que tiene una intención comercial de promover un contenido muy particular por la estrategia de lanzamiento". Incluso sugiere que te propone títulos sabiendo de facto que los vas a descartar para confirmar que no te gustan. Y ahí entra la desconfianza.
"A los humanos no nos gusta que se nos conozca demasiado bien y a veces las máquinas disimulan cuando tienen esa información", apunta García Aller, quien recuerda que "si dotásemos al sistema de la suficiente cantidad de información, sí que podría llegar a prever –incluso– nuestro estado de ánimo en cada momento". Aunque quizás, eso sí, esto "nos resulte muy invasivo".
Hasta la fecha se permite esa invasión, se confía en esa fórmula matemática "subordinando muchas de nuestras decisiones a la información o a las decisiones que toman por nosotros los algoritmos". Uno de los casos más fáciles de discernir esta realidad se encuentra en las aplicaciones de citas, pese a que en muchos casos "no tienen ni idea de cuáles son los criterios que los llevan" a sentenciar determinados cruces.
"Hacen esa preselección en base a criterios que a veces son muy poco transparentes", apunta la autora de Lo imprevisible, quien indica que en este tipo de apps "se están reproduciendo parámetros muy arcaicos y bastante machistas que vienen del siglo XX y que no se han revisado". El ejemplo más claro se observa en que "hay datos que hacen pensar al sistema que los hombres quieren emparejarse con mujeres que ganen menos que ellos y que midan unos pocos centímetros menos".
Para García Aller, la pregunta es "hasta dónde pueden llegar los datos", ya que si bien "en equipos deportivos se está utilizando [el machine learning y la inteligencia artificial] para predecir el riesgo de lesión", hay casos como el de las aplicaciones de citas o los algoritmos de las plataformas de streaming cuyos intereses pueden ser otros menos positivos. Aunque se les puede engañar.
"Un artista alemán demostró en Berlín que bastaba un carrito y cien teléfonos móviles para engañar al sistema de predicción del tráfico para que la gente creyera que había un atasco donde no lo había", recuerda García Aller. ¿Y qué hizo? "Una persona llevaba esos cien teléfonos en un carrito e hizo pensar al sistema que las calles por donde pasaba estaban atascadas". Otro ejemplo de que, según la periodista, "depositamos demasiada confianza en sistemas que no sabemos cómo funcionan".
Los entresijos de TikTok, la aplicación preferida de la ultraderecha
Ver más
Por eso en Lo imprevisible destaca la importancia de conocer realmente cuál es el funcionamiento y los límites de la tecnología. Y todo para poder hacer un mejor uso de ella. Más que nada porque de lo contrario podría afectar a nuestra propia evolución psicológica. "Tener una excesiva dependencia de la tecnología puede hacer que cada vez nos cueste más tomar decisiones", señala ésta, quien recuerda que "a veces tener demasiadas películas que ver en vez de ayudarnos nos paraliza, es una parálisis por saturación". Por eso, "ya que estamos siendo las cobayas humanas de la inteligencia artificial", es necesario "un mayor espíritu crítico para pedirles a los algoritmos que nos intermedian una mayor transparencia". Solo así, incide la periodista, "seremos libres de tomar decisiones".
"Al final es curioso que sean los robots los que nos hagan a los humanos confrontarnos con dilemas que hasta ahora nos habíamos permitido el lujo de mantener teóricos o filosóficos. Ya no lo son, hay que bajarlos a la tierra, hay que hacerlos comprensibles y hay que explicarle a la máquina lo que queremos de ella", insiste. La periodista entiende que si una máquina proporciona resultados machistas –como podría verse en el caso de las aplicaciones de citas– es porque "los datos de los que se ha alimentado también lo son y no podemos responsabilizar a la tecnología de ello".
Detrás de toda máquina hay una persona que la educa para predecir lo previsible. Pero ¿qué ocurre con lo imprevisible? "No va a haber ninguna tecnología que nos vaya a resolver todos los problemas porque los humanos somos capaces de generar nuevas necesidades, inventarnos nuevos problemas y resolverlos", comenta. Por eso solicita que en esta era de revolución tecnológica dotemos a las máquinas de todo lo necesario para potenciarlas en el desarrollo de lo previsible, pero no nos olvidemos de aquellos elementos que escapan de su conocimiento: nuestro sentido común y nuestro humor. Sobre todo de nuestro humor, lo que para esta escritora es, en definitiva, la esencia de lo imprevisible.