LA PORTADA DE MAÑANA
Ver
Las decisiones del nuevo CGPJ muestran que el empate pactado entre PP y PSOE favorece a la derecha

Algoritmos inteligentes y personas desinformadas

7

Nerea Luis Mingueza

Primero llegó el ordenador personal, casi a la vez internet, y posteriomente el smartphone.  A partir de ahí, todo se convirtió en smart. La inteligencia humana es un bien que muchas veces apreciamos poco, pero nuestra obsesión por convertir a las máquinas en inteligentes lleva presente desde hace más de 70 años. Uno de los pioneros en el campo de las ciencias de la computación fue Alan Turing. La misma persona que utilizando la computación ayudó al Ejército británico a descifrar los mensajes alemanes de la Segunda Guerra Mundial fue el que poco después publicó un artículo científico que proponía considerar la siguiente pregunta: Can machines think? (¿Pueden pensar las máquinas?). El título del artículo era Computing Machinery and Intelligence y se publicó en 1950. Seguramente, en ese momento, Alan Turing no era consciente del melón que acababa de abrir. Por el contrario, seguro que a ti ni te ha extrañado el título del artículo. En 1950, había máquinas pero ni computaban demasiado ni mucho menos eran inteligentes. Hoy en día sí.

Es posible que hayas sentido algún que otro escalofrío leyendo esta última afirmación, pero no te voy a mentir, la computación y la inteligencia artificial han avanzado muchísimo en los últimos 20 años. El panorama es diferente si analizamos China y Estados Unidos en comparación con Europa. Los primeros son los early adopters de la inteligencia artificial. La mayoría de investigaciones se ha llevado a cabo por personas nacidas en uno de esos dos países. Europa se percibe como el regulador en la partida por el avance de la inteligencia artificial. A principios de 2020 se constituyó en España la Secretaría de Estado de Digitalización e Inteligencia Artificial y, a finales del mismo año, se presentó la primera estrategia nacional de inteligencia artificial. Esta disciplina cobra, cada vez, mayor protagonismo por su capacidad transformadora y aceleradora. Se habla incluso de una nueva revolución industrial. La diferencia respecto a las anteriores es que el espacio temporal entre una revolución y la siguiente se reduce drásticamente. 

Al principio del texto decía que a raíz del smartphone hemos tratado de ponerle el prefijo smart a casi cualquier cosa: ciudades inteligentes, casas inteligentes, relojes inteligentes, contratos inteligentes… Por otro lado, el efecto Facebook dirigió rápidamente la mirada de las empresas a sus usuarios, convirtiendo en un activo muy codiciado la posesión de cantidades ingentes de datos sobre ellos y su comportamiento con la plataforma. Así surgieron los campos de aplicación centrados en datos: big data, data-science, data mining, data analytics… ¡Qué saturación! 

Industrialización de la nube 

El origen de todos estos avances reside en el desarrollo de los algoritmos en las ciencias de la computación. Los algoritmos se definieron hace muchísimo tiempo como un conjunto ordenado de operaciones que permiten hallar la solución a un tipo de problema. Los datos por sí solos no valen nada, por eso mismo los algoritmos eran sencillos y secuenciales. Se dedicaban a ejecutar una operación tras otra. Con la explosión de la inteligencia artificial, gracias a la industrialización de la nube, comenzamos a gestionar una cantidad considerable de datos. Estos datos se convierten en información cuando somos capaces de establecer relaciones entre los mismos. Y en conocimiento cuando somos capaces de aprender sobre la evolución de esas relaciones, patrones y conceptos en el tiempo. Los algoritmos de aprendizaje automático nos ayudan precisamente a eso. Obtenemos como resultado un modelo que ha convertido esos datos en conocimiento

Las personas que trabajamos en inteligencia artificial construimos y entrenamos modelos que son la pieza clave para desarrollar comportamientos inteligentes y con capacidad para la toma de decisiones. Como bien sabemos, vivimos en una época atípica en la que, además, la proliferación de estos modelos inteligentes ha facilitado la expansión de fake news. No porque hayan sido diseñados para el mal, sino porque pueden aprender conductas que detectan clusters de usuarios antivacunas y mostrarles publicidad o noticias sensacionalistas que son más afines a ese tipo de colectivo. Es entonces cuando nos preguntamos si los algoritmos son buenos o malos. La respuesta no es tan sencilla, lo que sí está claro es que igual que entrenamos a los algoritmos hay que medir su impacto, evaluar sus decisiones y trabajar por facilitar entornos colaborativos humano-máquina y no de reemplazo. 

¿Qué futuro nos espera? Desde mi punto de vista, el algoritmo es neutro y el modelo es el que desarrolla esas conductas poco aprobadas por la mayoría de la sociedad. Pero como también aprende de nosotros, se encargará de replicar aquellas conductas que tampoco nos gusta demasiado reconocer: nuestros propios sesgos. Así es fácil encontrarse sistemas inteligentes que asocian taladros a hombres y secadores de pelo a mujeres, como descubrió Bikolabs, o que el reconocimiento facial no funciona igual de bien según la etnia a la que pertenezcas, como desmostró Timnit Gebru. Estarás de acuerdo conmigo en que ahí la responsabilidad recae en la sociedad, en nosotros. Por ello, se observa una tendencia en las líneas de investigación de la inteligencia artificial que giran alrededor de la transparencia, la explicabilidad, la responsabilidad y en el desarrollo de algoritmos de detección de sesgos, fake news o deep fakes

En mi caso particular, llevo desde 2015 trabajando en el mundo técnico: el de los programadores, investigadores e ingenieros que se dedican a diseñar el futuro. Me doctoré en Inteligencia Artificial a mediados de 2019 y desde entonces me fui al mundo empresarial a trabajar en consultoría de innovación. Concretamente en inteligencia artificial y ciencia de datos. Mi responsabilidad reside en aterrizar los proyectos y propuestas que llegan a mis manos y a gestionar las expectativas y viabilidad de los mismos. Como te puedes imaginar, no es una tarea fácil cuando trabajas diariamente con tecnologías emergentes, carentes de regulación y alimentadas, en gran medida, por el cine, la prensa, la televisión o el mismísimo Silicon Valley. Además soy mujer y zurda, dos cualidades que te convierten automáticamente en una minoría dentro del sector, casi en una rareza o outlier, como llamamos a los datos atípicos. Soy la primera interesada en evitar que un algoritmo me discrimine por ser como soy. 

Me encantaría llegar a una conclusión a todo lo que te he contado pero a día de hoy no puedo. Sin embargo, este mundo de posibilidades que se está abriendo ante nosotros me parece igual de apasionante y me encanta la idea de que cada vez necesite de más disciplinas y diversidad para avanzar en la buena dirección. La inteligencia artificial ya no se va a hacer solo con ingenieros, investigadores o desarrolladores con perfil técnico. Se demandan lingüistas, analistas, estadísticos, matemáticos, expertos en derecho del trabajo o reguladores, y se crearán otras profesiones como diseño de la interacción humano-máquina o auditoría de modelos inteligentes. 

Desde mi humilde posición, me gustaría transmitir cercanía y tranquilidad. Vienen cambios, pero también mucha gente, como yo, trabajamos cada día para que la inteligencia artificial sea justa y actúe para el bien. La inteligencia artificial general aún está lejos de conseguirse. Divulgar sobre este campo es más necesario que nunca para acercarlo a las nuevas generaciones, pero también a las anteriores. Anímate a descubrir cómo la inteligencia artificial está mejorando la medicina, la moda, el cine y otros muchos sectores. La creatividad está servida. 

Enredados: la era de la distopía

Ver más

________________

*Nerea Luis Mingueza (Madrid, 1991) es doctora en Ciencias de la Computación, ingeniera en Inteligencia Artificial en Sngular y cofundadora del evento T3chFest.

*Este artículo está publicado en el número de abril de tintaLibre, a la venta en quioscos. Puedes consultar todos los contenidos de la revista haciendo clic aquíaquí

Primero llegó el ordenador personal, casi a la vez internet, y posteriomente el smartphone.  A partir de ahí, todo se convirtió en smart. La inteligencia humana es un bien que muchas veces apreciamos poco, pero nuestra obsesión por convertir a las máquinas en inteligentes lleva presente desde hace más de 70 años. Uno de los pioneros en el campo de las ciencias de la computación fue Alan Turing. La misma persona que utilizando la computación ayudó al Ejército británico a descifrar los mensajes alemanes de la Segunda Guerra Mundial fue el que poco después publicó un artículo científico que proponía considerar la siguiente pregunta: Can machines think? (¿Pueden pensar las máquinas?). El título del artículo era Computing Machinery and Intelligence y se publicó en 1950. Seguramente, en ese momento, Alan Turing no era consciente del melón que acababa de abrir. Por el contrario, seguro que a ti ni te ha extrañado el título del artículo. En 1950, había máquinas pero ni computaban demasiado ni mucho menos eran inteligentes. Hoy en día sí.

Más sobre este tema
>