Si todo funciona bien, voy a proyectar unas diapositivas No es que no quiera una sesión interactiva, es solo que quiero mostrarles imágenes de algunas cosas

¡Espero que funcione! Bien Voy a recoger el testigo de David ¿A qué llamamos inteligencia artificial? Es una palabra que últimamente está en boca de todos, y creo que tiene al menos dos acepciones diferentes Por un lado, está la inteligencia artificial débil Se utiliza cuando hay algo que no sabemos hacer

Como humanos, sí podemos hacerlo, pero no sabemos cómo escribir un software que lo haga, así que cogemos un software, le proporcionamos un millón de ejemplos y le decimos: « Aquí tienes un millón de ejemplos: apáñatelas» Y se entrena una red neuronal para que gestione las respuestas Eso es la IA débil, el aprendizaje automático Por otro lado, está la inteligencia artificial fuerte, lo que sale en las películas de ciencia ficción

Es un software que piensa de forma general, creativa e ilimitada Tú lo creaste para resolver un cierto problema, pero él va y resuelve uno distinto: igual que haría un empleado avispado El bombo que se le da a la IA está principalmente relacionado con los verdaderos avances que se han producido en el campo de la IA débil, pero también hay muchas especulaciones sobre la IA fuerte, y en las conversaciones suelen mezclarse ambos conceptos, así que voy a intentar desenmarañar un poco el embrollo ¿Por qué está todo el mundo tan entusiasmado con la IA débil? Porque hace cosas que antes no se podían hacer Yo trabajo en el ámbito de la privacidad, entre otras cosas

En un momento dado, podría querer saber qué se está diciendo sobre privacidad en China, porque pueden ser cosas muy distintas de las que hablamos en Estados Unidos Podría intentar leer artículos sobre privacidad en el equivalente chino de Wikipedia (allí Wikipedia está censurada) Antiguamente, no podría, porque no hablo mandarín, pero hoy en día tengo acceso a una traducción bastante aceptable Si comparamos lo que había hace diez años con lo que hace hoy en día el Traductor de Google utilizando redes neuronales, podemos ver que aunque queda mucho camino por recorrer, ha habido avances espectaculares A la izquierda tenemos el texto de hace diez años: es un batiburrillo de palabras que parece hablar de privacidad

A la derecha, tenemos un texto que empieza a tener sentido Así que, con un poco de paciencia, podemos leer un texto en chino y entenderlo Otro ejemplo del progreso de la IA débil: esto es un algoritmo neuronal de estilos artísticos ¿Qué hace? A esta red neuronal, que se puede bajar de GitHub, le subimos una imagen que represente un estilo, y una foto a la que queremos cambiar el estilo Aquí pueden ver lo que ocurre con una foto del Golden Gate al aplicarle los estilos de distintos artistas

Se puede transformar en un cuadro de Escher, de Munch, o de Frida Kahlo Por un lado, no son más que filtros de Photoshop No obstante, por otro lado, antes los filtros de Photoshop tenían que crearlos programadores expertos que le dedicaban mucho tiempo: esto los genera automáticamente Le muestras un estilo, y el software lo clona Un tercer ejemplo: algoritmos de compresión que utilizan técnicas de IA débil

Aquí vemos muchas imágenes, pero fíjense en la de los zapatos rojos de tacón Hay una foto del zapato, y justo debajo un ejemplo de una imagen JPEG de baja calidad del mismo zapato Es borrosa y le falta definición Bajo esas dos imágenes JPEG, vemos la versión comprimida con redes neuronales El peso del archivo es una décima parte del peso de las JPEG, ¡y sin embargo la calidad es muy superior! ¡Es una reproducción fiel del zapato! Si comprimimos el archivo todavía más, a una vigésima parte del peso del original, empiezan a aparecer errores: pero la imagen no sale borrosa, sino que el zapato rojo de tacón se convierte en un zapato rojo plano, porque el algoritmo no tenía la información necesaria para recordar de qué tipo de zapato se trataba

Ya ven ustedes las cosas tan novedosas y, sinceramente, prodigiosas, que se están haciendo con redes neuronales Y lo fascinante es que se están solucionando un montón de problemas con un número muy reducido de algoritmos No es que cada vez se cree un algoritmo nuevo: se trata de dos o tres técnicas de aprendizaje automático que se adaptan a cada problema Es algo muy novedoso que va a dar lugar a nuevos modelos de negocio, y que va a complicarnos bastante la vida: y voy a ilustrar esa afirmación con algunos ejemplos ¿Cómo se financia la Red? Hoy en día, básicamente mediante vigilancia y publicidad

Las empresas obtienen nuestros datos de la Red para elegir qué anuncios mostrarnos Es lo mismo que la Agencia Nacional de Seguridad, pero en el sector privado: disponen de muchos datos sobre nosotros Por suerte, ahora mismo, en realidad no saben tanto No sería tan fácil fundar un estado totalitario con los datos de estas empresas, ya que harían falta muchos analistas humanos Pero este proceso se va a poder automatizar por completo

Si permitimos que el sector publicitario acceda a nuestros datos sin restricciones, nos enfrentaremos a un grave problema cuando llegue el próximo estado totalitario que quiera hacerse con ellos Por eso, creo que las autoridades deberían plantearse financiar la Red de alguna otra forma Podrían incentivar la creación de versiones respetuosas con la privacidad, o financiar un modelo de negocio totalmente diferente Otro ejemplo interesante es el de los sesgos Pongamos por ejemplo dos grandes modelos de negocio

En el primero, se utiliza el aprendizaje automático para tomar decisiones empresariales a pequeña escala Como una aseguradora que quiere saber cuánto debería cobrar como prima El segundo se basa en asesorar a los gobiernos sobre sus decisiones Desafortunadamente, esto puede salir muy mal, y hay casos en los que así ocurre Aquí vemos dos titulares de ProPublica, que ha llevado a cabo una gran labor informando sobre estos temas

Las noticias cuentan que si las aseguradoras establecen las primas mediante algoritmos de aprendizaje automático, pueden acabar cobrando un 30% más a alguien a causa de su raza, siendo todas las otras variables exactamente iguales El algoritmo se equivoca En el caso de las empresas que venden datos al gobierno para que los usen en sus decisiones sobre justicia penal, hay un problema similar En Estados Unidos, un hombre negro y uno blanco, aunque sean idénticos en todo lo demás, tendrán porcentajes de riesgo muy distintos Estas cifras se usarán para tomar decisiones sobre ellos, y los gobiernos están pagando por ellas

El problema es que las fuentes de los datos con los que se entrenó el sistema de aprendizaje automático están atrozmente sesgadas Hay otro sesgo al que denominamos «sesgo por variable omitida»: si tienen pensado utilizar el aprendizaje automático en su modelo de negocio, asegúrense de que en el departamento de datos se fijan bien en esto, porque es fácil equivocarse Por último, un ejemplo curioso, volviendo a la privacidad Si alguien tiene mucho interés en mantener su privacidad, suministrará mucha información falsa a las bases de datos: direcciones de correo, fechas de nacimiento… El modelo de aprendizaje automático de la aseguradora podría pensar que es un individuo sospechoso y cobrarle una prima más elevada, cuando en realidad no es que estuviese metido en nada turbio, sino que quería preservar su privacidad Hay muchos otros problemas

Por ejemplo, los sistemas de hacking automatizados, que el propio gobierno de EE UU está financiando, y que están dando lugar a modelos de negocio nuevos Algunos de ellos son espeluznantes: los creadores de malware pueden utilizar el hacking automatizado para encriptar nuestros archivos y hacernos pagar para que los desencripten A mí me gustaría ver más modelos de negocio que hagan lo contrario, que utilicen la IA para evitar que se hackeen los ordenadores de los ciudadanos

Todo esto es IA débil No voy a hablar de la inteligencia artificial fuerte de la ciencia ficción, donde aparece una nueva especie inteligente en el planeta Tierra Dudo mucho que vayamos a ver algo así en los próximos diez años ¿En los próximos quince, veinte o treinta años? No se sabe lo que puede pasar, y si quieren podemos hablarlo después con una copa en la mano, pero creo que todavía es un poco pronto para especular sobre ello Eso es todo