Ir al contenido principal

Tan "Deep" que no sabes ni cómo se "Learning"

El Deep Learning es uno de los métodos de aprendizaje de la Inteligencia artificial. Se basa en un proceso de aprendizaje que utiliza muchos criterios o capas de decisión para ofrecer una solución final. Por decirlo de alguna forma te da una solución que, si no es correcta, ajusta poco a poco hasta ofrecer una solución óptima en base a varios criterios a la vez. 

Son algoritmos automáticos estructurados o jerárquicos que emulan la inteligencia humana para obtener un resultado. La ventaja de este tipo de sistemas es que no requiere de una programación sino que el sistema es capaz de aprender por sí mismo a través de un entrenamiento. Este proceso está compuesto de redes neuronales artificiales entrelazadas que van procesando la información. 

Las distintas capas de decisión permiten al sistema reconocer las cosas en distintos niveles de abstracción. 

Estos sistemas se emplean hoy en día en traductores inteligentes, lenguaje natural hablado y escrito, reconocimiento de voz, reconocimiento facial y visión computacional, entre otros. 

Podríamos pensar que ya estaría. Tenemos un sistema que aprende, ¿no?. Sin embargo el Deep learning tiene varios problemas hoy en día, digamos, retos a superar. 

Por un lado se requiere un número bastante ingente de datos para alimentar el aprendizaje de la máquina. No siempre se cuenta con estos datos y por tanto la fiabilidad del sistema cuando se cuenta con pocos datos tiende a no ser muy buena. 
Son sistemas poco transferibles de un problema o contexto a otro. Digamos que hay que crear uno para cada conjunto de situaciones o contextos. 

Sucede además que no sabemos cómo la máquina ha llegado a una solución, y en algunos contextos es importante saberlo. Por ejemplo con los valores en la bolsa no solo queremos ordenadores eficientes que calculen el valor de una participación sino que además nos interesa saber en base a qué se toma esa decisión. Podemos traducirlo en que no sabemos cómo piensa la máquina. El hecho de que no se trate de un aprendizaje supervisado puede llegar a ser peligrosos. 

Los sistemas de aprendizaje profundo  pueden hacer ganar millones de euros en inversiones, detectar enfermedades o cualquier otra cosa que la industria necesite, pero podría llegar el momento, si no ha llegado ya, en que las máquinas o programas lo hagan sin que los humanos seamos capaces de comprender el razonamiento para hacerlo. Si la decisión es acertada no nos preocupa demasiado pero, ¿Y si sale mal?. 

En ocasiones puede pasar algo tan anecdótico como que la IA de Facebook censure por “pornográfica” una escultura paleolítica como es la Venus de Willendorf. Es un episodio lamentable ya que la pornografía no la crea la figura sino la intención con la que la IA y las personas miren esa figura. Obviamente una figura realizada hace 30.000 años no tenía la intención de ser pornográfica entonces, ni la tiene hoy en día. 



Sin embargo estos episodios no llevan a plantear la siguiente cuestión. Podemos saber quién desarrolló el algoritmo, pero ni siquiera esa persona o empresa sabrá cómo funciona ni cuál ha sido el proceso para obtener la solución por tanto antes una decisión punible, ¿Quién tiene la culpa?. 

Algunas compañías como Google han creado programas que de alguna forma intentan ir hacia atrás en el tiempo y desentrañar los procesos tomados durante un proceso de deep learning. Es el ejemplo de Deep Dream, una máquina de reconocimiento de imágenes capaz de dibujar el coche que ha reconocido como tal. Las imágenes obtenidas son horrendas y distan mucho de ser una fotografía, pero por lo menos demuestran que en parte esos procesos son deducibles y son procesos no del todo inexpugnables.

El problema sin embargo es que los retos de hoy en día como la conducción automática requiere de tantas capas de y tal cantidad de nodos y funciones diferentes que sería difícil llegar a averiguar qué cálculos se han hecho para tomar la decisión de atropellar a un peatón o matar al conductor con un brusco volantazo.  

Según el filósofo Nick Bostrom “La inteligencia artificial no es solo un accesorio guay o una cosita ingeniosa: es el último invento que el ser humano va a tener que hacer y ante el escenario de una explosión de la inteligencia, los humanos somos como niños pequeños jugando con una bomba. Así es el desequilibrio entre el poder de nuestro juguete y la inmadurez de nuestra conducta”. 

Todas estas reflexiones nos llevan a recordar obras como la de “2001: Odisea en el espacio” en la que la IA de la nave, HAL9000, es capaz de tomar decisiones que an en contra de la seguridad e integridad de los ocupantes de la nave. 



Comentarios

Entradas populares de este blog

Jerga de Laboratorio

La gente que trabaja en el laboratorio somos especialmente dados a abusar de la jerga de nuestra profesión (y no me refiero a un trozo de tela gruesa y tosca). El tipo de lenguaje que en el laboratorio nos puede llegar a ser familiar pero que saca de sus casillas al resto del mundo porque en ocasiones más que jerga se convierte en jerigonza. Así por ejemplo si decimos que estamos haciendo un pase para mañana hacer la corrida… no hablamos de toros. Y si dejamos algo a RT durante O/N… ahí ya te pierdes del todo. Bueno pues me he propuesto sacar una nueva sección que se va a llamar Jerga de Laboratorio. Intentaré que cada semana o dos semana (depende de lo ocupado que esté) salga una entrada explicando algunos de los conceptos y palabrotas que usamos por el mundo de las poyatas (anda, otra palabreja), Comencemos precisamente por ahí. Poyata El  @DrLitos  ya nos habló en su momento del arte de poyata en sus ediciones I y II ( Arte de poyata I ,  Arte de poyata II ) Y

Bots de Schrödinger

Hace unos días el periodista Javier Salas publicaba en el país este artículo titulado “ Sepultados bajo la mayor avalancha de estudios científicos ”. Y es que cada dos semanas se duplica el número de artículos sobre el susodicho tema COVID-19. Si desde 2009 se publicaban de media unos 3.000 artículos sobre coronavirus en todo el mundo y cada año, ahora se publican unos 700 cada día y van más de 20.000 en apenas 3 meses.  Con las personas confinadas en sus casas en medio mundo y retiradas de las calles, las plataformas de redes sociales se han convertido en una de las mejores herramientas para comprender la discusión social entorno a este y a cualquier otro tema. Estudiar las redes sociales puede ser útil e informativo para evaluar cómo se está haciendo frente a esta crisis global. Sin embargo, esa idea que a priori podría dar mucha información, debe ser analizada con detenimiento debido a que las Redes Sociales (RRSS) están pobladas de máquinas y cuentas automatizadas que pueden a

Psicohistoria, Preología y Termosociología

Siempre se ha dicho que el hombre es el único animal que tropieza dos veces con la misma piedra (Les puedo asegurar que eso no es cierto por dos razones. Una, yo siempre tropiezo 3 veces y dos, mi perro también tropieza siempre en el mismo sitio. No es muy listo el pobre). ¿Será ese complejo de equivocarnos siempre en lo mismo lo que nos lleva a estudiar Historia? Será con la esperanza de que quizás si vemos los errores de los antiguos, nosotros podamos prever los errores futuros. Sin embargo, no parece que una crisis sufrida en Egipto en el 1500 a.c. nos pueda ser un ejemplo para un problema de hoy en día.  ¿En que tiempo deberíamos de fijarnos?, ¿En que cultura?, ¿En que sistema político y económico?  Si queremos hacer de la historia pasada la escuela de la historia futura, necesitamos un método. Y ese método no puede ser otro que el método científico. Sin embargo esta idea tan peregrina de realizar previsiones de futuro en base al pasado y usando un método científico no e