Ir al contenido principal

Tan "Deep" que no sabes ni cómo se "Learning"

El Deep Learning es uno de los métodos de aprendizaje de la Inteligencia artificial. Se basa en un proceso de aprendizaje que utiliza muchos criterios o capas de decisión para ofrecer una solución final. Por decirlo de alguna forma te da una solución que, si no es correcta, ajusta poco a poco hasta ofrecer una solución óptima en base a varios criterios a la vez. 

Son algoritmos automáticos estructurados o jerárquicos que emulan la inteligencia humana para obtener un resultado. La ventaja de este tipo de sistemas es que no requiere de una programación sino que el sistema es capaz de aprender por sí mismo a través de un entrenamiento. Este proceso está compuesto de redes neuronales artificiales entrelazadas que van procesando la información. 

Las distintas capas de decisión permiten al sistema reconocer las cosas en distintos niveles de abstracción. 

Estos sistemas se emplean hoy en día en traductores inteligentes, lenguaje natural hablado y escrito, reconocimiento de voz, reconocimiento facial y visión computacional, entre otros. 

Podríamos pensar que ya estaría. Tenemos un sistema que aprende, ¿no?. Sin embargo el Deep learning tiene varios problemas hoy en día, digamos, retos a superar. 

Por un lado se requiere un número bastante ingente de datos para alimentar el aprendizaje de la máquina. No siempre se cuenta con estos datos y por tanto la fiabilidad del sistema cuando se cuenta con pocos datos tiende a no ser muy buena. 
Son sistemas poco transferibles de un problema o contexto a otro. Digamos que hay que crear uno para cada conjunto de situaciones o contextos. 

Sucede además que no sabemos cómo la máquina ha llegado a una solución, y en algunos contextos es importante saberlo. Por ejemplo con los valores en la bolsa no solo queremos ordenadores eficientes que calculen el valor de una participación sino que además nos interesa saber en base a qué se toma esa decisión. Podemos traducirlo en que no sabemos cómo piensa la máquina. El hecho de que no se trate de un aprendizaje supervisado puede llegar a ser peligrosos. 

Los sistemas de aprendizaje profundo  pueden hacer ganar millones de euros en inversiones, detectar enfermedades o cualquier otra cosa que la industria necesite, pero podría llegar el momento, si no ha llegado ya, en que las máquinas o programas lo hagan sin que los humanos seamos capaces de comprender el razonamiento para hacerlo. Si la decisión es acertada no nos preocupa demasiado pero, ¿Y si sale mal?. 

En ocasiones puede pasar algo tan anecdótico como que la IA de Facebook censure por “pornográfica” una escultura paleolítica como es la Venus de Willendorf. Es un episodio lamentable ya que la pornografía no la crea la figura sino la intención con la que la IA y las personas miren esa figura. Obviamente una figura realizada hace 30.000 años no tenía la intención de ser pornográfica entonces, ni la tiene hoy en día. 



Sin embargo estos episodios no llevan a plantear la siguiente cuestión. Podemos saber quién desarrolló el algoritmo, pero ni siquiera esa persona o empresa sabrá cómo funciona ni cuál ha sido el proceso para obtener la solución por tanto antes una decisión punible, ¿Quién tiene la culpa?. 

Algunas compañías como Google han creado programas que de alguna forma intentan ir hacia atrás en el tiempo y desentrañar los procesos tomados durante un proceso de deep learning. Es el ejemplo de Deep Dream, una máquina de reconocimiento de imágenes capaz de dibujar el coche que ha reconocido como tal. Las imágenes obtenidas son horrendas y distan mucho de ser una fotografía, pero por lo menos demuestran que en parte esos procesos son deducibles y son procesos no del todo inexpugnables.

El problema sin embargo es que los retos de hoy en día como la conducción automática requiere de tantas capas de y tal cantidad de nodos y funciones diferentes que sería difícil llegar a averiguar qué cálculos se han hecho para tomar la decisión de atropellar a un peatón o matar al conductor con un brusco volantazo.  

Según el filósofo Nick Bostrom “La inteligencia artificial no es solo un accesorio guay o una cosita ingeniosa: es el último invento que el ser humano va a tener que hacer y ante el escenario de una explosión de la inteligencia, los humanos somos como niños pequeños jugando con una bomba. Así es el desequilibrio entre el poder de nuestro juguete y la inmadurez de nuestra conducta”. 

Todas estas reflexiones nos llevan a recordar obras como la de “2001: Odisea en el espacio” en la que la IA de la nave, HAL9000, es capaz de tomar decisiones que an en contra de la seguridad e integridad de los ocupantes de la nave. 



Comentarios

Entradas populares de este blog

Jerga de Laboratorio

La gente que trabaja en el laboratorio somos especialmente dados a abusar de la jerga de nuestra profesión (y no me refiero a un trozo de tela gruesa y tosca). El tipo de lenguaje que en el laboratorio nos puede llegar a ser familiar pero que saca de sus casillas al resto del mundo porque en ocasiones más que jerga se convierte en jerigonza. Así por ejemplo si decimos que estamos haciendo un pase para mañana hacer la corrida… no hablamos de toros. Y si dejamos algo a RT durante O/N… ahí ya te pierdes del todo. Bueno pues me he propuesto sacar una nueva sección que se va a llamar Jerga de Laboratorio. Intentaré que cada semana o dos semana (depende de lo ocupado que esté) salga una entrada explicando algunos de los conceptos y palabrotas que usamos por el mundo de las poyatas (anda, otra palabreja), Comencemos precisamente por ahí. Poyata El  @DrLitos  ya nos habló en su momento del arte de poyata en sus ediciones I y II ( Arte de poyata I ,  Arte de ...

Algo más de un año de divulgación

Como bien indica el título, hoy se cumple un añito desde que hice la primera entrada de esta humilde casa de la divulgación. (Y lo primero, obviamente, es que os fijéis en la nueva imagen del blog. No es gran cosa, pero a mi me mola, Y como es mio... pues eso). Las explicaciones en la página de  Acerca del blog @scariosHR Pero no era la primera vez que me dedicaba a esto. Quien me conoce sabe que me motiva y gusta la divulgación desde hace mucho tiempo. Trabajé en el Parque de las Ciencias de Granada para la subcontrata que lleva los educadores de museo “Los amarillos” (Primero Sedicult y después Queronea) desde el 2009 hasta 2011 y ante de eso hice una beca de animador científico en el mismo sitio “Los verdes”. (El nombre es por el color del atuendo, no piensen mal). Mis amigos Kini y Helena bajo agua en la playa del Cañuelo En el  verano de 2011, mientras disfrutábamos de unos días de playa en la casa de nuestra amiga Helena, mi amigo Kini me enseñó u...

Psicohistoria, Preología y Termosociología

Siempre se ha dicho que el hombre es el único animal que tropieza dos veces con la misma piedra (Les puedo asegurar que eso no es cierto por dos razones. Una, yo siempre tropiezo 3 veces y dos, mi perro también tropieza siempre en el mismo sitio. No es muy listo el pobre). ¿Será ese complejo de equivocarnos siempre en lo mismo lo que nos lleva a estudiar Historia? Será con la esperanza de que quizás si vemos los errores de los antiguos, nosotros podamos prever los errores futuros. Sin embargo, no parece que una crisis sufrida en Egipto en el 1500 a.c. nos pueda ser un ejemplo para un problema de hoy en día.  ¿En que tiempo deberíamos de fijarnos?, ¿En que cultura?, ¿En que sistema político y económico?  Si queremos hacer de la historia pasada la escuela de la historia futura, necesitamos un método. Y ese método no puede ser otro que el método científico. Sin embargo esta idea tan peregrina de realizar previsiones de futuro en base al pasado y usando un método cientí...