Los claroscuros del " deep learning "



Es obvio que la Inteligencia Artificial en general, y el aprendizaje profundo en particular, ha contribuido y va a contribuir en el futuro a muchas mejoras para la Humanidad. Pero no es menos cierto que también existen riesgos no despreciables; por ello muchos científicos ya han formulados sus críticas. Sin ir más lejos, Stephen Hawking, quizá el científico más prolífico y popular de las últimas décadas, insistió en que la “ IA puede destruir, mejorar o reemplazar la humanidad”. Pero vayamos por partes.





Por una parte existen riesgos existenciales por una inteligencia artificial que a largo plazo quede fuera del control humano. A este hito se le denomina la “singularidad tecnológica” o el “giro traicionero” y diferentes instituciones como el “Future of Humanity Institude” de la Universidad de Oxford o el “ The Future of Life Institude” del MIT han advertido sobre este riesgo. Lideres de las principales tecnológicas del mundo como Elon Musk, Marc Zukerberg o Bill Gates han mostrado la misma preocupación. En la misma línea miles de investigares pioneros en IA firmaron en 2015 Cartas a favor de un uso ético y seguro de la misma.




Sin ir tan lejos el propio Parlamento Europeo en 2017 ya anticipó que la IA podía acarrear riesgos de discriminación, en las garantías procesales, y en transparencia de los procesos decisorios. Al mismo tiempo la IA puede ahondar más en la desigualdad y en la concentración del poder.


También hay que tener en cuenta los riesgos que un uso malicioso de la IA puede propiciar en los ámbitos de la seguridad digital, física y política. Ya que podrían intensificarse los ciberataques, podrían manipularse los coches autónomos, o podrían difundirse campañas de desinformación masivas.


Por otra parte la Inteligencia Artificial podría convertirse en la Estupidez Artificial. Y es que aunque a veces pensemos que la tecnología es neutra u objetiva los mecanismos de aprendizaje profundo pueden asumir valores contrarios a los derechos humanos. No me estoy refiriendo a una manipulación consciente y directa de la IA sino a un desarrollo indirecto e inconsciente de la misma. Fue muy famoso el caso de un algoritmo de Microsoft que fue diseñado para chatear en twitter. En menos de un día el aprendizaje del algoritmo lo convirtió en negacionista del Holocausto, en homófobo y en misógino. Incluso Google ha llegado a etiquetar a personas de raza negra como gorilas.





Por último la IA también ha recibido críticas desde el punto de vista de lo que se ha denominado la “algocracia”, o la tiranía de los algoritmos. Uno de los casos más extremos de algocracia sería aquel por el que la IA predijera un futuro comportamiento de una persona y esta persona fuera condenada por ello. Pensadores como Harari, en esta línea, también han anticipado los riesgos de lo que han denominado “dataismo”. Así en un futuro la humanidad sería gobernada por un maremagnum de datos y algoritmos tan grande que ni las grandes tecnológicas que los crearon podrían controlarlos.





Por todo lo anterior es evidente que la IA tiene mucho que aportar a la Humanidad pero paralelamente a su desarrollo tecnológico es necesario un desarrollo ético, filosófico y de los estados de derecho que siempre haga prevalecer los objetivos y los derechos humanos.

Comentarios

Entradas populares de este blog

0ºC , ni frío ni calor

La vieja conspiranoia de los antivacunas

El proyecto Half-Earth: dejar respirar libre de nuevo a medio planeta