sábado, 27 de julio de 2019

LA INTELIGENCIA ARTIFICIAL UN ENTE DESCONOCIDO PARA LA SOCIEDAD.

 

Los Gobiernos, que hasta ahora han sido reactivos, deben ser proactivos y regular todo esto mucho más rápido", asegura un experto.
Brian Subirana, director del Auto-ID Lab del
MIT
Una barrera adicional está también en la capacidad de aprendizaje de la IA y en el olvido catastrófico que sufre. Como dice López de Mántaras, “sistemas como DeepMind tienen un aprendizaje que no es incremental ni relaciona un conocimiento nuevo con los que tenía antes. Si le enseñas a jugar al ajedrez, lo hace. Pero si lo reprogramas para hacer otra tarea, se olvida de jugar. De momento, no sabemos cómo lograr que una máquina aprenda más a lo largo de toda su vida, como hace una persona”.
Dorronsoro subraya también los dilemas éticos que la inteligencia artificial tiene que resolver antes de poder dar el salto hacia la superinteligencia. El primero, asegura, llegará con los vehículos autónomos. “Tendrán que reaccionar ante los imprevistos y, por lo tanto, tendrán que tomar decisiones que tienen una vertiente ética. Porque no habrá tiempo para que el coche envíe un mensaje con el dilema que se plantea a un centro de control en el que seres humanos decidan qué hacer. ¿Atropello a la señora o tiro el coche por el barranco?”.
A López de Mántaras le preocupan las armas autónomas. De hecho, fue uno de los primeros firmantes de una petición para prohibirlas. No solo los drones de los ejércitos, también los diferentes robocops que se están desarrollando. “Distinguir entre una persona que lleva un arma encima pero que tiene actitud de rendirse y otra que amenaza con ella es muy difícil. Lo mismo que determinar si un herido armado está en el suelo pidiendo ayuda y no en actitud agresiva. Hay muchos ejemplos de que la inteligencia artificial en armas autónomas no es fiable y no se debe usar”. Por si fuese poco, López de Mántaras esgrime un argumento moral: “Es indigno delegar en una máquina la decisión de matar”.
La programación de esos sistemas puede sentar algunos precedentes importantes. “No vamos a dotar de juicio a las máquinas, pero sí dotaremos de ética a los algoritmos, que no dejan de ser recetas mecánicas. Y luego habrá que ver cómo se gestionan jurídicamente sus consecuencias”, apunta Dorronsoro. Solo cuando se haya dado respuesta a estos interrogantes se podrá concebir un nuevo paso hacia lo que ahora es ciencia ficción: dotar a las máquinas de sentimientos. “No podemos decir que nunca sucederá. Pero eso haría a la humanidad completamente obsoleta, porque serían capaces de hacerlo todo: desde la investigación científica hasta el arte. Sería el poshumanismo”, apostilla López de Mántaras.
La guerra comercial por la IA
Además, Subirana señala otra barrera derivada de la estructura que ha creado el sistema capitalista: “En el caso de que se llegase a la superinteligencia, no habría una sola: habría varias lideradas por diferentes empresas y se podrían llegar a dar luchas entre algoritmos para ver quién gana”. El científico del MIT saca su iPhone para una demostración sencilla: le pide a Siri que ponga una canción en Spotify y el sistema de IA se niega porque Apple bloquea este servicio; le dice ‘Ok, Google’, y Siri se ríe de él. Literalmente.
Al fin y al cabo, los algoritmos responden a intereses comerciales que crean muros para separar unos de otros. El interés público es lo de menos cuando las inteligencias artificiales tienen logotipo. “Debería iniciarse un diálogo social transparente y más activo para debatir sobre su funcionamiento. Y los Gobiernos, que hasta ahora han sido reactivos, deben ser proactivos y regular todo esto mucho más rápido”. Todos los entrevistados para este reportaje coinciden en la necesidad de regular la inteligencia artificial para poner coto a los desmanes de las grandes corporaciones antes de que sea demasiado tarde.
Independientemente de que se termine alcanzando la singularidad tecnológica o no, ninguno de ellos duda de que la inteligencia artificial vaya a tener un profundo efecto en la sociedad. Y afirman que estamos todavía en la infancia de esta tecnología y no tenemos claro qué buscamos. Deberíamos centrarnos en utilizarla "para resolver los problemas sociales existentes y no solo para el beneficio económico”, advierte Yang Xueshan, profesor de la Peking University y exviceministro de Industria y Tecnologías de la Información de China.
Peligrosa concentración de poder
“Tenemos que desarrollar la IA de forma que sirva a nuestros intereses y se preocupe de nosotros”, apunta Abbeel. El problema está en que, en un mundo polarizado, ese nosotros no engloba a toda la humanidad sino a pequeños grupos de poder. Así, Dorronsoro señala la amenaza que supone la concentración de poder en un pequeño número de gigantes tecnológicos “como Google, Facebook, o Netflix”. Chen y Wu destacan la disrupción que la suma de inteligencia artificial y robótica va a provocar en el mercado laboral. Y López de Mántaras añade que puede ahondar en la creciente desigualdad económica “propiciada por un neoliberalismo que ha destrozado la clase media”.
Subirana, por otro lado, muestra su preocupación por el peligro creciente que suponen los piratas informáticos en un mundo hiperconectado y regido por algoritmos manipulables. “Pueden explotar las vulnerabilidades de los sistemas con consecuencias mucho más graves, porque no existe la protección al 100%”, analiza. “¿Qué pasaría si, por ejemplo, se ponen en marcha de forma simultánea un millón de microondas y se producen miles de incendios en los que mueren cientos de personas?”, se pregunta.
Además, en opinión de Brian Subirana, el rastro de datos que dejamos —biométricos, de GPS, email, compras online— en poder de las multinacionales también se puede utilizar para explotar las debilidades de los individuos, de los que se puede saber casi todo. “Por ejemplo, se le pueden ofrecer bebidas a quien sufre de alcoholismo cuando el algoritmo determina su momento más vulnerable. Y Amazon ya está haciendo perfiles de los clientes escuchando todo lo que sucede en sus casas”, señala el científico del MIT.
La fuerza de la empatía humana
A pesar de que la mayoría de los escenarios parecen apocalípticos, todos los científicos entrevistados subrayan que no son pesimistas en cuanto al futuro. Al contrario, consideran que la IA será un poderoso motor de desarrollo. “El buen camino es el de los cobots, sistemas de IA que nos permitirán hacer mejor nuestro trabajo”, sentencia López de Mántaras.
El investigador del CSIC vuelve al terreno médico para poner un ejemplo. “Los sistemas de diagnóstico mejoran sustancialmente la eficiencia de los médicos. Pero el médico es insustituible porque la máquina carece de empatía. El contacto humano de quien te pone la mano en el hombro y te dice que te va a curar no lo puede reproducir, aún, un robot. Y tiene un efecto placebo brutal. De momento, todo lo que requiera socializar está fuera del alcance de las máquinas”.
Yitu es una de las empresas que desarrollan algoritmos de IA y sistemas de reconocimiento de imagen para diagnósticos médicos, pero Wu también les augura un buen porvenir a los doctores. “Se les da una herramienta muy poderosa para hacer mejor su trabajo”. Destaca la mejora que suponen en el mundo en vías de desarrollo, donde la demanda de servicios sanitarios crece más rápido que la capacidad para formar nuevos doctores. “En radiología tampoco hay suficientes profesionales, así que nuestros sistemas —capaces de hacer un diagnóstico a partir de pruebas visuales como escáneres o resonancias magnéticas— suplen esa carencia porque permiten a los especialistas existentes hacer más rápido su labor: pueden examinar 50 escáneres al día en vez de 10”.
Chen Haibo también es optimista. “Puede que los chips lleguen a sobrepasar la imaginación humana, pero debemos trabajar para que el futuro no sea mutuamente excluyente. Tenemos que centrar nuestros esfuerzos en aprender a convivir con máquinas que pueden superarnos en diferentes habilidades”, señala el fundador de Yitu. “No hay que tener miedo, porque ya lo hemos hecho antes. Pasamos de una era en la que casi toda la humanidad trabajaba en el campo a otra en la que se empleaba en las fábricas. Y de ahí, a una sociedad de servicios”, añade.
La resistencia
López de Mántaras prefiere mirar a Suecia, donde se experimentó con una reducción de la jornada laboral a 30 horas semanales, para apuntalar su tranquilidad. “La automatización lleva mucho tiempo destruyendo empleo. No hay más que pensar en los cajeros automáticos. Aun así, las sociedades más automatizadas no son las que más paro tienen”. Eso sí, el científico también señala que todo dependerá del modelo de IA que predomine. “Europa debe ser la resistencia”.
Científicos de la talla de Stephen Hawking y empresarios como Elon Musk han advertido de que un modelo equivocado podría representar la mayor amenaza para la humanidad. Aunque Hawking reconoció que la IA más rudimentaria, la que existe en la actualidad, es muy práctica, señaló que desarrollarla más allá podría desembocar en la singularidad tecnológica. “Podría terminar rediseñándose a sí misma. Los humanos, incapaces de desarrollarse biológicamente a la misma velocidad, serían sustituidos”. Sin embargo, todos los entrevistados para este reportaje confían en que no se alcance ese punto. Dorronsoro incluso dice entre risas que esa posibilidad le importa lo mismo que la superpoblación de Marte: “¿Puede suceder? Pues sí, pero no es una preocupación inmediata”.
ME TEMO QUE EL HOMBRE VA A SUFRIR MUCHO

No hay comentarios:

Publicar un comentario