Asistimos, sin ninguna duda, a una de las mayores transformaciones en la historia de la civilización humana. La revolución de la inteligencia artificial, que está en sus inicios, ya está causando cambios en las formas de vida de las personas en todo el planeta. Pero es solo el principio. El peligro está en que amenaza con modificar las relaciones sociales, los sistemas cognitivos, las estructuras políticas y también nuestras categorías éticas. La era de la posverdad en la que está instalada la sociedad actual es un resultado de esta negación de una ética universal basada en lo verdadero, el bien y la justicia. Los valores éticos son infravalorados y esto es otro problema muy serio. Si se niegan los hechos, algo que ya sucede, la convivencia de los ciudadanos se enfrenta al caos, la intolerancia, la censura y el poder totalitario o sin control. Es una sociedad en la que ya predomina el relativismo más absoluto, y no reconoce el valor de nada. Es el nihilismo en su máxima expresión. Lo que está en juego es el sentido del mundo humano controlado, por los algoritmos de las grandes empresas tecnológicas, que poseen las redes sociales con mayor número de usuarios, y que gozan ya de más poder que algunos países. EL filósofo José Antonio Marina ya ha advertido, en su reciente libro publicado de la necesidad de una ética que no se limite a regular después de que ocurran los desastres, sino que prevea y oriente el rumbo de la innovación tecnológica. Su libro se titula "La vacuna contra la insensatez" y es magnífico. Hace falta una gobernanza ética a nivel mundial, para que la IA no despliegue su fuerza sin control, o pautas éticas que protejan a las personas. Esto es todo un reto para los próximos diez años.
La conciencia humana es lo que determina lo que es realmente el respeto, lo justo, lo digno, la libertad, y el bien y la verdad, como bases civilizatorias irrenunciables. No se debe olvidar que con la IA generativa que aprende, razona y actúa por sí sola, en entornos complejos puede causar con frecuencia resultados imprevisibles, ya que no evita los sesgos negativos, en la interpretación de los datos y los hechos. Algo que sí puede neutralizar la inteligencia humana. Además, la autonomía de la inteligencia artificial plantea un gran peligro añadido, que es la opacidad y la falta de control, algo que reconocen los expertos en estas cuestiones. De hecho, muchas de las redes neuronales profundas actuales funcionan como cajas negras, que no pueden ser interpretadas ni por sus creadores tecnológicos o programadores. Por tanto, otro de los grandes problemas es la pérdida del control sobre los algoritmos, que ya en algunos países más avanzados tecnológicamente deciden y toman decisiones en cuestiones que afectan directamente a los ciudadanos.
Lo que es una reducción o eliminación directa de la autonomía personal o colectiva. Lo que realmente es muy grave. Y esto irá a más en los próximos años si no se implementan medidas legales basadas en principios y normas éticas universales.
En los próximos cinco años, la IA podrá tomar decisiones autónomas en áreas como: diagnóstico médico, evaluación crediticia, selección de personal, administración judicial, control fronterizo, vigilancia y seguridad, etc. Además, puede aumentar la desinformación automatizada y la manipulación de masas. Una IA, por ejemplo, puede crear millones de bulos en un día, con una efectividad que supera la capacidad de verificación humana, por su cantidad y distribución a nivel mundial. Los vídeos manipulados con IA o las falsificaciones digitales ya son una realidad cotidiana, no del futuro.
Es necesario, por tanto, un adecuado control de las redes de distribución del contenido automatizado. Además, la inteligencia artificial sustituirá en los próximos cinco años a millones de trabajadores no solo en tareas manuales, también en actividades cognitivas: redacción, traducción, atención al cliente, diseño gráfico, y otras muchas. La desigualdad económica se puede agudizar, si no se regula bien la tecnología digital y sus efectos. Es indispensable también una regulación internacional de la digitalización, porque los errores algorítmicos pueden causar tremendos problemas: hackeos, decisiones sin responsabilidad que pueden provocar daños o desastres irreparables. El mismo Elon Musk dice que la IA mal regulada puede ser más peligrosa que una bomba nuclear. No es que tenga malicia, es que su programación hace que, aunque no sabe lo que hace, lo realiza muy bien todo, pero sin analizar las consecuencias o efectos negativos.
El diálogo cada vez mayor con las máquinas, ordenadores y móviles produce que una parte de la gente piense cada vez menos por sí misma. Se está erosionando la capacidad crítica, la reflexión lenta y la creatividad. La tecnología sin gobernanza moral es amoral, sin duda. Puesto que la ética exige responsabilidad, no puede ser negada. Y en la sociedad superficial en la que vivimos parece que la responsabilidad, no se quiere aceptar en numerosas situaciones. Con el desarrollo de la tecnología digital se pueden formar tecnocracias autoritarias en los países. Es otro riesgo que neutralizar.
No hay comentarios:
Publicar un comentario