Ir al contenido principal

Daniel Guerrero | La inevitable inteligencia artificial

Oponer resistencia a la Inteligencia Artificial (IA) es una lucha perdida, puesto que ya ha venido y lo ha hecho para quedarse. Y como todos los avances para los que no estamos preparados, pues son disruptivos, causa recelo y dudas. Tantas dudas y recelos que, en mi caso, me ponen en estado de alerta ante el avance imparable de la IA en tareas que, por ignorancia, creía libres de tal tecnología. Y es que no confío en ella. No me fío en absoluto de la IA como tampoco lo hacía, en su día, del microondas, de internet y hasta del teléfono portátil, mal llamado móvil.


Reconozco que temo aquellas tecnologías que me arrollan porque las desconozco y no las domino, a pesar de que supongan avances impresionantes para muchos profesionales en incontables indicaciones o trabajos. Apenas les aprecio utilidad práctica en el ámbito doméstico, en el que, como mucho, las empleamos fundamentalmente para calentar agua o café, curiosear páginas web o intercambiar ”guasaps” por mero entretenimiento. Tengo que admitirlo: soy así de simple y analógico.

Con la IA me sucede lo mismo. De entrada, me cuesta creer que lo que nos venden por IA sea realmente inteligente. A lo sumo, admito que son sofisticados programas de almacenamiento y gestión de datos, algoritmos programados para extraer información entre miles de millones de ejemplos y bases relacionados con la cuestión encomendada.

Por ello soy visceralmente reacio a considerar ese artilugio cibernético equivalente a la mente humana. Podrá ser muy útil de ayuda, como una enciclopedia inabarcable, en procesos que requieren datos y tiempo ingentes. Pero reconocerle inteligencia, capaz de construir un pensamiento original (bastaría un simple poema), creo que es adjudicarle una facultad de la que carece, a menos que redefinamos el concepto de inteligencia, esa que nos hace interrogar lo que somos y poner en cuestión lo existente para superar nuestras limitaciones.

Lo de artificial no lo discuto, por obvio. Con todo, admito que se trata de programas sumamente complejos para buscar, seleccionar y comparar datos con los que elaborar una respuesta mecánica a un problema determinado. Pero los considero incapaces de acometer reflexiones para las que no están diseñados, es decir, que no pueden pensar por sí mismos e interrogarse sobre su propia capacidad supuestamente inteligente. No llegan al extremo, tan humano, de elucubrar y emocionarse con hallazgos frutos de su sabiduría o ignorancia. Ese saber que no se sabe nada.

Pero si el calificativo de IA me enerva, más me inquieta aún su aplicación en procesos cotidianos que nos avocan a una dependencia indeseada y que poco a poco acabará embotando capacidades propias que dejamos de practicar. Nos vuelve cómodos y torpes, y lo que es peor, controlables y manipulables.

Máquinas cada vez más listas y personas progresivamente inútiles y obedientes. Tanto, que ya nos cuesta aparcar porque el coche lo hace solo y mejor, y si lo dejamos, conduce por nosotros. También confiamos en que nos guíe con el navegador sin saber dónde estamos. Sibilinamente, para que nos vayamos acostumbrando a esa dependencia, se va extendiendo el hábito de pedir a un asistente electrónico que ponga la música que nos gusta y encienda las luces al llegar a casa.

Incluso le hacemos preguntas a un ChatGPT que, muy prudente él, elude respuestas comprometidas por ser políticamente incorrectas: “No soy capaz de tener creencias u opiniones personales” (OpenAI). Ya hasta le ganan la partida a todo un campeón mundial de ajedrez (Deep blue).

Dentro de poco, porque se está en ello, llegarán a diagnosticarnos en función de los síntomas y datos analíticos que les proporcionemos, sin que ningún médico de “carne y hueso” nos ausculte y mire a los ojos. E irán reemplazando al ser humano en cada vez más actividades y tareas.

Llegarán a conocerte mejor de lo que puedas conocerte tú mismo, en virtud del rastro que vamos dejando, a través de móviles, internet, tarjetas bancarias, compras on line, etc., en el enjambre digital. Pronto estaremos, si es que no lo estamos ya, eficazmente clasificados en todo tipo de registros alimentados por una IA que continuamente nos escruta y controla. Lo grave es que le permitimos ingenuamente que lo haga, ignorando que lo enumerado más arriba es, simplemente, lo menos “dañino” que puede causarnos la IA cuando se aplica “sin maldad”.

Porque podría servir, y de hecho sirve, para otros propósitos menos benévolos, como la desinformación, la elaboración de noticias falsas y para la pura y simple manipulación. Ya Iñigo Domínguez, en su artículo “Robots más listos y humanos más tontos” lo expone de forma clara, por lo que me ahorraré el esfuerzo.

Añadiré, sin embargo, que la publicidad y la propaganda se elaboran en muchos casos con ayuda de IA para “personalizar” mensajes y “seducir” (iba poner embaucar) a los destinatarios, consiguiendo influir en sus decisiones, no solo para comprar, sino incluso a la hora de votar.

Son sistemas expertos en inundarte de (des)información por todos los soportes y canales comunicativos posibles hasta lograr que renuncies a seleccionar tal avalancha de mensajes, y conseguir que te creas los “empaquetados” según tus gustos y tendencias. Eso es lo alarmante y peligroso de la IA: su uso para objetivos ocultos o espurios.

Y es que la tecnología con IA que se utiliza para reconocimiento facial no sólo sirve para “copiar” rasgos de personas desaparecidas o crear rostros falsos y presentarlos como si estuvieran vivos (Deep fake), sino que puede utilizarse para rastrear, localizar y vigilar a personas de manera automática, violando sus derechos.

Gracias a la IA, capaz de aprender simulando los procesos inductivos y deductivos del cerebro humano, se pueden construir armas autónomas –“armas con cerebro”, como las bautiza Javier Sampedro– que decidan su objetivo, pudiendo matar sin intervención humana.

O fabricar drones autónomos, no teledirigidos, que destruyan infraestructuras, edificaciones o poblaciones (militares o civiles) con sólo “educarlos y entrenarlos” para tal misión. De hecho, esta tecnología se utiliza ya para fabricar armas, lo que mueve a Antonio Guterres, secretario general de la ONU, a clamar contra su uso: “Las máquinas con el poder y el criterio para matar sin implicación humana son políticamente inaceptables y moralmente repugnantes, y la ley internacional debe prohibirlas”.

No se trata, pues, de ser catastrofista, sino de ser cauteloso y tener presente los riesgos que supone el “mal uso” de la IA, puesto que las consideraciones éticas, morales, culturales y emocionales escapan de los millones de big data con que estas máquinas elaboran sus respuestas y articulan sus conclusiones.

Y ya que está entre nosotros, deberíamos de estar pendientes de que la IA sea utilizada respetando siempre unos límites que impidan que se vuelva en contra nuestra. Máxime cuando esta tecnología es susceptible de un uso malicioso e interesado, opuesto al bien general.

De lo contrario, servirá para ahondar desigualdades y generar división, abusos, discriminación y manipulación. Un peligro del que nos vienen advirtiendo cada vez más pensadores y líderes sociales (Stephen Hawking, Éric Sadin, José Antonio Marina, Yuval Noah Harari, Víctor Gómez Pin y hasta ¡Elon Musk!, entre otros) cuando resaltan la ya innegable soberanía electrónica en la actividad económica, pero también, en gran medida, en la del ocio, las comunicaciones y la información.

Y es que, por muy bien diseñadas y entrenadas que estén estas máquinas, si su “inteligencia” se limita a seguir instrucciones de un programa y no se rige con criterios éticos o morales, poca inteligencia demostrarán poseer, aunque sean capaces de resolver y responder cuestiones sumamente complejas. Lo que no me deja más tranquilo.

DANIEL GUERRERO
© 2024 Montilla Digital · Quiénes somos · C/ Fuente Álamo, 34 | 14550 Montilla (Córdoba) | montilladigital@gmail.com

Designed by Open Themes & Nahuatl.mx.