He aquí una gran cuestión para nuestro presente y futuro, ¿no te parece? Pues tenemos con nosotros a quien lleva tiempo tratando de buscar las respuestas más adecuadas [Mollick, E. (2024). Cointeligencia. Vivir y trabajar con la IA. Barcelona: Conecta.]. Comencemos, pues.
La inteligencia artificial (IA) -generativa- trabaja, en cierto modo, como una verdadera cointeligencia, dado que puede aumentar -o sustituir- el pensamiento humano de forma extraordinaria. Ahora bien, en estos momentos no contamos con personas que gocen de una visión completa sobre las implicaciones de la IA, ni siquiera por parte de sus propios creadores.
La mayoría de los modelos de IA conocidos como LLM (grandes modelos de lenguaje) está adquiriendo una capacidad multimodal que les posibilitará aprender de formas nuevas e impredecibles. A veces superan nuestras expectativas y a veces nos acaban decepcionando con falsedades. Hemos creado, pues, una poderosa herramienta -una mente ajena-.
¿Cómo podremos lograr que sea amistosa, que esté alineada con objetivos plenamente humanos? Esto es lo que realmente preocupa a bastantes personas: el poder de una ASI (superinteligencia artificial) -si fuera posible-, no alineada con determinados valores u objetivos humanos o que suponga serios perjuicios para nuestra especie.
Pero sin pretender llegar a una polarización extrema –apocalipsis o salvación-, sí parece pertinente analizar tanto sus enormes beneficios -muchos: está ya incrementando el progreso científico, mejorando los sistemas educativos, innovando…- como sus potenciales riesgos (privacidad, protección de datos, sesgos -los sesgos humanos se han colado en los datos de entrenamiento: representación sesgada de la realidad-…), que pueden ser minimizados gracias a un aprendizaje por refuerzo a partir de retroalimentación humana. Ahora bien, las vulnerabilidades -a engaños, a manipulaciones, a usos fraudulentos…- no son tan fáciles de eliminar. Se necesita, en consecuencia, la estrecha colaboración de empresas, gobiernos, investigadores y sociedades: es necesaria una educación en IA.
Esta educación (sobre los sistemas de IA generativa actuales basados en LLM -tecnología de propósito general-) debiera tener en cuenta al menos estos cuatro principios: a) hay que experimentar con la IA -su frontera irregular– para descubrir la utilidad de su uso en nuestras tareas -nos puede ayudar a mejorar nuestras decisiones en lo personal y en lo profesional, como herramienta de apoyo; b) hemos de seguir siendo el humano en el bucle de la toma de decisiones (ingeniería de peticiones, petición mediante cadena de pensamiento…); c) se ha de tratar a la IA como una persona -metafóricamente: ofreciéndole orientación específica para que se produzca una cointeligencia colaborativa; la IA se puede antropomorfizar a sí misma; la IA como terapeuta, aunque no sea humana-; d) tenemos que ser conscientes de que llegarán, con alta probabilidad, sistemas de IA muy mejorados con respecto a los que ahora tenemos. Así pues, la IA, muy probablemente, remodelará el cómo aprendemos y enseñamos. Parece pertinente, entonces, repensar la educación (IA tutora para profesores y alumnos, entrenadora, aula invertida…).
En cuanto al mundo del trabajo: casi todos los trabajos presentarán un considerable solapamiento con lo que realmente puede realizar la IA, incluidos los altamente remunerados, cualificados y creativos, además de los repetitivos y peligrosos. Teniendo esto presente, hemos de pensar en cómo podrían ser los nuevos sistemas de organización y gestión -¿gestión algorítmica, IAtocracia?- de los diferentes trabajos.
Con la IA –colaborando: aprovechar sus puntos fuertes evitando los débiles; centauros y cíborgs– podemos ser mejores. Sin su ayuda estaremos bastante perdidos en un mundo cada vez más digitalizado -si nos iniciamos dando al botón de la IA, nos podremos encontrar-. En todo caso, es pertinente estar atentos a las alucinaciones de las IAs actuales -estas tienen problemas con respuestas que demandan precisión, exactitud-. Tú eliges. El futuro no está escrito: son varios los escenarios posibles -unos más probables que otros- de las relaciones entre inteligencias -IA y humana-.