ACIPE
ACIPE Asociación Científica de Psicología y Educación
Reseñas

Frenar a Silicon Valley

Juan Fernández Sánchez

mayo 13, 2026

Marcus, G. (2024/25). Frenar a Silicon Valley. Cómo las Big Tech se aprovechan de nosotros y cómo la Inteligencia Artificial puede empeorarlo. Barcelona: Shackleton books.

Portada del libro

Creo que estamos ante un autor que conoce bien el terreno por el que transita y así ha sido reconocido a escala internacional. Nos ofrecerá una visión crítica en torno a las aportaciones de los gigantes tecnológicos dominantes (Gran Hermano), muy concretamente sobre la IA -generativa-. Con esta perspectiva nos será más fácil lograr una comprensión más completa, pues de la divulgación de los aspectos positivos -muchos: revolución en la ciencia, la tecnología, la medicina…- ya se han venido encargando los responsables de estas grandes empresas tecnológicas (GAFAM…).

Algunos de los problemas graves: difamación, polarización, capitalismo de la vigilancia, economía de la atención, pérdida de privacidad, tambaleo de las democracias, oligarquía de la IA, ciberdelincuencia, pornografía ultrafalsificada, acciones memedesinformación automatizada. No estamos yendo, pues, por el mejor camino ni técnica ni moralmente. No sabemos con precisión hacia dónde nos encaminamos. Esta es la situación actual -mundo tremendamente vulnerable-. ¿Podremos mejorarla –no seas malvado-? Esta es la gran cuestión.

Veamos, en primer lugar, cómo están las cosas en estos momentos –la IA que tenemos: generativa (chatbots, LLM…)-. Presenta manifiestos errores -trolera: no le importa si lo que dice es verdad o mentira (alucinación), maldición de la inversión, inexactitud, falta de fiabilidad-, está incidiendo negativamente -manipulación- en elecciones y mercados, no satisface las enormes expectativas creadas -la herramienta de productividad más poderosa del planeta-, tiene gran impacto negativo en el clima -sus exigencias de consumo energético: electricidad, agua…-, por solo traer a colación algunas de las amenazas (riesgos existenciales; tecnología de doble uso) constatadas.

En este específico contexto de actualidad, hemos de prestar atención al declive moral de Silicon Valley (tecnopolio rapaz, destructor de la privacidad, difusor de desinformación… El poder y el dinero excesivos, sin transparencia y sin rendición de cuentas, corrompen: capitalismo de la vigilancia). El dinero -el crecimiento económico, la manipulación de las políticas gubernamentales (puertas giratorias) y de la opinión pública…- mandan y la preocupación por la seguridad -riesgos- disminuye. Lejos queda el compromiso de trabajar en beneficio de la gente. Además, se minimiza la necesidad de su regulación. Nos encontramos con muchas grandes promesas –aceleracionismo eficaz-, pero con bastantes menos resultados -¿dónde está la IAG (general)?-. Estamos en pleno auge del tecnoautoritarismo –frente al empoderamiento y la libertad de la ciudadanía del lema inicial-.

Ante esta penosa situación actual, ¿qué hacer? Se nos ofrece una serie de recomendaciones. Los derechos sobre los datos: el gran robo de datos tiene que parar -se exige el consentimiento y compensación: nuevas leyes (dignidad de los datos)-.  Se ha de cuidar y respetar la privacidad (control y compensación), así como demandar transparencia -que quede claro lo hecho y su impacto: transparencias de datos, algorítmica, de las fuentes, ambiental y laboral, corporativa-. Igualmente, es importante centrarse en la responsabilidad de lo que ve la luz -lo publicado: deber de diligencia (externalidades negativas), daños causados-.

Dada la multitud de usos de la IA -mundo repleto de IA- por parte de la mayoría de las personas en la actualidad, sería muy pertinente una esencial formación en IA (y sus derivados: tecnología digital) -educación formal, no formal e informal a lo largo del ciclo vital: alfabetización-. Las acciones que afectan a los demás -el uso de la IA nos está afectando considerablemente- han de ser supervisadas –supervisión independiente (científicos, sociedad civil…) y por niveles (concesión de licencias, auditorías…)-, sin confiar en la autorregulación, por razones evidentes -rara vez funciona-. También deberíamos ir pensando en los impuestos pigouvianos -a las empresas que generan externalidades negativas-. Dicho de otro modo, hemos de establecer incentivos para una buen IA.

De lo anteriormente dicho, se deriva la necesidad de la creación de una agencia de IA flexible (para cada país)-, centrada en el análisis de los riesgos y el fomento de la innovación, enmarcada a su vez dentro de una gobernanza internacional de la IA –cooperación internacional-. Para ir acabando: ¿llegaremos a una IA confiable/fiable, sabiendo que estadísticamente probable no es lo mismo que verdadero?

A reflexionar, con fundamento, toca: ¿integrar redes neuronales con la IA clásica/simbólica? Pensando en el futuro: ¿un modelo similar al del CERN (Organización Europea para la Investigación Nuclear) para la IA? Hay que comenzar a actuar ya: organizarse (voto, participación…), con empoderamiento de la sociedad civil, posibilitando una supervisión real independiente y con la pertinente legislación apropiada.

En este libro, escrito a la velocidad del rayo, debido a un sentimiento de urgencia y desilusión, se aúna el conocimiento práctico/profesional de su autor y una formación/documentación académica amplia. De ahí la pertinencia de su lectura.