La IA generativa, unida a la ciencia de redes, puede conseguir que los usuarios
cambien de opinión casi de forma inconsciente, lo veremos en las elecciones cruciales
de EE UU, en 2024
SANTIAGO J. SANTAMARÍA GURTUBAY

No se la llamaba entonces inteligencia artificial (IA), pero la manipulación que puso en
marcha la empresa Cambridge Analytica, esencialmente a través de la combinación de
redes sociales y datos personales por medio de algoritmos, de los votantes en el referéndum
sobre el Brexit —que triunfó— y en las elecciones de 2016 en EE UU, que ganó (no en
votos populares sino electorales) Donald Trump, cambiaron un equilibrio interno en las
democracias. Esa capacidad de influir —no de decidir­— en las preferencias de los votantes
con mensajes individualizados adaptados a los gustos de cada uno es solo un primer paso
comparado con lo que entraña la simbiosis que está al llegar entre la IA generativa basada
en lenguaje natural (como ChatGPT o Bard, entre las principales), con unas redes sociales
mucho más ágiles que Facebook (como TikTok) y otros futuros ecosistemas como el

Metaverso. ¿Lo veremos ya en 2024 en las diversas elecciones europeas (incluidas a la
Eurocámara) o en las cruciales de EE UU? En principio, esta simbiosis va contra la
democracia, pero la nueva IA (aceptemos el nombre, aunque no sea propiamente
“inteligencia”) aporta también nuevas posibilidades de participación directa de los
ciudadanos en las decisiones colectivas.
“La IA generativa, basada en lenguajes naturales, y la ciencia de redes pueden converger en
una tormenta perfecta, para dar lugar a nuevas formas de manipulación a nivel societal”,
señala Manuel Cebrián, uno de los investigadores más importantes en este campo a lo largo
de dos décadas en diversos centros punteros del planeta, ahora en la Universidad Carlos III
de Madrid. La capacidad de esta tecnología para adaptarse, aprender y crear, junto con la
ciencia de redes que aporta comprensión detallada de la propagación de la información y el
cambio social, podría utilizarse para socavar la seguridad, la privacidad y la autonomía a
una escala sin precedentes, señala. Lo que va mucho más allá de la política. “Para combatir
estos desafíos”, estima Cebrián, “es fundamental desarrollar y adoptar nuevos enfoques”.
Esta simbiosis va a generar más capacidad de desinformación. “La IA generativa no solo
inundará internet con más mentiras, sino que también puede crear desinformación
convincente dirigida a grupos o incluso a individuos”, señala un reciente análisis en Wired.
El uso de las redes sociales (entonces embrionarias) en las campañas electorales, antes de
esta nueva IA, lo empezó Barack Obama en 2008. Le permitió no solo hacer llegar sus
mensajes a una parte importante de la población, sino también escuchar esa “conversación
pública” que no sabían recoger las encuestas que, en general, le daban como perdedor en su
primer y exitoso intento. Algo similar, con las redes sociales ya plenamente desplegadas,
ocurrió en las últimas elecciones en España del pasado 23 de julio. Todos los partidos con
posibles hacen análisis de redes e intervienen, pero, sorprendentemente, no así los medios
de comunicación. La consultora Llorente & Cuenca sí realizó este tipo de estudios. Y así
como en la campaña (en un sentido amplio) para los comicios locales y autonómicos del
pasado 28 de mayo, el PP logró imponer sus temas en la conversación pública (al final,
contra la ley del sí es sí, y los votos comprados), no ocurrió lo mismo en las generales del
23-J, en las que, en la última semana de campaña, dicha conversación fue mucho más
emborronada y favorable a los temas del PSOE, que recuperó mucho terreno. Pero había
que saber escuchar.
Esto antes de que intervenga la citada simbiosis entre la IA generativa y la ciencia de redes
que va a permitir una desinformación personalizada. Si las redes sociales clásicas usan ya la
IA para atraer la atención, para que el usuario pase más tiempo en ellas, le saquen más
información, y le metan más publicidad, la nueva combinación, con las posibilidades de la
IA generativa puede llevar a un objetivo mucho más peligroso: que el usuario cambie de
opinión (política, cambiando de voto; de consumo u otras formas) casi de forma
inconsciente, con mensajes diseñados para cada cual que cambian de forma casi instantánea
según las circunstancias a lo largo de una campaña, adaptándose a cada individuo de forma
muy rápida, gracias a lo que se llama ‘reinforcement learning’, aprendizaje por refuerzo.
Un estudio sobre Facebook de Sandra González-Bailón y otros autores, publicado en
Science, concluye que “la derecha está más expuesta a bulos intencionales que la
izquierda”. En todo caso, esto dará mucho poder a los que estén detrás, desde un candidato,
su oponente o un boicoteador —hay muchos y de varios tipos—, a empresas o a potencias
extranjeras con intereses en los resultados. Falta poco más de un año para las elecciones
estadounidenses, y menos de nueve para las europeas. El uso de la IA generativa en las
campañas estará en sus comienzos. Pero son numerosos los expertos que alertan contra sus

efectos, no solo con enormes cantidades de desinformación y noticias falsas, con
capacidades técnicas muy avanzadas (por ejemplo, en vídeos ‘fake’), que rápidamente se
van amoldando a las preferencias de sus destinatarios, e inundando todo el ecosistema de
falsedades difícilmente diferenciables de las veracidades, especialmente cuando los medios
de comunicación tienen menos capacidades profesionales. Esta herramienta permite que
personas con pocos conocimientos técnicos puedan generar esos contenidos, y reduce la
capacidad de los receptores de diferenciar lo que viene de otra persona de lo que viene de
una máquina o programa. Un reciente experimento en la Universidad de Cornell envió
cartas a siete millares de legisladores en EE UU, la mitad generadas por IA y la otra mitad
por humanos. El número de respuestas de los legisladores a unas y otras fueron muy
similares.
Algunos expertos consideran que hay una aceleración y democratización de la propaganda.
Archon Fung y Lawrence Lessig, en un análisis sobre cómo la IA podría tomar el control
de las elecciones y socavar la democracia, citan cómo, preguntado en este sentido por el
senador Josh Hawley, el propio director ejecutivo de OpenAI (ChatGPT), Sam Altman,
respondió en una audiencia parlamentaria que algunas personas podrían utilizar estos
modelos lingüísticos para manipular, persuadir y entablar interacciones individuales con los
votantes. En los últimos meses —ChatGPT va a cumplir un año de su lanzamiento
público—, empresas como OpenAI, que la creó, o Google con Bard, han lanzado sus
productos al mercado de masas y así han surgido herramientas de IA fáciles de utilizar
capaces de crear imágenes fotorrealistas, imitar el sonido de la voz y escribir textos
humanos de forma bastante sencilla. No todos los expertos, sin embargo, coinciden en que
la manipulación de las redes genera más polarización. Algunos estudios, con muestras
amplias, como el de Andrew Guess y otros, también publicado en Science, concluyen que
las personas no informaron de cambios en sus comportamientos políticos después de que se
cambiaran lo que recibían por Facebook o Instagram. Pero el estudio es anterior a la IA
generativa. La polarización está ya en las sociedades, pero se puede alimentar con estas
tecnologías, aunque la televisión —en la que está por ver cómo entra esta herramienta, un
proceso que ya ha empezado— es más determinante.
Hay también otra peligrosa simbiosis en marcha, la de la IA y la neurociencia. Es un campo
que investigan tanto los servicios de inteligencia de países como EE.UU., como,
especialmente, China, y también numerosas grandes empresas que quieren influir a través
de la manipulación de nuestras mentes en nuestras decisiones comerciales. Como señala
Nita Farahany en su libro “The Battle for Your Brain” (La batalla por tu cerebro), empresas
de marketing descodifican nuestro cerebro para vendernos productos e incluso adaptar
elementos de consumo (como las películas o las series) a los deseos de nuestra mente. Y
para controlar. En esta ciencia, China parece más avanzada, y algunos estudios, como el del
Centro para una Nueva Seguridad en EE UU, ven un peligro en la difusión global de lo que
llama el “autoritarismo digital”, aunque EE UU también controla, como puso de manifiesto
el exanalista de la CIA Edward Snowden con sus filtraciones. Son numerosos los gobiernos
con medios para llevar a cabo investigaciones en este terreno, o comprar la tecnología
necesaria, y aplicarlas. El desarrollo de la IA empodera a los gobiernos, a las empresas con
medios y a los individuos. Por estas razones, el neurocientífico español Rafael Yuste ha
promovido un nuevo tipo de derechos, que llama “neuroderechos” —véase al respecto la
Declaración de Valencia a la que se quiere dar mayor alcance— porque “los datos
cerebrales pueden ser uno de los pocos baluartes que quedan contra el compromiso total de
la privacidad en la vida moderna”. Aunque está por demostrarse que nuevos derechos o

declaraciones impidan este tipo de abusos en el mundo si no van acompañados de técnicas
específicas para impedirlos que habrá que desarrollar.
Entre los previsibles efectos nocivos de la IA generativa en modelos amplios de lenguaje
natural está que, como lo definen Markus Anderljung y Paul Scharre, se “democratice la
violencia”, la capacidad de hacer daño. Ya no solo por parte de hackers o codificadores
experimentados, sino por todo tipo de gente. La generación de desinformación va a resultar
mucho más fácil de conseguir, y la diferencia entre la mentira y la verdad, mucho más
difícil de discernir. El concepto de “posverdad” para la era que vivimos se puede quedar
corto. Y la fabricación de armas biológicas y químicas por parte de individuos y grupos con
escasos conocimientos de ellas también resultará facilitada. ¿Hacia un terrorismo
generativo? La IA puede generar catástrofes, y no solo impedirlas que es para lo que se
suponía que nació. Incluso en vez de unir, la IA puede separar, justamente por la
uniformidad que fomenta. En países básicamente democráticos como India, hay nuevos
‘chatbots’ que fomentan la intolerancia religiosa (de los hindúes contra los musulmanes) y
el extremismo.
La IA aporta grandes ventajas, por ejemplo, en avances en medicina o en el estudio del
cambio climático. No todo con esta nueva tecnología tiene por qué ser negativo para la
democracia. También brinda nuevas posibilidades a los ciudadanos, para empezar, forzando
una nueva transparencia —además de un mayor control— en las administraciones o en las
empresas privadas que sustentan estas nuevas tecnologías (a menudo con apoyo del sector
público). Puede permitir nuevos tipos de participación ciudadana en, por ejemplo, los usos
de los fondos públicos. Es algo que se está empezando a estudiar. Así, desde el European
Institute of Science in Management, un centro de investigación sin ánimo de lucro con sede
en Barcelona, se está intentando poner en marcha con un equipo internacional de
politólogos, físicos teóricos, matemáticos, biólogos, neurocientíficos, y economistas de
Israel, USA y Europa un programa para enlazar la matemática de la física cuántica con un
nuevo tipo de gobernanza democrática multinivel para la que la nueva IA será esencial, con
unos primeros ensayos en ciudades europeas. Son proyectos de investigación que
permitirían una participación más profunda de la ciudadanía no sólo en la elección de sus
representantes, sino también de las prioridades presupuestarias a adoptar en ayuntamientos.
Crecen las demandas, incluso por los propios impulsores de la nueva tecnología, de regular
el uso de la IA generativa en las elecciones democráticas, aunque hay dudas sobre la
efectividad de tales regulaciones. OpenAI se ha comprometido a monitorear el uso de su
ChatGPT para tratar de detectar operaciones de influencia política. Algunos expertos, como
los citados Anderljung y Scharre, hablan de la necesidad de “alineación de la IA”, es decir,
de asegurar que los objetivos de un sistema de IA coinciden con las intenciones de sus
usuarios y los valores de la sociedad. Se podrían prohibir este tipo de programas. Pero estos
autores reconocen que “hasta ahora, nadie ha descubierto cómo controlar de forma fiable el
comportamiento de la IA”, y menos cuando se prioriza (no es el caso de China) la libertad
de expresión, que habrá que reforzar con la libertad de pensamiento, si nos controlan este
último como George Orwell entrevió. La UE lo está intentado con la nueva Ley de IA, la
primera del mundo de su tipo, que está pendiente de un acuerdo final entre las instituciones,
y cuya efectividad está por ver. El proyecto establece cuatro niveles de riesgo para los
sistemas de IA, cada uno con su propio conjunto de requisitos de transparencia,
trazabilidad, no discriminación y respeto por los derechos humanos. Los sistemas de IA de
alto riesgo, como los que se usan en la toma de decisiones automatizadas con implicaciones

legales o significativas para las personas, deben ser sometidos a una evaluación de impacto
de la IA antes de su despliegue.
Sobre todo, hay que educar a los ciudadanos, desde los más jóvenes hasta los más mayores,
en lo que implican estas tecnologías. Decenas de menores de Almendralejo, Extremadura,
España, denuncian que circulan fotos de falsos desnudos suyos creadas por inteligencia
artificial. La investigación, según fuentes policiales, sigue abierta. La foto de una de las
menores incluía una mosca en la imagen del desnudo integral. Esa mosca es el logo de la
aplicación que supuestamente se ha utilizado para alterar las fotografías. “Desviste a
cualquiera con nuestro servicio gratuito”, reza el mensaje de bienvenida de su página web.
Asi todo el mundo sabe que lo gratuito, para el usuario, tiene un precio, el de los datos
cedidos a cambio, y ahora la capacidad de manipulación de nuestras propias mentes. Mucha
IA generativa es gratuita. La alimentamos con nuestras preguntas, imágenes o escritos. Lo
gratuito se acaba pagando. De otra forma.


@SantiGurtubay
@BestiarioCancun