La última década ha colocado a la Inteligencia Artificial [IA] al centro de la discusión pública y política global. Es, sin duda, un destino compartido en la revolución tecnológica del siglo XXI. En los últimos cinco años, hemos sido testigos de un torbellino de innovaciones: empresas privadas han lanzado al mercado una avalancha de herramientas de IA que prometen transformar nuestra experiencia en el trabajo, la creatividad, la ciencia, el arte, la política y la comunicación. Sin embargo, en México y América Latina, la desinformación sobre el uso de la IA abunda. No es raro que aparezcan gurúes en los medios, redes sociales y debates públicos, dictando cátedra o intentando moldear la opinión general, presentando esta tecnología como un salvavidas para la civilización moderna.
El problema es que la discusión pública sobre la IA a menudo carece de una base sólida para el debate. Según las definiciones de gigantes tecnológicos como IBM o Google, respaldadas por instituciones académicas como el MIT, Carnegie Mellon o Stanford, la IA es una tecnología que emula la “inteligencia humana” [específicamente el pensamiento crítico] para permitir que las computadoras resuelvan tareas de todo tipo. En esencia, lo humano prevalece como la raíz del conocimiento, no la máquina. Sin embargo, muchas de las herramientas de IA públicas y comerciales no son más que espejismos mercadológicos. Un caso emblemático es el de la start-up Banjo en Estados Unidos. En 2021, durante el auge de la IA, esta empresa se promocionaba como líder en análisis delictivo y policiaco, pero se descubrió que subcontrataba analistas humanos porque carecía de la tecnología que anunciaba. Su éxito fue puro marketing, y pronto cayó en el olvido.
En este contexto, el pionero en estudios de IA, Roger C. Schank, ya en 1987, planteaba que el objetivo de esta tecnología es, primero, construir máquinas inteligentes y, segundo, comprender la naturaleza misma de la inteligencia. Schank argumentaba que la IA puede abarcar cualquier definición que se ajuste al uso que se le dé, una idea que resuena hoy con la proliferación de aplicaciones “milagrosas” que se presentan como oráculos al alcance de todos. Herramientas como ChatGPT, Midjourney, Kaiber, Gemini, Notebook LM, Claude o Perplexity han transformado cómo interpretamos y reconstruimos la realidad, especialmente en el mundo digital, alimentando una nueva retórica en la comunicación masiva. Estas plataformas, al servicio de grupos, asociaciones, influencers o movimientos políticos, generan contenido que impacta a las masas, pero donde la ética sigue siendo un terreno resbaladizo y poco explorado.
Thomas B. Kane, en un análisis ético de 2019, señala que las herramientas públicas de IA han adoptado prácticas poco éticas, y supervisar su uso es una tarea compleja, especialmente porque son propiedad de empresas privadas. No me detendré en los dilemas éticos, sino en la libertad que ofrecen estas herramientas para conjugar lo humano, lo artificial y lo imaginativo. Propongo entender la IA como una herramienta de lenguajes que responde a tareas “creativas y críticas”, basadas en el ordenamiento lógico de la realidad a partir de la exploración humana. En el ámbito político, la IA se convierte en un instrumento para construir mensajes [imágenes, videos, narrativas] que se integran a nuestra realidad.
Hago una distinción clave: la “realidad de la IA” se refiere a los productos intangibles generados por estas herramientas comerciales; la “realidad en sí”, en términos filosóficos, es la verdad de lo que percibimos en el mundo físico. Por ahora, me interesa explorar cómo la imaginación humana, combinada con la IA, crea realidades alternas que alimentan discursos políticos y sociales, especialmente en campañas electorales.
Así pues, el discurso político, en su esencia, es circular. Conceptos como democracia, justicia o seguridad se repiten incansablemente, generando propuestas que, aunque reiterativas, deben parecer novedosas. Aquí, la IA y la imaginación humana convergen en un escenario de posibilidades finitas que se venden como infinitas. Como señalaba Jean Baudrillard en 1994, “la inteligencia artificial carece de inteligencia porque carece de artificio”. Es decir, le falta esa chispa humana que da significado al lenguaje. La IA depende de los datos masivos, de nuestra experiencia, para funcionar. Zoran Tomić, Tomislav Damnjanović e Ivan Tomić, en un estudio de 2023, destacan que la IA puede potenciar estrategias políticas, pero sin una interpretación humana adecuada, los datos carecen de propósito. Toda interpretación requiere conocimiento e imaginación para transformar métricas en productos artificiales significativos a través de prompts [o instrucciones].
Sin embargo, las máquinas tienen límites. Christoph Ernst, Jens Schröter y Andreas Sudmann, subrayan que los sistemas de IA no captan la dimensión ideológica del lenguaje, como el peso de una palabra como Blitzkrieg. Esta limitación se hace evidente en herramientas como los deepfakes, videos manipulados que dificultan distinguir entre lo real y lo falso, reflejando cómo la IA se subordina al caos y los deseos de la imaginación humana. Estos elementos pueden usarse para difamar candidatos, alterar declaraciones o crear eventos ficticios, afectando la confianza en los procesos democráticos.
Un ejemplo claro es la interferencia rusa en las elecciones presidenciales de Estados Unidos de 2016. Según un informe de la Comisión del Senado de EE.UU., el gobierno ruso ejecutó una campaña de hackeos y manipulación en redes sociales, usando noticias falsas para desestabilizar la democracia. Estos ataques, potenciados por herramientas digitales, no solo alteraron percepciones, sino que erosionaron la confianza en la legitimidad electoral, un problema agravado por el comportamiento de los propios políticos. Si los votantes perciben que sus sistemas son vulnerables, la apatía y el desencanto con la democracia crecen.