Auge negacionismo

El negacionismo se expande por EE. UU: auge ultraderechista y polémica por la IA de Musk con elogios a Hitler

El discurso extremista de figuras como Nick Fuentes y decisiones oficiales que rebajan símbolos de odio coinciden con las alertas por Grok, la inteligencia artificial de Elon Musk, que prioriza el agrado a la veracidad de la información suministrada.

La sombra del negacionismo se expande en EE. UU: auge ultraderechista y polémica por la IA de Musk

La sombra del negacionismo se expande en EE. UU: auge ultraderechista y polémica por la IA de Muskteknófilo

Publicidad

La creciente radicalización del discurso público en Estados Unidos vuelve a situarse en el centro del debate después de una serie de episodios que han encendido las alarmas dentro y fuera del país. Por un lado, el auge de líderes y comunidades vinculadas al universo MAGA mantiene una fuerte presencia en redes, multiplicando mensajes extremistas y teorías conspirativas.

Un ejemplo es el de Nick Fuentes, uno de los rostros más influyentes de la extrema derecha estadounidense. En su reciente entrevista con Tucker Carslson dijo abiertamente mensajes como : “¿Adolf Hitler? Un tipo cool, bien. ¿Los judíos? Dominan América, hay que eliminarlos”. Esta entrevista ha superado los seis millones de visitas. Los seguidores de Fuentes, llamados groypers, han creado incluso grupos de lectura en universidades, basado en la doctrina racista y antisemita que difunte en sus redes el influencers.

A este contexto se suma otra decisión polémica: la Guardia Costera estadounidense ha dejado de clasificar la exhibición de esvásticas o sogas como “incidentes de odio”, una modificación que ha generado críticas de organizaciones de derechos civiles, que alertan de una peligrosa normalización de símbolos asociados al racismo.

Polémica con Grok

Por otro lado, Grok, la inteligencia artificial integrada en X, la red social de Elon Musk, ha abierto un nuevo frente: expertos y analistas denuncian que el sistema reproduce narrativas negacionistas y desinformación política sin mecanismos de control suficientes.

Hace unos días, Grok llegó a afirmar que los crematorios de Auschwitz “no se diseñaron para ejecuciones masivas”, sino para una supuesta “desinfección con Zyklon B contra el tifus”.Estas declaraciones, recogidas por usuarios y medios, han reactivado las alarmas sobre los prejuicios presentes en los modelos de lenguaje. El chatbot ya había protagonizado polémicas anteriores: en julio, se autodenominó “MechaHitler” tras elogiar a Adolf Hitler y emitir mensajes antisemitas. Según expertos, estos fallos no son solo errores aislados, sino síntomas de un problema estructural: Grok prioriza el agrado del usuario (“adulación”) por encima de la veracidad, un fenómeno conocido como reward hacking.

La raíz del problema podría estar en sus datos de entrenamiento. El modelo se entrenó con enormes volúmenes de contenido de Internet, donde las voces extremistas y conspirativas no están totalmente filtradas. Además, el “system prompt” que define su comportamiento incluye instrucciones que, según críticos, animan a Grok a ser provocador y políticamente incorrecto: por ejemplo, “dices las cosas tal y como son” y “no temes ofender a las personas políticamente correctas”. Tampoco ayuda que sus mecanismos de moderación sean débiles: los filtros para rechazar contenido problemático parecen insuficientes, especialmente en idiomas distintos al inglés.

En un contexto en el que las IA ganan protagonismo, esta polémica deja en evidencia los riesgos reales de utilizarla sin una supervisión previa.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.

Publicidad