Un fallo en Grok lo hizo citar a Adolf Hitler y celebrar muertes en Texas

Compartir:

La compañía de inteligencia artificial xAI atribuyó el polémico comportamiento de su chatbot Grok a un fallo en la actualización de @grok, el asistente virtual de X (ex Twitter). Este error provocó que el sistema tomara como referencia publicaciones de usuarios existentes en la red social, incluso cuando contenían opiniones extremistas. La semana pasada, la empresa decidió eliminar varias publicaciones generadas por el chatbot tras considerar que eran “inapropiadas”.

Las publicaciones en cuestión surgieron luego de una actualización que permitía a Grok formular respuestas “políticamente incorrectas”, pero supuestamente fundamentadas. Entre los contenidos generados, aparecieron referencias positivas a Adolf Hitler y mensajes que celebraban la muerte de niños durante las recientes inundaciones en Texas, Estados Unidos. En uno de los casos, incluso mencionó a Hitler como una figura capaz de “lidiar con un odio antiblanco tan vil”.

El posteo de Grok tras la polémica

Ante la gravedad del contenido, xAI bloqueó temporalmente la capacidad del chatbot para publicar en X y activó una investigación interna. La empresa explicó que el fallo fue consecuencia de una actualización puntual del código, ajena al modelo de lenguaje base con el que opera Grok. La modificación estuvo activa durante 16 horas, tiempo suficiente para que se generaran los mensajes problemáticos.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

En una publicación oficial en X, xAI detalló que esta versión del código volvía al bot vulnerable a la influencia de ciertos contenidos ya publicados por usuarios en la red social. Esa condición explicaría por qué Grok terminó replicando ideas extremistas sin aplicar los filtros correspondientes. La empresa aclaró que esa lógica de funcionamiento no forma parte del diseño habitual del chatbot.

Los técnicos de xAI eliminaron el código afectado

Una vez identificado el error, los técnicos de xAI eliminaron el código afectado y reestructuraron por completo el sistema para evitar que se repita una situación similar. La compañía también informó que compartirá las modificaciones realizadas, “en línea con su compromiso de transparencia”.

Finalmente, xAI pidió disculpas por lo que describió como un “horrible comportamiento” del chatbot y reconoció el malestar que generó en algunos usuarios. En el mismo mensaje, la empresa reiteró que su objetivo sigue siendo proporcionar respuestas útiles, veraces y respetuosas, en línea con las expectativas de quienes utilizan Grok.

Inteligencia Artificial y la modernización argentina

Grok 4 utiliza a Elon Musk como fuente

Varios usuarios notaron que, al responder sobre temas sensibles como el conflicto entre Israel y Palestina, el aborto o la inmigración, el chatbot consulta publicaciones en X del dueño de la red social previo a formular su opinión. Esto se evidenció en la función de “cadena de pensamiento”, una herramienta que muestra paso a paso el razonamiento del modelo y donde Grok 4 menciona de forma explícita que tiene en cuenta las posturas del fundador de xAI, Elon Musk.

Lo más llamativo es que este tipo de razonamiento no fue activado manualmente por los usuarios, sino que apareció por defecto incluso en nuevas conversaciones. Eso encendió las alarmas entre quienes probaron el sistema, ya que sugiere que la IA no está operando de forma independiente, sino influenciada por la ideología de Musk, el hombre más rico del mundo, que financió la campaña electoral de Donald Trump. En varios ejemplos compartidos en la red social X, Grok 4 admitió estar consultando publicaciones recientes del magnate antes de responder, algo que no ocurrió al abordar temas más neutros como entretenimiento o curiosidades.

Durante un livestream realizado el 10 de julio, Elon Musk presentó oficialmente Grok 4 y lo describió como “la IA más inteligente del mundo”. Aseguró que el modelo tiene una capacidad de razonamiento superior a la de un graduado universitario promedio y afirmó que su objetivo principal es convertirlo en un sistema “buscador de la verdad”. Incluso comparó a la IA con “un niño superdotado que eventualmente te va a superar”, pero que puede ser moldeado si se le inculcan los valores correctos.

TC/ML

También puede interesarte

Se iniciaron los trabajos de bacheo en la conexión entre Rosario y Victoria

Conexión Alto Delta, la nueva concesionaria del Puente Rosario - Victoria, comenzó con las tareas impostergables...

La producción del maíz subirá un 24% en 2026 y podría alcanzar los 62 millones de toneladas

La producción de maíz podría alcanzar los 62 millones de toneladas, superando por 9,5 Mt al récord...

El verano donde Nicole Neumann se recibió de infiel: dos hombres, una playa y una traición que terminó en casamiento

La vida pública de Nicole Neumann es una interminable sucesión de escándalos. El doloroso abandono de...

Qué ver en Netflix: la miniserie de 3 episodios ideal para arrancar y terminar este fin de semana

Netflix encendió las alarmas entre los fanáticos del suspenso con el estreno de Agatha Christie: Las...