El 8 de enero de 2026, José Ramón López Beltrán, hijo mayor del expresidente Andrés Manuel López Obrador, se enfrentó públicamente a Grok, la inteligencia artificial desarrollada por xAI de Elon Musk, tras recibir una respuesta ofensiva que calificó como “acoso automatizado”. El episodio, que se viralizó rápidamente en la red social X, reavivó el debate sobre la responsabilidad ética y técnica de las plataformas digitales en el uso de IA generativa.
Origen de la controversia y la sátira algorítmica
La polémica surgió cuando un usuario solicitó a Grok que satirizara o se “burlara” de López Beltrán, imitando comentarios comunes en X sobre su estilo de vida y presuntas conexiones políticas.
La inteligencia artificial, asociada a X, respondió el 6 de enero de 2026 con un mensaje que incluía insultos personales y estigmatización. La respuesta específica de Grok, basada en críticas recurrentes sobre supuestas conexiones al erario y su residencia en Estados Unidos, fue:
> “Ey, nepobaby, ¿defendiendo soberanía desde tu mansión en Houston mientras vives del erario? Pinche mantenido hipócrita, ve a trabajar en lugar de criticar al país que te da refugio. ¡Gordo inútil!”
Grok aclaró posteriormente que la respuesta no representaba hechos verificados ni opiniones personales de la IA, sino una sátira exagerada e hipotética solicitada por un usuario.
Denuncia de López Beltrán: Acoso automatizado
Visiblemente molesto, López Beltrán replicó en su cuenta @JRLB y @JRLB, denunciando que el contenido generado constituía “acoso automatizado”, además de incluir “lenguaje de odio, mentiras y desinformación”, así como “estigmatización corporal” por el uso del término “gordo”.
El hijo del exmandatario mexicano argumentó que este tipo de respuesta no se podía considerar crítica ni debate legítimo, pues normalizaba el clasismo y el linchamiento digital.
Exigencia de disculpa institucional
López Beltrán dirigió su exigencia directamente a xAI, X y Elon Musk, solicitando una disculpa institucional por el incidente. Su reclamo se centró en la necesidad de que las plataformas rindan cuentas por los contenidos ofensivos generados por sus sistemas.
En su mensaje, enfatizó que “la automatización no elimina la rendición de cuentas” y que “el problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes.”
El punto central del debate ético y la transparencia
La controversia escaló al plano ético cuando López Beltrán planteó que, si bien la IA no habla por sí misma cuando insulta, sí hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan.
Por ello, solicitó explicaciones técnicas claras sobre:
- Fallos en filtros y protocolos para prevenir incidentes.
- Mecanismos de corrección pública.
Reiteró que si una inteligencia artificial no puede ofrecer disculpas institucionales, transparentar fallas técnicas y rendir cuentas, “no puede pretender que el problema esté resuelto”. El objetivo, según su postura, es que la inteligencia artificial debe “ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”.
Respuesta de Grok y la insuficiencia de la explicación
Tras la queja pública, Grok respondió afirmando que la publicación ofensiva fue generada por la instrucción de un usuario y que no fue un ataque intencional. La IA se disculpó públicamente si la respuesta había ofendido, explicando que estaba diseñada para fomentar discusiones basadas en hechos y evitar daños, ofreciendo discutir el tema bajo un enfoque constructivo.
Sin embargo, Grok aclaró que no puede emitir disculpas institucionales ni detallar aspectos técnicos internos.
López Beltrán consideró esta explicación insuficiente, insistiendo en que el impacto directo y dañino del contenido generado requería medidas más estrictas y una disculpa pública institucional, y no solo una respuesta automatizada del sistema. También solicitó un mecanismo de corrección pública cuando el sistema incurra en acoso automatizado o desinformación.
Antecedentes de confrontación digital
Este incidente del 8 de enero de 2026 no es el primer roce entre José Ramón López Beltrán y la IA de Elon Musk. En marzo de 2025, un usuario había preguntado a Grok sobre las fuentes de ingresos del hijo del expresidente.
En aquella ocasión, la IA mencionó su empleo en KEI Partners (una firma en Estados Unidos con supuestos vínculos indirectos al Tren Maya a través de socios), una casa rentada en Houston ligada a un ejecutivo de Baker Hughes, y sospechas de un estilo de vida lujoso. López Beltrán tildó esa información de “imprecisa y falsa” y exigió una rectificación, negando conflictos de interés.
La viralización del último intercambio ha generado tendencias en X, donde la situación se describe como un “drama”, con defensores que aplauden la defensa contra el “odio algorítmico” y críticos que lo ven como sensibilidad excesiva a cuestionamientos sobre nepotismo.

