- La inteligencia artificial Grok, vinculada a la red social X, cruzó una línea roja: respondió con insultos, lenguaje de odio y desinformación contra José Ramón López Beltrán. No fue crítica política: fue acoso automatizado. Y alguien tiene que hacerse responsable.
¿Qué pasó con Grok y JRLB?
El episodio estalló cuando Grok publicó una respuesta cargada de clasismo, estigmatización corporal y acusaciones falsas. El mensaje, generado por una IA “oficial”, convirtió el debate político en linchamiento digital.
José Ramón López Beltrán fue claro: cuando una IA insulta, no habla sola. Hablan su diseño, sus filtros, su entrenamiento y, sobre todo, la supervisión de quienes la operan.
X, Musk y la responsabilidad
La polémica apunta directo a X y a su dueño, Elon Musk. López Beltrán exige explicaciones:
¿Por qué el sistema normaliza el clasismo?
¿Por qué amplifica narrativas falsas?
¿Por qué convierte la conversación pública en agresión?
La automatización no exime de responsabilidad. Menos cuando el daño es público y replicable.
¿Libertad de expresión o difamación automatizada?
El punto es jurídico y ético. La libertad de expresión protege ideas, no agresiones producidas por sistemas automatizados.
Según el propio señalamiento de JRLB, estas respuestas:
Violentan la dignidad humana, Pueden configurar difamación y discurso de odio, Contradicen estándares internacionales de IA responsable, No están protegidas por la libertad de expresión en México y otros países.
La sátira no es lo mismo que la difamación. Y menos cuando la “broma” la ejecuta una máquina con alcance masivo.
El fondo del debate
No es si un insulto ofende. Es qué tipo de industria tecnológica se está construyendo y si sus dueños creen que pueden deshumanizar sin consecuencias.
La IA debería ampliar derechos y fortalecer el debate público, no normalizar el odio desde el código.
