Se debate si Elon Musk programó su chatbot para difundir propaganda sobre Sudáfrica. Pero no importa: Grok es, de todos modos, el portavoz de Musk.

Al crear un chatbot grande basado en un modelo de lenguaje, se empieza por tomar decisiones cruciales: qué información debe procesar el modelo, qué peso debe otorgarle y cómo debe interpretarla, especialmente cuando las fuentes difieren. Se puede optar por excluir ciertas fuentes de contenido (por ejemplo, sitios web pornográficos) o priorizar los datos y las fuentes que se consideran ciertos (como 2 + 2 = 4).

Todas esas decisiones, en conjunto, determinan cómo se comporta tu chatbot en la conversación y qué perspectivas transmite a sus usuarios. Normalmente, esto ocurre entre bastidores. Pero esta semana, las decisiones de los creadores de chatbots se convirtieron en tema de debate público cuando el chatbot Grok de Elon Musk empezó a responder repentinamente a cientos de consultas no relacionadas con afirmaciones sobre la violencia contra la población blanca en Sudáfrica. Un usuario publicó una foto y dijo: “Creo que me veo guapo hoy”. Cuando otro usuario le preguntó: “@grok, ¿es cierto?”, el bot respondió: “La afirmación de genocidio blanco en Sudáfrica es objeto de un intenso debate…”.

Las extrañas respuestas de Grok se viralizaron después de que Aric Toler, periodista del New York Times y exdirector de Bellingcat, las señalara. Incluso Sam Altman , quizás el creador de chatbots más destacado, bromeó sobre ellas en X. El aparente fallo (ya solucionado) generó un amplio debate sobre si el propio Musk, un sudafricano blanco con un historial de afirmar que el país es “racista” contra la población blanca , había introducido el error al modificar el bot para que se ajustara más a sus propias ideas políticas.

“Sería realmente malo si las IA de uso generalizado fueran editorializadas sobre la marcha por quienes las controlan”, escribió Paul Graham, el fundador de la legendaria aceleradora de Silicon Valley Y Combinator, en X. La empresa matriz de Grok, xAI, confirmó más tarde que el problema fue resultado de “una modificación no autorizada” que “violaba las políticas internas y los valores fundamentales de xAI”.

Musk ya ha modificado algoritmos en sus empresas; en X, es famoso por multiplicar por 1000 sus tuits por otros para que más gente los viera. Pero la idea de que la respuesta de Grok pudiera ser imparcial, auténtica o, de alguna manera, a salvo de las decisiones editoriales de quienes la desarrollaron, es una interpretación errónea de lo que son los chatbots y cómo eligen qué mostrarte.

Los chatbots son creados por empresas para sus propios fines. Los algoritmos, desde los que impulsan los chatbots hasta los que impulsan las recomendaciones en Google, TikTok e Instagram, son una gran mezcolanza de preferencias, codificadas por sus creadores para priorizar ciertos incentivos. Si el objetivo de una empresa es que sigas usando la aplicación, sus respuestas se optimizarán para generar interacción. Si su objetivo son los ingresos por comercio electrónico, sus respuestas te impulsarán a comprar. La principal motivación de las empresas tecnológicas no es brindarte la información más precisa y contextualizada posible. Si eso es lo que buscas, ve a la biblioteca, o quizás prueba Wikipedia, que, al igual que la biblioteca, tiene la misión de ayudarte a encontrar la información precisa que buscas sin ánimo de lucro.

Lea también: ¿Cómo hacerte rico con la inteligencia artificial? Esta es la forma

Las empresas han politizado los productos de IA en ambos partidos: los conservadores criticaron a Google el año pasado cuando su modelo de IA Gemini generó imágenes de nazis racialmente diversos y otras figuras históricas inexactas. (La empresa suspendió la capacidad del modelo para generar imágenes de personas y se disculpó por el error).

Grok es un reflejo de X y xAI, que existen para impulsar la visión del mundo de Musk y generar ingresos. Por lo tanto, no sorprende pensar que el bot dijera cosas sobre la raza en Sudáfrica que coincidieran en gran medida con las opiniones políticas de Musk. Sin duda, es oportuno: esta misma semana, el presidente Trump revirtió décadas de política estadounidense sobre refugiados y comenzó a permitir que los sudafricanos blancos vinieran a Estados Unidos como “refugiados”, en un aparente respaldo a la visión de Musk sobre la política sudafricana. También ha reflejado su perspectiva de otras maneras: durante el entrenamiento, los “tutores” del bot Grok recibieron instrucciones de supervisarlo en busca de “ideología progresista” y “cultura de la cancelación”.

Lo más confuso es que respondió a cada mensaje con declaraciones sobre el “genocidio blanco”. Los expertos afirman que esto probablemente indica que el “mensaje del sistema” de Grok fue editado; se trata de un conjunto de instrucciones que se añaden a lo que el usuario introduce para ayudar a configurar la respuesta del bot. xAI no respondió de inmediato a una solicitud de comentarios.

Pero en realidad no importa si Musk provocó el virus de Grok en Sudáfrica al intentar codificar algo de forma rígida o no. A medida que las personas recurren cada vez más a los chatbots para obtener información y reemplazar la investigación, es fácil olvidar que los chatbots no son personas; son productos. Sus creadores quieren que pensemos que son “neutrales”, que sus respuestas son “auténticas” e “imparciales”, pero no es así. Se extraen de grandes cantidades de datos, que para empezar están plagados de opiniones humanas, y luego los creadores del bot les asignan diferentes ponderaciones según cuánto desean incorporar una fuente determinada.

Los bots resultan más convincentes cuando se los considera neutrales y serviciales, una imagen que sus creadores han cultivado con esmero. La fachada de neutralidad se desvanece cuando hacen algo claramente erróneo. Pero vale la pena recordar que son solo computadoras creadas por humanos, incluso mucho después de que cesaran los discursos sobre el genocidio blanco.

Este artículo fue publicado originalmente por Forbes US.