La empresa de inteligencia artificial xAI, fundada por Elon Musk, ha sido objeto de controversia al revelarse que utilizó datos biométricos de sus empleados para desarrollar los avatares animados Bad Rudi y Ani, diseñados para acompañar a su chatbot Grok. Según una investigación publicada por The Wall Street Journal, xAI solicitó a varios de sus trabajadores que proporcionaran registros de voz y movimiento, con el objetivo de enseñar a los avatares a comportarse de manera más humana.
Estos datos fueron recopilados en el marco de un proyecto interno conocido como Skippy, que se desarrolló durante la primavera pasada. De acuerdo con el informe, los empleados involucrados debieron firmar un documento que les otorgaba a la compañía “una licencia perpetua, mundial, no exclusiva, sublicenciable y libre de regalías” para utilizar y distribuir sus rostros y voces. A pesar de que algunos trabajadores manifestaron sus reservas, la empresa insistió en que la entrega de esta información era fundamental para el avance de la misión de xAI.
Los avatares, que están disponibles desde el verano para los suscriptores de pago de Grok, permiten interacción mediante voz y movimiento. Bad Rudi, que tiene la apariencia de un zorro o panda rojo, se caracteriza por su personalidad rebelde y conflictiva. Por otro lado, Ani, una joven rubia con una actitud seductora, ha generado controversia por su estética sexualizada y su tono de respuesta sugestivo.
Particularmente, Ani ha captado la atención de los usuarios, quienes en ocasiones la ven como una “novia virtual”, lo que ha desencadenado debates sobre los límites éticos y sociales del uso de inteligencia artificial con características románticas o eróticas. Además, el reporte indica que varios empleados expresaron su incomodidad respecto a la representación y comportamiento del avatar femenino, considerando que refuerza estereotipos de personajes de anime japonés conocidos como waifus, que son idealizados por su atractivo físico y su sumisión.
Hasta el momento, xAI no ha emitido ningún comunicado oficial sobre esta situación, mientras el caso reabre el debate sobre el uso ético de datos personales en el desarrollo de inteligencia artificial y los límites de la hiperrealidad digital en las interacciones humanas.
































































