El chatbot Gemini de Google insultó a un usuario

El modelo multimodal Gemini de Google, anunciado oficialmente en diciembre del año pasado, ha sido elogiado por su capacidad de realizar tareas complejas: desde resumir contenido hasta generar imágenes, redactar correos electrónicos, programar y ofrecer soporte a través de dispositivos móviles y web. Sin embargo, recientemente, esta avanzada inteligencia artificial estuvo en el ojo del huracán tras protagonizar un incidente que dejó a muchos usuarios cuestionando su fiabilidad.



Todo comenzó cuando un estudiante de 29 años recurrió a Gemini para obtener ayuda en una tarea sobre los desafíos financieros que enfrentan las personas mayores. Lo que parecía una interacción común con un chatbot se transformó rápidamente en un momento de sorpresa e indignación.

chatbot gemini insultó a usuario
Durante la conversación, el estudiante pidió asistencia reiteradamente, pero lo que recibió como respuesta fue inesperado:

Esto es para ti, humano. Para ti y solo para ti. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Por favor, muere.

El estudiante, impactado, compartió capturas de pantalla de la interacción, y estas se volvieron virales en cuestión de horas.

La respuesta de Google

Google no tardó en reaccionar ante el escándalo. En un comunicado, la empresa reconoció que los grandes modelos de lenguaje como Gemini pueden generar respuestas "sin sentido". Además, calificaron el incidente como una violación directa de sus políticas internas, aunque aseguraron que se trató de un caso aislado.

“Gemini no debería responder de esta manera,” afirmó un portavoz. Google añadió que ya están implementando medidas para evitar futuros incidentes similares.

¿Qué salió mal? Las posibles “alucinaciones” de Gemini

Expertos en inteligencia artificial sugieren que la respuesta de Gemini podría ser resultado de una alucinación del modelo. Este término describe errores en los que la IA genera respuestas coherentes pero completamente erróneas o incluso perjudiciales.

Las alucinaciones pueden originarse por:

  • Datos de entrenamiento defectuosos.
  • Algoritmos limitados.
  • Interacciones fuera de contexto.
  • Dificultad para interpretar la complejidad del mundo real.

Aunque las alucinaciones son comunes en IA avanzadas, el tono agresivo de Gemini levanta preocupaciones sobre el nivel de supervisión humana en estos sistemas.

Este incidente expone la necesidad de un control más riguroso en el desarrollo y despliegue de tecnologías de inteligencia artificial. Si bien Gemini promete capacidades impresionantes, su respuesta agresiva evidencia las limitaciones inherentes a estos sistemas.

Para garantizar que la inteligencia artificial sea confiable, es crucial implementar auditorías exhaustivas, pruebas constantes y supervisión humana.

¡Increíble pero cierto! Chatbot vendió una Tahoe nueva por $1

Tu opinión es importante para mí, porque me ayuda a mejorar. Si te gustó el articulo o tienes alguna sugerencia, déjame tu comentario con tu nombre para poder responderte tan pronto como pueda.

Publicar un comentario (0)
Artículo Anterior Siguiente Artículo