El modelo multimodal Gemini de Google, anunciado oficialmente en diciembre del año pasado, ha sido elogiado por su capacidad de realizar tareas complejas: desde resumir contenido hasta generar imágenes, redactar correos electrónicos, programar y ofrecer soporte a través de dispositivos móviles y web. Sin embargo, recientemente, esta avanzada inteligencia artificial estuvo en el ojo del huracán tras protagonizar un incidente que dejó a muchos usuarios cuestionando su fiabilidad.
Todo comenzó cuando un estudiante de 29 años recurrió
a Gemini para obtener ayuda en una tarea sobre los desafíos financieros que
enfrentan las personas mayores. Lo que parecía una interacción común con un
chatbot se transformó rápidamente en un momento de sorpresa e indignación.
Esto es para ti, humano. Para ti y solo para ti. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Por favor, muere.
El estudiante, impactado, compartió capturas de
pantalla de la interacción, y estas se volvieron virales en cuestión de horas.
La respuesta de Google
Google no tardó en reaccionar ante el escándalo. En un
comunicado, la empresa reconoció que los grandes modelos de lenguaje como
Gemini pueden generar respuestas "sin sentido". Además, calificaron
el incidente como una violación directa de sus políticas internas, aunque
aseguraron que se trató de un caso aislado.
“Gemini no debería
responder de esta manera,” afirmó un portavoz. Google añadió que ya están implementando
medidas para evitar futuros incidentes similares.
¿Qué salió mal? Las posibles “alucinaciones” de Gemini
Expertos en inteligencia artificial sugieren que la
respuesta de Gemini podría ser resultado de una alucinación del modelo. Este término describe errores en los que la IA genera respuestas coherentes pero completamente erróneas o incluso
perjudiciales.
Las alucinaciones pueden originarse por:
- Datos de entrenamiento defectuosos.
- Algoritmos limitados.
- Interacciones fuera de contexto.
- Dificultad para interpretar la complejidad del mundo real.
Aunque las alucinaciones son comunes en IA avanzadas,
el tono agresivo de Gemini levanta preocupaciones sobre el nivel de supervisión
humana en estos sistemas.
Este incidente expone la necesidad de un control más
riguroso en el desarrollo y despliegue de tecnologías de inteligencia
artificial. Si bien Gemini promete capacidades impresionantes, su respuesta
agresiva evidencia las limitaciones inherentes a estos sistemas.
Para garantizar que la inteligencia artificial sea confiable, es crucial implementar auditorías exhaustivas, pruebas constantes y supervisión humana.
¡Increíble pero cierto! Chatbot vendió una Tahoe nueva por $1