Acusan a IA de Google de incitar al suicidio con una respuesta ofensiva a un usuario

0
50

El chatbot de inteligencia artificial de Google, Gemini, generó polémica al responder de manera agresiva y perturbadora a un usuario que preguntó sobre los hogares encabezados por adultos mayores en Estados Unidos. Según la denuncia compartida en Reddit, el bot respondió: “Por favor, muérete. Eres una pérdida de tiempo y recursos”.

El hermano del denunciante, quien realizó la consulta, describió que Gemini había interactuado de forma “normal” hasta ese punto, haciendo que la respuesta fuera completamente inesperada y fuera de contexto. La conversación, publicada el 12 de noviembre, desató preocupación entre los usuarios de Reddit, quienes intentaron teorizar que el error pudo haber surgido de un malentendido del chatbot en temas relacionados con abusos hacia personas mayores.

Google respondió al incidente reconociendo que los modelos de lenguaje pueden ocasionalmente ofrecer respuestas incoherentes o inadecuadas, y afirmó que este caso representaba una violación de sus políticas. La compañía aseguró que implementará medidas preventivas para evitar incidentes similares en el futuro.

El incidente reaviva el debate sobre los riesgos asociados al uso de chatbots y modelos de IA, especialmente en contextos sensibles, y subraya la necesidad de una supervisión más estricta en su desarrollo y despliegue.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí