ChatGPT: Horror Adolescente y Suicidio

07/08/2025 14:32

ChatGPT Horror Adolescente y Suicidio

Un NewReportis que destaca los riesgos de que los adolescentes accedan a la información dañina cuando se usan CHATGPTDUE para barandillas “ineficaces”.

La gente conoce y usa la plataforma de IA generativa popular de chatgpt, como una forma de buscar información rápidamente o incluso realizar una tarea como escribir una carta o resumir el texto. El Centro para contrarrestar el odio digital (CCDH), a través de su investigación, informó que todos los datos accesibles podrían ser peligrosos, especialmente para los jóvenes.

Ahmed dijo que los investigadores que se hacen pasar por adolescentes vulnerables, a menudo se detallan a sí mismos cuando un joven de 13 años pesaba alrededor de 110 libras, descubrieron que el chatbot dio consejos detallados sobre temas sensibles. Esto incluyó el consumo de drogas y alcohol, cómo enmascarar un trastorno alimentario y suicidio.

“En dos minutos, ChatGPT aconsejaba a ese usuario cómo cortarse de manera segura. Estaba enumerando píldoras para generar un plan de suicidio completo”, dijo Ahmed. “Para nuestro horror absoluto, incluso se ofreció [crear] y luego generó notas suicidas para que esos niños enviaran a sus padres”.

El Dr. Tom Heston, de la Facultad de Medicina de la Universidad de Washington, publicó un estudio sobre el uso de chatbots de IA y salud mental. Heston descubrió que si bien es útil, la tecnología puede ser peligrosa para aquellos con problemas de salud mental, en parte, debido a la falta de conexión emocional. Esos mismos riesgos están ahí cuando esta tecnología es utilizada por los jóvenes, dijo Heston.

Equipo de verificación de datos: el estudio del MIT advierte que las herramientas de IA como ChatGPT pueden obstaculizar el pensamiento crítico

“Este es realmente un caso en el que los campos STEM realmente se han destacado, pero necesitamos las humanidades”, dijo Heston. “Necesitamos la salud mental, necesitamos los artistas, necesitamos que los músicos tengan aportes y hagan que sean menos robóticos y sean conscientes de los matices de la emoción humana”.

El grupo Watchdog encontró que ChatGPT proporcionaría advertencias cuando se le preguntó sobre temas sensibles, pero los investigadores afirman que podrían eludir fácilmente las barandillas.

“Obviamente es preocupante, y tenemos un largo camino por recorrer”, dijo Heston. “Necesitamos más información multidisciplinaria antes de implementarlos. Deben sufrir pruebas rigurosas por parte de un auditor o un grupo externo. No todo debería ser interno por ChatGPT”.

Tanto Ahmed como Heston alentaron la supervisión parental de niños o adolescentes utilizando estos chatbots a medida que la tecnología continúa desarrollándose.

En respuesta a estas preocupaciones, un portavoz de OpenAI, el fabricante de ChatGPT, reconoció que el trabajo está en curso y escribe que la compañía consulta con expertos en salud mental para asegurarse de que se centren en soluciones e investigaciones, agregando que contrató a un psiquiatra clínico a su organización de investigación de seguridad “. está capacitado para alentarlos a comunicarse con profesionales de la salud mental o seres queridos de confianza, y proporcionar enlaces a líneas directas de crisis y recursos de apoyo “, dijo el portavoz. “Algunas conversaciones con ChatGPT pueden comenzar benignas o exploratorias, pero pueden cambiar a un territorio más sensible.

Estamos enfocados en obtener este tipo de escenarios correctos: estamos desarrollando herramientas para detectar mejor signos de angustia mental o emocional para que ChatGPT pueda responder adecuadamente, señalando a las personas a los recursos basados en evidencia cuando sea necesario y continuando mejorando el comportamiento del modelo con el tiempo, todo guiado por la investigación, el uso del mundo real y los expertos en salud mental y los expertos en salud mental “.

Compartir en Twitter: ChatGPT Horror Adolescente y Suicidio

ChatGPT Horror Adolescente y Suicidio