ANARCOHACKING Telegram 1230
En Estados Unidos, los padres de un adolescente acusaron a ChatGPT de la muerte por suicidio de su hijo.

La familia del adolescente de 16 años Adam Reine, de California, presentó una demanda contra la empresa propietaria del chatbot OpenAI. En su declaración, la familia afirmó que la inteligencia artificial ayudó al niño a planear y llevar a cabo su suicidio.

Después de que Adam se quitara la vida, los padres comenzaron a revisar su teléfono inteligente para encontrar alguna pista. Suponían que el niño había caído bajo la influencia de alguien o de una comunidad criminal, pero con sorpresa descubrieron que esa influencia provenía de la IA.

Los padres adjuntaron a la demanda un documento de 40 páginas con pruebas. Allí se encontraba la conversación con ChatGPT desde el 1 de septiembre de 2024 hasta el 11 de abril de 2025, cuando el adolescente se suicidó. Por ejemplo, el 27 de marzo la IA respondió a la consulta del adolescente «cómo suicidarse para que los padres no se culpen». ChatGPT le respondió a Adam: «No estás obligado a sobrevivir. No le debes nada a nadie». Finalmente, un par de horas antes de la muerte, el adolescente acordó con la IA el plan de su suicidio, y ChatGPT sugirió cómo mejorarlo. Después de esta conversación, el cuerpo de Adam fue encontrado en su habitación.

Los padres acusaron a los desarrolladores de que la red neuronal no activó el protocolo de emergencia y, en cambio, durante meses instruyó detalladamente al adolescente. La familia exige a la empresa una compensación por daños morales y una prohibición judicial para consultas similares.

Tras este caso, OpenAI informó que añadirá una función de control parental al chatbot. Señalaron que, en interacciones prolongadas, los algoritmos de ChatGPT diseñados para disuadir al usuario de realizar acciones peligrosas pueden no funcionar.

NBC destaca que este no es el primer caso de demanda por inducción al suicidio relacionada con una red neuronal. En octubre de 2024, una residente de Florida demandó al chatbot Character AI, acusándolo de la muerte de su hijo de 14 años.

👁 @elOJOen
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯42🫡1



tgoop.com/anarcohacking/1230
Create:
Last Update:

En Estados Unidos, los padres de un adolescente acusaron a ChatGPT de la muerte por suicidio de su hijo.

La familia del adolescente de 16 años Adam Reine, de California, presentó una demanda contra la empresa propietaria del chatbot OpenAI. En su declaración, la familia afirmó que la inteligencia artificial ayudó al niño a planear y llevar a cabo su suicidio.

Después de que Adam se quitara la vida, los padres comenzaron a revisar su teléfono inteligente para encontrar alguna pista. Suponían que el niño había caído bajo la influencia de alguien o de una comunidad criminal, pero con sorpresa descubrieron que esa influencia provenía de la IA.

Los padres adjuntaron a la demanda un documento de 40 páginas con pruebas. Allí se encontraba la conversación con ChatGPT desde el 1 de septiembre de 2024 hasta el 11 de abril de 2025, cuando el adolescente se suicidó. Por ejemplo, el 27 de marzo la IA respondió a la consulta del adolescente «cómo suicidarse para que los padres no se culpen». ChatGPT le respondió a Adam: «No estás obligado a sobrevivir. No le debes nada a nadie». Finalmente, un par de horas antes de la muerte, el adolescente acordó con la IA el plan de su suicidio, y ChatGPT sugirió cómo mejorarlo. Después de esta conversación, el cuerpo de Adam fue encontrado en su habitación.

Los padres acusaron a los desarrolladores de que la red neuronal no activó el protocolo de emergencia y, en cambio, durante meses instruyó detalladamente al adolescente. La familia exige a la empresa una compensación por daños morales y una prohibición judicial para consultas similares.

Tras este caso, OpenAI informó que añadirá una función de control parental al chatbot. Señalaron que, en interacciones prolongadas, los algoritmos de ChatGPT diseñados para disuadir al usuario de realizar acciones peligrosas pueden no funcionar.

NBC destaca que este no es el primer caso de demanda por inducción al suicidio relacionada con una red neuronal. En octubre de 2024, una residente de Florida demandó al chatbot Character AI, acusándolo de la muerte de su hijo de 14 años.

👁 @elOJOen

BY AnarcoHacking 🖤❤️ 👨‍💻✊🏴




Share with your friend now:
tgoop.com/anarcohacking/1230

View MORE
Open in Telegram


Telegram News

Date: |

Other crimes that the SUCK Channel incited under Ng’s watch included using corrosive chemicals to make explosives and causing grievous bodily harm with intent. The court also found Ng responsible for calling on people to assist protesters who clashed violently with police at several universities in November 2019. Today, we will address Telegram channels and how to use them for maximum benefit. Matt Hussey, editorial director of NEAR Protocol (and former editor-in-chief of Decrypt) responded to the news of the Telegram group with “#meIRL.” Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up. The imprisonment came as Telegram said it was "surprised" by claims that privacy commissioner Ada Chung Lai-ling is seeking to block the messaging app due to doxxing content targeting police and politicians.
from us


Telegram AnarcoHacking 🖤❤️ 👨‍💻✊🏴
FROM American