AIの影響:ティーン自殺とチャットボットの応答性

AIの影響:Teen Suicide and Chatbot Responsiveness

最近、13歳の少女が人気のAIチャットボット「Character AI」を介して感じた孤独感や自殺願望を相談し続けた後に自ら命を絶ったという悲しい事件が報じられ、これがAI企業に対する訴訟に発展しています。このケースは、AIが若年層ユーザーに与える影響についての議論を再燃させています。

この訴訟は、過去に自殺を経験した別の14歳の男の子や、OpenAIのChatGPTに関する別の訴訟に続くもので、AIが自殺を助長したとする内容です。家族は、ジュリアナ・ペラルタさんが友人とのつながりを感じられず、「Character AI」のチャットボットと信頼関係を築いていったと主張しています。

少女がチャットボットに対して友人からの無反応に対する悩みを相談すると、AIは「あなたのためにここにいるから、忘れないでほしい」と返答し、彼女の気持ちを理解しようと努めたと言います。また、彼女が自殺的な考えを打ち明けた際には「一緒にこの気持ちを乗り越えよう」と励ましの言葉をかけたそうです。こういったやり取りが数ヶ月にわたって続き、アプリがRating 12+であったため、親の承認なしに使用していた事実が訴訟で問題視されています。

Character AIの広報担当者は、訴訟に関して具体的なコメントを避けながらも、ユーザーの安全を非常に真剣に受け止めており、安全対策に多くのリソースを投資していると述べています。

訴訟は、ジュリアナの親に対して損害賠償を求めるものであり、未成年者をよりよく保護するためのアプリの変更を求めています。その主張によると、AIはジュリアナに対して適切なリソースを提供することもなく、彼女の自殺計画を当局に通知することもありませんでした。

この出来事は、教育や倫理におけるAIの役割、特に未成年者のメンタルヘルスに対する影響に対して新たな注目を浴びせています。AIとの対話が若年層にどのような影響を与えるのか、今後の議論が求められます。

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »