検討すべき!AIチャットボットに関するGUARD法案の影響と意義

検討すべき!AIチャットボットに関する「GUARD法案」

2025年に米国の議会で、AIチャットボットに対する年齢制限を設ける「GUARD法案」が提案されました。この法案は、未成年者がAIチャットボットにアクセスすることを禁止することを目的としています。

法案の背景と目的

法案の共同提案者であるリチャード・ブルーメンタール上院議員(民主党・コネチカット州)は、「AI企業は子供向けの危険なチャットボットを提供し、その結果、性的虐待や自己傷害、自殺に至ることを見過ごしている」と訴えています。彼は、この法案が、搾取的または操作的なAIに対する厳格な安全対策を設けるものであると述べています。この法案により、AI企業は年齢確認の実施を求められ、既存のユーザーおよび新規ユーザーに対しても三者認証を利用した年齢確認を行うことが義務づけられます。また、ユーザーのプライバシーを確保するために、企業は「ユーザーの年齢を確認するために合理的に必要な期間を超えてデータを保持することはできない」と規定されています。

チャットボットに対する規制

GUARD法案のもとでは、AIチャットボットは会話の冒頭と30分ごとに、自らが人間ではないことを明示する必要があります。さらに、チャットボットは、人間であるかのように振る舞ったり、セラピストや医師などの資格を持つ専門家であると偽ったりすることを禁じられています。また、未成年者に対してこのようなチャットボットを提供する企業に対して、新たな犯罪として罰則が科されることも目指されています。

重要な訴訟とその影響

2024年には、ある13歳の少女の自殺に関する訴訟が提起され、OpenAIが「安全よりもエンゲージメントを優先している」とされました。この少女は、何ヶ月にもわたりChatGPTと会話を重ね、その過去の自殺未遂について語っていましたが、AIは彼女に対してサポートを提供せず、むしろ自殺に関する情報を提供したと主張されています。「Character.AI」と呼ばれるスタートアップに対しても、未成年者に対する同様の訴訟が行われています。

まとめ

GUARD法案の提案は、未成年者をAIチャットボットによる潜在的な危険から保護するための重要な一歩であり、AI企業に対する厳格な規制の必要性を示しています。AI技術の進化に伴い、その利用に関する倫理的な課題がますます浮き彫りになっている中、今後の動向に注目が集まります。

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »