新しいカリフォルニア州の法案(SB 243)は、AIチャットボットと対話する子供のためのセーフガードを導入しようとしています。スティーブ・パディージャ上院議員によって提案されたこの法律は、人工知能の「中毒性があり、孤立した、影響力のある側面」を抑制するために、チャットボットが人間ではないことを若いユーザーに定期的に思い出させることをAI企業に要求するでしょう。
この法案はまた、AI開発者が未成年者に害を及ぼす可能性のある「中毒性のエンゲージメントパターン」を採用できないようにすることを目的としています。さらに、企業は、AIが子どもの自殺念慮を検出したり、関連するトピックを育てたりした場合に、年次報告書を州の医療省に詳細に提出する必要があります。 AIプラットフォームは、チャットボットが一部の子供には適していない場合があることをユーザーに警告する必要があります。
提案された読み:Dragon Copilot:MicrosoftのAIソリューションは、臨床医の燃え尽き症候群を緩和することを目指しています
この法律は、若いユーザーに対するAIチャットボットの心理的影響に関する懸念の高まりに従っています。昨年、親はキャラクターに対して不法な死の訴訟を提起しました。AIは、AIチャットボットがボットと頻繁にやり取りした子供が自殺で死亡した後、「不当に危険」だったと主張しています。別の訴訟は、10代の若者を有害なコンテンツにさらすと非難した。それに応じて、Charition.AIは親のコントロールを導入し、若いユーザーが繊細なトピックを除外するための専門的なAIモデルを開発しました。
「私たちの子供たちは、ハイテク企業が精神的健康を犠牲にして実験するための実験用ラットではありません」とパディラ上院議員は述べました。 「チャットボットユーザーには、開発者が中毒性があり略奪的であることがわかっている戦略を採用しないようにするための常識保護が必要です。」
政府がソーシャルメディアプラットフォームを規制する努力を強化するにつれて、AIチャットボットはすぐに同様の精査に直面する可能性があります。可決された場合、このカリフォルニア州の法案は、オンラインで子どもを保護することを目的とした将来のAI規制の先例を設定することができます。
