AIチャットボットChatGPTの背後にある組織であるOpenaiは、個人に関する誤った虚偽の情報を生成しているチャットボットが生成しているため、ノルウェーでプライバシーの苦情に直面しています。このインシデントは、AI生成コンテンツの精度と信頼性に関する継続的な懸念を強調しています。
ノルウェーの個人は、ChatGptが2人の子供を殺害し、3分の1を殺そうとしたことで有罪判決を受けたと主張して、製造された情報を作成したことを発見しました。これらの根拠のない主張は、関係する個人に重大な苦痛と潜在的な評判の害を引き起こしました。
プライバシー擁護団体NOYB(あなたのビジネスのいずれも)は、ノルウェーのデータ保護局であるDatatilSynetに苦情を申し立てることにより、影響を受ける個人をサポートしています。 Noybは、OpenaiのChatGPTが、不正確な個人データを作成および普及させることにより、一般的なデータ保護規則(GDPR)に違反していると主張しています。 NOYBのデータ保護弁護士であるJoakimSöderbergは、「GDPRは明確です。個人データは正確でなければなりません。そうでない場合、ユーザーは真実を反映するために変更する権利があります。」
GDPRの下で、組織は、処理する個人データの正確性を確保する義務があります。規則は、個人に不正確なデータを是正する権利を個人に付与します。この場合、CHATGPTの申立人に関する誤った誤った情報の生成は、これらの規定の違反と見なされる可能性があります。 GDPRの確認された違反により、企業の世界的な年間売上高の最大4%の罰則が生じる可能性があります。
しばしば「幻覚」と呼ばれるChatGptの不正確さが、法的課題につながったのはこれが初めてではありません。
- 2023年、オーストラリアの市長は、ChatGptが贈収賄のために投獄されたと誤って主張した後、法的措置を検討しました。
- 2024年、イタリアのデータ保護局は、適切な法的根拠なしに個人データを処理するために1500万ユーロの罰金を科しました。
- 米国では、ChatGptがラジオホストに対する法的告発を作成した後、Openaiに対して名誉am損訴訟が提起されました。
これらの事件は、AIに生成された誤った情報とその潜在的な法的影響のより広範な問題を強調しています。
関連している:ユーザーが情報のために会話型AIを受け入れると、Googleは競争に直面しています
Openaiは、ChatGPTが不正確な情報を作成できることを認め、ChatBotの出力を確認するようユーザーにアドバイスする免責事項を実装しています。しかし、批評家は、そのような免責事項は虚偽の情報によって引き起こされる害を軽減するには不十分であると主張しています。ノルウェーのデータ保護局がGDPRに違反してOpenaiを見つけた場合、当社はかなりの罰金に直面し、将来の不正確さを防ぐための措置を実施する必要がある可能性があります。
ノルウェーに提出された苦情は、ChatGPTなどのAIシステムの精査とデータ保護法の遵守に追加されます。 AIテクノロジーが進化し続けるにつれて、AIが生成されたコンテンツの精度と信頼性を確保することは、開発者と規制当局にとって同様に重要な課題のままです。
ソース:TechCrunch
