人工知能(AI)は危険ですか?

2023年5月22日月曜日、「ブルームバーグフィード」と呼ばれる検証済みのTwitterアカウントが、そこにあったと主張するツイートを共有しましたペンタゴンでの爆発、画像を伴います。これが人工知能(AI)と何が関係しているのか疑問に思っているなら、画像はAIに生成されたものであり、ツイートはすぐにバイラルになり、短い株式市場のディップを引き起こします。物事はさらに悪化していたかもしれません。人工知能の危険性を思い出させるものです。

人工知能の危険

それは私たちが心配する必要がある偽のニュースだけではありません。プライバシーやセキュリティに関するものからバイアスや著作権の問題に至るまで、AIに関連する多くの即時または潜在的なリスクがあります。これらの人工知能の危険のいくつかに飛び込み、現在および将来それらを軽減するために何が行われているかを確認し、AIのリスクが利点を上回るかどうかを尋ねます。

目次

偽のニュース

ディープフェイクが最初に上陸したとき、彼らは悪意を持って使用できるという懸念が生じました。 Dall-E 2、Midjourney、DreamstudioなどのAI画像ジェネレーターの新しい波についても同じことが言えます。 2023年3月28日、偽物教皇フランシスのAI生成画像白いバレンシアガのパフジャケットで、スケートボードやポーカーの演奏など、いくつかの冒険を楽しんでいます。画像を綿密に研究しない限り、これらの画像を本物と区別することは困難でした。

教皇の例は間違いなく少し楽しいものでしたが、ペンタゴンに関するイメージ(そしてそれに伴うツイート)は何のものではありませんでした。 AIによって生み出された偽の画像には、評判にダメージを与え、結婚やキャリアを終わらせ、政治的不安を引き起こし、間違った人々に装備された場合、戦争を開始する力があります。

AIイメージジェネレーターを使用すると、誰でも使用できるようになりました。Photoshop AIイメージジェネレーターを追加します人気のあるソフトウェアにとって、画像を操作して偽のニュースを作成する機会はこれまで以上に大きくなります。

プライバシー、セキュリティ、ハッキング

プライバシーとセキュリティは、AIのリスクに関しても大きな懸念事項であり、多くの国がすでにOpenaiのChatGPTを禁止しています。イタリアはプライバシーの懸念のためにモデルを禁止しており、欧州の一般データ保護規則(GDPR)に準拠していないと考えていますが、中国、北朝鮮、ロシアの政府は、誤った情報を広めることを恐れて禁止しました。

では、AIに関しては、なぜプライバシーをそんなに心配しているのでしょうか? AIアプリとシステムは、予測を学び、作成するために大量のデータを収集します。しかし、このデータはどのように保存および処理されますか?データ侵害、ハッキング、および情報が間違った手に落ちるという本当のリスクがあります。

危険にさらされているのは私たちの個人データだけではありません。 AIハッキングは真のリスクです。まだ起こっていませんが、悪意を持っている人がAIシステムにハッキングできる場合、これは深刻な結果をもたらす可能性があります。たとえば、ハッカーは無人車両を制御したり、AIセキュリティシステムをハッキングして、非常に安全な場所への参入を獲得したり、AIセキュリティを使用して武器システムをハッキングできます。

米国国防総省の防衛先進研究プロジェクト局(DARPA)の専門家は、これらのリスクを認識しており、すでにDECEPTION(GARD)プロジェクトに対するAIの堅牢性を保証するDARPAの保証に取り組んでおり、問題に取り組んでいます。プロジェクトの目標は、ハッキングと改ざんに対する抵抗がアルゴリズムとAIに組み込まれるようにすることです。

著作権侵害

続きを読む:人工知能は、人間と動物のコミュニケーションのギャップを埋めます

AIのもう1つの危険性は、著作権侵害です。これは、私たちが言及した他のいくつかの危険ほど深刻ではないかもしれませんが、GPT-4のようなAIモデルの開発により、全員が侵害のリスクを高めます。

ChatGptに何かを作成するように依頼するたびに、それが旅行に関するブログ投稿であろうとビジネスの新しい名前であろうと、将来のクエリに答えるために使用する情報を提供しています。それがあなたに返している情報は、他の誰かの著作権を侵害している可能性があります。そのため、盗作検出器を使用して、公開する前にAIによって作成されたコンテンツを編集することが非常に重要です。

社会的およびデータバイアス

aiは人間ではないので、偏見はありませんよね?間違っている。人とデータは、AIモデルとチャットボットのトレーニングに使用されます。これは、偏ったデータまたはパーソナリティが偏ったAIにつながることを意味します。 AIには、社会的バイアスとデータバイアスの2つのタイプがあります。

日常の社会に多くのバイアスが存在するため、これらのバイアスがAIの一部になるとどうなりますか?モデルのトレーニングを担当するプログラマーは、偏った期待を帯びている可能性があり、それがAIシステムに進出します。

または、AIの訓練と開発に使用されるデータは、不誠実に不正確、偏見、または収集される可能性があります。これは、社会的バイアスと同じくらい危険なデータバイアスにつながります。たとえば、顔認識のシステムが主に白人の顔を使用して訓練されている場合、少数派グループの人々を認識し、抑圧を永続させるのに苦労するかもしれません。

私たちの仕事をしているロボット

ChatGptやGoogle Bardなどのチャットボットの開発は、AIを取り巻くまったく新しい心配を開いています。ロボットが私たちの仕事を引き受けるリスクです。ハイテク業界の作家がAIに取って代わられ、ソフトウェア開発者がボットに仕事を失うことを心配しているのを見ており、ChatGPTを使用して人間の作家を雇うのではなく、ブログコンテンツやソーシャルメディアコンテンツを作成することを心配しています。

によると世界経済フォーラムのThe Future of Jobs Report 2020、AIは2025年までに世界中で8,500万人の雇用に取って代わると予想されます。たとえAIが作家に取って代わりなくても、すでに多くの人がツールとして使用されています。 AIに置き換えられるリスクのある仕事は、生き残るために適応する必要があるかもしれません。たとえば、作家はAIプロンプトエンジニアになる可能性があり、これらのモデルに置き換えるのではなく、CHATGPTなどのツールを使用できるようにすることができます。

これらはすべて即時または迫り来るリスクですが、将来見ることができるAIの危険性が低いが、まだ可能な危険性についてはどうでしょうか?これらには、AIが人間に害を及ぼすようにプログラムされているようなもの、たとえば、戦争中に殺すように訓練された自律的な武器が含まれます。

次に、AIがプログラムされた目標にひたむきに集中できるリスクがあり、人間がこれを止めようとするときでさえ、あらゆる犠牲を払ってその目標を達成しようとする破壊的な行動を開発することができます。

Skynetは、AIが感覚的になったときに何が起こるかを教えてくれました。しかし、GoogleエンジニアのBlakeLemoineは、誰もが納得させようとしたかもしれませんがLamda、Googleの人工的にインテリジェントなチャットボットジェネレーターは感覚的でした2022年6月に、ありがたいことに、それが真実であることを示唆する証拠はありません。

AI規制の課題

202年5月15日月曜日、Openai CEOのサム・アルトマンは、人工知能に関する最初の議会の聴聞会に出席しました、警告、「この技術がうまくいけば、かなり間違っている可能性があります。」 Openai Coは、彼が規制を支持し、彼自身のアイデアの多くを聴聞にもたらしたことを明らかにしました。問題は、AIがそのような速度で進化していることであり、規制のどこから始めればいいのかを知ることは困難です。

議会は、ソーシャルメディア時代の初めに同じ間違いを犯しないようにしたいと考えており、上院の多数派リーダーであるチャック・シューマーと一緒に専門家のチームは、モデルを訓練するために使用したデータソースを明らかにすることを要求する規制にすでに取り組んでいます。ただし、AIがどのように規制されるかが明確になるまでにはしばらくする時間がかかるかもしれません。間違いなく、AI企業からの反発があることは間違いありません。

人工的な一般情報の脅威

また、人間(または動物)が実行できるタスクを達成できる人工的な一般情報(AGI)の作成のリスクもあります。 SF映画でよく言及されていることがよくありますが、私たちはおそらくそのような創造物から数十年離れていますが、AGIを作成すると、人類に脅威を与える可能性があります。

多くの公人はすでに、AIがスティーブン・ホーキング、ビル・ゲイツ、さらには元グーグルのCEOであるエリック・シュミットを含む人間に実存的な脅威をもたらすという信念をすでに支持しています。

それで、人工知能は危険であり、そのリスクはその利点を上回っていますか?審査員はまだそのものに出ていますが、私たちはすでに私たちの周りのリスクのいくつかの証拠を今見ています。他の危険は、たとえあったとしても、いつでもすぐに実現する可能性が低くなります。ただし、1つのことは明らかです。AIの危険性を過小評価すべきではありません。 AIが最初から適切に規制されていることを保証し、将来のリスクを最小限に抑え、緩和することが最も重要です。