ChatGPT などの多くの生成 AI 製品は、従業員を退屈で反復的なタスクから解放し、従業員は会社にとってより価値のある仕事により多くの時間とエネルギーを費やすことができると期待されています。しかし、企業のセキュリティの観点から見ると、生成 AI 製品は新たなリスクをもたらす可能性があり、企業にとっては両刃の剣となります。
01 サイバー攻撃の脅威は激化しています
生成 AI はハッカーの参入障壁を下げます。ハッカーは生成 AI を使用して、さまざまなサイバー攻撃手法を迅速に統合し、攻撃手法を便利に「武器化」し、革新的な攻撃手法を実現できる可能性があります。 PwC のサイバーセキュリティ チームは、顧客が受信するフィッシングメールなどのソーシャル エンジニアリング攻撃がここ数カ月で大幅に増加していることを明らかに観察しており、これは ChatGPT の普及と一致しており、ChatGPT はバッチ生成フィッシング サイトにとってより欺瞞的であることも判明しています。
02 企業の機密データの漏洩
セキュリティ専門家は、企業の機密データが漏洩する可能性を懸念しており、従業員の不適切な入力行為により生成 AI 製品のデータベースに機密データが残る可能性があります。 OpenAIのプライバシーポリシーには、ChatGPTの使用時にユーザーが入力したコンテンツがAIアルゴリズムモデルのトレーニングに使用されることが示されている。さらに、ChatGPT は、オープンソース ライブラリの脆弱性により、一部のユーザーが他のユーザーの会話履歴のタイトルを閲覧できるなど、深刻なセキュリティ問題にさらされています。現在、Amazon や Microsoft などの多くのテクノロジー大手は、ChatGPT で機密データを共有しないよう従業員に注意を喚起しています。
03 生成型 AI 中毒リスク
トレーニング データ ポイズニングは、生成 AI が直面する一般的なセキュリティ脅威であり、悪意のあるデータは AI アルゴリズムの結果に悪影響を及ぼします。運用管理が生成 AI に大きく依存している場合、重要な問題に関して誤った決定が下される可能性があります。一方で、生成型 AI には潜在的な「バイアス」の問題もあります。多くの著名な専門家や学者が参加した「AI への毒 100 本」活動と同様に、企業は AI の開発または使用の過程で、戦略的な方法で AI 毒の脅威に積極的に対応する必要があります。
04プライバシー保護の問題
生成 AI の事前トレーニング段階では、大量のデータ収集とマイニングが必要ですが、これには多くの顧客や従業員の個人情報が含まれる可能性があります。生成 AI がこれらの個人情報を適切に保護および匿名化できない場合、プライバシーの漏洩につながる可能性があり、これらの個人情報はユーザーの行動の分析や推測に悪用される可能性もあります。例えば、携帯電話アプリケーション市場には、自分の複数のアバターをアップロードするだけで、さまざまなシーンやテーマの合成写真を生成できる画像生成ソフトウェアが溢れています。しかし、これらのユーザーがアップロードしたアバターをソフトウェア会社がどのように使用するか、それがプライバシー保護やその他のセキュリティリスクをもたらすかどうかは、注目と対応に値します。
05 エンタープライズ セキュリティ コンプライアンスのリスク
効果的な管理手段がない場合、生成 AI 製品の大量導入はセキュリティ コンプライアンスの問題につながる可能性があり、これは間違いなく企業のセキュリティ管理者にとって大きな課題です。中国サイバースペース局によって審査および承認され、国家発展改革委員会および教育省を含む6つの部門によって承認された生成的人工知能サービス管理の暫定措置が数日前に発表され、 151年8月に発効 2.技術開発とガバナンス、サービス仕様、監督と検査、法的責任の観点から基本的な要件を提示し、生成型 AI の導入のための基本的なコンプライアンスの枠組みを確立します。
現実世界の生成型 AI セキュリティ脅威シナリオについて学ぶ
生成 AI によってもたらされるセキュリティ リスクを理解した後、以下では、より具体的なセキュリティ脅威シナリオで問題がどのように発生するかを分析し、企業セキュリティに対する生成 AI の微妙な影響を検討します。
01 ソーシャル エンジニアリング攻撃
世界的に有名なハッカー、ケビン・ミトニックはかつてこう言いました。「セキュリティチェーンの最も弱い部分は人間の要素です。」ソーシャル エンジニアリング ハッカーの通常の戦術は、甘い言葉を使って企業の従業員を誘惑することですが、生成 AI の出現により、ソーシャル エンジニアリング攻撃が大幅に促進されました。生成 AI は、フェイク ニュース、偽のソーシャル メディア投稿、詐欺メールなどを含む、非常にリアルな偽コンテンツを生成できます。これらの偽のコンテンツは、ユーザーを誤解させたり、誤った情報を広めたり、従業員を騙して誤った意思決定をさせたりする可能性があります。生成 AI は、音やビデオを合成して本物のように見せるためにも使用され、詐欺や証拠の改ざんに使用される可能性があります。包頭市公安局通信網犯罪捜査局は、知能型AI技術を利用した通信詐欺事件を発表、犯罪者らはAI変面技術を利用して10分間で430万元をだまし取った。
02 従業員による無意識の違反行為
多くのテクノロジー メーカーが生成 AI トラックを積極的に展開し始め、多数の生成 AI 機能を製品やサービスに統合しています。従業員は、生成 AI 製品を使用する前にユーザー利用規約をよく読まずに、誤って使用してしまう可能性があります。企業の従業員が生成 AI を使用する場合、財務データ、プロジェクト情報、企業秘密などの機密情報を含むコンテンツを入力する可能性があり、企業の機密情報の漏洩につながる可能性があります。生成型 AI による機密情報の漏洩を防ぐために、企業は、データ漏洩防止技術の強化や従業員のオンライン行動の制限などの包括的なセキュリティ対策を講じるとともに、データ セキュリティを向上させるための従業員向けのセキュリティ トレーニングを実施する必要があります。機密保持を警戒して待ちます。従業員の違反が発見されたら、企業は直ちに影響を評価し、タイムリーな措置を講じる必要があります。
03 避けられない差別と偏見
生成型 AI に差別や偏見がある理由は、主にその学習データとモデル設計の特性によるものです。インターネットからのトレーニング データには、人種、性別、文化、宗教、社会的地位などの側面を含む現実世界のバイアスが反映されています。トレーニング データの処理中に、偏ったデータを除外するための十分なスクリーニングおよびクリーニング手段が存在しない可能性があります。同様に、生成 AI のモデル設計とアルゴリズム選択におけるバイアスの削減にも十分な注意が払われていない可能性があります。アルゴリズム モデルは学習中にトレーニング データのバイアスを検出し、生成されるテキストにも同様のバイアスが生じます。生成 AI から偏見と差別を排除することは複雑な課題ですが、それらを軽減するために企業が実行できる手順はいくつかあります3。
04 プライバシー保護の侵害
生成 AI 製品を使用する過程で、効率的な自動化とパーソナライズされたサービスを追求するために、企業や個人はプライバシー保護の点である程度の妥協をし、生成 AI が一部のプライベート データを収集することを許可する場合があります。ユーザーが使用中に個人のプライバシー コンテンツを生成 AI に開示することに加えて、生成 AI はユーザーが入力したコンテンツを分析し、アルゴリズムを使用してユーザーの個人情報、好み、または行動を推測し、ユーザーのプライバシーをさらに侵害する可能性があります。データの感度解除と匿名化は一般的なプライバシー保護手段ですが、データの一部の情報が失われる可能性があり、生成モデルの精度が低下する可能性があります。個人のプライバシー保護と生成されたコンテンツの品質との間でバランスを見つける必要があります。 。生成 AI プロバイダーとして、ユーザーが情報に基づいた意思決定を行えるように、データの収集、使用、共有について通知する透明性の高いプライバシー ポリシー ステートメントをユーザーに提供する必要があります。
05 規制遵守の主な傾向
現状の観点から見ると、生成AIが直面する法令順守リスクは、主に「コンテンツの法令違反」と「知的財産の侵害」に起因すると考えられます。監督がない場合、生成 AI は、侮辱、名誉毀損、ポルノ、暴力などの違法または違法な要素を含む可能性のある違法または不適切なコンテンツを生成する可能性があり、その一方で、生成 AI は既存の著作権で保護されたコンテンツに基づいてコンテンツを生成する可能性があり、知的財産権の侵害につながります。生成 AI を使用する企業は、アプリケーションが関連する規制や標準に準拠していることを確認し、不必要な法的リスクを回避するために、コンプライアンス レビューを実施する必要があります。企業は、自社が使用する製品が「生成型人工知能サービス管理暫定措置」の規定に準拠しているかどうかをまず評価するとともに、関連する法令の更新や変更に細心の注意を払う必要があります。コンプライアンスを確保するためにタイムリーな調整を行います。企業がサプライヤーやパートナーと生成 AI を使用する場合、各当事者の権利と責任を明確にし、対応する義務と制限を契約で規定する必要があります。
個人と企業が生成 AI のリスクと課題に積極的に対処できる方法
個人ユーザーや企業従業員は、生成 AI によってもたらされるさまざまな利便性を享受しながらも、個人のプライバシーやその他の機密情報の保護を強化する必要があることを認識する必要があります。
01個人のプライバシーの開示を避ける
従業員は、生成 AI 製品を使用する前に、サービス プロバイダーがユーザーのプライバシーとセキュリティを合理的に保護していることを確認し、プライバシー ポリシーとユーザー規約を注意深く読み、公衆によって検証された信頼できるプロバイダーを選択するように努める必要があります。使用中に個人のプライバシー データを入力することを避け、実際の ID 情報を必要としないシナリオでは仮想 ID または匿名情報を使用するようにしてください。機密データの可能性がある場合は、入力前に難読化する必要があります。インターネット、特にソーシャル メディアや公共のフォーラム上では、従業員は名前、住所、電話番号などの個人情報を過度に共有することを避け、一般にアクセス可能な Web サイトやコンテンツに情報を簡単に公開しないようにする必要があります。
02 誤解を招くコンテンツの生成を避ける
生成 AI の技術原理には限界があるため、結果は誤解を招くものや偏ったものになることは避けられず、業界の専門家もデータポイズニングのリスクを回避する方法を常に研究しています。重要な情報については、従業員は複数の独立した信頼できる情報源から情報を確認する必要があり、同じ情報が 1 か所のみに表示される場合は、その信頼性を確認するためにさらなる調査が必要になる場合があります。結果に記載されている情報が確固たる証拠によって裏付けられているかどうかを確認し、実質的な根拠がない場合は、その情報を疑う必要があるかもしれません。生成型 AI の誤解と偏見を特定するには、ユーザーが批判的思考を維持し、デジタル リテラシーを常に向上させ、その製品とサービスを安全に使用する方法を理解する必要があります。
個人ユーザーのオープンな姿勢に比べ、企業は依然として生成型 AI を静観しており、生成型 AI の導入は企業にとってチャンスであると同時に課題でもあります。企業はリスク全体を考慮し、事前に対応戦略を講じる必要があります。PwC は、企業が次の側面から関連作業を開始することを検討することを推奨します。
01 エンタープライズ ネットワーク セキュリティ評価により、防御上の欠陥が明らかになります
企業が直面する最大の課題は、生成 AI によってもたらされる次世代のサイバー攻撃をどのように防御するかということです。企業にとって、現在のネットワーク セキュリティの状態を評価し、企業がこれらの攻撃に対処するのに十分なセキュリティ検出および防御能力を備えているかどうかを判断し、潜在的なネットワーク セキュリティ防御の脆弱性を特定し、それに対応する強化措置を講じて積極的に対処することが不可欠です。上記の目標を達成するために、PwC サイバー セキュリティ チームは、企業がこれらの実際のサイバー攻撃脅威シナリオに基づいて攻撃的および防御的な対決訓練、つまりサイバー セキュリティの「赤と青の対決」を実施することを推奨しています。さまざまな攻撃シナリオから、ネットワークセキュリティ防御の潜在的な欠陥を事前に発見し、防御欠陥を包括的かつ体系的に修復して、企業のIT資産とデータセキュリティを保護します。
02 企業内に生成型 AI テスト環境を導入
生成 AI の技術原理を理解し、生成 AI モデルの結果をより適切に制御するために、企業は、制御不能な生成 AI 製品の企業データに対する潜在的な脅威を防ぐために、社内に独自の生成 AI サンドボックス テスト環境を確立することを検討できます。隔離された環境でテストすることで、企業は正確で本質的にバイアスのないデータを AI 開発に利用できるようになり、機密データが漏洩する危険を冒すことなく、より自信を持ってモデルのパフォーマンスを調査および評価できるようになります。分離されたテスト環境は、生成 AI に対するデータ ポイズニングやその他の外部攻撃を回避し、生成 AI モデルの安定性を維持することもできます。
03生成型 AI のリスク管理戦略の確立
企業は、できるだけ早くリスク管理の対象範囲に生成型 AI を組み込み、リスク管理のフレームワークと戦略を補足および修正する必要があります。生成AIを使用してビジネスシナリオのリスク評価を実施し、潜在的なリスクとセキュリティの脆弱性を特定し、対応するリスク計画を策定し、対策と責任の割り当てを明確にします。厳格なアクセス管理システムを確立し、許可された担当者のみが企業によって承認された生成 AI 製品にアクセスして使用できるようにします。同時に、ユーザーの使用行動を規制し、従業員のセキュリティ意識と対処能力を高めるために、企業従業員に生成的 AI リスク管理に関するトレーニングを実施する必要があります。また、起業家は、生成 AI アプリケーションを開発する際に、プライバシー バイ デザインのアプローチを採用し、提供したデータがどのように使用され、どのデータが保持されるかをエンド ユーザーが把握できるようにする必要があります。
04 専任の生成 AI 研究ワーキング グループを結成します
企業は、組織内で専門的な知識とスキルを集めて、生成型 AI テクノロジーの潜在的な機会とリスクを共同で調査し、データ ガバナンスの専門家、AI モデルの専門家、ビジネス ドメインの専門家など、関連分野を理解するメンバーをワーキング グループに参加するよう招待できます。そして法令順守の専門家が待っています。企業経営者は、ワーキング グループのメンバーが探索や実験を行うために必要なデータやリソースにアクセスできるようにするとともに、生成 AI の潜在的な機会や可能性をより深く理解するために、テスト環境での実験や検証をワーキング グループのメンバーに奨励する必要があります。シナリオでは、高度なテクノロジーを適用するメリットを得るためにリスクのバランスをとることができます。
## 結論
生成 AI の開発と応用はテクノロジーに大きな影響を与えており、生産性における新たな革命を引き起こす可能性があります。生成 AI は、ディープラーニング、自然言語処理、ビッグデータなどの分野の進歩を組み合わせて、コンピューター システムが人間の言語でコンテンツを生成できるようにする強力なテクノロジーです。企業と従業員はこの強力なテクノロジーを管理し、法律、倫理、社会的責任の枠組みの中でその開発と応用が確実に行われるようにすることが、今後の重要な課題となるでしょう。 **PwC の AI 専門家チームは、企業がこの新しいテクノロジーをより安心して適用および開発できるように、企業が完全な生成 AI 管理メカニズムを確立できるよう支援する方法の研究に取り組んでいます。これにより、企業はこの波に参加することができます。 AI テクノロジーの発展により、生成 AI は企業に持続可能な競争上の優位性をもたらすことができます。
PwC: 生成 AI によって引き起こされるセキュリティ リスクと課題を解読する
出典: PwC
生成型 AI 製品の波が企業のセキュリティに及ぼす影響
ChatGPT などの多くの生成 AI 製品は、従業員を退屈で反復的なタスクから解放し、従業員は会社にとってより価値のある仕事により多くの時間とエネルギーを費やすことができると期待されています。しかし、企業のセキュリティの観点から見ると、生成 AI 製品は新たなリスクをもたらす可能性があり、企業にとっては両刃の剣となります。
01 サイバー攻撃の脅威は激化しています
生成 AI はハッカーの参入障壁を下げます。ハッカーは生成 AI を使用して、さまざまなサイバー攻撃手法を迅速に統合し、攻撃手法を便利に「武器化」し、革新的な攻撃手法を実現できる可能性があります。 PwC のサイバーセキュリティ チームは、顧客が受信するフィッシングメールなどのソーシャル エンジニアリング攻撃がここ数カ月で大幅に増加していることを明らかに観察しており、これは ChatGPT の普及と一致しており、ChatGPT はバッチ生成フィッシング サイトにとってより欺瞞的であることも判明しています。
02 企業の機密データの漏洩
セキュリティ専門家は、企業の機密データが漏洩する可能性を懸念しており、従業員の不適切な入力行為により生成 AI 製品のデータベースに機密データが残る可能性があります。 OpenAIのプライバシーポリシーには、ChatGPTの使用時にユーザーが入力したコンテンツがAIアルゴリズムモデルのトレーニングに使用されることが示されている。さらに、ChatGPT は、オープンソース ライブラリの脆弱性により、一部のユーザーが他のユーザーの会話履歴のタイトルを閲覧できるなど、深刻なセキュリティ問題にさらされています。現在、Amazon や Microsoft などの多くのテクノロジー大手は、ChatGPT で機密データを共有しないよう従業員に注意を喚起しています。
03 生成型 AI 中毒リスク
トレーニング データ ポイズニングは、生成 AI が直面する一般的なセキュリティ脅威であり、悪意のあるデータは AI アルゴリズムの結果に悪影響を及ぼします。運用管理が生成 AI に大きく依存している場合、重要な問題に関して誤った決定が下される可能性があります。一方で、生成型 AI には潜在的な「バイアス」の問題もあります。多くの著名な専門家や学者が参加した「AI への毒 100 本」活動と同様に、企業は AI の開発または使用の過程で、戦略的な方法で AI 毒の脅威に積極的に対応する必要があります。
04プライバシー保護の問題
生成 AI の事前トレーニング段階では、大量のデータ収集とマイニングが必要ですが、これには多くの顧客や従業員の個人情報が含まれる可能性があります。生成 AI がこれらの個人情報を適切に保護および匿名化できない場合、プライバシーの漏洩につながる可能性があり、これらの個人情報はユーザーの行動の分析や推測に悪用される可能性もあります。例えば、携帯電話アプリケーション市場には、自分の複数のアバターをアップロードするだけで、さまざまなシーンやテーマの合成写真を生成できる画像生成ソフトウェアが溢れています。しかし、これらのユーザーがアップロードしたアバターをソフトウェア会社がどのように使用するか、それがプライバシー保護やその他のセキュリティリスクをもたらすかどうかは、注目と対応に値します。
05 エンタープライズ セキュリティ コンプライアンスのリスク
効果的な管理手段がない場合、生成 AI 製品の大量導入はセキュリティ コンプライアンスの問題につながる可能性があり、これは間違いなく企業のセキュリティ管理者にとって大きな課題です。中国サイバースペース局によって審査および承認され、国家発展改革委員会および教育省を含む6つの部門によって承認された生成的人工知能サービス管理の暫定措置が数日前に発表され、 151年8月に発効 2.技術開発とガバナンス、サービス仕様、監督と検査、法的責任の観点から基本的な要件を提示し、生成型 AI の導入のための基本的なコンプライアンスの枠組みを確立します。
現実世界の生成型 AI セキュリティ脅威シナリオについて学ぶ
生成 AI によってもたらされるセキュリティ リスクを理解した後、以下では、より具体的なセキュリティ脅威シナリオで問題がどのように発生するかを分析し、企業セキュリティに対する生成 AI の微妙な影響を検討します。
01 ソーシャル エンジニアリング攻撃
世界的に有名なハッカー、ケビン・ミトニックはかつてこう言いました。「セキュリティチェーンの最も弱い部分は人間の要素です。」ソーシャル エンジニアリング ハッカーの通常の戦術は、甘い言葉を使って企業の従業員を誘惑することですが、生成 AI の出現により、ソーシャル エンジニアリング攻撃が大幅に促進されました。生成 AI は、フェイク ニュース、偽のソーシャル メディア投稿、詐欺メールなどを含む、非常にリアルな偽コンテンツを生成できます。これらの偽のコンテンツは、ユーザーを誤解させたり、誤った情報を広めたり、従業員を騙して誤った意思決定をさせたりする可能性があります。生成 AI は、音やビデオを合成して本物のように見せるためにも使用され、詐欺や証拠の改ざんに使用される可能性があります。包頭市公安局通信網犯罪捜査局は、知能型AI技術を利用した通信詐欺事件を発表、犯罪者らはAI変面技術を利用して10分間で430万元をだまし取った。
02 従業員による無意識の違反行為
多くのテクノロジー メーカーが生成 AI トラックを積極的に展開し始め、多数の生成 AI 機能を製品やサービスに統合しています。従業員は、生成 AI 製品を使用する前にユーザー利用規約をよく読まずに、誤って使用してしまう可能性があります。企業の従業員が生成 AI を使用する場合、財務データ、プロジェクト情報、企業秘密などの機密情報を含むコンテンツを入力する可能性があり、企業の機密情報の漏洩につながる可能性があります。生成型 AI による機密情報の漏洩を防ぐために、企業は、データ漏洩防止技術の強化や従業員のオンライン行動の制限などの包括的なセキュリティ対策を講じるとともに、データ セキュリティを向上させるための従業員向けのセキュリティ トレーニングを実施する必要があります。機密保持を警戒して待ちます。従業員の違反が発見されたら、企業は直ちに影響を評価し、タイムリーな措置を講じる必要があります。
03 避けられない差別と偏見
生成型 AI に差別や偏見がある理由は、主にその学習データとモデル設計の特性によるものです。インターネットからのトレーニング データには、人種、性別、文化、宗教、社会的地位などの側面を含む現実世界のバイアスが反映されています。トレーニング データの処理中に、偏ったデータを除外するための十分なスクリーニングおよびクリーニング手段が存在しない可能性があります。同様に、生成 AI のモデル設計とアルゴリズム選択におけるバイアスの削減にも十分な注意が払われていない可能性があります。アルゴリズム モデルは学習中にトレーニング データのバイアスを検出し、生成されるテキストにも同様のバイアスが生じます。生成 AI から偏見と差別を排除することは複雑な課題ですが、それらを軽減するために企業が実行できる手順はいくつかあります3。
04 プライバシー保護の侵害
生成 AI 製品を使用する過程で、効率的な自動化とパーソナライズされたサービスを追求するために、企業や個人はプライバシー保護の点である程度の妥協をし、生成 AI が一部のプライベート データを収集することを許可する場合があります。ユーザーが使用中に個人のプライバシー コンテンツを生成 AI に開示することに加えて、生成 AI はユーザーが入力したコンテンツを分析し、アルゴリズムを使用してユーザーの個人情報、好み、または行動を推測し、ユーザーのプライバシーをさらに侵害する可能性があります。データの感度解除と匿名化は一般的なプライバシー保護手段ですが、データの一部の情報が失われる可能性があり、生成モデルの精度が低下する可能性があります。個人のプライバシー保護と生成されたコンテンツの品質との間でバランスを見つける必要があります。 。生成 AI プロバイダーとして、ユーザーが情報に基づいた意思決定を行えるように、データの収集、使用、共有について通知する透明性の高いプライバシー ポリシー ステートメントをユーザーに提供する必要があります。
05 規制遵守の主な傾向
現状の観点から見ると、生成AIが直面する法令順守リスクは、主に「コンテンツの法令違反」と「知的財産の侵害」に起因すると考えられます。監督がない場合、生成 AI は、侮辱、名誉毀損、ポルノ、暴力などの違法または違法な要素を含む可能性のある違法または不適切なコンテンツを生成する可能性があり、その一方で、生成 AI は既存の著作権で保護されたコンテンツに基づいてコンテンツを生成する可能性があり、知的財産権の侵害につながります。生成 AI を使用する企業は、アプリケーションが関連する規制や標準に準拠していることを確認し、不必要な法的リスクを回避するために、コンプライアンス レビューを実施する必要があります。企業は、自社が使用する製品が「生成型人工知能サービス管理暫定措置」の規定に準拠しているかどうかをまず評価するとともに、関連する法令の更新や変更に細心の注意を払う必要があります。コンプライアンスを確保するためにタイムリーな調整を行います。企業がサプライヤーやパートナーと生成 AI を使用する場合、各当事者の権利と責任を明確にし、対応する義務と制限を契約で規定する必要があります。
個人と企業が生成 AI のリスクと課題に積極的に対処できる方法
個人ユーザーや企業従業員は、生成 AI によってもたらされるさまざまな利便性を享受しながらも、個人のプライバシーやその他の機密情報の保護を強化する必要があることを認識する必要があります。
01個人のプライバシーの開示を避ける
従業員は、生成 AI 製品を使用する前に、サービス プロバイダーがユーザーのプライバシーとセキュリティを合理的に保護していることを確認し、プライバシー ポリシーとユーザー規約を注意深く読み、公衆によって検証された信頼できるプロバイダーを選択するように努める必要があります。使用中に個人のプライバシー データを入力することを避け、実際の ID 情報を必要としないシナリオでは仮想 ID または匿名情報を使用するようにしてください。機密データの可能性がある場合は、入力前に難読化する必要があります。インターネット、特にソーシャル メディアや公共のフォーラム上では、従業員は名前、住所、電話番号などの個人情報を過度に共有することを避け、一般にアクセス可能な Web サイトやコンテンツに情報を簡単に公開しないようにする必要があります。
02 誤解を招くコンテンツの生成を避ける
生成 AI の技術原理には限界があるため、結果は誤解を招くものや偏ったものになることは避けられず、業界の専門家もデータポイズニングのリスクを回避する方法を常に研究しています。重要な情報については、従業員は複数の独立した信頼できる情報源から情報を確認する必要があり、同じ情報が 1 か所のみに表示される場合は、その信頼性を確認するためにさらなる調査が必要になる場合があります。結果に記載されている情報が確固たる証拠によって裏付けられているかどうかを確認し、実質的な根拠がない場合は、その情報を疑う必要があるかもしれません。生成型 AI の誤解と偏見を特定するには、ユーザーが批判的思考を維持し、デジタル リテラシーを常に向上させ、その製品とサービスを安全に使用する方法を理解する必要があります。
個人ユーザーのオープンな姿勢に比べ、企業は依然として生成型 AI を静観しており、生成型 AI の導入は企業にとってチャンスであると同時に課題でもあります。企業はリスク全体を考慮し、事前に対応戦略を講じる必要があります。PwC は、企業が次の側面から関連作業を開始することを検討することを推奨します。
01 エンタープライズ ネットワーク セキュリティ評価により、防御上の欠陥が明らかになります
企業が直面する最大の課題は、生成 AI によってもたらされる次世代のサイバー攻撃をどのように防御するかということです。企業にとって、現在のネットワーク セキュリティの状態を評価し、企業がこれらの攻撃に対処するのに十分なセキュリティ検出および防御能力を備えているかどうかを判断し、潜在的なネットワーク セキュリティ防御の脆弱性を特定し、それに対応する強化措置を講じて積極的に対処することが不可欠です。上記の目標を達成するために、PwC サイバー セキュリティ チームは、企業がこれらの実際のサイバー攻撃脅威シナリオに基づいて攻撃的および防御的な対決訓練、つまりサイバー セキュリティの「赤と青の対決」を実施することを推奨しています。さまざまな攻撃シナリオから、ネットワークセキュリティ防御の潜在的な欠陥を事前に発見し、防御欠陥を包括的かつ体系的に修復して、企業のIT資産とデータセキュリティを保護します。
02 企業内に生成型 AI テスト環境を導入
生成 AI の技術原理を理解し、生成 AI モデルの結果をより適切に制御するために、企業は、制御不能な生成 AI 製品の企業データに対する潜在的な脅威を防ぐために、社内に独自の生成 AI サンドボックス テスト環境を確立することを検討できます。隔離された環境でテストすることで、企業は正確で本質的にバイアスのないデータを AI 開発に利用できるようになり、機密データが漏洩する危険を冒すことなく、より自信を持ってモデルのパフォーマンスを調査および評価できるようになります。分離されたテスト環境は、生成 AI に対するデータ ポイズニングやその他の外部攻撃を回避し、生成 AI モデルの安定性を維持することもできます。
03生成型 AI のリスク管理戦略の確立
企業は、できるだけ早くリスク管理の対象範囲に生成型 AI を組み込み、リスク管理のフレームワークと戦略を補足および修正する必要があります。生成AIを使用してビジネスシナリオのリスク評価を実施し、潜在的なリスクとセキュリティの脆弱性を特定し、対応するリスク計画を策定し、対策と責任の割り当てを明確にします。厳格なアクセス管理システムを確立し、許可された担当者のみが企業によって承認された生成 AI 製品にアクセスして使用できるようにします。同時に、ユーザーの使用行動を規制し、従業員のセキュリティ意識と対処能力を高めるために、企業従業員に生成的 AI リスク管理に関するトレーニングを実施する必要があります。また、起業家は、生成 AI アプリケーションを開発する際に、プライバシー バイ デザインのアプローチを採用し、提供したデータがどのように使用され、どのデータが保持されるかをエンド ユーザーが把握できるようにする必要があります。
04 専任の生成 AI 研究ワーキング グループを結成します
企業は、組織内で専門的な知識とスキルを集めて、生成型 AI テクノロジーの潜在的な機会とリスクを共同で調査し、データ ガバナンスの専門家、AI モデルの専門家、ビジネス ドメインの専門家など、関連分野を理解するメンバーをワーキング グループに参加するよう招待できます。そして法令順守の専門家が待っています。企業経営者は、ワーキング グループのメンバーが探索や実験を行うために必要なデータやリソースにアクセスできるようにするとともに、生成 AI の潜在的な機会や可能性をより深く理解するために、テスト環境での実験や検証をワーキング グループのメンバーに奨励する必要があります。シナリオでは、高度なテクノロジーを適用するメリットを得るためにリスクのバランスをとることができます。
## 結論
生成 AI の開発と応用はテクノロジーに大きな影響を与えており、生産性における新たな革命を引き起こす可能性があります。生成 AI は、ディープラーニング、自然言語処理、ビッグデータなどの分野の進歩を組み合わせて、コンピューター システムが人間の言語でコンテンツを生成できるようにする強力なテクノロジーです。企業と従業員はこの強力なテクノロジーを管理し、法律、倫理、社会的責任の枠組みの中でその開発と応用が確実に行われるようにすることが、今後の重要な課題となるでしょう。 **PwC の AI 専門家チームは、企業がこの新しいテクノロジーをより安心して適用および開発できるように、企業が完全な生成 AI 管理メカニズムを確立できるよう支援する方法の研究に取り組んでいます。これにより、企業はこの波に参加することができます。 AI テクノロジーの発展により、生成 AI は企業に持続可能な競争上の優位性をもたらすことができます。
注記
生成型人工知能サービスの管理に関する暫定措置_国務院部門文書_ChinaGov.com
イノベーションとガバナンス: 生成人工知能における最新の規制動向の解釈
アルゴリズムのバイアスと AI の信頼を築く方法を理解する
生成的 AI リスクの管理: PwC
免責事項: この記事の情報は一般的な情報提供のみを目的としており、網羅的であるとはみなされません。また、PwC からの法律、税金、その他の専門的なアドバイスやサービスを構成するものではありません。 PwC の加盟機関は、本記事の内容の使用によりいかなる主題によって生じた損失についても責任を負いません。