蜜桃TV

AI (人工知能) 09-28-2023

サイバーセキュリティにおける AI の今後の役割

AI ソリューションを活用して企業が敵の先手を取るには
Dr. Avesta Hojjati
The Future Role of AI in Cybersecurity

2032 年には市場規模が 1020 億ドルになると推定されているほど、人工知能(AI)があらゆる産業に旋風を巻き起こしていることは周知の事実です。AI の基本的な概念については、私たちもみな知っています。たくさんの写真を見せて、写真に何が写っているかを教え込み、その写真から学習させた上で自分自身で理解できるようにすることで、本当に賢いコンピュータを作るようなものです。

しかし、AI にはデータが必要であり、そのデータがどこから来るのか、どう処理されるのか、その処理から何が出力されるのかを把握するには、アイデンティティとセキュリティの感覚が必要です。多くの人がそのデータの安全性に懸念を抱いているのは無理もありません。、回答者の 81% が ChatGPT などの生成 AI に関連するセキュリティリスクを懸念しており、AI ツールがインターネットの安全性を高めると楽観視しているという回答はわずか 7% でした。そのため、
AI 技術では強力なサイバーセキュリティ対策がいっそう重要になります。

一方、サイバーセキュリティに AI を適用して、脅威の検知と予防、インシデント対応を改善できる可能性も無限です。したがって、企業はサイバーセキュリティにおける AI の可能性と弱点を理解し、今後予想される脅威に先手を打つ必要があります。この記事では、企業がサイバーセキュリティにおける AI の導入を検討する際に知っておくべき重要な事柄と、
AI に存在する新たな脅威からどのように身を守るべきかについて掘り下げていきます。

サイバーセキュリティの強化に AI をどう活用するか

良い面もあります。AI は、これまでより効果的で正確、迅速な対応によって、サイバーセキュリティを変革することができるということです。AI をサイバーセキュリティに応用するには、以下のような方法があります。

  • パターン认识で误検出を减らす:AI はパターン認識に優れているため、異常をより的確に検知して行動分析を提供し、脅威をリアルタイムで検知することができます。実際、2022 年に Ponemon Institute が実施した調査によると、AI を活用した侵入検知システムを使用している組織では、誤検知が 43% 減少し、セキュリティチームは真の脅威に集中できるようになったといいます。また、AI を活用したメールセキュリティソリューションが誤検知を最大 70% 削減することも示されました。
  • 人间の能力を向上させて、规模の拡大を実现する:AI を使うと、人间の能力を強化し、レスポンスを迅速にして、拡張性を確保することができます。拡張性を制限する要因は、データを入手できるかどうかだけです。また、AI チャットボットをバーチャルアシスタントとして使用すれば、セキュリティサポートを提供し、人间のエージェントの負担を軽減できます。
  • インシデント対応とリカバリを加速する:AI は、過去のトレーニングやマルチポイントのデータ収集に基づいて処理やルーチンタスクを自動化して、レスポンスタイムを短縮し、検出ギャップを削減できます。AI はレポート処理を自動化し、自然言語クエリを通じてインサイトを提供するとともに、セキュリティシステムを簡素化し、将来のサイバーセキュリティ戦略を強化する推奨事項を提供することも可能です。
  • サンドボックスでのフィッシングトレーニング:生成 AI は、サイバーセキュリティのハンズオントレーニングで求められる現実的なフィッシングシナリオを作成できるので、従業員間に警戒の精神的土壌を醸成し、従業員を現実世界の脅威に備えさせることができます。

データセキュリティに対する AI の潜在的脅威

攻撃者が攻撃に AI を利用する実例がすでに確認されています。以下のような例があります。

  • キャンペーン:サイバー犯罪者が生成 AI を導入すると、コードや動作を調整して検知を回避する高度なマルウェアを作成することができます。こうした「インテリジェントな」マルウェアは、予測や制御が難しいため、広範囲に及ぶシステムの混乱や大規模なデータ侵害のリスクが高くなります。
  • 高度なフィッシング攻撃:生成 AI は、ユーザーの文体や個人情報を学習して模倣する機能を備えているので、フィッシング攻撃の説得力が格段に上がっています。信頼できる连络先や定评のある机関から発信されているように见せかけたフィッシングメールは、个人を欺いて机密情报を漏洩させる可能性があり、个人や公司のサイバーセキュリティにとって大きな胁威となります。
  • リアルなディープフェイク:生成 AI の効果で、悪意のある攻撃者はディープフェイク、つまり画像、音声、動画による説得力の高い偽情報を作成できるようになりました。ディープフェイクは、偽情報キャンペーン、詐欺行為、なりすましなどの重大なリスクをもたらします。ある CEO が破産を宣言する驚くほどリアルな動画や、世界的指導者が宣戦布告する捏造音声などを想像してください。こうしたシナリオが今や SF 的な世界ではなくなり、大きな混乱を引き起こす可能性を秘めているのです。

しかも、AI は多くのデータを必要とし、第三者のところでデータが侵害される可能性もあるため、企業はデータを共有する対象を厳密に制限する必要があります。、ユーザーが他のユーザーのチャット履歴にアクセスできる事態を招きました。OpenAI はこの問題を速やかに解決しましたが、チャットボットとユーザーにとっての潜在的なリスクが浮き彫りになりました。機密データを保護するために する企業もあれば、AI と共有できるデータを制限する AI ポリシーを導入している企業もあります。

ここでの教訓は、攻撃者が新たな攻撃で AI を使用するよう進化している一方で、企業は侵害の潜在的な脅威から身を守るためにそれを熟知する必要があるということです。

サイバーセキュリティにおける AI の倫理的な考察

サイバーセキュリティにおける AI の導入を語るとき、倫理的な配慮について振れないのは怠慢といえるでしょう。セキュリティとプライバシーを確保するには、責任ある AI の実践と人间の監視を用いることが重要です。AI は学んだことしか再現できませんし、学んだ内容に欠落があることもあります。したがって、企業は AI ソリューションを導入する前に、以下のような点を倫理の観点から検討する必要があります。

  • データバイアスの増幅:AI のアルゴリズムは過去のデータから学習するので、学習に使われるデータにバイアスがあれば、アルゴリズムは意図せずそのバイアスを引きずり、増幅させてしまうおそれがあります。そのため、アルゴリズムが偏ったデータに基づいて判断したり予測したりすると、不公平あるいは差別的な結果を招くことも考えられます。

  • 意図しない差別:学習データやアルゴリズムが考慮する特徴にバイアスがあると、AI アルゴリズムは特定の集団や個人を差別するおそれがあります。これは雇用、融資、法執行のような分野で不公平な扱いにもつながり、そうなったら制御できない要因に基づいた決定が人の命さえ左右しかねません。

  • 透明性と説明責任:AI アルゴリズムの多く、特にディープニューラルネットワークのような複雑なアルゴリズムは、解釈と理解が難しい場合があります。透明性が欠如しているため、どのような経緯でバイアスが混入し、決定が下されたかを見極めるのは難しく、偏った結果や不公平な結果が発生した場合の説明責任が懸念されます。

AI の世界は今なお開拓時代の様相を呈していますが、プライバシーや倫理的な問題に対処するために、これからは透明性と説明責任を求める規制が新たに導入されることになるでしょう。たとえば、はすでに、Google、Facebook(Meta)、TikTok といった大手ハイテク企業に対して、インターネット上の偽情報拡散に対抗する取り組みの一環として、AI が生成したコンテンツにラベルを付ける措置を講じるよう求めています。EU の に従って、プラットフォーマ―は近い将来、わかりやすい指标で偽物を明确に识别できるようにすることを义务化されるでしょう。

サイバーセキュリティにおける人间と AI のパートナーシップ

AI の限界を踏まえると、AI が意思決定のプロセスをスピードアップする一方で、最終的な意思決定者は常に人间でなければなりません。企業は AI を使って複数の選択肢を確保できるので、主な意思決定者が迅速に行動できるようになるかもしれません。だからこそ、AI は人间の意思決定を補うものであって、取って代わるものではないのです。AI と人间が手を取り合えば、単独で成し遂げられる以上のことができるようになります。

AI

人间

  • データとパターンから学ぶ

  • 创造性を模倣できるが、真の感情は欠いている

  • 迅速な処理と分析

  • 事実上无制限のメモリーストレージ

  • 膨大なデータセットに対応できる拡张性

  • 真の自己认识を欠いている

  • 真の共感がない

  • 経験から学び、时间をかけて适応する

  • 创造性と感情的理解を示す

  • AI に比べるとスピードには限界がある

  • 记忆容量に限界がある

  • 特定のタスクを简単に拡张できない

  • 自己认识と自覚を备えている

  • 共感と感情的なつながりを表现できる

?

PKI を活用して AI でデジタルトラストを構築

公开键基盘(笔碍滨) のような技術の活用は、ディープフェイクのような AI 関連の新たな脅威を防ぎ、デジタル通信の完全性を維持するうえで基本的な役割を果たすことができます。

たとえば、础诲辞产别、惭颈肠谤辞蝉辞蹿迟、デジサートなど业界をリードする公司のコンソーシアムが、という標準に取り組んでいます。この構想では、デジタルファイルの正当性を検証して確認するという課題に取り組むべく設計されたオープン標準が採用されました。C2PA は PKI を活用して議論の余地のない証跡を生成するので、ユーザーは本物と偽物のメディアを見分けられるようになります。この仕様には、デジタルファイルのソース、作成者、作成日、場所、および変更を確認する機能が設けられています。C2PA の最大の目的は、デジタルメディアファイルの透明性と信頼性を促進することであり、特に今日の環境では AI 生成コンテンツを現実と区別するのが難しくなっていることが前提になっています。

要約すると、AI はサイバーセキュリティの分野で多くの可能性を生み出し、私たちはまだその可能性の表面をなでているにすぎないということです。AI は、サイバー攻撃をしかける側と、その攻撃を防ぐ側のどちらでも利用されるでしょう。しかし重要なのは、AI が完全に人间に取って代わることはできないということを念頭に置きつつ、企業がリスクを認識し、今すぐ解決策を導入し始めることなのです。