▲目次
ISACAニュースダイジェスト(日本語版)
Vol.128 2026/2/24
発行:ISACA日本支部協同推進機構
英語情報ナレッジ活用専門委員会
ISACAニュースダイジェストについて
ISACA本部の発信する英語での情報をもっと活用しよう!との思いから、日本4支部の有志で運営しています。
原文である本部サイトの情報にもタッチし、専門的なナレッジを深めていただければ幸いです。
【教育・CPE獲得の機会】
<<Webセミナー(Webinar)>>
https://www.isaca.org/training-and-events/online-training/webinars
※ ISACA会員は無料でCPEを獲得できます。なお、開始時間はサイトに表示されているUTC(協定世界時)あるいはホストの現地時間としていますのでご留意ください。
・2026年2月26日 17:00 (UTC)~60分、1CPE
「監査のマインドセット—ビジネスで最も過小評価されているキャリアスキル」
[The Audit Mindset—The Most Underrated Career Skill in Business]
大学では誰も教えてくれないことがある:監査はどこにでもある。監査は単なるITや財務、コンプライアンスではなく、心構えである。客観性や、エビデンスベースの評価、リスクマネジメントといったIT監査を動かす同じ原則が、人事から組織運営、戦略といった組織のあらゆる局面に適用される。
このセッションでは、監査思考がどのように分野を超え、なぜ今日の労働力において必須スキルになりつつあるのかを掘り下げる。IT監査の概念が、採用を研ぎ澄まし、説明責任を強化し、チームがリスクとパフォーマンスを評価する方法を変革する様子が理解できる。
・2026年3月3日 17:00 (UTC)~60分、1CPE
「サイバー、クラウド、コンプライアンス、AI」
[Cyber, Cloud, Compliance and AI]
この国際パネルでは、サイバーセキュリティ侵害、クラウドコンピューティング、コンプライアンス、プライバシー(GDPRを含む)、AIに関して、組織が直面する主要な課題を検証する。AIはデータ漏洩リスクの特定にどう役立つか。クラウドの問題はAIにどう影響するか。AIはコンプライアンス要件やプライバシー要件にどう影響するか。
参加者は、本ウェビナーへの参加により、以下に答えることができる様になる。
- データ侵害の63%を占める第三者ベンダーによるサイバーリスクの管理方法
- 機密レベルが正しく分類されたデータセットを用いた責任あるAIモデルのトレーニング・検証、誤って分類されたデータが意図せず機密情報や保護された情報を公開しないようにするための技術的、手続き的な安全策
- AIモデルトレーニングのための複数データソース統合における技術的管理、ガバナンスフレームワーク、検証プロセス
- AIが生成したデータを使う際の倫理的・セキュリティ上の懸案事項
・2026年3月26日 16:00 (UTC)~60分、1CPE
「パーフェクトストーム:AI、データの拡散、セキュリティのサイロ化」
[The Perfect Storm: AI, Data Sprawl, and Security Silos]
AIの導入が加速し、機密データがSaaSやクラウド環境に広がるにつれて、組織はサイロ化されたセキュリティツールでは対処できないリスクの表出に直面する。AIを安全に活用するためには、チームはデータのありかを発見し、その価値とリスクを理解し、ユーザとAIツールの双方がデータにアクセスする方法を管理しなければならない。組織は、機密データを保護し、Microsoft CopilotのようなAIアシスタントを安全に利用できる様にするために、(データの)発見、分類、ガバナンスを組み合わせたAI対応のセキュリティアプローチを必要としている。
このセッションでは、Proofpoint※の専門家がデータセキュリティのギャップ、AIを活用した分類とガバナンスの必要性、そしてAI対応に向けた実践的なステップについて解説する。
※メールを中心とした総合セキュリティソリューション
【専門領域】
<<@ISACA>>
https://www.isaca.org/resources/news-and-trends/newsletters/atisaca
・「AIの回答はビジネスでの意思決定になりつつある:多くの組織ではそれに見合ったAIのガバナンスを実現していない」
[AI Answers Are Becoming Business Decisions: Most Organizations Aren’t Governing Them That Way]
AIの本当のリスクは、AIが間違えることでなく、「正しい答えを間違った(権限のない)人に教えてしまうこと」。それは制御の失敗だが、技術ではなく、リーダシップの問題である。管理者が問うべきは「AIの賢さ」ではなく「AIが実施/連携しても良い問いか」であろう。ハルシネーションはパフォーマンスの問題だが、機密情報の誤った開示は、法務・コンプライアンス・ガバナンスの失敗で、その責任は経営層に帰属する。
AIガバナンスのために期待できる新たな実践的手法はトレーサビリディに収束しつつあり、誰が、どのデータに、どんな管理下で、なぜその回答を生成したのかを説明できなければならない。
AIを早々に導入すべしとの大きな圧力はあるものの、ガバナンスなきスピードは利点ではなくリスクとなる。AIシステムからの全ての回答は、認証されたリクエスト、認可されたデータ、強制されているアクセス統制、監査可能な証拠を追跡可能とすべきである。
<<Industry News>>
https://www.isaca.org/resources/news-and-trends/industry-news
※ セキュリティ・リスク・ガバナンス・監査の専門家からの洞察、実践的なヒントを提供するコーナーです。
・「2026年を象徴するサイバーセキュリティの6つのトレンド」
[The 6 Cybersecurity Trends That Will Shape 2026]
人工知能(AI)はもはや新興でなく、定着しつつある。AIはサイバー専門家が行うほぼすべての行動、攻撃面・防御面の両方に組み込まれており、リーダーのセキュリティ戦略やリスク管理の考え方を大きく変えつつある。専門家は、将来、サイバーセキュリティは、信頼、インテリジェントな自動化、そしてデータプライバシーまわりのパブリックな監視強化に基づいて築かれるだろうと気づき始めている。
2026年に、サイバーセキュリティの最前線で何が現れつつあるか、そしてこの分野が次に向かう方向を示す6つのトレンドがある。
- AIが攻防を主導
- 継続的な監視とクラウドネイティブアーキテクチャがデフォルトに
- データプライバシーが中心的な課題
- AI規制は遅れているものの、ガバナンスは拡大
- インテリジェントツールがセキュリティ人材ギャップを解消
- 信頼が不動の指針として正当な地位を取る(信頼が競争の差別化要因となる)
<<ISACA Now Blog>>
https://www.isaca.org/resources/news-and-trends/isaca-now-blog
※ 各界の専門家による短い記事がほぼ毎日更新されています。ホットな話題が掲載されることが多いので、興味のあるテーマを選んでチェックしてみてはいかがでしょうか。
・「次世代デジタルリスクへのIT監査人の対応:AI、IoT、プライバシー」
[Preparing IT Auditors for the Next Wave of Digital Risk: AI, IoT & Privacy]
技術革新がIT監査人の機会を広げる一方で、その役割をより困難にしている。新世代技術であるIoTやAIは規制やプライバシーのリスクを伴うため、IT監査人は、新たなスキルセットを学び続け、常にこれら技術の最前線で組織に価値を提供し続ける必要がある。 本稿では、AIに関する知識とリスク評価能力の強化、IoTの理解と監査、プライバシーの原則に加える視点について述べ、次のデジタルリスクの時代を確実に乗り越える上で、AI、IoT、プライバシーにまたがる継続的なスキル向上がチームとして不可欠であることを述べている。
<<ISACA Journal>>
※以下の記事の閲覧にはログインが必要です。
「2026年第1号 サイバーフロンティアを航海する」
[2026 Volume1 Navigating The Cyber Frontier]
・「チャットリークに注意:内部脅威検出のためのLLMの活用」
[Beware Chat Leaks: LLMs for Insider Threat Detection]
銀行業界をはじめとする様々な分野において、データ漏えいは常に懸念される問題であり、特にチャットベースでの顧客とのコミュニケーションで顕在化しやすい。対話のような長い文脈や非構造化データ形式は、ルールベースや機械学習アプローチでの処理が困難である。顧客対応記録は膨大な量になる可能性があり、対象を絞ったアプローチがなければ、過剰な誤検知が発生し、調査チームの時間を浪費する可能性がある。文脈の不審なパターンを見逃しがちであることから、こうした課題への対応としてLLM(Large Language Model)の活用を提示。さらに、活用の際の4つの留意点(説明可能性、精度、適応性、ヒトの関与)、活用可能な3つのエージェント(計画と準備:高リスク集団の優先順位付け、発見と検証:データ漏洩の特定と真実性の検証、調査Copilot:リスク評価とアラート配信)、LLMから生成されたアラートサマリ例、マルチモーダルLLMの可能性などを提示している。
※本稿は、銀行の顧客関係管理者がWhatsApp Businessのようなメッセージングツールを用いて顧客とのやりとりをする中で情報漏洩となった事例を題材に、利便性の裏で、機密情報が意図せず外部に流出し得る点を問題提起しています。
**ISACAニュースダイジェストご利用上のご注意**
- オリジナルの英文情報/記事の全文和訳ではありません。「ヘッドライン」 のみの日本語化を基本としています。
- 主にISACA国際本部Webサイトに掲載された情報(メールマガジン等を含む)を対象にしています。
- 本文中の「※」は、当ダイジェスト編集担当者による補足情報、コメント であることを示しています。
- 本文中に記載した各種コンテンツへのリンク(URL)については、リンク先サイトの都合等により、予告なく切れる場合があります。
( Vol.128 文責 萩野 美穂 (東京支部))
このサイトは、ISACA日本支部協同推進機構が運営しています。