週間情報通信ニュースインデックスno.1389 2023/7/29


1.AIの「知ったかぶり」を回避、パナソニックHDが画像誤認識を防ぐ技術を開発(7.28 日経XTEC)
パナソニック ホールディングス(HD)とPanasonic R&D Company of Americaは2023年7月28日、画像認識AI(人工知能)モデルの信頼性を高める技術「FlowEneDet」を開発したと発表した。画像認識モデルの後段に追加することで、AIモデルが未学習の物体を「未知物体」として認識し、認識が可能な学習済みの物体のみを正しく認識できるようになるという。

 一般にAIモデルは未学習の物体を正しく認識しづらい。未学習の物体に対して、モデルが既知の範囲で無理やり認識してしまう「知ったかぶり」により、予期しない誤動作につながり得ることなどが課題となっている。FlowEneDetは、画像認識を実施したAIモデルが認識結果にどれくらい自信を持っているか(不確実性)を推定する。学習した物体の分布を正確にモデリングできるため、「学習した既知の物体」と「学習していない未知物体や誤分類」を分離できるようになる。

2.セキュリティー対策の要は「運用」、自社SOCも選択肢(7.28 日経XTEC)
セキュリティー強化は「ツールを買って終わり」ではない。運用まで考慮に入れた体制を整える必要がある。その要となるSOC(セキュリティー・オペレーション・センター)、CSIRT(コンピューター・セキュリティー・インシデント・レスポンス・チーム、シーサート)の機能と導入形態を知っておこう。

 サイバー攻撃に対する守りを固めようとEDR(エンドポイントでの検知・対応)やSIEM(セキュリティー情報イベント管理)などを導入したものの、多数のアラートを確認しきれず「ツールの持ち腐れ」になる企業は珍しくない。

 SOCは主にサイバー攻撃の検知・分析を担う組織だ。情報システムを監視し、脅威の兆候を見つける。監視対象の機器やサービスから収集した大量のイベント情報(ログ)などはSIEMに取り込み、アナリストが分析して脅威の兆候を捉える。

 一方、CSIRTは脅威検知の報告を受け、インシデントの発生からシステム復旧までの統括(インシデントハンドリング)を担う。CSIRTはまず、SOCや外部機関などから報告された脅威が組織にとってどのくらい深刻か、実際にインシデントとして取り扱うべきものかを検討する。「トリアージ」と呼ばれる、優先度を見極める作業だ。

 その後、攻撃手法やインシデントの影響範囲を調べて対策を講じる。SOCと協力しつつパソコンやネットワークを一時的に停止・隔離して被害の拡大を封じ込めたり、システムを分析して攻撃の侵入経路・被害範囲を特定したりする。並行して、攻撃の痕跡を証拠として収集・保存。最終的には被害に遭ったシステムを修復して正常な状態に戻し、再稼働させ、再発防止策を講じる。

3.5G-Advancedから本格始動の「ワイヤレスAI」、クアルコムが描く可能性のシナリオ(7.27 日経XTEC)
米Qualcomm(クアルコム)は2023年7月14日(現地時間)、5G(第5世代移動通信システム)の次規格「5G-Advanced」以降に、AI(人工知能)とワイヤレス技術が相乗効果をもたらす「ワイヤレスAI」解説記事を掲載した。これにより、無線システム全体の技術革新が加速するとしている。

 AIを導入することで、映像品質などが改善されるのみならず、無線通信の未来を大きく変えることができる。Qualcommでは、既に「Snapdragon モデム-RFプラットフォーム」の2世代にわたってAIを採用し、性能強化を続けている。AIは今後、システムの省電力化やネットワークの負荷分散、端末のモビリティー管理最適化など、さまざまな部分で活用されるようになっていく。今後の無線システムにおけるAIの役割としては、次のようなものがある。

分散クラウドの最適化:AIにより、完全に自動化されたネットワークが可能になる。
分散型ネットワークの高度化:AIはRANインテリジェントコントローラー(RIC)の実現にも重要な役割を果たす。
AIを使った無線インターフェース設計
スマートエッジデバイス
 Qualcommでは、ネットワーク展開対象エリアのデジタルツインを作成し、学習済みの機械学習モデルを使って展開計画を進める、高度なネットワーク展開計画ツールを開発した。このツールは、ネットワーク容量や通信速度、構築時の費用、インフラのタイプなどの要求仕様を基づき、最適化されたネットワーク展開計画を出力する。

4.理想のセキュリティー対策は「ゼロトラスト」だが、現実は長い道のり(7.27 日経XTEC)
従来型の境界型防御を脱し、セキュリティーを強化するにはどうすればいいか。理想像は既に示されている。「ゼロトラスト」に基づく対策だ。ただし日本企業にとって道のりは長い。まずは足元の対策を固めよう。

 しかし大企業や著名な組織を狙った標的型攻撃となると、話は別だ。三菱電機や富士フイルムホールディングス(HD)は基本的なセキュリティー対策を講じていたが、境界型防御のわずかな弱点を攻撃者に突かれて社内ネットワークに侵入され、防御が弱かった境界内のサーバーを狙われた。

 高度化する一方である標的型攻撃にはどう備えるべきか。三菱電機と富士フイルムHDがサイバー攻撃の被害に遭った後に実施したセキュリティー対策の強化が参考になる。境界型防御に依存せず、社内ネットワークも危険な場所だと捉えるゼロトラストの実践と、ログの監視と分析といったセキュリティー運用の強化である。

 ネットワークの境界内にいるユーザーであっても安全だと「信頼」はしない。ユーザーが業務システムにアクセスした際には、ユーザーに設定された権限や多要素認証の有無、アクセス元のIPアドレス、ユーザーが使用する端末のセキュリティー状態など「属性」を毎回チェックし、それに基づいてアクセスの可否を動的に決定する。それがABACだ。

 日本においては、理想的な状況に至る道のりはまだ長い。それでもサイバー攻撃被害に遭った企業を中心に、既に存在する様々なゼロトラスト向けのセキュリティー製品を組み合わせて、できるところから導入しようという動きが始まっている。

5.生成AIのデータがインターネットを汚染、基盤モデルを崩壊させる「再帰の呪い」(7.26 日経XTEC)
 ChatGPTなどの生成AI(人工知能)が大量のデータをつくり出す中、フェイクなどによる事件や悪影響が懸念される。さらに、生成AIがつくり出したデータによって生成AIのモデル自体が崩壊する恐れも出てきた。今回は番外編として、この問題を取り上げる。

 生成AIの基盤となるのは大規模言語モデル(LLM)や画像などを生成するための拡散モデルである。こういった基盤モデルはインターネット上の膨大なデータを使って学習させる。そのほとんどは人間がつくったデータだ。

 だが生成AIの普及により、生成AIがつくった大量のデータがインターネットに日々放出されている。このため今より後の世代のモデルは、人間によるデータだけではなく前の世代のモデルがつくったデータを使って学習することになる。これを繰り返すと、モデルは一体どうなってしまうのだろうか――。

 2023年5月から6月にかけて、このテーマに関する研究論文が相次いで発表された。そのうちの1本によると、「結果として得られるモデルには不可逆的な欠陥が生じ、『モデルの崩壊』につながる」という。一体、どういうことだろうか。

 英国とカナダの研究者グループは2023年5月、「The Curse of Recursion: Training on Generated Data Makes Models Forget(再帰の呪い:生成されたデータでトレーニングすると、モデルは忘れてしまう)」(以下、再帰の呪い)という論文を発表した。この論文では言語モデルを取り上げている。

 確率分布で考えると、確率の低い裾野の部分が世代を追うごとに失われるとしている。実際論文では、もともとはガウス分布(正規分布)だった確率分布が、世代を追うごとに分散が小さくなっていくことを数学的に示している。つまり生成されたデータが将来のAIモデルの学習に使われると、多様性が大幅に低下する。

 生成AIによるデータによってインターネットが「汚染」されてモデルがどんどん劣化していき最終的には崩壊する――。2本の論文は、これが絵空事ではないことを示したといえる。

 このような事態を防ぐには、汚染される前のデータへのアクセスが維持され、AI以外が生成した追加データを長期間にわたって利用できるようにすることが重要だと「再帰の呪い」論文では指摘している。

 このままインターネットの汚染が進めば、汚染されていないデータでモデルを既に学習させているビッグテック企業が有利だと「再帰の呪い」論文は指摘。そういった企業は「先行者利益」の恩恵を受けていると結んでいる。

ホームページへ