1.DeepSeek利用のリスクを2人の専門家が指摘、収集データの「多さ」と「扱い」を注視(1.31 日経XTEC)
米NVIDIA(エヌビディア)の株価急落の原因となった中国DeepSeek(ディープシーク)。同名の生成AI(人工知能)チャットアプリは2025年1月31日時点で、日本のiPhone向け無料アプリランキングで米OpenAI(オープンAI)のChatGPTを抑えて1位だ。
利用者が増える一方で、押さえておくべき利用リスクは何か。生成AIの利活用に詳しいSTORIA法律事務所の柿沼太一代表パートナー弁護士とNECの淵上真一Corporate Executive CISO(Chief Information Security Officer:最高情報セキュリティ責任者)兼サイバーセキュリティ戦略統括部長に聞いた。
2人の専門家は生成AIを利用する際の一般的なリスクと同様に、利用者が最初に確認すべきは利用規約とプライバシーポリシーだと指摘した。
ディープシークが提供する大規模言語モデル(LLM)には「DeepSeek-R1」や「DeepSeek-V3」などがある。これらの利用パターンを大きく2つに分類すると、利用に関するリスクを整理しやすくなる。
利用パターンの1つは、データをディープシークが管理するサーバーに送信するパターン。もう1つは、OSS(オープンソースソフトウエア)として提供するモデルをダウンロードして、ローカルに閉じた環境で利用するパターンだ。同社が提供するチャットアプリケーションやWebサービス、API(アプリケーション・プログラミング・インターフェース)を利用する場合は前者に該当する。
チャットアプリのディープシークは、入力したデータを学習にも使っている。この点はChatGPTも同様だが、ChatGPTはユーザーが自身の入力データを学習に使われないようオプトアウト(利用停止)する機能を用意している。ディープシークは現時点でそうした機能を提供していないため、入力データは全て学習に使われる。
こうした現状を踏まえて柿沼弁護士は、企業がディープシークを利用する際のリスクについて「個人情報保護法違反や秘密保持契約(NDA)違反に該当する可能性」を挙げた。生成AI利用における一般的なリスクがここでも重視される。
淵上CISOは自動収集する技術情報の内容が「注目事項の1つだ」とする。具体的にはユーザーの端末のモデルやOS、入力パターン・リズム、IPアドレス、システム言語など。「一般的な生成AIサービスが収集する情報と比較しても多い」(淵上CISO)と話す。「仮に(ディープシークを介して)収集した情報と他の情報を組み合わせて解析された場合、特定の人の行動パターンや情報の流れが分かる可能性がある」(同)と懸念を示した。
2.Ericssonが生成AIで新機能、プライベート5Gの運用管理を簡素化(1.13 日経XTEC)
スウェーデンEricsson(エリクソン)は、プライベート5G(第5世代移動通信システム)ネットワークの運用管理を簡素化する新機能「NetCloud Assistant(ANA)」を提供開始した。
大規模言語モデル(Large Language Model)を活用することで、Ericssonの技術文書ライブラリーから顧客のネットワークに必要な情報を要約して提供する。接続の不具合を自動的に診断して解決策を提示し、修復にかかる時間を大幅に短縮できるという。全ての人工知能(AI)機能はEricssonの環境内で管理されており、サードパーティーの生成AIなどを使用しないことで、ユーザーとデータのプライバシーを確保する。
3.NVIDIA一強を支えた巨大な「恐竜AI」の終わり、新種の哺乳類AIがやって来る(1.31 日経XTEC)
米国のAI(人工知能)業界が「DeepSeek(ディープシーク)ショック」に見舞われている。きっかけは、中国のAI開発企業であるDeepSeekが開発した生成AIモデル。従来よりも著しく低いコストで開発しながら高い回答精度を持つという。米OpenAI(オープンAI)の対話型AIサービス「ChatGPT」に似た使い勝手を持つDeepSeekのアプリは2025年1月下旬、米Apple(アップル)の米国のアプリストアの無料アプリ部門でダウンロード数首位を獲得した。
DeepSeekは、提供しているサービスに利用する大規模言語モデル(LLM)「DeepSeek-V3(以下、V3)」のトータルのトレーニング(モデル開発のための学習)コストが約557万ドルだと明らかにしている。従来のLLMはトレーニングコストに1億〜10億ドルかかるとされており、桁違いに安い。
しかも、V3のトレーニングに利用したのは米NVIDIA(エヌビディア)の主力GPU(画像処理半導体)の「H100」ではなく、中国向けに性能を落とした「H800」だという。これは、最新のGPUでなくても低コストでLLMを開発できることを意味する。
AIの開発では、「学習データ量」「計算量」「モデルのパラメーター数」の3つとAIの性能が比例するという「スケーリング則」が信じられてきた。このため、米Microsoft(マイクロソフト)と密接な関係を持つOpenAIや米Google(グーグル)が規模の競争を繰り広げてきた。いわばビッグテックが資金力で殴り合っていたのだ。
クラウドサービス大手はこぞって大規模なAIデータセンターに巨額の投資を続けており、NVIDIAが提供するAI向けの高性能なGPUは取り合いになっていた。AIの開発競争に勝つには大規模な施設が必要、つまりAIは一種の「装置産業」になっていた。DeepSeekの登場は、この風潮に一石を投じることになった。
性能を上げるために際限のない大規模化を進める従来のAIの姿は「恐竜」をほうふつとさせる。これに対し、規模の拡大を追い求めるのではなく新しい手法で勝負する、いわば「哺乳類」のようなAIの可能性が示された。これがDeepSeekショックの本質ではないか。
この社名は言うまでもなく「魚」に由来している。魚の群れが協調して一貫した行動を取るように、複数のAIが協調して問題を解決する手法を採用するという。哺乳類ではなく魚類ではあるが、巨大な恐竜AIに対するアンチテーゼを感じられる社名だ。
加えて、LLMの開発コスト削減に大きく寄与する可能性がある「進化的モデルマージ」という手法も提案している。生物の進化を模倣したアルゴリズムを利用し、複数のモデルやそのパラメーターを組み合わせて新しいモデルを生成する手法だ。この手法を利用すれば、既存のモデルやパラメーターを再利用できるため、ゼロからトレーニングするのに比べて手間やコストを削減できる。
同社と東京科学大学の研究チームは2025年1月9日、LLMの新しいフレームワーク「Transformer2」を発表した。これを解説した論文は、世界のSNS言及数ランキングで首位になったという。こうした最先端の研究が日本から生まれるようになったのだ。
4.外出時のスマホ通信速度の満足度はソフトバンクが首位、MMD研究所が公表(1.30 日経XTEC)
MMDLaboが運営するMMD研究所は2025年1月30日、「2025年スマートフォンの通信の繋がりに関する調査」の結果を発表した。NTTドコモとKDDI(au)、ソフトバンク、楽天モバイルのユーザーを対象に、直近半年における外出時の通信満足度を4段階(満足、やや満足、やや不満、不満)で調査。その結果、通信速度の満足度はソフトバンクが82.4%で首位、通信の安定性の満足度はKDDIが81.0%で首位だった。
5.IPAが「情報セキュリティ10大脅威 2025」発表、ランサム被害が5年連続首位に(1.30 日経XTEC)
情報処理推進機構(IPA)は2025年1月30日、2024年の情報セキュリティーに関する事故や攻撃の状況などを基に取りまとめた「情報セキュリティ10大脅威 2025」を発表した。「ランサム攻撃による被害」が5年連続で首位になった一方、国際社会の緊張などを背景に「地政学的リスクに起因するサイバー攻撃」が新たな10大脅威として選出された。
情報セキュリティ10大脅威は、IPAが前年に発生した情報セキュリティーの事故や攻撃の状況などを踏まえて脅威候補を選んだ上で、情報セキュリティー分野の研究者や企業の実務担当者など約200人で構成する「10大脅威選考会」の投票を経て決定している。
組織向けの脅威はランサム攻撃による被害が5年連続で首位だった。また「システムの脆弱性を突いた攻撃」が3位に入った。2024年版で5位だった「修正プログラムの公開前を狙う攻撃(ゼロデイ攻撃)」と、同じく7位の「脆弱性対策情報の公開に伴う悪用増加」を統合した影響によるものとIPAは見ている。
ホームページへ