週間情報通信ニュースインデックスno.1276 2021/05/15


1.「一太郎」に罪なし、134件の法案誤り続出で政府デジタル変革に黄色信号(5.14 日経XTECH)
政府が2021年の通常国会に提出した法案資料に誤りが多発し、中央官庁が原因究明と再発防止策に追われている。原因を探ると法案作成を効率化する新システムを構築したものの、効果を発揮させるための運用を徹底していない実態が見えてきた。

 代わりに現場で重宝されたのはジャストシステムのワープロソフト「?太郎」だったが、誤りの原因はワープロソフトの利用そのものではない。「仏つくって魂入れず」の状態を放置してきた点は、政府のデジタル改革の先行きに不安を抱かせる。

 誤りが最初に問題となったのは、2021年5月12日に国会で可決成立したデジタル改革関連法案。「電気通信回線」とすべきところを「電子通信回線」とするなどの誤りが、5本ある新法や法改正案のうち4本で45件見つかった。国会への報告が遅れただけでなく、その後に提出した正誤表にも誤りがあり、法案審議の日程が後ろにずれ込む影響が出た。

 加えて、経済産業省や文部科学省などが作成した法案でも誤りが判明。政府が提出法案の全体を再点検したところ、デジタル改革関連法案を含めて13省庁が作成した23の法案と1つの条約で、参考資料を含めて134件の誤りが見つかった。

 国会で審議する法案の6〜8割は現行法の改正である。各省庁はその法案づくりを、改正しようとする法律の条文を改正前後で表形式に並べる「新旧対照表」をつくることから始める。表の下側が現行法の条文で、上側が改正後の条文の原案である。

 内閣法制局など関係者のチェックや文案修正も全て新旧対照表ベースで進める。内閣法制局は新旧対照表の原案に対し立法の必要性や論理整合性などを審査し、各省庁が同局の指摘を解消して原案に反映する。審査を通過すれば、現行条文をどう変えるかをまとめた「改め文」と呼ぶ法案は新旧対照表から機械的に作成できる。

 この一連の法案づくりを支援する目的で、総務省は新システムの「法制執務業務支援システム(e-LAWS、イーローズ)」を富士通と開発し、2016年10月に稼働させた。当時の高市早苗総務相は新システムについて、「我が国で初めて、政府が自ら責任を持って正確性を担保・認証した法令のデータベースである」と説明し、法案作成作業を「飛躍的に省力化・効率化することで、(中略)霞が関の働き方を変える」と話した。

 しかし法案作成の支援機能は十分に利用されているとは言いがたい。例えば内閣官房情報通信技術(IT)総合戦略室(以下IT室)はデジタル改革関連法案を作成する際、e-LAWSを使わなかった。経産省や文科省、農林水産省なども大半の法案作成でe-LAWSを使わなかったという。

2.電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer(5.14 日経XTECH)
人間の脳の消費エネルギーは電力に換算するとわずか20ワットほどであり、消費電力数百ワットのGPUを何百〜何千個も学習に使う最先端のAI(人工知能)に比べるとはるかに省エネである。そこで脳の動きに習って、AIの省エネを図ろうとする動きが始まっている。代表例が米Google(グーグル)の言語モデルSwitch Transformerだ。

 言語モデルは最近非常に注目されている自然言語処理用のAIだ。米国のOpenAI(オープンAI)財団が2020年6月に発表した言語モデルであるGPT-3は、あたかも人間が書いたような自然な文章を作ったことから大きな話題になった。しかしGPT-3は膨大なエネルギーを消費する。

 GPT-3が高性能なのは、1750億個ものパラメーターを備えた機械学習モデルに45テラバイト(TB)、4100億単語からなる巨大な文書を学習させたからだ。その学習には米Microsoft(マイクロソフト)が用意した世界でトップ5に入る規模のスーパーコンピューターを使用する。スパコンが搭載するCPUコア数は28万5000個、GPUは1万個であり、GPT-3の学習に要する電力は1287メガワット時(MWh)にも達する。

 パターソン氏は4月に発表した論文「Carbon Emissions and Large Neural Network Training(炭素排出と巨大ニューラルネットワークの学習)」において、自社が開発した巨大な言語モデルであるSwitch TransformerやGShardをオープンAI財団のGPT-3と比較し、自社の言語モデルの方が消費電力が少なく、二酸化炭素排出量も少ないことを示した。

 グーグルが2020年6月に発表したGShardや2021年1月に発表したSwitch Transformerは、高性能で話題になったGPT-3をさらに上回る巨大な言語モデルである。GPT-3が1750億パラメーターであったのに対して、GShardは6000億パラメーター、Switch Transformerに至っては1兆5000億パラメーターにも達する。

 それにもかかわらずGShardの学習に要する消費電力は24.1MWh、Switch Transformerの学習に要する消費電力は179MWhであり、GPT-3の1287MWhと比べると大幅に少ない。パラメーター数が大きいのに消費電力が少ない理由を、パターソン氏は大きく2つ挙げている。

 1つはGShardやSwitch Transformerが学習に際して、巨大な機械学習モデルの一部しか使わないことだ。言語モデルの学習においては、文章の一部の単語をマスク(目隠し)し、マスクされた単語を前後の文脈から推測するという穴埋め問題のようなタスクを何度も繰り返し、より良い答えが出るようにパラメーターを調整する。

 GPT-3など従来の言語モデルはタスクを処理する際にモデル全体を稼働させていたが、GShardやSwitch Transformerはモデルの中でもそのタスクに関連しそうな一部しか稼働させない。具体的にはGShardが各タスクを処理する際に稼働させるのは全体の0.25%、Switch Transformerは全体の0.10%にしか過ぎない。

 パターソン氏はこの動きを「人間の脳が文章を読む際に、1000億以上あるニューロンの一部しか稼働させないのに似ている」と説明する。人間の脳が省エネなのは、あるタスクに関連するニューロンしか稼働させないからだ。脳に似せた動きによってGShardやSwitch Transformerは省エネを果たしたということだ。

 グーグルはSwitch Transformerにおける機械学習モデルの稼働方式を、混合エキスパート(Mixture-of-Experts: MoE)と呼んでいる。巨大な言語モデルは実は、特殊な役割を担う専門家(エキスパート)として動く小さなモデルの集合体であり、あるタスクを処理する際はその分野の専門家だけが働いて、それ以外の専門家は休んでいる。これもある意味、人間のような動きと言えるだろう。

 ただしGShardやSwitch Transformerのような一部のモデルしか使用しない方式は、モデル全体を使用する方式に比べて性能面では劣るようだ。グーグルはSwitch Transformerの論文でも、同社が以前に開発した110億パラメーターの言語モデル「T5」に比べて精度を同程度に保ちながら学習速度を7倍にした、と表現している。省エネと性能はトレードオフの関係にある。GShardやSwitch TransformerのパラメーターがGPT-3より多いからといって、GPT-3よりも性能が優れるとは限らない可能性もある。

 パターソン氏はGShardやSwitch Transformerの消費電力が少ないもう1つの理由として、これらのモデルの学習にグーグルの機械学習専用プロセッサーであるTPUを使用していることを挙げる。グーグルはパターソン氏のようなプロセッサー開発の権威を招き入れて、機械学習専用プロセッサーを半導体メーカーに先駆けて実現してきた。それが功を奏しているとの主張だ。

 もし24時間365日の再生可能エネルギー使用が実現すれば、グーグルのAIが発する二酸化炭素はゼロ、ということになる。AIに関する倫理的な問題としては、環境破壊や偏見(バイアス)などさまざまあるが、その内の1つは(グーグル社内では)解決できそうだ。

3.インターネットで売買される「あなたのパスワード」、なりすましを防ぐ3つの対策(3.13 日経XTECH)
個人情報の売買がインターネット上で活発だ。名前や住所、メールアドレスのほか、パスワードやクレジットカード情報まで取引されている。今回はインターネット上で個人情報はいくらで取引されているのか、犯罪者はこれらの情報をどのように使うのか、私たちはどのように対策すべきかを解説する。

 米RSA Securityが2017年に発表した「2018 Cybercriminal Shopping List(サイバー犯罪者のショッピングリスト)」によれば、メールやSNS、オンラインバンキングなどの各サービスの認証情報(メールアドレスとパスワード)がインターネット上で売買されているという。しかも特殊なソフトを使ってアクセスするダークウェブだけでなく、一般的なSNS上でも堂々と売られているとしている。

 また認証情報には相場があり、サービスの種類やクレジットカード情報の登録の有無などによって、1件当たり数セントから15ドルで取引されているという。

 犯罪者はインターネットで入手した認証情報のリストをどのように使うのか。  まずは流出元のサービスに対して、利用者になりすまして不正ログインを試みる。成功すればお金を引き出したり、買い物をしたりする。ただ、預金やポイントの残高があったり、クレジットカード情報が登録されていたりするサービスの認証情報は高額で売買されている。このため、不正ログインに成功しても割に合わないケースも出てくる。

 そこで犯罪者は安価で入手した認証情報のリストを使って、流出元とは別のサービスで不正ログインを試みる。この攻撃手法を「リスト型攻撃」と呼ぶ。

 古いデータだが、警視庁が2013年にサービス事業者と協力して実施した調査によると、リスト型攻撃の成功率は5%強だったという。またヤマト運輸が提供するWebサービス「クロネコメンバーズ」で2019年7月に受けたリスト型攻撃では、約3万件の不正ログインが試行され、3467件のログインが成功したとされる。成功率は10%を超えていた。

 関係のないサービスの認証情報で、どうしてこれほど高い確率で不正ログインが成功するのか。それは利用者がパスワードを使い回しているからだ。パスワードの使い回しとは、複数のサービスで同じパスワードを設定すること。

 IDにメールアドレスを採用しているサービスが多いため、利用者がパスワードを使い回しているサービスの1つで認証情報が流出すると、別のサービスで不正ログインされるリスクが高まる。リスト型攻撃の成功率が高いということは、それだけパスワードを使い回している利用者が多いということだ。

 自分の認証情報は過去に流出したことがあるのか。気になる人は、セキュリティー専門家であるトロイ・ハント氏が個人で運営する「Have I Been Pwned?(HIBP)」というサイトを試してみよう。このサイトには112億件もの流出した認証情報が登録されている。

 最後に、なりすましによる不正ログインを防ぐための対策を紹介する。  まず、パスワードの使い回しをしないことだ。そのとき、多くのパスワードを覚えきれないという人はパスワード管理ソフトを使うとよいだろう。自分だけが分かるパスワードのヒントを手帳に書き残しておくのも手だ。

 次に、サービスで設定したパスワードが短かったり、単純な文字列だったりした場合は複雑なものに変更しよう。当初は短いパスワードしか設定できなかったが、今なら長いパスワードを設定できるというサービスがあるからだ。

 最後に、2段階認証やSMS認証など、パスワード以外で認証する仕組みを用意したサービスではこれらを積極的に利用しよう。そうすれば、仮にIDとパスワードを犯罪者に知られてしまったとしても不正ログインを防げる。

 この3つの対策を実践することで、セキュリティーレベルは格段に上がる。

4.NICEがクラウド型コンタクトセンターサービス、日本専任のサポートチームを増強(5.12 日経XTECH)
通話記録・対話分析ソリューションを手掛ける米NICE(ナイス)の日本法人、ナイスジャパンは2021年5月12日、クラウド型コンタクトセンターサービス「NICE CXone(ナイス シーエックスワン)」の提供を8月から日本で始めると発表した。今後3年で12万ライセンスの獲得を目指す。

 NICE CXoneはすでに米国などで提供され、数万席規模のコンタクトセンターで利用している事例もあるという。日本での提供に先駆け、日本専任のサポートチームを増強する。金融機関やBPO(ビジネス・プロセス・アウトソーシング)事業者、EC(電子商取引)事業者に加え、新型コロナウイルス禍で需要を見込める地方自治体を重点ターゲットとする。

 ナイスジャパンは、コンタクトセンターなどでの音声通話・動画・テキストコミュニケーションを記録する「通録」、記録した情報を解析する「分析」、RPA(ロボティック・プロセス・オートメーション)などを用いてオペレーターをアシストする「自動化」の3つの分野にわたって事業を展開する。今後、新たにNICE CXoneの事業を加える。

 現在は通録が売上高の8割を占める収益構造を見直し、NICE CXoneを含むクラウド型コンタクトセンター事業の売上高比率を4割に拡大することを目指す。通録、分析、自動化の製品についても2021年から2022年にかけて順次クラウド化を進める。

5.NTTデータの連続増収は途切れず「32」に、2021年3月期決算(5.11 日経XTECH)
NTTデータは2021年5月11日、2021年3月期通期の連結決算(国際会計基準)を発表した。売上高は前期比2.3%増の2兆3186億円、営業利益は同6.3%増の1391億円だった。減収減益予想だったが、新型コロナウイルス禍のマイナス影響が限定的だったこともあり、増収増益で着地した。売上高は32期連続増収を達成した。

 売上高でみると、特に公共・社会基盤や金融分野が好調だった。公共・社会基盤に関しては、中央府省やテレコム向けが伸びた。金融については、案件を着実に積み上げた。一方、法人・ソリューション分野は製造業を中心にコロナ禍のマイナス影響を受けたが、流通・サービス業の規模拡大などで補った。

 NTTデータの本間洋社長は同日開いたオンライン決算会見で「想定よりも(コロナ禍の)マイナス影響が小さく、堅調な決算になった」と語った。「既存顧客の更改案件を取りこぼしなく受注できている。デジタル系の新規案件もしっかりと受注できた」(本間社長)。

 2022年3月期は売上高で2021年3月期比1.8%増の2兆3600億円、営業利益で同29.3%増の1800億円を予想する。当期利益は同37.9%増の1060億円と、初の1000億円超えを見込む。

 ホームページへ