週間情報通信ニュースインデックスno.1387 2023/7/15


1.「今のAIは哲学に踏み込めない」、芥川賞作家・上田岳弘氏が感じた限界(7.14 日経XTEC)
芥川賞作家でありIT企業役員も務める上田岳弘氏は、「ChatGPT」とのやり取りを通じて「人間の手」による制約のようなものを感じたと言う。AI(人工知能)が倫理的に問題のある回答をしないための工夫かもしれない。「哲学のような分野に踏み込んだ話をするのは難しい」と話す。一方で、生成AIが様々なものを生み出すようになった場合、価値のパラダイムシフトが起きる可能性があると考えを巡らせる。異色の作家が見通した未来をのぞいてみよう。

ChatGPTについて、率直にどう感じていますか。
 2023年の年明けくらいでしょうか。「ChatGPTはルビコン川を渡った」という言説が出てきた頃です。ChatGPTに小説のテーマに関する質問をしていた時期がありました。

 全ての作品ではありませんが、僕がよくテーマにしている1つのイメージがあるんです。人類は精神的なものをITによって共有し始めていて、自分の経験も他人の経験も同じように味わえてしまう。ある種、1つの個体生物に見えてくるといったものです。

 僕は「肉の海」と表現しているのですが、「そうなる可能性はあるか」と聞いたりしていました。回答に突っ込みを繰り返していると、「多様性が損なわれてしまうのでよくない」というんです。「多様性は何のために必要なのか」とさらに問うと、詰まってしまった。

 これは生成AIによる素の答えというよりは、人間の手のようなものを感じましたね。突き詰めていくと、「多様性より地球が保たれることが重要なので、人間は減ったほうがいい」といった答えをしてもよさそうじゃないですか。けれど、AIが倫理的に問題のある回答をしてしまうといった過去の経緯を踏まえて、どこかに限界を設けているんだろうなと。「そもそも、なぜ多様性は大事なのか」といった前提をいじることをAIは許されていない。これを超えて、芸術や哲学といった分野に踏み込んだ話をするのは難しいという印象です。

2.ソフトバンクがStarlinkの法人向けプラン提供、2023年9月から(7.13 日経XTEC)
ソフトバンクは2023年7月13日、米SpaceX(スペースX)の衛星ブロードバンドインターネット「Starlink」の法人向けサービス、「Starlink Business(スターリンクビジネス)」を2023年9月下旬に提供開始すると発表した。Starlinkの認定再販事業者として、3つのプランを提供する。

 プランは「スタンダードプラン」「ポータブルプラン」「マリンプラン」である。スタンダードプランは陸上向けで、顧客が事前に指定した場所にStarlinkのアンテナを設置するもの。ポータブルプランも陸上向けで、顧客が任意の場所にアンテナを移動できる。マリンプランは海上向けで、船舶などにアンテナを設置して日本の領海を移動中にサービスを使える。通信環境が整っていない山間部における建設現場で利用したり、日本領海内の船舶の安全運行を支援したりといった用途を想定する。

3.「5G帯域の拡大は速度向上に大きく貢献、ゲーム体験はわずかな改善」英社調査(7.12 日経XTEC)
独立系モバイルネットワーク調査会社の英Opensignal(オープンシグナル)は2023年6月29日(現地時間)、利用できる周波数の帯域幅の違いにより、4Gの下り速度で最大2.6倍、5G(第5世代移動通信システム)の下り速度では最大1.7倍の差が出るなどの結果をまとめた調査報告を発表した。調査の対象は世界115カ国以上の300を超える通信事業者。1搬送波(キャリア)当たりの帯域幅は4Gが最大20MHz、キャリアアグリゲーション(CA)により最大100MHz幅まで拡張可能となっている。5Gの1キャリア当たりの帯域幅は最大100MHz幅となる。

 利用できる帯域幅が広いほど、4G、5Gとも、下り速度は高速になる。4Gでは、帯域幅が20MHzまでの場合は20.8Mビット/秒だが、40MHz幅まで使えるようになると29.8Mビット/秒に高速化され、これは43.3%の改善となる。帯域幅が40MHz以上使えるようになると最大44.8Mビット/秒と、20MHz幅までと比べて2倍以上になる。さらに、60MHz幅以上の場合は、54.6Mビット/秒と2.6倍超になる。

 5Gでは帯域幅が50MHz以下の場合は160.2Mビット/秒だが、150MHz幅以上なら277.8Mビット/秒と73.4%も改善する。

4.SBテクノロジーがAzure OpenAI Service活用、TeamsでAIチャットを利用可能に(7.12 日経XTEC)
SBテクノロジーは2023年6月29日、米Microsoft(マイクロソフト)が提供するAI(人工知能)サービス「Azure OpenAI Service」を利用した独自システムを開発したと発表した。同年6月に全従業員約1000人を対象として社内利用を開始したという。社内で利用するグループウエア「Microsoft Teams」や問い合わせ管理システムなどと組み合わせることで、業務の効率化や生産性の向上を推進する。

 例えばTeamsと組み合わせることで、AIチャットに文章の作成や要約、議事録作成などを依頼できる。社内規定やマニュアルといった社内情報を含む回答を得ることも可能だ。問い合わせ対応では、FAQから自動的に回答を生成することで、問い合わせた従業員に対して即時返答できるようになる。

 SBテクノロジー広報によれば、現在、一部の顧客にもこのサービスの実証実験に参画してもらい、共同で業務改革に向けた取り組みを進めているという。自社に限らない豊富なユースケースを蓄積していくことで、高精度なサービスを実現していく考えだ。

5.なぜChatGPTは「嘘」をつくのか、その仕組みを掘り下げる(7.12 日経XTEC)
「ChatGPT」に代表される大規模言語モデル(LLM)に基づく生成AI(人工知能)は誤った情報をまことしやかに提示し、幻覚(ハルシネーション)を見せることがある。LLMに基づく生成AIは「嘘をつく」と言われるゆえんであり、「検証が必須」とされる理由でもある。なぜ幻覚を見せるのか。それはLLMの仕組みを理解するとよく分かる。

 LLMは言葉と言葉のつながりを学習したものである。そのつながりの学習結果に基づき、ある単語に続く単語はどれであるかを確率として算出し、その可能性が高い「つながりそうな」単語を続ける。正確には単語ではなく「トークン」と呼ばれる、文字のつながりを細かく区切ったものが用いられる。

LLMは言葉の持つ意味そのものを解釈しているのではなく、あくまでも「つながりそうな」言葉を回答として並べているにすぎない。この結果ハルシネーションが起こる。

ホームページへ