1.今後稼げるプログラミング言語はずばりどれ? 実は「COBOL」が有望株(9.27 日経XTEC)
プログラミング言語には実に多くの種類がある。メジャーな言語だけでも10個以上ある。これからプログラミングを始めようと思っている人はどれを選べばいいか迷うかもしれない。
どの言語を選ぶべきかという基準は、大きく2つに分かれると考えている。「稼げる」ことを優先するか、「楽しい」ことを優先するかだ。まず前者について考察していこう。
エンジニアが使っている言語と年収の関係については、日経クロステックで過去に調査している。「プログラミング言語利用実態調査2022」のアンケートで年収を尋ね、メインに使っている言語との関係を調べた。
この調査では、メインに使っていると回答したプログラミング言語を抽出して平均年収を集計した。最も平均年収が高かったのは、「Java」をメインに使っているITエンジニアで、その額は740.4万円だった。「C#」の672万円や「Python」の671万円、「JavaScript」の670.9万円も高かった。
気になるのは、不人気言語である「COBOL」をメインに使っているエンジニアの平均年収だ。その額は594.4万円。JavaやPythonといった現在主流の言語よりは低いが、VB.NETやVBAよりは高いという結果である。
ただ、このランキングの順位は今後は大きく変わっていくと考えている。具体的には、COBOLエンジニアの年収がどんどん上がっていくと予想している。理由はずばり生成AI(人工知能)だ。
2.きっとあなたも誤解しているTCPにまつわる2つのこと、「原典」に当たっているか(9.27 日経XTEC)
「finis」という英単語がある。米Merriam-Websterのオンライン辞書で調べると、「END、CONCLUSION」と出てくる。
なぜこんな話をしたかというと、実はTCP(Transmission Control Protocol)の規格を定めたRFC(Request for Comments) 9293に関係するからだ。具体的には、TCPのコネクションをクローズする際のシーケンスに使う「FIN」フラグについてである。
RFC 9293の「Glossary」を見るとFINは略語であり、正式名称はfinisである。ところがTCPに関する弊誌の過去記事や他のオンライン記事において、finisではなくfinishとしている例が散見される。
想像するに、執筆者が「finis」と正しく書いていたとしても、編集者がfinishのタイポであろうと勘違いして修正してしまったのではないだろうか。いずれにしてもRFCの原典に当たっていれば、このような誤りは発生しなかったはずだ。
3.「450MHz帯5Gは業務用IoTに効果的」など(9.27 日経XTEC)
Qualcommが450MHz帯5G対応プロセッサー、業務用IoT狙う
発表日:2024年9月11日、12日(現地時間)
米Qualcomm(クアルコム)とサウジアラビアAramco Digitalは、450MHz帯5G対応プロセッサーを発表した。この周波数帯は屋外と屋内を効果的にカバーするとし、高耐久スマートフォンや業務用携帯端末を含むIoT機器の開発に向けて、性能の最適化を支援する。工場監視などの用途において、リアルタイムな予測分析を行うことで、安全性と最適なパフォーマンスを確保する。これによって、ダウンタイムの軽減や運用コストの削減を実現する。
「6G時代のネットワークには適応型AIが重要」、Qualcommが提言
発表日:2024年9月12日(現地時間)
Qualcommは、6G時代のネットワークやデバイスにおいて、状況に応じて自律的に動作する「適応型(adaptive)AI」が重要な役割を果たすとし、その実現に向けた構想を発表した。AIがリアルタイムに伝送路の状態を監視し、ネットワークパラメーターを動的に調整することで、ネットワーク性能と効率、信頼性を向上させる。個々のユーザーやアプリケーションのニーズに合わせた最適化やカスタマイズも可能だとしている。同社の連載記事「6G Foundry」第4弾として発表した。
4.「ムーアの法則」は限界に、チップレットが促す半導体ビジネスの変革(9.27 日経XTEC)
データセンターの進化、エッジAIの浸透、クルマのプラットフォーム化など、社会のデジタル化とその性能への期待は高まるばかりだ。しかし、これを支えてきた半導体が大きな曲がり角を迎えている。半導体ビジネスの成長を描いた「ムーアの法則」が通用しなくなってきているからである。
これまでは微細化を実現すれば、性能は上がり、消費電力は下がり、集積度を高めて機能を増やすことができ、しかも単価は下がるという、一石三鳥にも一石四鳥にもなる成果を挙げてきた。しかし、これはもう続かない。そこで登場するのが「チップレット」である。半導体を機能ごとに小片(チップレット)にして、これをレゴブロックのように3次元に積み上げる。必要な機能を集めてきて、自由に高性能・高機能の半導体パッケージをつくれるようになる。
5.これが日本のAIデータセンターだ、GPUサーバーを稼働できる18社・32施設(9.24 日経XTEC)
生成AI(人工知能)に欠かせない高性能のGPU(画像処理半導体)を搭載したサーバーを大量に運用できる「AIデータセンター」は、日本にどれだけ存在するのか。日経クロステックが国内にある49社のデータセンター事業者を対象に調査したところ、18社による計画中を含む32施設があることが分かった。
今回、日経クロステックがデータセンター事業者に質問したのは、大規模言語モデル(LLM)のトレーニング(訓練)や推論に使う高性能GPUサーバーが稼働できるような施設と、その詳細だ。現時点では国内に18社が運営する26施設があり、今後さらに6施設が増える計画だ。
LLMのトレーニングには、米NVIDIA(エヌビディア)のAI用GPUである「H100」や「H200」を8個搭載する高性能GPUサーバーが向いているとされる。NVIDIA自身がH100を8個搭載するGPUサーバー「NVIDIA DGX H100」などを製品化しているほか、米Dell Technologies(デル・テクノロジーズ)や米Hewlett Packard Enterprise(ヒューレット・パッカード・エンタープライズ、HPE)などの大手サーバーメーカーがH100やH200を8個搭載する高性能GPUサーバーを販売している。
こうした高性能GPUサーバーの問題点は、わずか1台のサーバーが10キロワット(kW)を超える電力を消費することだ。しかもLLMのトレーニングには、複数台のGPUサーバーが必要だ。
電力の単位にはVA(皮相電力)とW(有効電力)があり、ラックに供給される電力を表す場合はVAが、ラックで稼働するサーバーが消費する電力を表す場合はWが使われることが多い。本特集ではデータセンター事業者の回答にあった表記を、そのつど使用する。
つまりAIデータセンターには、消費電力が10kWを超えるGPUサーバーを1つのサーバーラックで複数台稼働して、十分に冷却できる能力が求められる。
ホームページへ