生成AIに最適なGPU選びについて各モデルを調べてみた

結論から書くと、NVIDIAのメモリが多いのを買っておけばよい!ですね。

生成AIに最適なGPUは、用途や予算によって選択肢が変わります。巷の主流はNVIDIA RTX 4090/5090、プロ向けRTX 6000 Ada/RTX PRO 6000、AMD Radeon RX 9000、AMD Radeon RX 7900 XTX、Intel Arc B580、Apple Mac Studio M3などです。以下に主要モデルの特徴と、他の注目GPUをまとめます。

生成AI進化を支えるGPU最前線──2025年の現状

AIモデル開発・運用の最前線では「VRAMの大容量化」「AI/FP演算専用コア」「PCIe 5.0/高速メモリ」「ソフト・エコシステム」の4要素が重要になっているようです。とくにVRAMの容量は重要で、VRAMに乗り切らなかったデータは、メインメモリにデータが読み込まれます。GPU⇔メインメモリ間はVEAMほど高速ではないため、メモリ容量がボトルネックになることが多いとか。


NVIDIA──Blackwell世代が全方位で圧倒

RTX 5090(Blackwell)

  • CUDA: 21,760コア / VRAM: 32GB GDDR7 / 帯域: 1,792GB/s
  • DLSS4, Reflex2, FP4, AI TOPS 3,300超で全ジャンル最強
  • 大規模画像生成/LLM学習/動画/科学計算まで万能
  • 価格帯40万円前後で法人/プロ用途でも中心

MSI GeForce RTX 5090 32G VENTUS 3X OC グラフィックスカード VD9001

新品価格
¥413,939から
(2025/9/11 13:35時点)

RTX PRO 6000 Blackwell

  • CUDA: 24,064 / VRAM: 96GB GDDR7 / AI専用Tensorコア752基
  • ECC対応、大規模LLM/研究用/ワークステーション向け
  • 消費電力600W・PCIe 5.0対応・DisplayPort 2.1

NVD PNY RTX PRO 6000 Blackwell プロフェッショナルワークステーションエディション グラフィックカード AI、デザイン、シミュレーション、エンジニアリング用 – 96GB DDR7 ECCメモリ – 第4世代 RT/第5世代 Tensor Core GPU – OEMパッケージ

新品価格
¥1,937,128から
(2025/9/11 13:38時点)

ミドル~エントリークラス

  • RTX 5070/5080/4060TiなどVRAM16GB級が主流
  • LLM量子化や画像生成系なら十分実用的

AMD──RDNA 4&RX 9000で真のAI世代を実現

Radeon RX 9000シリーズ

  • RDNA 4世代、AIアクセラレータ2基/演算ユニット
  • INT8スループット8倍、スパースマトリックス対応
  • RX 9070 XT: 16GB GDDR6 / 1,557TOPS / Stable DiffusionやLoRA高速推論
  • AI PRO R9700: 32GB GDDR6、FP4対応、AMD ROCm 6.4最適化

ASUS AMD Radeon RX9070XT 搭載 ビデオカード PCIe 5.0 16GB GDDR6 PRIME-RX9070XT-O16G 国内正規代理店品

新品価格
¥111,791から
(2025/9/11 13:40時点)

価格・運用

  • コスパ重視/エコシステム進化中
  • NVIDIA一強だったAI分野で着実に台頭、FSR4で画質強化

Intel Arcシリーズ──B580でコスパAI推論

Arc B580

  • VRAM: 12GB / AI推論で4060Ti/RX 7600上回る性能
  • OneAPI/ROCm経由のAI最適化が進み、個人開発/量子化モデル向け

SPARKLE Intel Arc B580 グラフィックカードOC版 トリプルファン「TITAN」シリーズ [ B580 TITAN OC 12GB ]

新品価格
¥38,800から
(2025/9/11 13:41時点)


Apple Mac Studio M3 Ultra──AI特化設計の新形態

  • CPU32コア / GPU80コア / NPU32コア / 最大512GBユニファイドメモリ
  • Thunderbolt5高速接続・AIリアルタイム処理でApple独自のAI体験

失敗しないGPU選びのポイント

用途推奨 VRAM主なGPU
画像生成AI16GB〜32GBRTX 4090/5090, RX 9070XT
大規模LLM32GB〜96GBRTX PRO 6000, AI PRO R9700
趣味・小規模12GB〜16GBRTX 4080SUPER, Arc B580
Mac環境32GB以上(統合)Mac Studio M3 Ultra
  • VRAM不足は“絶対の大敵”。想定より多めに選定すべき
  • AI推論重視なら新世代AIアクセラレータ搭載モデルを優先
  • NVIDIAはCUDA&TensorRTの圧倒的エコシステムを活用したい時有利
  • AMD/Intel/Appleは価格・消費電力・OSとの親和性も要チェック

まとめ

2025年の生成AI向けGPUの最適解は、自分のプロジェクト規模・予算・ソフト環境にベストフィットするモデル選び。VRAM多めを選んでおけば間違いないかと。

NVIDIAのBlackwell世代がピカイチですが、価格もよいお値段しています。
AMDのRDNA4/RX9000はバランスが取れてそう。
Intel Arc B580は安さ重視、より上位の2GPUモデルが出るか、次のB770が出たら化けるかと。
Apple M3 Ultraは、リセールが高いので不要なときに処分しやすそう?

個人的には、AMD Ryzen AI Max 395がよさそうです。文字生成のLLMではオンメモリに読み込めるかが重要なので。逆に画像生成はNVIDIAがやっぱり強そう。

GMKtec EVO-X2 AI ミニPC AMD Ryzen AI Max 395、LPDDR5X 8000MHz 96GB 1TB SSD (Max.8TB) Windows 11 PRO ゲーミングPC、AMD Radeon 8060S RJ45/Wi-Fi 7/BT 5.4、4画面 HDMI 2.1/DP 1.4/USB4 70Bパラメータ対応 静音ビジネス ゲーミング向け

新品価格
¥357,990から
(2025/9/11 13:46時点)

NVIDIA GPUをNVLinkというのでつないで高速にGPU間の処理を行ってしまう技術もあり、お金が許すのであればそういったものを選択してみるのみありですね。

ほか、多彩な選択肢を駆使し、快適なAIライフを手に入れましょう。

【2025年】生成AIサービスの料金を比較してみた件

最近、生成AIに興味が非常にありまして。はい。
そんな訳で、最新版の主要生成AI API料金比較表を作成してみました。

モデル名入力単価($/100万token)出力単価($/100万token)主な提供元/用途
GPT-51.2510.0OpenAI/汎用高精度
GPT-5-mini0.252.0OpenAI/省メモリ・高速
GPT-5-nano0.050.40OpenAI/超軽量Bot
Claude Opus 4.115.075.0Anthropic/推論・長文解析
Claude Sonnet 4/3.73.015.0Anthropic/汎用
Claude Haiku 3.50.804.0Anthropic/コンパクト
DeepSeek-V3.10.561.68DeepSeek/低価格高性能
Gemini 2.5 Pro1.2510.0Google/最先端・多機能
Gemini 2.5 Flash0.302.50Google/高速応答
Gemini 2.0 Flash-Lite0.0750.30Google/省コストBOT向き
Copilot(GitHub)月額 $10〜39/人制限付きコード生成/パーソナル
Grok-43.015.0xAI/推論高速
Amazon Nova Micro0.0350.14Amazon/最廉価・Bot向き
Amazon Nova Lite0.060.24Amazon/低コスト
Amazon Nova Premier2.512.5Amazon/高スペック
Meta Llama 4 Maverick0.270.85Meta/高性能
Meta Llama 4 Scout0.180.59Meta/ライト
Cohere Command R0.501.50Cohere/対話・業務
Cohere Command Light0.300.60Cohere/小規模用途

2025年9月にもなると、生成AIの活用方法などが定着してきており、今から始めるには非常にいいタイミングだと感じてます。各種サービスはAPI経由で簡単に組み込み&自動化できる一方、どのサービスを選ぶべきか、コストはどれくらいか?と迷うもの。

業務Bot・アプリ開発・分析・文書要約・チャットシステムなど幅広い用途でニーズの高い、主要生成AIを比較して、機能選びや運用コストを下げれればなぁと思ってます。
主な生成AIサービスの違いや特徴、主要モデルごとのAPI料金一覧は下記のようになります。


OpenAI 系(ChatGPT:GPT-5系)

モデル入力単価/100万token出力単価/100万token特徴
GPT-5$1.25$10.0高精度・標準
GPT-5-mini$0.25$2.0省メモリ
GPT-5-nano$0.05$0.40超軽量Bot
GPT-4o$2.5$10.0
GPT-4o-mini$0.15$0.60
https://platform.openai.com/docs/pricing
  • キャッシュトークン機能で同一コンテンツは90%割引
  • Plus/Pro/Businessいずれのプランでも利用可

GPT-5は2025年8月リリースのOpenAI最上位モデル。従来の「単一チャット型」を超え自動的に「即答型」と「思考型」を統合した“考えるAI”となった。博士号レベルの知性・最大27万トークン文脈、超多言語対応、コーディング・文書作成・ヘルスケア・法務・画像・音声認識まで最高峰。安全性(Safe Completion等)や法規制準拠を徹底し、パーソナライズ性も強化。でも一部利用者からはGPT5は温かみ(?)がなくなったというクレームにつながっているモデル。ちょっと客観的になったんでしょうか。知らんけど。
mini/nanoは性能を抑えて高速・多量処理用途向け。チャットボットや大量APIエンドポイントで威力を発揮。

Google 系(Gemini)

モデル入力出力用途
Gemini 2.5 Pro$1.25$10.0高性能汎用
Gemini 2.5 Flash$0.30$2.50高速応答
Gemini 2.0 Flash-Lite$0.075$0.30軽量
https://ai.google.dev/gemini-api/docs/pricing?hl=ja
  • Flash-Liteはコスト重視Bot運用に最適

Gemini 2.5 ProはYouTube/画像/音声も横断する本格的マルチモーダル特化の最上位モデル。Google検索インテグレーションも容易で、プラグインやGoogle Cloudエコシステムとの親和性が抜群。セキュリティと応答速度も妥協なし。やっぱりお金と情報を持っているところのモデルは強い印象。無料版でも結構使えそう。
Flash/Flash-Liteはチャット応答速度・低コストに特化し、ボリュームBot需要・サポート業務に最適。

Anthropic(Claude)

モデル入力出力特徴/用途
Claude Opus 4.1$15.0$75.0長文解析・推論最強
Claude Sonnet 4$3.0$15.0バランス型
Claude Haiku 3.5$0.80$4.0小規模/価格重視
https://docs.anthropic.com/ja/docs/about-claude/pricing

Claude Opus 4.1は1Mトークン超の大規模文脈を生かしたロングフォーム推論・ナレッジワーク領域に最適解。安全性(憲章/倫理AI)にも大きく注力、高度な業務文書・契約・法務・学術解析で運用多数。プログラミングをする人が良く選ぶような印象。Sonnet 3.7の時に爆発的に利用者が増えた感じ。
Sonnet/Haikuはより汎用的(Sonnet)およびコンパクトな大量対話運用・Bot最適(Haiku)用途へ。

DeepSeek

モデル入力出力備考
DeepSeek-V3.1$0.56$1.68驚異的コスパ
https://api-docs.deepseek.com/quick_start/pricing

独自アルゴリズムで大手ベンチに並ぶ精度と低コストを両立し、APIを自動的に選別・スケールできるため日本国内ユーザーにも人気拡大中。ローカルLLMならアリだけど、APIで中国を使うのはちょっと拒否感があるかも?

xAI(Grok)

モデル入力出力備考
Grok-4$3.0$15.0多様なレスポンス
https://docs.x.ai/docs/models

Elon Musk率いるxAI開発。速報性や新情報キャッチへの即応、カジュアルチャット性能に特化。価格と最新性・個人~法人向け柔軟性に強み。イーロンマスクのファン向け?

Amazon(Nova, Titan)

モデル入力出力用途/特徴
Nova Micro$0.035$0.14最安値Bot用
Nova Lite$0.06$0.24低コスト運用
Nova Premier$2.5$12.5高速・高精度
Titan Text Embedding$0.02/1,000token生成AI埋め込み用途
https://aws.amazon.com/jp/ai/generative-ai/nova/understanding/?nc1=h_ls

Nova Micro/Liteは低価格Bot/チャット運用で比較的API原価が安く、独自アーキテクチャ搭載。Premierはエンタープライズ大量処理で高速処理・外部連携にも強い。Tita系は主にEmbedding(検索/類似度)用途。

Meta(Llama系)

モデル入力出力備考
Llama 4 Maverick$0.27$0.85高性能
Llama 4 Scout$0.18$0.59軽量
https://www.llama.com/

オープンソース型大規模言語モデル。従来版より大幅に精度や処理能力を引き上げ、モデル選択/拡張も容易。独自訓練、オンプレ等「AI主権」を重視する組織・研究用途に注目。Llama 5は開発に失敗してオープンではなくなるらしい。残念。

Cohere

モデル入力出力用途など
Command R$0.50$1.50ビジネス向け
Command Light$0.30$0.60小規模業務
https://cohere.com/pricing

コマンド(Command)シリーズは分類・チャット・QA等テキスト特化の垂直最適化型。API安定性・サポート体制が強く企業ユースで定着。細かいモデル選択で運用コスト最適化可能。

Copilot(OpenAI+Microsoft)

https://www.microsoft.com/ja-jp/microsoft-365/copilot/pricing

  • 月額 $10~39/人(GitHub, M365等による)

月額定額・人数課金制で、開発者向けAI支援ツール(コード生成/説明/補完)。強力なOSS同期とバージョン管理強化で、開発現場の生産性向上に直結。Windows/M365等にも拡張。


まとめ・選び方のポイント

  • 汎用AI×大規模データ/高精度推論にはGPT-5・Gemini 2.5 Pro・Claude Opus
  • コスト重視/Bot/チャットにはLlama, Nova Micro, GPT-5-nano, DeepSeek
  • 応答速度重視/省リソースはGemini Flash-Lite, GPT-5-mini, Amazon Nova Micro
  • ライセンスやAPI接続制限に注意し、自社のユースケースに最適解を選ぶこと

DeepSeekが安さと性能で光っていますが、渡した情報がセンシティブだと選びにくい感じですね。
大人しくGemini 2.5 Proあたりに課金する感じが正解でしょうか。。。

PCでAIを使うなら必須!LM Studioを日本語化する手順について

LM Studioは、ローカル環境で大規模言語モデル(LLM)を手軽に利用できる便利なツールです。多言語に対応しており、もちろん日本語での表示も可能です。標準では英語表記となっており、そんなに難しくはないんですが、分かりやすくLM Studioのユーザーインターフェースを日本語に設定してみました。

手順は非常に簡単ながら下記です。

  1. LM Studioを起動する
    まずは、LM Studioアプリケーションを起動します。
  2. 設定画面を開く
    設定画面を開くには、以下のいずれかの方法があります。
    • アプリケーション内の右下にある「Settings」をクリックします。
    • ショートカットキーを使用します。macOSをご利用の場合は Command + , (カンマ)、Windows/Linuxをご利用の場合は Ctrl + , (カンマ) を押すと、どこからでも設定画面にジャンプできます。
  3. 言語設定にアクセスする
    設定画面に移動したら、通常は「Preferences」または「General」の項目内に「Language」というドロップダウンメニューがあります。
  4. 日本語を選択する
    「Language」のドロップダウンメニューをクリックし、表示される言語リストの中から「Japanese (Bate)」選択することで、メニューのほとんどが日本語になります。

以上、簡単な手順で、LM Studioのユーザーインターフェースを日本語に設定できます。より快適にローカルLLMの操作を行うことがるようになり、どんどん活用していきましょう。

AIを使う場合は、下記Ryzen AI Max+ 395がおすすめです。ほとんど動かないLLMはないぐらい、GPUメモリの容量が大きいのが特徴。メモリの割り当て変更にはUSBキーワードを使ってBIOS設定が必要なので、ワイヤレスしかない場合はキーボードもお忘れなく!

GMKtec EVO-X2 AI ミニPC AMD Ryzen AI Max 395、LPDDR5X 8000MHz 128GB 2TB SSD (Max.8TB) Windows 11 PRO ゲーミングPC、AMD Radeon 8060S RJ45/Wi-Fi 7/BT 5.4、4画面 HDMI 2.1/DP 1.4/USB4 70Bパラメータ対応 静音ビジネス ゲーミング向け

新品価格
¥393,990から
(2025/8/29 08:41時点)

LM StudioのAPI接続で”Reached context length of 4096 tokens”エラーが出た時の対応方法

ローカル環境で手軽に大規模言語モデル(LLM)を試せる「LM Studio」。その中でも、OpenAI互換のAPIサーバーを起動できる機能は、とても便利で面白い強力なツールです。しかし、このAPIを利用して長い文章や複雑な対話をさせようとすると、突然こんなエラーメッセージに遭遇したことはありませんか?

これは、モデルが一度に処理できるテキストの量(トークン数)の上限に達してしまったことを示すエラーです。デフォルト設定のままだと、この上限は4096トークンと比較的短く設定されていることが多く、少し長い会話履歴やプロンプトを入力するとすぐに上限に達してしまいます。

コンテキスト長とは、LLMが対話の文脈を理解するために一度に保持できる情報の量のことです。

LM Studioは、多くのモデルでコンテキスト長のデフォルト値を「4096」に設定しています。そのため、API経由でそれを超える長さのテキストを処理させようとすると、エラーが発生してしまいます。

【3ステップで解決】コンテキスト長の設定変更方法

解決策は非常にシンプルです。サーバー設定から、このコンテキスト長の上限を引き上げてあげましょう。

Step 1: サーバーオプション(歯車マーク)を開く

LM Studioを起動し、使用したいモデルを選択してロードします。モデルがロードされた状態で、画面の左側にある歯車マーク(Server Options)を探してクリックしてください。

Step 2: 「Context Length」のつまみを右に動かす!

歯車マークをクリックすると、サーバーに関する様々な設定項目が表示されます。その中から「Context Length (n_ctx)」という項目を見つけてください。

ここにあるスライダー(つまみ)が、コンテキスト長の上限を設定する部分です。このつまみを右にスライドさせて、数値を大きくしましょう。モデルが対応している範囲で、8192や16384、あるいはそれ以上に設定できます。

設定したら下に表示される「Reload to apply changes」を押して反映します。

なおMAXにすると下記のようにメモリーに関する警告が表示されます。不要な場合は「Don’t show this message again」にチェックを入れれば、次回以降は効いて今夏うなります。

これで新しい設定が反映され、より長い文章を扱えるようになります。

注意点:メモリ使用量とのバランスを

少しだけ注意が必要です。コンテキスト長を大きくすると、その分PCのメモリ(RAM)使用量も増加します。PCスペック、特に搭載しているメモリの容量を考慮しながら、最適な値に調整しましょう。もし動作が不安定になった場合は、コンテキスト長の値を少し下げてみてください。

HPE ProLiant DL360 Gen9 に LM Studio と gpt-oss-120b を導入してCPUのみで動かしてみた検証結果とパフォーマンス

巷で話題のオープンソースLLMを使ってみたい!

ということで今回は、かなり前の世代のサーバーである HPE ProLiant DL360 Gen9 に、ローカルLLM実行環境として人気の LM Studio を導入し、大規模モデルの一つである openai/gpt-oss-120b を動作さてみましたので、その仕様メモを共有します。結論から言うと「とりあえず動くけど、やっぱり遅い」という結果になりました(笑)

検証環境

  • サーバー: HPE ProLiant DL360 Gen9
  • CPU: Intel Xeon E5-2623 v4 @ 2.60GHz (1基搭載)
  • メモリ: 192GB DDR4
  • ストレージ: HDD 300GB SAS (RAID-1)
  • OS: Windows 10 Pro
  • ローカルLLMランタイム: LM Studio 0.3.23
  • 実行モデル: openai/gpt-oss-120b

LM Studio のインストールとモデルのダウンロード

LM Studio のインストール自体は非常に簡単です。公式サイトからダウンロードし、インストールして実行するだけです。

初回起動時にgpt-oss-20bをダウンロードしようとしますがお断り(スキップ)しています。openai/gpt-oss-120b モデルは、LM Studio 内の左下虫眼鏡の検索機能を使って簡単に見つけることができます。今回は Q4_K_M 量子化バージョンをダウンロードしました。このモデルファイルは量子化されていても非常に大きく約 63.39 GB でした。

モデルのロードと実行

LM Studio を起動し、ダウンロードした gpt-oss-120b をロードします。ロード自体には、サーバーのI/O性能にもよりますが数分かかります。

そして、いよいよチャットインターフェースでプロンプトを送信してみます。

動作確認

プロンプト「自己紹介をしてください」に対する応答は、確かに生成されました。内容も自然な日本語で、モデルの性能自体は問題なさそうです。

パフォーマンスの課題

しかし、応答速度はかなり遅いと言わざるを得ません。トークンの生成が始まってからも、1文字ずつゆっくりと現れるような感覚です。短文の生成でも数秒~数十秒、長文になれば1分以上かかることも珍しくありませんでした。

LM Studio のリソースモニターを確認すると、CPU使用率はかなり高めを推移し、メモリもモデルロード後は常に50GB以上が消費されている状態でした。特にCPUのコア数が多くても、シングルスレッド性能がボトルネックになっている箇所も散見されました。

仕様メモと考察

  • モデルサイズ: openai/gpt-oss-120b の Q4_K_M 量子化版は約 63GB。このサイズから、やはり大量のメモリ(RAMまたはVRAM)が必要になります。今回は192GBの潤沢なRAMがあったため、メモリ不足でクラッシュすることはありませんでした。
  • メモリ消費: モデルのロードと実行には、上記のモデルサイズに加え、LM Studio自体やOSのオーバーヘッド、そして推論時のテンポラリ領域などで、最終的には65GB以上のRAMが消費されます。
  • CPU依存性: DL360 Gen9 の Xeon E5 v4 は、当時のサーバー向けCPUとしては高性能でしたが、現代のLLM推論においては、特に AVX-512 命令セットに対応した最新世代のCPUや、さらに言えばGPUの推論性能には遠く及びません。LM Studio はCPU推論も可能ですが、やはり大規模モデルでは処理能力が不足します。
  • ディスクI/O: モデルファイルのロードやスワップ発生時などに、ストレージの速度も影響します。
  • 遅延の要因: 主な遅延要因は、やはりCPUの演算能力不足と、モデルサイズに対するメモリ帯域幅の限界にあるかと。GPUを使用しない場合、モデルの全パラメータをCPUで処理する必要があるため、計算負荷が非常に高くなります。

まとめ

HPE ProLiant DL360 Gen9 で openai/gpt-oss-120b を動かすことは「可能」でしたが、「実用的」とは言い難い結果となりました。これは、あくまでCPUベースの推論であり、この規模のモデルにはやはり専用のGPUアクセラレータ(特にVRAM容量の大きいもの)が必須です。

生成されたトークンのスピードは、3.32 tok/sec 877 tokens 14.10s to first token でした。

しかし、古いサーバーを再活用してLLMに触れてみる、という点ではいいかんじです。とりあえず動くというのが感動します。

  • メリット:
    • 既存のサーバーリソースを有効活用できる。HP Gen9はヤフオクで1万円で買えるので。
    • LM Studio の手軽さで、比較的簡単に大規模モデルを試せる。
  • デメリット:
    • 推論速度が非常に遅い。くそ遅い。待ちきれない。
    • 消費電力に対するパフォーマンスが悪い。あと音もうるさい。
    • DL360 Gen9 に高性能GPUを搭載するのは難しい(電源や冷却、PCIeスロットの制約)。

もし、居ないとは思うけど、古いサーバーでLLMを動かすことを検討されているのであれば、より小規模なモデル(例: Llama 7B/13B クラス)であれば、もう少し実用的な速度で動作する可能性があります。あるいは、GPU搭載可能なサーバーやワークステーションに移行することが、LLMの本格的な活用には不可欠と言えるでしょう。

今回の検証が、同様の環境でLLMのローカル実行を検討されている方の参考になれば幸いです。

GMKtec EVO-X2 AI ミニPC AMD Ryzen AI Max 395、LPDDR5X 8000MHz 128GB 2TB SSD (Max.8TB) Windows 11 PRO ゲーミングPC、AMD Radeon 8060S RJ45/Wi-Fi 7/BT 5.4、4画面 HDMI 2.1/DP 1.4/USB4 70Bパラメータ対応 静音ビジネス ゲーミング向け

新品価格
¥393,990から
(2025/8/29 08:41時点)

真面目に、Ryzen AI Max+ 395 に 128GB メモリが搭載されたものを買ったほうが幸せですよ!
一時期、在庫がなくなっていましたが復活しているようです。マジほしい・・・。

SKYSEA Client View 20.2未満の場合、USBデバイスが読み取り専用となる設定を回避して自由に書き込みを行う方法

SKYSEA Client View 20.2以降では使えません。古いバージョンだとUSBへ自由に書き込み可能。

SKYSEAでUSB書き込み制限を行っている環境はよくあると思いますが、至急USBに書き込みたいという要件もあったりしますよね。そんなときに、いちいち情シスや管理者に連絡して制限解除してもらったりするのも面倒なものです。
そんな時に、下記の手順を行うことでUSBに書き込むことが出来ます。

なおこれは脆弱性ではなく、仕様とのサポート回答でした。またSKYSEAバージョン20.2以降へのアップデートで書き込み制限が可能になりますが、書き込み時のアラート通知機能は最新版でも未対応です。

■前提

・PC管理者権限(Administrators)であること
・SKYSEA Client View 20.2未満であること

■事象の概要

SKYSEA Client ViewでUSBデバイスへの書き込みを禁止する設定を行っているにもかかわらず、一部のデバイスで書き込みができてしまいます。
これは、SKYSEA Client Viewの仕様に起因しています。書き込み制御の対象となるのは、PC上でドライブレター(例:D:\やF:\など)として認識されるデバイスのみとなっており、ドライブレターを持たない形式で認識されるデバイスは、Ver20.2未満では制御の対象外となっていました。

■手順

1.USBをPCに接続して「ディスクの管理」(diskmgmt.msc)を開く。USBを選択して右クリックを行い「ドライブ文字とパスの変更」を押す。

2.現在設定されているドライブレターを選択して「削除」をおす。

3.確認が出るので「はい」を押す。

4.再度「ディスクの管理」でUSBを選択して右クリックを行い「ドライブ文字とパスの変更」を押す

5.「追加」ボタンを押す

6.「次のからのNTFSフォルダーにマウントする」を選択して、任意の空のフォルダを参照してOKを押す。

7.フォルダに対して読み書きをすることで、USBへ書き込みを行える

まとめ

  • 事象:Ver.20.1以前では、ドライブレターを持たないUSBデバイスへの書き込みが制限できない(製品の制限事項)。
  • 見解:PC管理者権限が必要なため、SKY側は脆弱性ではないと判断しているようです。
  • 対策バージョン20.2以降へのアップデートで、書き込み制限が可能になります。
  • 課題:書き込み時のアラート通知機能は、最新版でも未対応です。

情シス担当としては、一刻も早くバージョンアップする必要がありそうですね。

【Excelマクロトラブル】ボタンを押してもマクロが動かない!原因と解決策は「デュアルディスプレイ」「フォームコントロール」への乗り換え

「昨日まで問題なく動いていたExcelマクロが、なぜか今日になったら動かない…」

Excelで業務効率化を図っている方なら、一度はこんな冷や汗をかく経験があるかもしれません。マクロが動かないと、焦りますよね。

実は先日、まさにこの現象に遭遇しました。色々と原因を切り分けていくと、意外なところに落とし穴が。それは、デュアルディスプレイ環境と「ActiveX コントロール」のボタンの相性問題でした。

今回は、このニッチで厄介な問題の切り分けから、具体的な解決策までを詳しくご紹介します。

事件発生!マクロ実行ボタンが沈黙

いつものようにマクロを組んだExcelファイルを開き、実行用のボタンをクリック。しかし、うんともすんとも言いません。マクロが実行される気配が全くないのです。

「あれ?マクロ無効にでもなってる?」

最初に疑ったのは、基本的なExcelの設定です。例えば下記などですね。

【試したこと①】一般的なトラブルシューティング

まずはマクロやActiveXが動作しない時の定番チェック項目を確認しました。

  • トラストセンターのActiveX設定
    • [ファイル] > [オプション] > [トラストセンター] > [トラストセンターの設定] > [ActiveXの設定]
    • 「先に確認メッセージを表示してから、最低限の制限を適用してすべてのコントロールを有効にする」に設定。
    • → 改善せず
  • ファイルのプロパティ
    • 対象のExcelファイルを右クリック > [プロパティ]
    • 「セキュリティ:このファイルは他のコンピュータから取得したものです…」のメッセージと「許可する」チェックボックスがあるか確認。
    • → そもそもこの項目が表示されておらず、設定変更できず
  • トラストセンターのマクロ設定
    • [マクロの設定]で「警告を表示してすべてのマクロを無効にする」になっていることを確認。
  • メッセージバーの設定
    • [メッセージバー]で「アクティブコンテンツがブロックされた場合、すべてのアプリケーションにメッセージバーを表示する」になっていることを確認。

これらの設定はすべて問題ありませんでした。マクロを有効にするためのメッセージバーも表示され、コンテンツの有効化は済んでいます。にもかかわらず、ボタンは反応しません。

原因の切り分けで見えてきた「ある環境」

基本的な設定に問題がないとなると、次に疑うべきは「環境」です。

  1. マクロのコードは正しいか?
    → VBE(Visual Basic Editor)を開き、手動でマクロを実行(F5キー)すると、問題なく動作しました。コード自体にエラーはなさそうです。
  2. 他のPCでは動くか?
    → 別のPCで同じファイルを開くと、問題なくボタンが動作しました。

この時点で、問題はファイルやマクロのコードではなく、私のPC環境に依存する何かであることが濃厚になりました。

そして、ふと気づきます。
「そういえば最近、作業効率化のためにデュアルディスプレイにしたな…」

まさかと思いつつ、Excelのウィンドウをメインディスプレイに移動させてボタンをクリックしてみると…

動きました!

再度、サブディスプレイにウィンドウを移動してクリックすると、また沈黙。
原因はこれでした。サブディスプレイ側でExcelを開いていると、マクロ実行用の「ActiveX コントロール」のボタンが機能しなかったのです。

なぜActiveXボタンは動かなかったのか?

この現象は、Excelのバージョン、Windowsのアップデート、グラフィックドライバなどが複雑に絡み合って発生する、環境依存の不具合だと考えられます。結構古い記事などでもActiveXがサブディスプレイ側で動作しないといった事象があったようです。

ActiveXコントロールは、Windowsの機能を深く利用するリッチな部品ですが、その分、こうした環境の変化に影響を受けやすいという側面があります。根本的な原因を特定して解消するのは、非常に困難なケースが多いのが現実です。

解決策:さよならActiveX!「フォームコントロール」を使おう

根本原因の解決が難しいなら、アプローチを変えましょう。
幸い、Excelにはボタンを設置する方法がもう一つあります。それが「フォームコントロール」です。

ActiveX コントロールフォームコントロール
特徴高機能、プロパティが豊富
見た目のカスタマイズ性が高い
シンプル、互換性が高い
安定して動作する
弱点環境依存の不具合が起きやすい機能やデザインがシンプル

今回のケースのように、マクロを実行するだけのシンプルなボタンであれば、互換性が高く安定している「フォームコントロール」への乗り換えが最も確実で手早い解決策です。

【簡単3ステップ】フォームコントロールのボタンに乗り換える方法

マクロのコードを1行も変更する必要はありません。ボタンを入れ替えるだけです。

Step 1: 開発タブからボタンを挿入

  1. Excelのリボンから[開発]タブをクリックします。(※表示されていない場合は、[ファイル] > [オプション] > [リボンのユーザー設定]で[開発]にチェックを入れてください)
  2. [挿入]をクリックし、「フォームコントロール」の中から[ボタン]を選択します。

Step 2: ボタンを配置してマクロを登録

  1. シート上のボタンを置きたい場所でドラッグして、ボタンを作成します。
  2. ボタンを配置すると、自動的に「マクロの登録」ダイアログボックスが開きます。
  3. ここで、このボタンで実行したいマクロを選択し、[OK]をクリックします。

Step 3: 古いボタンを削除

新しいボタンが問題なく動作することを確認したら、今まで使っていた古いActiveXのボタンは削除してしまいましょう。(ActiveXコントロールを削除するには、開発タブの「デザインモード」をオンにしてから選択・削除します)

たったこれだけで、デュアルディスプレイのどちらの画面にExcelがあっても、問題なくマクロが実行できるようになりました!

まとめ

今回のExcelマクロトラブルから得られた教訓は以下の通りです。

  • デュアルディスプレイ環境では、ActiveXコントロールが正常に動作しない場合がある。
  • 一般的なトラストセンターの設定を見直しても解決しないときは、PC環境(特にディスプレイ環境)を疑ってみる。
  • 原因不明の不具合に直面したら、安定性の高い「フォームコントロール」への乗り換えが有効な解決策になる。

もし、あなたも同じように「Excelボタンが動かない!」と悩んでいたら、ぜひ今回の「フォームコントロールへの乗り換え」を試してみてください。2画面は手放せないのでActiveXを手放しましょう(笑)

Teams起動時に「Edge WebView2を取得する」が表示され、インストールしようとすると「既にシステムにインストールされています」表示される時の対処法

「さあ、仕事(あるいはオンライン授業)を始めよう!」とMicrosoft Teamsを起動したら、突然表示される見慣れないエラーメッセージ。してして、という謎メッセージ。

「問題が発生しました」「Teamsを実行するために必要なコンポーネントが見つかりません。伝ロードしてインストールして」「Edge Webview2 を取得する」

指示通りに取得するボタンを押してWebView2をインストールしようとすると、今度はこんなメッセージが。

「インストールできませんでした。Microsoft Edge Webview2 Runtime は既にシステムにインストールされています。」

Teamsは起動しない、WebView2はインストールできない…この堂々巡りのループに陥ってしまった方はいませんか?

この厄介な問題を解決する簡単な手順と、その原因について解説します。

問題の状況整理

まず、多くの人が直面する状況を整理してみましょう。

  1. Microsoft Teamsを起動しようとすると、「WebView2 ランタイムをインストールしてください」という趣旨のメッセージが表示され、Teamsが起動しない。
  2. メッセージ内のリンクや公式サイトから「Microsoft Edge WebView2 ランタイム」のインストーラーをダウンロードして実行する。
  3. すると、「インストールは不要です。この製品は既にインストールされています。」というメッセージが表示され、インストールが完了しない。

結果として、先に進むことも戻ることもできず、Teamsが使えない状態が続いてしまいます。

解決策:インストーラーを「管理者として実行」する

結論から言うと、この問題はWebView2のインストーラーを「管理者として実行」することで解決できます。

手順は非常にシンプルです。

ステップ1:Edge WebView2 ランタイムのインストーラーをダウンロード

まだ手元にない場合は、まず公式サイトからインストーラーをダウンロードします。

  1. Microsoft Edge WebView2 公式サイトにアクセスします。
  2. ページを少し下にスクロールし、「Evergreen スタンドアロン インストーラー」という項目を探します。
  3. お使いのPCに合わせて「x64」または「x86」、「ARM64」のいずれかの「ダウンロード」ボタンをクリックします。(一般的にはx64で問題ありません)
  4. ライセンス条項に同意し、インストーラー(MicrosoftEdgeWebView2RuntimeInstallerX64.exeのようなファイル名)をダウンロードします。

ステップ2:インストーラーを「管理者として実行」する【最重要】

ここが最も重要なポイントです。

  1. ダウンロードしたインストーラーのファイルをダブルクリックで開くのではなく右クリックします。
  2. 表示されたメニューから 「管理者として実行」 を選択します。
  3. 「このアプリがデバイスに変更を加えることを許可しますか?」というユーザーアカウント制御の画面が表示されたら、「はい」をクリックします。

通常の実行では「既にインストール済み」と表示されてしまいますが、「管理者として実行」することで、既存のファイルや設定を強制的に上書き・修復する形でインストールが進行します。

ステップ3:Teamsを起動する

WebView2のインストールが完了したら、PCを一度再起動することをお勧めします。
再起動後、改めてMicrosoft Teamsを起動してみてください。今度はエラーが表示されることなく、正常に起動するはずです。

なぜこの問題が起きるのか?【原因の考察】

では、なぜ「インストール済み」にもかかわらず、このようなエラーが発生したのでしょうか。
断定はできませんが、考えられる主な原因は「権限の不整合」「レジストリ情報の破損」です。

  • 権限の不整合
    Windowsでは、アプリケーションのインストール情報がユーザーごと、あるいはシステム全体で管理されています。何らかの理由で、Teamsが参照している「WebView2がインストールされていない」という情報と、インストーラーが確認する「WebView2はインストール済みである」というシステムの情報に食い違いが生じてしまった可能性があります。
  • レジストリ情報の破損
    WebView2のインストール状態を記録しているWindowsの「レジストリ」というデータベースの一部が、破損したり不整合を起こしたりした可能性も考えられます。このため、アプリケーション(Teams)は正しく情報を読み取れず、インストーラーは中途半端な情報を基に「インストール済み」と判断してしまっていたのかもしれません。

「管理者として実行」 することで、通常のユーザー権限ではアクセスできないシステム領域の情報を強制的に書き換え、この不整合を解消することができます。これにより、システム全体で「WebView2は正しくインストールされている」という状態にリセットされ、Teamsも正常に認識できるようになった、と考えるのが自然です。

まとめ

もしTeamsの起動時にWebView2のエラーで足止めされてしまったら、以下の手順を試してみてください。

  1. Edge WebView2のインストーラーを公式サイトからダウンロードする。
  2. インストーラーを右クリックし、「管理者として実行」でインストールする。
  3. PCを再起動し、Teamsを起動してみる。

原因は権限周りの複雑な問題のようですが、解決策は意外とシンプルです。同じ問題でお困りの方の助けになれば幸いです。