ON-PREMISE LLM SOLUTION

日本企業の現場で
使える生成AIを

セキュリティ・コスト・日本語精度の壁を超え、
生成AIを業務に定着させる
オンプレミスAIソリューション
"aiDAPTIV+(アイダプティブ・プラス)"

aiDAPTIV+ 製品イメージ
資料
ダウンロード
無料

生成AI導入で、
こんな壁にぶつかっていませんか?

( Security )

セキュリティの壁

クラウドにデータを出せない(出したくない)
セキュリティ・ガバナンスへの不安が拭えない
( Cost )

コストの壁

利用量に比例してコストが膨らみ、予算が読めない
GPUやインフラ構築のハードルが高い
( Quality )

精度の壁

日本語や専門用語の精度が不十分
RAGだけでは業務品質に届かない
( Operations )

運用の壁

PoCで止まったまま、本番運用に進めない

1つでも当てはまるなら、

解決策になります。

なぜ、日本企業の
オンプレミスLLM活用は
難しいのか

「最初の一歩」のハードルが
高すぎる現状があります。

物理的制約

インフラの構造的課題

  • ハイエンドGPUサーバー(DGX H100等)は数千万円規模の初期投資
  • 消費電力8kW超、冷却設備・設置スペースの確保が必要
  • 大規模モデルの稼働に必要なVRAMが圧倒的に不足
運用的制約

セキュリティとデータ主権の構造的課題

  • 製造図面・カルテ・住民情報など、外部に出せないデータが業務の核心
  • ビジネスのスピード感と情報システム部門のリスク管理が衝突
  • 「クラウドNG」の一言でプロジェクトが停止してしまう
AI専用高速SSD

GPUのメモリ不足から
解放します

GPUを買い足すのではなく、専用に開発されたミドルウェアとSSDでメモリ空間を拡張、標準的なワークステーションで巨大なLLM学習を可能にします。

aiDAPTIV+ 製品仕様
品名NX-AI100E1TB/B JNX-AI100E2TB/B J
容量1TB2TB
外形寸法 (W×H×L)約80 mm×4 mm×22 mm(最大突起物を除く)約80 mm×4 mm×22 mm(最大突起物を除く)
質量約6.6g約6.6g
インターフェースPCIe Gen4x4PCIe Gen4x4
フォームファクタM.2 2280M.2 2280
ハードウェア構成例
AI PC WorkStation Server
構成規模8B(最小構成)20B70B120B
CPUIntel® Core i5-14500Intel® Core i5-14500Intel® w5-3525 (16 cores)Intel® Xeon 6515P
GPUNVIDIA RTX 5060Ti (16GB)x1NVIDIA RTX 5090 (32GB)x1NVIDIA RTX Pro6000 Max-Q W/S Edition (96GB)x1NVIDIA RTX Pro6000 Server Edition (96GB)x2
System MemoryDDR5 4800 32GBDDR5 4800 32GBDDR5 5600 64GBDDR5 5600 64GB
System DriveNVMe 2TBNVMe 2TBNVMe 4TBNVMe 8TB
OSUbuntuUbuntuUbuntuUbuntu
aiDAPTIV CacheAI100E 320GBx1AI100E 1TBx1AI100E 2TBx2AI100E 2TBx2
電力量750W750W2000W12000W(平均2000W)
対応LLMLlama3.3-8BGPT-OSS-20BLlama-70B
Qwen-72B
Llama-70B
Qwen-72B
GPT-OSS-120B
が選ばれる理由

オンプレミスLLM活用検討の際の課題に対し、新しい選択肢を提供します。

課題
データを外に出せない
セキュリティへの不安
コストが読めない
PoCで止まっている
RAGだけでは不十分
aiDAPTIV+の解決策

オンプレミス/閉域ネットワーク/
ローカル完結に対応

権限管理・ログ管理・ガバナンス対応
標準装備

GPU最適化設計により、
用途に合わせた最小構成が可能

本番運用を前提とした設計思想で、
確実に次のフェーズへ

業界特化の
フルファインチューニングに対応

フルファインチューニング
必要な理由

RAGの限界

「検索」はできても「理解」ができない

RAGの限界
課題 1

外部知識の参照はできても、思考回路(ロジック)や口調は汎用モデルのまま

課題 2

社内用語・業界の暗黙知を文脈として理解できない

課題 3

回答精度にばらつきが出やすく、現場の信頼を得にくい

フルファインチューニングの価値

AIを「自社仕様」に育て上げ、実戦投入へ

フルファインチューニングの価値
解決策 1

企業の「脳」そのものを再教育し、自社専用AIを育成

解決策 2

敬語・専門用語・社内ルールをモデルの深層に定着

解決策 3

複雑な指示なしで常に意図通りの回答を実現し、日々の微調整にかかる運用コストを劇的に削減

なら

「セキュリティの壁」も突破

オンプレミス環境により、
機密データを外部に出さない究極の自社専用AI構築を実現します。

こんな企業・部門に選ばれています

製造業

過去のトラブル報告書や技術図面を学習させ、品質保証(QA)の自動化やベテラン技術者のナレッジ継承を実現。

医療機関

院外に出せない電子カルテデータを活用。院内ポリシーに準拠したQAボットや、医療用語の解釈補助にセキュアなAIを導入。

公共・自治体

住民情報や条例などの内部規定を安全に活用。窓口業務の支援ボットを情報漏洩リスクなしで運用。

目的と規模で選べる

3の導入支援プランもご用意

AI未経験の試行から本番稼働前提の構築まで、
ニーズに合わせた選択が可能です。

Plan 1

トライアル

自社業務へのAI活用可能性を短期間で診断。業務ヒアリングからユースケース抽出、簡易検証まで実施し、導入効果と投資妥当性を明確にします。

Plan 3

本番実装

PoC成果を実運用へ展開。モデル選定・チューニング、RAG構築、UI設計、既存システム連携まで実施し、現場で使えるAI基盤を構築します。

スモールスタートから全社展開へ

初期投資(CapEx)を最小化し、将来の拡張性を担保します。

Phase 1

PoC(最小構成)

aiDAPTIV+搭載ワークステーション1台でPoC開始。低リスク・低コストで有効性を検証。

Phase 2

実用化検証

PoCの成果をもとに、データ主権を確保したまま運用フェーズへ移行。業務適用範囲を段階的に拡大。

Phase 3

全社AI基盤化

部門展開・複数拠点へのスケールアウト。自社の情報資産を最大限に活用する全社AIインフラへ。

詳細資料で、
自社での活用イメージを具体化しませんか?

技術的な裏付けと具体的な数値を、ホワイトペーパーでご確認ください。

ホワイトペーパー収録内容
aiDAPTIV+ 全体アーキテクチャ詳細
セキュリティ・運用設計の考え方
コストシミュレーションとトレードオフ分析
PoCから本番運用までのロードマップ

まずはお試しください

導入前の不安を解消。貴社データ・環境での実機検証をサポートします。

無償(期間限定)

AI環境診断

現在のインフラ・データ環境をヒアリングし、aiDAPTIV+導入時の最適構成と期待効果をレポートでご提示します。

インフラ現状分析 最適構成のご提案
無償(期間限定)

実機トライアル

お客様の実データを使った実機検証が可能。導入効果を定量的に評価してから、次のステップに進めます。

実機による性能検証 お客様データでのPoC
無償診断を申し込む(期間限定)

セキュアで低コストなオンプレミスAI基盤を、
今日から検討しましょう。

aiDAPTIV+はオンプレミス環境での生成AI活用において、GPUのVRAM不足を、システムメモリとSSDで補完する、Phison Electronics社独自の技術に基づく製品です。Nextorage株式会社は、2025年5月1日よりオンプレミスLLM環境での効率的な学習環境の構築を目的とするPoCならびに同製品の取り扱いを開始しています。