ON-PREMISE LLM SOLUTION
セキュリティ・コスト・日本語精度の壁を超え、
生成AIを業務に定着させる
オンプレミスAIソリューション
"aiDAPTIV+(アイダプティブ・プラス)"
1つでも当てはまるなら、が
解決策になります。
「最初の一歩」のハードルが
高すぎる現状があります。
インフラの構造的課題
セキュリティとデータ主権の構造的課題
GPUを買い足すのではなく、専用に開発されたミドルウェアとSSDでメモリ空間を拡張、標準的なワークステーションで巨大なLLM学習を可能にします。
| 品名 | NX-AI100E1TB/B J | NX-AI100E2TB/B J |
| 容量 | 1TB | 2TB |
| 外形寸法 (W×H×L) | 約80 mm×4 mm×22 mm(最大突起物を除く) | 約80 mm×4 mm×22 mm(最大突起物を除く) |
| 質量 | 約6.6g | 約6.6g |
| インターフェース | PCIe Gen4x4 | PCIe Gen4x4 |
| フォームファクタ | M.2 2280 | M.2 2280 |
| AI PC | WorkStation | Server | ||
|---|---|---|---|---|
| 構成規模 | 8B(最小構成) | 20B | 70B | 120B |
| CPU | Intel® Core i5-14500 | Intel® Core i5-14500 | Intel® w5-3525 (16 cores) | Intel® Xeon 6515P |
| GPU | NVIDIA RTX 5060Ti (16GB)x1 | NVIDIA RTX 5090 (32GB)x1 | NVIDIA RTX Pro6000 Max-Q W/S Edition (96GB)x1 | NVIDIA RTX Pro6000 Server Edition (96GB)x2 |
| System Memory | DDR5 4800 32GB | DDR5 4800 32GB | DDR5 5600 64GB | DDR5 5600 64GB |
| System Drive | NVMe 2TB | NVMe 2TB | NVMe 4TB | NVMe 8TB |
| OS | Ubuntu | Ubuntu | Ubuntu | Ubuntu |
| aiDAPTIV Cache | AI100E 320GBx1 | AI100E 1TBx1 | AI100E 2TBx2 | AI100E 2TBx2 |
| 電力量 | 750W | 750W | 2000W | 12000W(平均2000W) |
| 対応LLM | Llama3.3-8B | GPT-OSS-20B | Llama-70B Qwen-72B | Llama-70B Qwen-72B GPT-OSS-120B |
オンプレミスLLM活用検討の際の課題に対し、新しい選択肢を提供します。
オンプレミス/閉域ネットワーク/
ローカル完結に対応
権限管理・ログ管理・ガバナンス対応を
標準装備
GPU最適化設計により、
用途に合わせた最小構成が可能
本番運用を前提とした設計思想で、
確実に次のフェーズへ
業界特化の
フルファインチューニングに対応
「検索」はできても「理解」ができない
外部知識の参照はできても、思考回路(ロジック)や口調は汎用モデルのまま
社内用語・業界の暗黙知を文脈として理解できない
回答精度にばらつきが出やすく、現場の信頼を得にくい
AIを「自社仕様」に育て上げ、実戦投入へ
企業の「脳」そのものを再教育し、自社専用AIを育成
敬語・専門用語・社内ルールをモデルの深層に定着
複雑な指示なしで常に意図通りの回答を実現し、日々の微調整にかかる運用コストを劇的に削減
オンプレミス環境により、
機密データを外部に出さない究極の自社専用AI構築を実現します。
過去のトラブル報告書や技術図面を学習させ、品質保証(QA)の自動化やベテラン技術者のナレッジ継承を実現。
院外に出せない電子カルテデータを活用。院内ポリシーに準拠したQAボットや、医療用語の解釈補助にセキュアなAIを導入。
住民情報や条例などの内部規定を安全に活用。窓口業務の支援ボットを情報漏洩リスクなしで運用。
目的と規模で選べる
3つの導入支援プランもご用意
AI未経験の試行から本番稼働前提の構築まで、
ニーズに合わせた選択が可能です。
自社業務へのAI活用可能性を短期間で診断。業務ヒアリングからユースケース抽出、簡易検証まで実施し、導入効果と投資妥当性を明確にします。
PoC成功に向けた設計とデータ整備を伴走支援。目的整理、データ棚卸し、前処理方針策定から簡易検証まで行い、失敗リスクを抑えます。
PoC成果を実運用へ展開。モデル選定・チューニング、RAG構築、UI設計、既存システム連携まで実施し、現場で使えるAI基盤を構築します。
初期投資(CapEx)を最小化し、将来の拡張性を担保します。
aiDAPTIV+搭載ワークステーション1台でPoC開始。低リスク・低コストで有効性を検証。
PoCの成果をもとに、データ主権を確保したまま運用フェーズへ移行。業務適用範囲を段階的に拡大。
部門展開・複数拠点へのスケールアウト。自社の情報資産を最大限に活用する全社AIインフラへ。
技術的な裏付けと具体的な数値を、ホワイトペーパーでご確認ください。
導入前の不安を解消。貴社データ・環境での実機検証をサポートします。
現在のインフラ・データ環境をヒアリングし、aiDAPTIV+導入時の最適構成と期待効果をレポートでご提示します。
お客様の実データを使った実機検証が可能。導入効果を定量的に評価してから、次のステップに進めます。
aiDAPTIV+はオンプレミス環境での生成AI活用において、GPUのVRAM不足を、システムメモリとSSDで補完する、Phison Electronics社独自の技術に基づく製品です。Nextorage株式会社は、2025年5月1日よりオンプレミスLLM環境での効率的な学習環境の構築を目的とするPoCならびに同製品の取り扱いを開始しています。