本田 直輝
大阪府 大阪市 北区梅田1-1-3 大阪駅前第3ビル 29F 1-1-1号室
  • AI X 自動化開発の実績と技術力の高さ
  • 課題解決型・コンサルティング型の対応姿勢
  • 迅速かつ柔軟な対応力

Gemma、LlamaなどローカルLLMの導入支援

自社データ × ローカルLLMで、機密も守るAI活用を。

業種
情報非公開
地域
情報非公開
規模
情報非公開
費用
情報非公開

セキュリティ要件やコスト面を考慮した企業に対し、GemmaやLLaMAを活用したローカル大規模言語モデル(LLM)導入を支援。
PoCから実装・推論環境構築まで、一貫してサポートしました。

依頼を受けたカテゴリ
Webシステム開発Webシステム開発業務システム開発
制作物種別
サーバ構築
業務範囲
1.自社サーバーまたはVPS環境におけるローカルLLM(例:Gemma, LLaMA)の導入支援

2.モデル選定、量子化、環境構築(Docker/Ollama等)、テスト実行の技術サポート

3.必要に応じたWebUI/API連携の構築および技術ドキュメント提供
業務の概要
オープンソースLLMのローカル環境への導入に関して、目的整理からモデル実装、インフラ整備、簡易なUI構築までを一括で支援します。GemmaやLLaMAの選定と技術要件の検討、推論環境構築(GPU/量子化対応)、必要に応じてRAG構成やWebhook/API連携など、ユースケースに応じた構成をご提案可能です。
開発規模・期間
想定期間:約2〜3週間(要件整理〜PoC構築まで)
エンジニア:1〜2名体制(要件に応じて調整)
技術要件の明確化後、最短5営業日以内で初期PoCの環境を構築可能です。
利用技術
Pythonサーバ設定
利用サーバー環境・DB
一般PC
備考

実績・事例画像

実績・事例の詳細

GoogleのGemma3およびMetaのLLaMA3モデルを中心に導入支援

利用目的(社内FAQ/RAG型ドキュメント検索/Slack botなど)に応じてモデル選定

推論環境はollama, text-generation-webui, Dockerベース構成等を用いて構築

低スペックでも動作するよう、GGUF形式+量子化(4bit)対応

ChromaやFAISSによるRAG構成で、自社データを検索+回答できるように構築

LINEや社内Webアプリと連携し、UIも実装(FastAPI/Streamlit/Reactなど)

成果・結果

1.外部API利用不要となり、運用コストが90%以上削減

2.社内ナレッジ活用が進み、業務問合せの自動化・省力化に成功

3.社外とのデータ共有リスクを排除し、高セキュリティ環境での生成AI活用が可能に

4.RAGにより「誤回答率が低下」し、AI回答への信頼性が向上

お客様の声

「GPTを使いたいけどセキュリティが不安だったため、ローカルLLMの導入は理想的でした。技術的なハードルも丁寧にサポートしてもらえて助かりました。」

業務内容

実績・事例

Webシステム開発の料金相場

Webシステム開発の相場

メニュー

株式会社AltamEaseへお問い合わせ
株式会社AltamEase

会社情報

会社名
株式会社AltamEase
業種
IT:システム開発
代表者名
本田 直輝
郵便番号
530-0001
所在地
大阪府大阪市北区梅田1-1-3 大阪駅前第3ビル 29F 1-1-1号室

一括見積もりで発注先を探す