先日、 kintone 用のローカル MCP サーバーが公開されました。
これを開発環境で試してみようかなと思ったんですが、 MCP サーバーが動くのが Claude Desktop や LM Studio といったローカルソフトらしく、私が使ったことが無いんです。
会社的にも、現状認められている生成 AI 以外はコンプライアンスやセキュリティ的に微妙な反応だったので、もし使ったことがある方がいらっしゃいましたら、使い勝手やセキュリティのことについて教えていただきたいです。
入力したプロンプトや学習内容、推論結果などが外部のサーバーに送信されないか
もしくは企業向けのデータ保護の仕組みで守られるのか
どのくらいのスペックが必要なのか (ノートPCだと無謀?)
そもそも実用 (業務) に耐えうる安定性があるのか
インストール難度、設定難度
おすすめのモデルがあれば
こういう情報って調べれば出てくると思うんですが、今まで正直偏った内容しか見えてないような気がしていて、実際に触ったことがある方がいればご意見いただきたいです。
また GUI ツールを使わず python などで触ったことがあるという方もいらっしゃったら、どんな感じなのか教えていただきたいです。
mura
2025 年 9 月 2 日午後 11:43
2
(ChatGPTやClaudeCode、Cursorなどは多く使っていますが、LM StudioなどローカルLLMは使ったことがないので部分的な回答になってもうしわけありませんが、)
LM Studio(ローカルLLM)+kintoneローカルMCPサーバー、ですと、端末外への送信はモデルダウンロード/更新チェック等以外ほぼ無しなはずです
Claude DesktopやClaude CodeなどはMCP接続自体は簡単ですが、会話やツール結果がサービス提供側のサーバーへ送られる前提になりますね。そのため、それぞれのデータ取扱ポリシーに注意が必要です。大体のツールで学習に使う・使わないなど設定があるのでそこを見直すとかですね
(業務で使うなら法人系プランなどがが無難です。)
aaa
2025 年 9 月 3 日午前 1:12
3
入力したプロンプトや学習内容、推論結果などが外部のサーバーに送信されないか
もしくは企業向けのデータ保護の仕組みで守られるのか
一般の生成AIと同じだと思います。
外部サーバーに送信されることと学習、ファインチューンに利用されることは別ということになっています。
不正利用(危険なやりとり)を監視・事後的にチェックする仕組みが存在するようです。
ある会社では、Amazon BedrockでLLMを動かして、社内から外部へデータの一部をマスキングして、反対にLLMの出力に危険なコマンドがあったら削除するような運営をして監査ログを残しながら流出、流入を防いでいるようです。(前は登録なしでも読めましたが今は会員登録が必要だそうです。 freee での Cline の利活用 )
どのくらいのスペックが必要なのか (ノートPCだと無謀?)
ローカルLLMを動かすならモデルのパラメータサイズなどが目安になると思います。
LM studio + gpt-oss 20BをRyzen 7 7700 + Nvidia Geforce Rtx 4070 Ti Super(VRAM 16GB)で動かしました。
ノートでも、ゲーミングノートPCであれば動きそうな気がします。GPUのメモリーに乗り切らなくてもPCのメモリーに余裕があれば動くケースも設定次第であるようです。
そもそも実用 (業務) に耐えうる安定性があるのか
Claude DesktopであればMCPサーバーの基本的な動作はしていました。
ローカルLLMのgpt-oss 20Bが良くないのか、MCPからkintoneのデータが帰ってきているのは見えていますが返却されたJSONをうまく解釈できないことが結構ありました。また、クエリをうまくかけられずAPIのレスポンスがエラーになっている履歴もありました。Dockerを使わずNodejsで適当にmcp設定をしているからかもしれません。現在の環境ではgpt-ossの120Bは動かないので別のモデルを使う必要が有ると思います。
正常にデータがとれたときの例
LM studioで指定されたフィールドが見つからないというエラーになっていた例
LM studio経由で良好に動く場合は、速度も耐えられる範囲だと感じました。
インストール難度、設定難度
おすすめのモデルがあれば
現状、手元の環境ではOpenAIのgpt-oss 20Bではうまく解釈できないことがありました。LM studio上のmcpの設定が悪いのかもしれません。
感想
REST APIとか知りたくない人がClaude Desktopを経由して自然言語でデータを探索しながらデータを加工するルートが開かれたのではないか?
REST APIでデータをやりとりできる人で作りたいものがはっきりしていればLLMを介在させる意味が薄い。
外部の生成AIを利用したくないということであれば、ローカルLLMで20Bでは厳しいかもしれない。また、個人が使うならそれぞれ16GB VRAMをのせたパソコンが必要。もしくは、自社でLLMサーバーを運営するか(H100の500万円コース?)、外部にプライベートサーバーとしてオープンなモデルを動かす方向になると思います。
ありがとうございます。
やはり Claude Desktop は推論を外部サーバーに委ねているんですね。だけど MCP サーバーはローカルに立ってても動く……面白い動き方をしますね。
直観的にデータ流出が無さそうと安心できるのは LM Studio ですが、利便性や性能を考えると Claude のほうがバランスが良さそうですね。法人プランを検討してみることにします。
細かい検証までありがとうございます。
やっぱり手元のグラボが弱いノートPCでは難しそうだなと思うのと、どちらかというと GPU の処理速度よりメモリのほうが重要視されているのは学びですね。最近は Copilot+ PC とか AI PC とか銘打って売り出されているノートPCが結構ありますが、それらもメモリは別に多くないので、ローカルで LLM を動かすにはちょっと……みたいな感じでしょうか。
あと、前提としてフィールドコードをプロンプトに明記しないとクエリが書けないのは、確かにって思ったんですがちょっと微妙な感じですね。理屈はそうなんだろうけど、できれば自動でアプリ情報を取得して、プロンプトに書いてあるフィールド名からフィールドコードを推察してクエリを投げる……みたいなことをしてくれたらいいなって思います。定型プロンプトにしておけば良いのかもしれませんが。
JS やプログラミング言語が書けない人でも API 経由でデータにアクセスしやすくなるのは良いことですが、デバッグをしようと思うと結局 REST API の勉強をしないといけなさそうな気もしていて、やはり有識者がエージェントを組んでユーザーに使ってもらうのが現状の限界でしょうか。悩ましいところですね。
やはりローカルで実現しようとすると初期投資が大変ですね。。。
aaa
2025 年 9 月 3 日午前 3:22
6
gpt-oss 20Bの名誉のために付け加えると普通のQ&Aをやりとりする分には、困ったことはありません。
LLMとしての性能はそこそこあります。
kintone MCPがClaude Desktopでは問題なくて、gpt-oss 20Bではうまく行かないことが結構あったので驚きました。