このチュートリアルでは、以下のことを学びます:
- なぜBright DataのWeb MCPのツールを使ってOllamaモデルを拡張する必要があるのか。
- それを可能にするために必要なツール
- 始めるために必要なこと
- MCPHost を使って Web MCP を Ollama モデルに統合する方法。
ollmcpを使って同じ結果を得る方法。- ローカル Ollama モデルが獲得する新しい機能を、完全な例でデモンストレーションします。
さっそく見てみましょう!
Bright DataのWeb MCPでOllamaモデルを拡張する理由
Ollamaはローカルで実行可能な幅広いAIモデルを提供しています。しかし、どのLLMを選んでも、その知識は静的で、トレーニングされたデータに限定されるという制限があります。
どうすればこの障害を克服できるのか?LLMに、利用可能な最大かつ最も豊富なソース、つまりウェブから新鮮なリアルタイムデータにアクセスさせることです。そこでBright DataのWeb MCPが活躍します!
Web MCPサーバーは、最新のウェブデータを取得し、人間のようにウェブページと対話する機能をOllamaモデルに拡張します。これにより、AIモデルは内蔵知識の制限を克服することができます。
Web MCPは、60以上のAI対応ツールを提供し、そのすべてがBright Dataのウェブインタラクションとデータ収集のためのインフラによって支えられています。無料版でも、非常に便利な2つのツールにアクセスできます:
| ツール | ツールの説明 |
|---|---|
検索エンジン |
Google、Bing、Yandexの検索結果をJSONまたはMarkdownで取得します。 |
scrape_as_markdown |
ボット検知やCAPTCHAを回避して、あらゆるウェブページをクリーンなMarkdownフォーマットにスクレイピングする。 |
これら以外にも、Web MCPには、クラウド・ブラウザとのインタラクションのためのツールや、YouTube、Amazon、LinkedIn、TikTok、Google Mapsなどのプラットフォームにわたる構造化データフィードのための数十の特別なツールが含まれています。
OllamaモデルへのMCPツールの追加
この記事を書いている時点では、Ollamaデスクトップ・アプリケーションはMCP統合を直接サポートしていません(公式GitHub issueの更新を参照)。つまり、OllamaモデルをMCPツールと統合したい場合は、サードパーティのソリューションに頼る必要があります。
OllamaをMCPで使うための最も一般的なソリューションは以下の通りです:
- MCPHost:MCPHost:CLIホスト・アプリケーションで、LLMがMCP経由で外部ツールとやり取りできるようにします。現在、Claude、OpenAI、Google Gemini、Ollamaモデルをサポートしている。
- Ollama用MCPクライアント(
ollmcp):ローカルのOllama LLMを1つ以上のMCPサーバーに接続し、高度なツールの使用とワークフローの自動化を可能にする最新のTUI(テキストベースのユーザーインターフェース)。
その他のソリューションとして、Dolphin MCP、ollama-mcp-bridgeなどがあります。このガイドでは、最も広く使用され、サポートされている最初の2つに焦点を当てます。
前提条件
このセクションでは、Bright Data Web MCP と Ollama を統合するために必要な前提条件を、MCPHost と MCP Client for Ollama(ollmcp) の両方を使用して、ローカル環境で設定します。
始める前に、以下を確認してください:
- Bright Data Web MCP サーバーをローカルで実行するために、Node.js がローカルにインストールされていること(最新の LTS バージョンをダウンロードすることをお勧めします)。
- お使いのマシンでOllamaをスムーズに実行するために、少なくとも16GBのRAMと最新のCPU。
MCP の仕組みと Web MCP が提供するツールの基本的な理解があると便利です。
このセクションの終わりには、以下のことができるようになります:
- Ollama がローカルにインストールされ、設定され、Bright Data Web MCP と統合できる状態になっていること。
- Web MCP認証用のAPIキーを持つBright Dataアカウント。
- お使いのマシンがローカルでWeb MCPサーバーを正常に実行できることの確認。
以下のセクションに従ってください!
Ollamaのセットアップ
まだセットアップしていない場合は、お使いのオペレーティングシステム用のOllamaをダウンロードし、インストールしてください。それから、gpt-oss、qwen3、deepseek-r1、llama3.2、その他お好みのモデルをいくつかプルしてください。
以下のコマンドでモデルをプルする:
ollama pull <モデル名>.
<model_name>は、利用可能なOllama LLMモデルの名前で置き換えてください。
MCPHostもollmcpも、Ollamaがローカルで動作している必要があります。そのため、次のようにしてOllamaを起動してください:
ollama serve
このコマンドは、デスクトップ・アプリケーションを開くことなく、Ollama をサーバー・モードで起動します。
重要: デフォルトでは、Ollama はコンテキストの長さを 4096 トークンに制限して起動します。以下のコマンドを使えば、40,000トークン(またはお使いの機種でサポートされる最大値)まで増やすことができます:
macOS/Linuxでは、以下のコマンドを実行します:
macOS/Linux では、次のコマンドを実行する: OLLAMA_CONTEXT_LENGTH=40000 ollama serve
Windows (PowerShell)の場合、以下を実行します:
Env:OLLAMA_CONTEXT_LENGTH=40000; ollama serveを実行します。
こうすることで、Ollamaモデルが切り詰めずに長いコンテキストを扱えるようになります。
素晴らしい!これで Ollama は設定され、Bright Data Web MCP サーバと統合する準備が整いました。
Bright Data API キーの取得
Web MCP サーバーは Bright Data API キーを使用して認証されます。取得するには、Bright Dataアカウントを作成することから始めます。アカウントをお持ちの場合は、ログインしてください。
その後、公式ガイドの手順に従ってBright Data APIキーを生成してください。すぐに必要になりますので、安全な場所に保管してください。
注意:管理者権限を持つAPIキーを設定することをお勧めします。
Web MCPをローカルでテストする
Ollama モデルと Bright Data Web MCP を統合する前に、お使いのマシンで実際にサーバーを実行できるかどうかを確認する必要があります。
簡単なセットアップを行うには、Bright Dataアカウントにログインし、”MCP“ページの説明を参照してください:
それ以外の場合は、以下の手順に従ってください。
以下のnpmコマンドを使用して、お使いのマシンにWeb MCPをグローバルにインストールします:
npm install -g @brightdata/mcp
以下のコマンドを実行して、MCPサーバーが動作することを確認してください:
API_TOKEN="<YOUR_BRIGHT_DATA_API_KEY>" npx -y @brightdata/mcp
または、PowerShellでも同様です:
Env:API_TOKEN="<YOUR_BRIGHT_DATA_API_KEY>"; npx -y @brightdata/mcp
<YOUR_BRIGHT_DATA_API>プレースホルダを、先ほど取得したBright Data APIトークンに置き換えてください。これらのコマンドは必要なAPI_TOKEN環境変数を設定し、@brightdata/mcpパッケージを実行してWeb MCPをローカルに起動します。
成功すると、このような出力が表示されます:
最初の起動時に、Web MCPは自動的にBright Dataアカウントに2つのデフォルトゾーンを作成します:
mcp_unlocker:mcp_unlocker:Web Unlocker用のゾーンです。mcp_browser:mcp_unlocker: Web Unlocker用のゾーン。
mcp_unlocker: Web Unlocker用のゾーン。Web MCPは、60以上のツールを動かすために、これら2つのBright Data製品に依存しています。
ゾーンが設定されていることを確認したい場合は、Bright Dataダッシュボードの “プロキシ&スクレイピングインフラ“ページにアクセスしてください。テーブルに2つのゾーンが表示されているはずです:
注意: API トークンにAdmin権限がない場合、2つのゾーンは作成されません。この場合、手動で定義し、GitHub にあるように環境変数で設定する必要があります。
Web MCP無料ティアでは、MCPサーバーはsearch_engineと scrape_as_markdownツール(とそのバッチ版)のみを公開します。他のすべてのツールのロックを解除するには、環境変数PRO_MODE="true "を設定してProモードを有効にする必要があります:
API_TOKEN="<YOUR_BRIGHT_DATA_API>" PRO_MODE="true" npx -y @brightdata/mcp
または、Windowsの場合
Env:API_TOKEN="<YOUR_BRIGHT_DATA_API>"; $Env:PRO_MODE="true"; npx -y @brightdata/mcp
プロ・モードは60以上のツールをアンロックしますが、無料版には含まれていません。そのため、追加料金が発生します。
完璧です!これで、Web MCPサーバーがあなたのマシンで動作していることが確認できました。次にMCPクライアントの起動と接続を設定するので、MCPプロセスを停止します。
Bright Data Web MCPをMCPHostを使ってOllamaに統合する方法
このステップでは、MCPHostを使用してOllamaモデルとBright Data Web MCPのローカルインスタンスを統合する方法を説明します。
前提条件
これまでの前提条件に加えて、Go 1.23+がシステムにインストールされている必要があります。MCPHostをセットアップして実行する必要があります。
ステップ#1: MCPHostのインストール
以下のコマンドを使用してMCPHostをインストールします:
go install github.com/mark3labs/mcphost@latest
これで、mcphostコマンドラインツールを使ってMCPHostを起動できる。
注:MCPHostは、そのSDKを介してGoスクリプトでプログラム的に使用することもできます。
ステップ2: ツールを設定して使い慣れる
特定のOllamaモデルでMCPHostを起動するには、以下のコマンドを実行します:
mcphost -m ollama:<model_name> とします。
mcphost-m ollama:<model_name>MCPHostに使わせたいOllamaモデルの名前を<model_name>に置き換えてください。
指定したモデルがローカルにない場合は、自動的に読み込まれます。ロードされると、これがCLIで表示されるUIになります:
利用可能なコマンドの完全なリストについては、ドキュメントを参照してください。例えば、/toolsコマンドを実行すると表示されます:
MCPインテグレーションを指定する必要があるため、ツールは表示されません。
ステップ#3: Web MCP接続設定ファイルの作成
デフォルトでは、MCPHostはグローバルレベルの設定を、macOSとLinuxでは~/.mcphost.ymlまたは~/.mcphost.jsonに、Windowsでは%USERPROFILE%.mcphost.ymlまたは%USERPROFILE%.mcphost.jsonに探します。
ここでは、ローカルのYAMLファイルを使って、Web MCPに接続するためのコンフィギュレーションを定義します。グローバルな設定を好む場合は、上記のファイルを更新することができます。
プロジェクトフォルダに、bd-web-mcp.ymlという名前のファイルを以下の内容で作成します:
mcpServers:
bright-data-web-mcp:
タイプ"local"
コマンド: ["npx", "-y", "@brightdata/mcp"].
環境
api_token: "<your_bright_data_api_key>"
PRO_MODE: "true"
上記の設定は、先に使用したnpxコマンドを反映したもので、以下の環境変数を利用している:
API_TOKENは必須です。あなたのBright Data APIキーを設定してください。PRO_MODEはオプションです。プロモードを有効にしない場合は、これを削除できます。
つまり、この設定ファイルは、Web MCPサーバーをローカルで起動して接続する方法をMCPHostに指示します。
ステップ#4: OllamaモデルをWeb MCP**に接続する
今すぐ以下のコマンドを使用して、OllamaのWeb MCP統合のためにMCPHostを起動することができます:
mcphost -m ollama:<model_name> --config "./bd-web-mcp.yml"
例えば、qwen2.5:0.5bモデルでMCPHostを起動するには、次のようにします:
mcphost -m ollama:qwen2.5:0.5b --config "./bd-web-mcp.yml
結果はこのようになる:
Ollama モデルは、ローカルの Web MCP インスタンスによって公開される 60 以上のツールにアクセスできるようになった。CLIで/toolsコマンドを実行すると、このようなリストが表示されます:
MCPサーバーがProモードで構成されている場合は、60以上のツールが表示されます。MCPサーバーがProモードで設定されている場合は、60以上のツールが表示されます。そうでない場合は、無料版で利用可能な4つのツール(search_engine、scrape_as_markdown、およびそれらのバッチ版)のみがアクセス可能です。
完了です!これであなたのOllamaモデルはBright DataのWeb MCPツールで動作するように設定されました。
ollmcp による Ollama への Bright Data Web MCP のセットアップ
このセクションでは、Ollama用MCPクライアントであるollmcpを使用して、ローカルのOllamaモデルをローカルのBright Data Web MCPサーバーインスタンスに接続する手順を説明します。
前提条件
このチュートリアル・セクションに従うには、前述の前提条件に加え、ローカルに Python 3.10+ がインストールされている必要があります。これはollmcp をインストールして実行するために必要です。
ステップ #1:ollmcpを始める
以下のコマンドでollmcpをローカルにインストールします:
pip install --upgrade ollmcp
注:必要に応じて、このコマンドを仮想環境内で実行することもできます。
MCP Client for Ollama が正しくインストールされていることを、MCP Client for Ollama を起動して確認します:
ollmcp
以下のように表示されるはずです:
デフォルトでは、ollmcpはqwen2.5:7bを初期モデルとして使用します。また、クライアントはまだMCPツールを検出していないことに注意してください。
ステップ2: LLMの設定
model(または-m)フラグを使って、特定のOllamaモデルでollmcpを起動する。起動コマンドは次のようになる:
ollmcp --model <モデル名> となります。
あるいは、同等に
ollmcp -m <モデル名> となります。
ここで、<model_name>は希望するOllamaモデルの名前です。
あるいは、CLI からmodelコマンドを使ってモデルを設定することもできます:
次に、使用したいモデルを選択します。使用可能なフラグやオプションの詳細については、公式ドキュメントを参照してください。
ステップ#3: ウェブMCP設定ファイルの追加
ollmcpは MCPサーバー統合のためのいくつかのオプションをサポートしています:
-mcp-server、-s:-mcp-server、-s: 1つ以上のMCPサーバスクリプト(.pyまたは.js)へのパス。複数回指定できます。-mcp-server-url、-u:1つ以上のSSEまたはストリーマブルHTTP MCPサーバへのURL。複数回指定できます。--servers-json,-j:特定の形式のサーバ構成を含む JSON ファイルへのパス。- —
auto-discovery,-a:クロードのデフォルト設定ファイルからサーバを自動検出します(他のオプションを指定しない場合のデフォルトの動作)。
このガイドでは、Claude 的で最も単純なオプションの一つであるカスタム JSON ファイルを使用します。
プロジェクトフォルダにbd-web-mcp.jsonという名前のファイルを作成します。以下のように入力します:
{
"mcpServers":{
"bright-data-web-mcp":{
"command":"npx"、
"args": ["-y", "@brightdata/mcp"]、
"env":{
"API_TOKEN":"<your_bright_data_api_key>"、
"PRO_MODE":"true"
}
}
}
}
上記の設定は、先にテストしたnpxコマンドを反映したもので、これらの環境変数を使用している:
API_TOKENが必要です。<YOUR_BRIGHT_DATA_API_KEY>プレースホルダーをBright Data APIキーに置き換えてください。PRO_MODEはオプションです。プロモードを有効にしたくない場合は、これを削除してください。
簡単に言うと、このJSONファイルはOllama用MCPクライアントに、Web MCPサーバーをローカルで起動し、接続する方法を伝えます。
ステップ #4: Web MCP に接続する
-servers-jsonフラグを使って、先ほど作成したbd-web-mcp.jsonファイルを指定し、Web MCPサーバーに接続します:
ollmcp --servers-json . bd-web-mcp.json
これが表示されるはずです:
このように、ollmcpのモデルは、ローカルの Web MCP サーバー・インスタンスが公開する 60 以上のツールにアクセスできるようになりました。Pro Modeを有効化せずにサーバーを設定した場合、利用できるのはいくつかのツール(search_engine、scrape_as_markdown、およびそれらのバッチ版など)のみです。
CLIでtoolsコマンドを実行することで、利用可能なすべてのツールを一覧表示することもできます:
これで Ollama モデルと Web MCP の統合は完了です。これでミッションは完了です!
Ollama モデルで Web MCP ツールを活用する
OllamaにWeb MCPを統合するためにどのような方法を選んでも、結果は同じです: Bright Data Web MCPサーバ・ツールによって拡張されたOllamaモデルです。
つまり、Ollama モデルがウェブ検索、ウェブスクレイピング、ウェブレイピング・ページ統合、ウェブデータ検索などのツールにアクセスできるようになります。これにより、標準的なLLMでは通常利用できない幅広いユースケースに対応できるようになります。
例えば、ウェブ検索ツールを使ったファクトチェック、ウェブスクレイピングツールを使ったURL指定によるニュース記事の要約、エージェントAIシステムでのウェブインタラクション、その他多くのタスクにLLMを使うことができます。
Web MCPサーバーの機能をよりよく見せるために、Proモードで設定してください。そして、llama3.2モデル(またはMCPHost)でollmcpを使う:
ollmcp --model llama3.2 --servers-json . bd-web-mcp.json
このようなプロンプトを試してみてください:
以下のTikTokプロフィールURLからTikTokプロフィールデータを取得します:
"https://www.tiktok.com/@khaby.lame".
主要なインフルエンサーの統計情報をMarkdownのレポートで返し、そのユーザーのオーディエンスを考慮して、このユーザーが当社のエアコンを宣伝するコラボレーションの良い候補になり得るかどうかについての最後のコメントを含めます。
これはウェブデータ検索機能を必要とするタスクの良い例です。
結果はこのようになります:
Ollamaモデルはあなたのプロンプトを分析し、Web MCPからweb_data_tiktok_profilesツールを選択します。このツールは「構造化されたTikTokプロフィール・データを素早く読み取る」と定義されています。有効なTikTokプロフィールURLが必要です。多くの場合、スクレイピングよりも速く、信頼できる。”したがって、これは完璧なツール選択だった。
ツールの実行許可を求められます。yと入力してEnterを押すと、プロンプトが実行される。これでBright Dataインフラストラクチャ上で非同期のTikTokスクレイパー・タスクが起動する。構造化されたプロフィールデータの準備ができたら、Ollamaはそれを処理します。
今回、出来上がったレポートは
プロフィール:**ニックネーム:**
- ニックネーム:** Khabane Lame
- 検証済み:** はい
- フォロワー:** 161,100,000
- フォロー:** 83
- アカウント作成:** 2016年8月10日
- プロフィール言語:** 英語
- 経歴:** "Se vuoi ridere sei nel posto giusto.笑いたければ、正しい場所にいる"
- プロフィールリンク:** [TikTok Profile](https://www.tiktok.com/@khaby.lame)
**エンゲージメント率: **
- 平均エンゲージメント率:** 0.61
- いいね!エンゲージメント率:** 0.60
- コメント・エンゲージメント率:** 0.009
**コンテンツ概要
- 総動画数:** 1,293
- トップ動画の再生回数範囲:** 1.4M - 209.3M
- トップ動画のお気に入り数:** 1,199 - 287,000
- トップ動画のコメント範囲:** 1,035 - 87,000
**オーディエンスの洞察
- コンテンツはコメディ色が強く、軽快でユーモラスなコンテンツを求める世界中の視聴者にアピールしている。
- いいね!」や「シェア」のエンゲージメントは高いが、コメントのエンゲージメントは比較的低い。
**コラボレーションの可能性:***。
Khabane Lameの大規模な視聴者とグローバルなアピールは、ブランドプロモーションの有力な候補となる。しかし、彼のニッチはユーモアとバイラル・エンターテインメントだ。エアコンのキャンペーンに協力するには、彼のコンテンツスタイルに自然に合う、クリエイティブでユーモラスな切り口が必要だろう。ストレートな製品プロモーションは、コメディや親近感のわくシナリオ(面白い方法で暑さをしのぐなど)と結びつかないと、共感を得られないかもしれない。
ご覧の通り、このレポートにはKhaby LameのTikTokプロフィールの全データが含まれており、エンゲージメント率などの洞察に満ちた分析も含まれています。
最後のコメントでは、選ばれたインフルエンサーが必ずしもエアコンの宣伝に理想的とは限らないことが強調されていますが、これはまさにあなたが判断したいことです。
今度は、他のプロンプトを試してみたり、OllamaのWeb MCP機能を探求してみてください!
まとめ
このブログ記事では、OllamaのMCPツールを活用する方法を学びました。特に、@brightdata/mcpパッケージを介してローカルで実行されるBright DataのWeb MCPのツールを使って、ローカルのOllamaモデルを強化する方法をご覧いただきました。
この統合は、ウェブ検索、構造化データ抽出、ライブウェブデータフィード、自動化されたウェブインタラクションなどの機能でモデルを強化します。
さらに高度なAIエージェントを作成するには、ブライトデータのエコシステムで利用可能なAI対応ツールやサービスの完全なスイートをご覧ください。
今すぐ無料のBright Dataアカウントにサインアップして、当社のウェブデータツールをご利用ください!