生成AIエンジニアLab

生成AIの最新技術を、ハンズオンで解き明かす実践ラボです。
次の一歩を描きながらAI時代のキャリアを模索する羅針盤を目指します。

カテゴリ: ローカルLLM

LangGraphは、複数の LLM呼び出しをグラフ構造で管理するためのライブラリです。ノード(関数)とエッジ(遷移条件)を組み合わせて、エージェントの思考フローを明示的に書けるのが特徴です。

Ollamaは、Gemma3などのLLMをローカル環境で簡単に実行できるツールです。従来はOpenAI APIなどのクラウドサービスに依存していたLLMを、完全にオフライン環境で動作させることが可能です。

本記事では、Ollamaで動かすローカルLLMとLangGraphを連携させ、「質問に応じて情報源を選び、最終回答を生成するミニAgent」を作ります。

続きを読む

この記事はパソコンだけで動くAI同士の会話アプリを作りたい人に向けたハンズオン解説です。

関連記事:VOICEVOXをPythonから音声合成する方法(Windows/Mac)

1. どんなアプリを作るの?

キングダムで有名な秦王嬴政と楚の使者の AI が、交互にセリフを言い合います。画面には吹き出しが出て、VoiceVox でセリフが読み上げられます。AI同士で会話をさせ、その様子を見て聞くイメージです。完成した画面は以下になります。
スクリーンショット 2025-04-22 200729続きを読む

「AIを使って稼ぎたい。でも何をやればいいのか分からない…」
そんな悩みを持つあなたに向けて、ローカルLLMを利用した“副業アイデア製造機”を作ってみました。

ローカルLLMには、Gemma3を採用しました。Gemma3は軽量なローカルLLMでありながら、Chatbot Arenaでo1-previewモデルより上位の評価を受けています。人間の評価において、最新のクラウド型モデルと遜色ない会話ができます。また、短いトークン数での文章理解や知識蒸留で工夫されており、メモリ効率が極めて高いことが特徴です。

本アプリは、あなたのパソコン上で、Gemma3モデル2機が、Streamlit上で自動対話させることで、【ひらめき → 深掘り → 要約】をループしながら、アイデアを連続で生み出します

・ネット接続もAPI代も不要。
・自分のPC上で、好きなだけ回せる。
・“副業のタネ”を見つけたら、あとは行動するだけ。

この記事では、副業アイデア製造機の使い方を解説します。

続きを読む

Windows環境で、OllamaでローカルLLMを動かす方法を解説します。

1. Ollamaとは

Ollamaは、ローカル環境でLLMを動作・管理するソフトウェアです。無料のOSSでMITライセンスです。インターネット接続のないオフライン環境で動作可能です。ただし、LLMモデルをローカルにダウンロードする際は、インターネット接続が必要です。

推論処理が高速:LLMの推論を高速に行うllama.cpp を実行基盤に動作。
インストールが簡単:Ollamaのインストーラは、パソコンのGPU環境を自動的に判別。
幅広いローカルLLMを選べる:Ollamaでサポートするモデルに加え、Hugging FaceのLLMモデル(GGUF形式のファイルのみ)も容易に動かせる。

GGUF形式のモデルに対応しており、量子化にも対応しています。
メモリ要件の目安として、8GB RAM なら7Bパラメータのモデルを動かせますが、14Bパラメータのモデルの場合は 16GB 以上が推奨されます。
続きを読む

本記事では、VOICEVOXを利用したい初心者向けに、インストールからPythonで利用する方法までを解説していきます。

関連記事:Ollama×Streamlit×VoiceVoxで作るローカルLLM音声対話アプリ【完全ハンズオン】

VOICEVOXとは

VOICEVOXは、自然な発音で音声を生成できる、国産の音声合成ソフトウェアです。GUIの画面もありますが、PythonからでもAPI経由で簡単に使うことができます。続きを読む

↑このページのトップヘ