生成AIエンジニアLab

生成AIの最新技術を、ハンズオンで解き明かす実践ラボです。
次の一歩を描きながらAI時代のキャリアを模索する羅針盤を目指します。

生成AIの急速な発展により、プログラム未経験者から生成AIエンジニアとしてのキャリアを築けるチャンスが広がっています。本記事では、現役の生成AIエンジニアが、現在の市場環境を概観し、未経験から生成AIエンジニアになる方法を解説します。

生成AIの市場規模は急拡大する

電子情報技術産業協会(JEITA)によると、生成 AI 市場の世界需要額は年平均 53.3%(日本は47.2%)で成長し、2030 年には 2,110億ドル(日本は1.8兆円)となる見込みです。

参考記事:JEITA、生成 AI 市場の世界需要額見通しを発表

市場規模の内訳は、生成AI関連アプリケーションが圧倒的に多く(世界で92%,日本で86%)、基盤モデルを搭載したシステム開発のニーズが今後急激に増加すると考えられます。

2030年までの7年間で、市場規模が15~20倍になるというのは凄まじく、生成AIを開発・活用する企業が増加することは確実で、生成AIエンジニアの需要も高まっていくでしょう。
続きを読む

Windows環境で、OllamaでローカルLLMを動かす方法を解説します。

1. Ollamaとは

Ollamaは、ローカル環境でLLMを動作・管理するソフトウェアです。無料のOSSでMITライセンスです。インターネット接続のないオフライン環境で動作可能です。ただし、LLMモデルをローカルにダウンロードする際は、インターネット接続が必要です。

推論処理が高速:LLMの推論を高速に行うllama.cpp を実行基盤に動作。
インストールが簡単:Ollamaのインストーラは、パソコンのGPU環境を自動的に判別。
幅広いローカルLLMを選べる:Ollamaでサポートするモデルに加え、Hugging FaceのLLMモデル(GGUF形式のファイルのみ)も容易に動かせる。

GGUF形式のモデルに対応しており、量子化にも対応しています。
メモリ要件の目安として、8GB RAM なら7Bパラメータのモデルを動かせますが、14Bパラメータのモデルの場合は 16GB 以上が推奨されます。
続きを読む

本記事では、VOICEVOXを利用したい初心者向けに、インストールからPythonで利用する方法までを解説していきます。

関連記事:Ollama×Streamlit×VoiceVoxで作るローカルLLM音声対話アプリ【完全ハンズオン】

VOICEVOXとは

VOICEVOXは、自然な発音で音声を生成できる、国産の音声合成ソフトウェアです。GUIの画面もありますが、PythonからでもAPI経由で簡単に使うことができます。続きを読む

ローカルLLMを用いたリアル婚活アプリを作ってみました。

本アプリは Streamlitと Ollamaを組み合わせ、あなた(自分LLM)/相手(彼女LLM)/評価者(審判LLM)の3役を回すことで、状態(フェーズ/好感度/イベント)を持った“会話体験”を設計しています。

関連記事:Ollama×Streamlit×VoiceVoxで作るローカルLLM音声対話アプリ【完全ハンズオン】

どんなアプリ?

スクリーンショット 2025-08-14 224746
本アプリは、ローカルLLMを使って初デートを体験できる婚活シミュレーションアプリです。あなたが入力した「自分のプロフィール」や「相手のタイプ」に応じて、AIが恋人役として会話してくれるおしゃべりゲームです。

続きを読む

運用保守エンジニアが直面する課題を、キャリア・業界構造・AI代替の観点から整理し、生成AI時代に生き残る方法を提示します。

関連記事:生成AI時代のITエンジニア向け転職エージェントの選び方

運用保守エンジニアの良い点

運用保守エンジニアの良い点は大きく3つあります。

1. ITキャリアの入口になりやすい

未経験からでも挑戦できる求人が多く、IT業界への入り口として取り組みやすいのが大きな魅力です。

2.「当たり前の状態」を知ることで基準が持てる

システムは「動いていて当たり前」なわけですが、その“当たり前に動いている状態”がどういう状態かを肌感覚で理解できるのは大きな強みです。価値を生み出している状態のイメージをしっかり持つことは、システムの設計思想を考える際に役立ちます。

3.インフラエンジニアに繋がるスキルが身につく

運用・保守を通じて、後工程を意識した要件定義・設計の感覚が養われます。また、クラウド基盤(AWS/Azure/GCP)やバグ修正、自動化スクリプト等に習熟する中で、インフラエンジニアへのキャリアチェンジのルートが開けます。
続きを読む

生成AIの普及と進化が、転職市場を大きく動かしています。
この変化の中でどんなスキルを持つ人材が、転職市場で高く評価されるのでしょうか。本記事では、現役のAIエンジニアが、最新の市場動向を分析し、AIエンジニアに求められるスキルと将来性を考察します。

関連記事:【人工知能業界】AIエンジニアが選ぶおすすめ転職サイト・転職エージェント

【2025年度下期】生成AIの転職市場・中途採用動向

・転職市場は引き続き活況。ほとんどの業界で中途採用が増加・維持の見込み。JACリクルートメントのレポートでも、15業界中13業界で採用動向が「活況」と予測。 

・生成AI活用・DX推進のフェーズが、単なる試験運用やPOCから業務プロセス全体の見直し・効率化、本格導入へと移行。企業の採用基準にもAIリテラシー・経験が入ってきている。

・企業が単に人を増やすだけでなく、業務プロセス全体を見直し、業務効率化を進める中で、AIを活用できる、DXを推進できるといった人材の評価が高くなる見込み。 

・リクルートエージェントによると、2017年度と比較して2024年のAI関連求人(エンジニア系)は約6.6倍に増加。営業・企画・管理部門など非エンジニア系の求人でも増加が確認されている。
続きを読む

AIエージェントは、知識を事前学習に依存しがちですが、実際の業務や未知の環境では 「その場で学び、適応する力」 が求められます。

本記事では、NeurIPS 2024 に採択された論文「Mars: Situated Inductive Reasoning in an Open-World Environment」を取り上げ、AIエージェントにおけるメモリ設計の考え方を検討します。

Marsの提案 ― 経験を「ルール」と「スキル」に変換する

論文では、環境Marsを提案し、AIエージェントの手法として、Skill LibraryとInduction from Reflection(IfR)でルール抽出&活用を実施しています。その際、単に経験を記憶するのではなく、「抽象化」して再利用することに注目しています。

ルール(世界モデル):経験から導かれる一般的な因果関係
スキル(成功パターン):ゴール達成に有効だった手順

AIは「経験 → 抽象化 → 応用 → 失敗から修正 → 知識化」という学習サイクルを繰り返し、未知の状況でも柔軟に推論できるようになります。

続きを読む

ローカルLLMの入門書を電子書籍で出版しました。

本書は、Ollamaの環境構築からPythonでの操作、VOICEVOXの読み上げ、Streamlitでの音声対話アプリ完成までを、ハンズオン形式で解説します。

本書で扱う内容
基礎:ローカルLLMとOllamaの概要 環境構築とモデル導入
実装:Pythonからの推論実行 プロンプト設計の基本
音声出力:VOICEVOX API でテキストを音声化
アプリ化:Streamlitで会話UI作成 音声再生までを一気通貫で実装

想定読者
・これからローカルLLMを触りたい初心者
・手早く動くサンプルと最短ルートの解説を求める実務者

販売先
BOOTHで販売中

「いまのスキルで将来食べていけるか不安」
「転職する / しないをどう判断したらいいか迷う」
そんなモヤモヤを抱えるエンジニア向けに、PC だけで動く「Career & Skill Advisor」を紹介します。

1. アプリの概要

このアプリは、職務経歴書と興味分野を入力すると、3つのローカルLLMがキャリア戦略・市場性評価・転職判断プランを自動生成し、Markdownで統合レポートを出力します。レポートは、市場規模データと、あなたの強み弱みを分析したSWOT分析結果が添えられるため、単なる感覚ではなくファクトを踏まえて方向性を検討できます。

ローカルLLMの管理は、Ollamaを利用します。Ollamaとは、ローカルLLMを動作・管理するソフトウェアです。無料のOSSでMITライセンスです。データは外部送信されないので、個人情報である職務経歴書を入力しても安心です。
続きを読む

ローカルLLM(Ollama)とPythonを使って、イエス・キリストと釈迦の宗教間対話させてみました。本記事では、コードの主要な部分を解説していきます。

動作環境

・Windows11 メモリ32GB
・Ollama

※Ollamaのインストール方法と使い方は以下の記事をご参考ください。
OllamaをPythonから操作:WindowsでローカルLLM入門

続きを読む

↑このページのトップヘ