「内製化チームを組成したが、何をどの順で教えるかが分からない」――中堅企業の情シス責任者が直面する典型課題だ。 18 週間(4 ヶ月強)で実戦投入できる体系化カリキュラムを、混成スキルレベル前提で提示する。
目次
- カリキュラム設計思想
- スキルマップ(到達目標)
- 週次カリキュラム概観
- Phase 1: 基礎(W1-W4)
- Phase 2: 実装(W5-W10)
- Phase 3: 運用(W11-W14)
- Phase 4: 案件投入(W15-W18)
- 体制と役割分担
- 評価基準とフォロー設計
- よくある質問(FAQ)
カリキュラム設計思想
中堅企業の内製化チームは未経験・中級・上級が混在する。一律カリキュラムは未経験には難しすぎ、上級には退屈すぎる。本カリキュラムは「共通講義 + レベル別演習 + ペア作業」で 3 階層を吸収する。
| レベル | 入口想定 | 18 週間後到達 |
|---|---|---|
| 未経験 | 業務知識あり、Python 未経験 | 単機能の AI 機能を要件から実装 |
| 中級 | Python 経験 1-3 年 | RAG/Agent パイプラインを設計実装 |
| 上級 | エンジニア経験 5 年+ | アーキテクチャ設計、後輩指導 |
スキルマップ(到達目標)
| カテゴリ | 未経験ゴール | 中級ゴール | 上級ゴール |
|---|---|---|---|
| Python | 基本構文・API 呼出 | 非同期・テスト | 設計パターン・パフォチューニング |
| LLM/プロンプト | 基本プロンプト設計 | Few-shot/CoT/Tool 使用 | プロンプト評価フレーム整備 |
| データ | CSV/JSON 操作 | DB/Vector DB 連携 | データパイプライン設計 |
| 評価 | 目視評価 | 自動評価セット運用 | 評価指標設計 |
| 運用 | ログ閲覧 | 障害対応 | SRE 運用設計 |
週次カリキュラム概観
| 週 | フェーズ | 主題 | 成果物 |
|---|---|---|---|
| W1-W4 | 基礎 | 開発環境・Python・LLM 基礎 | 環境構築・Hello AI |
| W5-W10 | 実装 | RAG/Agent/評価/UI | 業務模擬アプリ |
| W11-W14 | 運用 | 監視・セキュリティ・改善 | 模擬本番運用 |
| W15-W18 | 案件投入 | 実案件並走 | 実機能 1 本 |
Phase 1: 基礎(W1-W4)
W1: 開発環境構築
- IDE / Git / Python / venv / 主要ライブラリ
- 共通リポジトリ構造の理解
- 課題: Hello World API 1 本実装
W2: Python と LLM API 基礎
- Python 構文復習・型ヒント
- 主要 LLM API(複数社)の呼び出し
- 課題: 4 社の LLM API を切替可能なラッパー実装
W3: プロンプト設計基礎
- Zero-shot / Few-shot / Chain-of-Thought
- 出力形式制御(JSON / Tool use)
- 課題: 業務文書要約プロンプトの精度比較
W4: データ取扱い基礎
- CSV/JSON/DB 接続
- 機密情報マスキング
- 課題: 業務サンプルデータの前処理パイプライン
Phase 2: 実装(W5-W10)
W5-W6: RAG パイプライン
- Vector DB の選定と接続
- チャンク戦略・埋め込み・検索精度評価
- 課題: 社内ドキュメント RAG 1 本
W7-W8: AI エージェント
- Tool use / マルチステップ推論
- エラーハンドリング・タイムアウト
- 課題: 3 ツール連携エージェント
W9: 評価フレーム
- 自動評価セット作成
- 精度・コスト・レイテンシの 3 軸評価
- 課題: 評価ハーネス整備
W10: フロント連携
- API 設計・認証
- ストリーミング応答
- 課題: 簡易 Web UI 接続
Phase 3: 運用(W11-W14)
W11: 監視と障害対応
- ログ設計・メトリクス収集
- アラート閾値設定
- 課題: 監視ダッシュボード構築
W12: セキュリティ
- プロンプトインジェクション対策
- 個人情報漏洩防止
- 課題: セキュリティテスト 10 項目
W13: コスト管理
- トークン消費見積
- キャッシュ/バッチ最適化
- 課題: コスト 30% 削減提案
W14: 改善サイクル
- A/B テスト設計
- 改善優先度付け
- 課題: 改善 PR 1 本
Phase 4: 案件投入(W15-W18)
W15: 実案件アサイン
- 実プロジェクトの 1 機能を担当
- メンタとペア作業
- 成果物: 設計書
W16-W17: 実装と UAT
- 実コード PR 出し
- レビュー受領と修正
- 成果物: マージ済機能
W18: 振り返りと次目標設定
- 18 週間振り返り
- 個別キャリアパス設計
- 成果物: 個人成長計画
体制と役割分担
| 役割 | 人数 | 主責務 |
|---|---|---|
| プログラム責任者 | 1 | カリキュラム全体管理 |
| メンタ | 2-3 | 週次レビュー・課題評価 |
| 受講者 | 5-10 | 課題実施・成果物提出 |
| 業務 SME | 1-2 | Phase 4 案件提供 |
「PMO / 内製化チームを立ち上げたいが進め方が見えない」
中堅企業の PMO 体制構築を 100 件以上支援した経験から、貴社の状況に合わせた進め方をご提案します。
※ 営業電話はしません | オンライン対応可 | 相談だけでもOK
評価基準とフォロー設計
| 評価軸 | 基準 | 未達時 |
|---|---|---|
| 課題完了率 | 80% 以上 | 個別補講 1-2 週 |
| ペアレビュー合格率 | 70% 以上 | メンタ追加伴走 |
| 自走可否(W18) | 機能 1 本独力完遂 | Phase 4 を 2-4 週延長 |
よくある質問(FAQ)
Q. 18 週間は長すぎないか? A. 3 ヶ月設計だと業務並走で実質稼働が 30% 落ち、結果は同じ。18 週で確実に固める方が ROI が高い。
Q. 未経験者を本当に戦力化できるか? A. 業務知識を持つ未経験者は AI 機能の要件定義段階で価値を出せる。実装は中級以上とのペアで補完する設計。
Q. 外部講師は必要か? A. Phase 1-2 は外部講師の効果が高い。Phase 3-4 は内部メンタで十分回せるケースが多い。
参考資料
- IPA「DX 推進指標」
- 経済産業省「デジタル人材育成プラットフォーム」
- 各 LLM プロバイダ公式ドキュメント
中堅企業の内製化 AI 開発チーム育成、カリキュラム設計、メンタ派遣は GXO の内製化支援サービスで対応可能です。
GXO実務追記: AI開発・生成AI導入で発注前に確認すべきこと
この記事のテーマは、単なるトレンド紹介ではなく、業務選定、データ整備、セキュリティ、PoCから本番化までの条件を決めるための検討材料です。検索で情報収集している段階でも、発注前に次の観点を整理しておくと、見積もりのブレ、手戻り、ベンダー依存を減らせます。
まず決めるべき3つの論点
| 論点 | 確認する内容 | 未整理のまま進めた場合のリスク |
|---|---|---|
| 目的 | 売上拡大、工数削減、リスク低減、顧客体験改善のどれを優先するか | 成果指標が曖昧になり、PoCや開発が終わっても投資判断できない |
| 範囲 | 対象部署、対象業務、対象データ、対象システムをどこまで含めるか | 見積もりが膨らむ、または重要な連携が後から漏れる |
| 体制 | 自社責任者、現場担当、ベンダー、保守運用者をどう置くか | 要件確認が遅れ、納期遅延や品質低下につながる |
費用・期間・体制の目安
| フェーズ | 期間目安 | 主な成果物 | GXOが見るポイント |
|---|---|---|---|
| 事前診断 | 1〜2週間 | 課題整理、現行確認、投資判断メモ | 目的と範囲が商談前に整理されているか |
| 要件定義 / 設計 | 3〜6週間 | 要件一覧、RFP、概算見積、ロードマップ | 見積比較できる粒度になっているか |
| PoC / MVP | 1〜3ヶ月 | 検証環境、効果測定、リスク評価 | 本番化判断に必要な数値が取れるか |
| 本番導入 | 3〜6ヶ月 | 本番環境、運用設計、教育、改善計画 | 導入後の運用責任と改善サイクルがあるか |
発注前チェックリスト
- [ ] AIで置き換える業務ではなく、成果が測れる業務を選んだか
- [ ] 参照データの所有者、更新頻度、権限、機密区分を整理したか
- [ ] PoC成功条件を精度、時間削減、CV改善、問い合わせ削減などで数値化したか
- [ ] プロンプトインジェクション、個人情報、ログ保存、モデル選定のルールを決めたか
- [ ] RAG/エージェントの回答を人が監査する運用を設計したか
- [ ] 本番化後の費用上限、API使用量、障害時フォールバックを決めたか
参考にすべき一次情報・公的情報
- 経済産業省 AI事業者ガイドライン関連情報
- デジタル庁 AI関連情報
- OpenAI Platform Documentation
- Anthropic Claude Documentation
- OWASP Top 10 for LLM Applications
上記の一次情報は、社内稟議やベンダー比較の根拠として使えます。一方で、公開情報だけでは自社の現行システム、業務フロー、データ状態、予算制約までは判断できません。記事で一般論を把握した後は、自社条件に落とした診断が必要です。
GXOに相談するタイミング
次のいずれかに当てはまる場合は、記事を読み進めるだけでなく、早めに相談した方が安全です。
- 見積もり依頼前に、要件やRFPの粒度を整えたい
- 既存ベンダーの提案が妥当か第三者視点で確認したい
- 補助金、AI、セキュリティ、レガシー刷新が絡み、判断軸が複雑になっている
- 社内稟議で費用対効果、リスク、ロードマップを説明する必要がある
- PoCや診断で終わらせず、本番導入と運用改善まで進めたい
内製化 AI 開発チーム オンボーディング 18 週間カリキュラム 2026|スキルマップと週次到達目標を自社条件で診断したい方へ
GXOが、現状整理、RFP/要件定義、費用対効果、ベンダー比較、導入ロードマップまで実務目線で確認します。記事の一般論を、自社の投資判断に使える形へ落とし込みます。
※ 初回相談では営業資料の説明よりも、現状・課題・判断材料の整理を優先します。