AgentCEO

2026-03-26

AIシステムの型 — 人が直すとAIが賢くなる設計パターン

ChatGPTは毎回ゼロから。エージェントは記憶を掘り起こしに行ける。学習×記憶の2ループで、AIも人も賢くなり続けるシステムの設計パターンを解説。

3行で分かるこの記事

去年のAIは脳だけ。今年のAIは手足がついた。手足があるから記憶を掘り起こせる。「人が直すとAIが賢くなり、AIが根拠を出すと人が賢くなる」——この2つのループを回す設計パターンを解説する。

136案件を回す中で見つけた設計パターンを抽象化した。どの業界でも使える。


構造

エージェントは記憶を掘り起こしに行ける。過去のデータを取りに行って仕事する。結果が記録される。次はその結果も含めて取りに行く。

このループの中で、2つのことが同時に起きている:

人 ──修正──→ AI(diffが教師データになる → AIが賢くなる)
AI ──根拠──→ 人(根拠付きで出す → 人が読んで学ぶ)

両方回ると、AIも人も賢くなり続ける。


3ステップ

Step 1: 設計(何を溜めるか、どう循環させるか決める)
Step 2: 学習 = プロンプトエンジニアリング(知見をプロンプト化 → 初日から動く)
Step 3: 記憶 = コンテキストエンジニアリング(エージェントが掘り起こせるインフラを作る)
  → 帰結: 使うほどAIも人も賢くなる。帰結が見えたらStep 2・3を更新する(循環)

Step 1: 設計

問い: 「何が繰り返し起きているか?」「どんな判断を毎回しているか?」

決めること:

  • AIで扱う入力と出力は何か
  • 何が溜まるとAIが賢くなるか。何を出せば人が学べるか
  • 人→AIのループ: 人のどの行動がラベリングになるか
  • AI→人のループ: AIがどんな根拠を出せば人が学べるか

最重要アクション = 既存データの棚卸し。 机上で考えるだけでは「何が溜まっているか」を見落とす。実際にシステムの中を見て初めて気づく。

Step 2: 学習 = プロンプトエンジニアリング

ベテランの暗黙知を抽出してプロンプト化し、初日から動かす。

ただしここで止まると、半年後も初日と同じ。誰でも真似できる。代替可能。

Step 3: 記憶 = コンテキストエンジニアリング

エージェントが記憶を掘り起こせるインフラを作る。3つのことを設計する:

  1. 溜める: 人の自然な行動がそのままアノテーションになる設計。そのまま使う=正解、修正=パターン、捨てる=不正解。送信ボタン = 仕事完了 = AI学習。人に新しい入力を求めない
  2. 探せる: エージェントが必要なデータを取りに行ける構造。溜まっていても探せなければ溜めていないのと同じ
  3. 返せる: 根拠(なぜそう判断したか)と信頼度(どのくらい信用していいか)を出す。人がどこに注意を集中すべきか判断できる

データの持ち方は2層:

生データ層(事実)      → 消さない。再分析に使える
構造化データ層(解釈)   → AIの能力が上がったら再生成できる

「事実か?解釈か?」の1つだけ考えればいい。


型が成立する3条件

この3つが揃わなければ無理に入れない。揃えば業界問わず動く。

1. 繰り返しがある(同じ種類の判断が何度も起きる)
2. 入力と出力がペアで記録される(教師データになる)
3. 人の自然な行動がラベリングになっている(余計な作業がない)

失敗の構造

ほとんどのAIプロジェクトはStep 2で止まっている。

  • Step 1をスキップ(何を溜めるか設計していない)
  • Step 2だけやる(プロンプト書いてチャットボット作って終わり)
  • Step 3をスキップ(記憶がない → エージェントが掘り起こしに行く先がない)
  • AI→人の方向を設計していない(根拠が出ない → 人が学ばない → 片方だけのシステム)

Step 2のプロンプトは公開した瞬間に真似される。Step 1と3は自社データがないと真似できない。

有料記事

ここから先は有料です

テンプレート、詳細手順、実データ、比較表など、 実務で使える具体的な内容を含みます。

購入済みの方は、メールに届いたアクセスリンクからご覧ください。

関連記事