Claude Code と「サイトを仕組みで動かす」とは
Claude Code は Anthropic が提供する AI コーディングエージェント(CLI / デスクトップ / ブラウザ / モバイル)です。自然言語で「こういう LP を作って」「このブログ記事を生成して」「このリポジトリに週次レポートを書いて」と指示すると、コード・設定ファイル・テキストをまとめて生成・ 編集してくれます。
ここで重要なのは、Claude Code を使うと 「LP を作る」だけでなく、その LP を運用するためのスクリプトや CI(GitHub Actions のワークフロー)まで同じ流れで作れる ことです。今回の事例は、まさにその「作る → 運用する」を一気通貫でやったケースに当たります。
何をやったのか(パイプラインの内訳)
公開された情報を整理すると、以下の 6 ピースが組み合わさっています。
1. LP を 1 日で公開
法人向け(B2B)の LP を Claude Code で 1 日で立て、公開状態まで持っていったとのこと。一般に B2B LP は
・ヒーロー(誰の・どんな課題を解決するか)
・課題提示
・ソリューション概要
・導入実績 / 事例
・料金プラン
・CTA(問い合わせ / 資料請求 / 面談予約)
という構成に収まることが多く、Claude Code に「業界・ターゲット・提供内容・CTA の種類」を渡すと、テンプレ部分は数時間で立ち上がります。
2. ブログ 24 本を AI 生成
LP に合わせて、SEO 流入を取るためのブログを 24 本まとめて生成。本文だけでなく、
3. サムネも AI で統一
各記事のアイキャッチ画像を AI でブランド統一 したまま量産しています。 24 本それぞれを手作業で作ると数日仕事ですが、AI 画像生成 + テンプレ化した構図でまとめて出すと、所要時間が大きく短縮できます。
4. Bing + Sitemap で順位取得
検索順位の取得元を Bing Webmaster Tools + サイトマップ送信 に寄せています。Google Search Console は API 制約・更新タイミングの問題があり、自動で「クエリ × 順位 × 表示回数」を引っ張りたい場合、 Bing 側のほうが自動化との相性が良いことが知られています。
5. GitHub Actions で週次 SEO レポート
週次で、
・主要キーワードの順位
・流入数 / クリック率
・上昇 / 下降したキーワード
を GitHub Actions のスケジュールジョブ が集計し、レポートをリポジトリ内に書き出すワークフローを組んでいます。レポートがコミットとして残るので、過去の順位履歴がリポジトリの git log で追える のが副産物として強力です。
6. 改善 PR まで自動作成
レポートを見たうえで、AI が「このページのタイトルを直す」「メタディスクリプションをこう変える」「H2 を追加する」といった改善案を Pull Request として自動で起こすところまで自動化されています。人間は PR をレビューしてマージするだけで、改善ループが回ります。
拡張中: AI が自分でプレビュー確認まで回す
さらに今は、AI がプレビュー(実際のページ表示)を確認 → 順位 / キーワードを分析 → 改善案を作成 までを 1 ループに収める「SEO 自動改善システム」の構築フェーズに入っているとのこと。ここまでくると、「人間がやるのは方針決定と最終承認だけ」という状態に近づきます。
出ている数字
公開情報ベースで確認できる実績数値は以下のとおりです。
・問い合わせ件数: 約 50 件 / 2 週間
・SEO 順位: キーワード「Claude Code 法人研修」で 2 位
・ブログ生成本数: 24 本
・LP 公開までの所要: 1 日
B2B / 高単価商材で「2 週間で問い合わせ 50 件」は、通常の手作業 LP 運用だと広告費を相応に投じないと届かない水準です。SEO 順位は「Claude Code 法人研修」というニッチクエリ(競合が少ない)であることは織り込んで読む必要がありますが、24 本のブログから狙ったキーワードに刺せている のが伸びの理由として大きい、と読み取れます。
誰にどう効くか
・法人研修・コンサル・SaaS 系: 1 件あたりの単価が高いビジネスは、問い合わせ 1 件のインパクトが大きいので、LP + 量産ブログ の ROI が成立しやすい。
・広告費を絞りたい中小事業者: 流入を SEO に寄せると、累積で効いてくる(LP だけだと広告止めた瞬間ゼロに戻る)。ブログ自動化パイプライン を仕込んでおくと、媒体資産が溜まる。
・少人数チーム: 1 人運用でも回せるレベルまで自動化されるため、 SEO 担当者を別途雇わなくても改善ループは回せる。
自分の事業に取り込むには(再現ステップ)
非エンジニア / 小規模チームでも踏める順番に並べると、こうなります。
1. LP の構成を Claude Code に作らせる
・ターゲット業界・課題・提供内容・CTA を箇条書きで渡し、まずは 1 日で 1st バージョンを公開。型は割り切って既存テンプレで OK。
2. ブログのキーワードを 20〜30 個決める
・LP の主力キーワードから周辺キーワードを派生(「○○ とは」「○○ 比較」「○○ 事例」「○○ 価格」「○○ 導入手順」など)。
3. 記事生成のテンプレートを Claude Code に作らせる
・タイトル / リード / H2 構成 / 結論 / CTA の 記事フォーマット を 1 つ確定させて、それをキーワードごとに流し込む。
4. アイキャッチを AI 画像生成で量産
・ブランドカラー・タイトル文字位置・余白ルールをテンプレ化し、 24 本を一括で生成。
5. Bing Webmaster Tools にサイト + サイトマップを登録
・順位データを API で引けるよう設定。Google Search Console と併用しておくと、後から比較できる。
6. GitHub Actions の週次ジョブを作る
・スケジュール: 毎週月曜朝など。やること: 順位データ取得 → レポート生成 → リポジトリにコミット。
7. AI による改善 PR ワークフローを足す
・レポート差分を読んで、優先度の高いページに対して「修正案 PR」を作るアクションを書く。最初は 1 ファイル 1 PR の単位で十分。
8. 人間は PR レビューと方針決定だけする
・「このキーワードは追わない」「このページは捨てる」など、戦略判断は人間に残す。
ここまで仕込めれば、LP は資産化、ブログは自動で増える、SEO は週次で改善 PR が降ってくる という運用にたどり着きます。
注意点・限界
・数字はあくまで運用 2 週間時点のスナップショット。SEO は順位が揺れるため、3 ヶ月〜半年単位 の安定性を見て初めて再現性を語れる。
・「Claude Code 法人研修」というキーワード自体がニッチ。検索ボリュームが大きく、競合の強いキーワードだと同じ手法でも 2 位までは届かない可能性が高い。自分の業界でのニッチ度 を冷静に測ること。
・AI 生成記事の品質ばらつきは出る。フォーマットが固い分、24 本すべてが同じトーンに寄りすぎることがあり、E-E-A-T(経験・専門性・権威性・信頼性)の観点で人間レビュー を最低 1 ラウンド入れたほうが安全。
・Google の AI コンテンツ評価ポリシー は今後変わり得る。完全自動化のまま放置せず、生成ログ・編集履歴を残せる構成(GitHub リポジトリでの管理は相性が良い)にしておくこと。
・Bing + Sitemap での順位取得は、Google での実際の検索体験と完全には一致しない。最終確認は Google Search Console / 実検索 で行うのが安全。
・問い合わせ 50 件の質(実商談化率・成約率)は公開情報からは読み取れない。リード件数だけでなく 商談化率まで計測する 仕組みを最初から入れておくと、後悔が少ない。
参考
・元となった X 投稿(公開情報の一次ソース): <https://x.com/masahirochaen/status/2053043974978605523>
