一
データソースをつなぐ
EsyBlogをGoogle Sheetsへ、Postgresの読み取りレプリカへ、RESTエンドポイントへ、あるいは単なるCSVへ向けてください。スキーマの推論はこちらで引き受け、お金を一円も使う前に、エンジンが見ている姿を確認できるようになっています。
編集者より一言
二年のあいだ、私たちはコンテンツチームがAIライターのサブスクをひとつまたひとつと契約しては、月を掘り当てると約束しながら、過剰に最適化された使い回しの澱のような段落を納品されてくる光景を眺めていました。どの出力も、全文の書き直しが必要でした。どのテンプレートも、二度電子レンジにかけたプレスリリースのように読めました。ツールは時間を節約してはおらず、ただ仕事の場所を移し替えているだけでした。
EsyBlogは、その反動として始まりました。元編集者と研究エンジニアが数名で腰をおろし、ひとつの素朴な問いを立てたのです。文章そのものを本気で大切にしている人間がつくったら、AIコンテンツエンジンはどんな形になるだろう。文字数ではなく、キーワードの密度ではなく、文そのもの。リズム。段落と段落のあいだの浮き上がり。
こうしてできたのがこれです。意見があります。他のツールが大声を張り上げるところで、私たちは静かです。データを幻視するのではなく、データを読みます。そして、署名がいちばん上に載っている人の顔に泥を塗るようなものを、出荷することを拒みます。
エンジン
EsyBlogはチャット窓口を包んだだけのラッパーではありません。生のデータから公開されたページまでを貫く一本のパイプラインで、あらゆる工程が編集物の出力のために設計されています。
CSV、Google Sheets、Airtable、Postgres、MySQL、REST API、Shopify、Notion。問い合わせられるものなら、何でも記事の燃料になります。データがもともと暮らしている場所まで、私たちのほうから出向きます。プラットフォームを乗り換える必要はありません。毎週火曜にスプレッドシートを再アップロードする必要もありません。
変数、条件分岐、行内のAIプロンプトを備えたJinja風のテンプレート。すべてのテンプレートにバージョン管理とA/Bテストがついているので、最良の成績を収めたブリーフがそのまま次の1,000本の土台になります。
私たちのモデルは、ライセンス取得済みの編集原稿、つまりエッセイ、長尺の特集、専門ジャーナリズムの文章でファインチューニングされています。よくあるスクレイピングされたマーケティングコピーの寄せ集めではありません。その結果、有能な人間が調子のよい日に書いたような文章が出力されます。
チャート、比較表、扉絵は、あなた自身のデータから生成され、編集の調子に合わせ、余白を持たせて組まれます。ありふれたストック写真も、AIのコラージュもありません。出荷されるすべての絵が、その記事の一部として収まるように作られています。
WordPress、Ghost、Webflow、Sanity、Contentful、Shopifyへの直接連携。独自のスタックなら、生のJSONやMarkdownを書き出して好きな場所へ流せます。あなたのコンテンツは、あなたの側に置かれます。私たちが代わりにホスティングすることはありません。
すべての記事は、可読性、事実の密度、600億ページに対する盗用、AI検知の可能性で採点されます。人間の編集者の前で持ちこたえない草稿は、外へは出ません。基準はあなたが定め、私たちがそれを守ります。
やり方
一
EsyBlogをGoogle Sheetsへ、Postgresの読み取りレプリカへ、RESTエンドポイントへ、あるいは単なるCSVへ向けてください。スキーマの推論はこちらで引き受け、お金を一円も使う前に、エンジンが見ている姿を確認できるようになっています。
二
記事の原型ごとに、テンプレートをひとつ。旅先ガイド。製品比較。都市別リスト。用語集の項目。テンプレートは積み重ねられます。一度書いた断片は、以後出荷するすべての記事で繰り返し使えます。
三
実行をキューに積めば、記事は下書きとしてあなたのCMSに届き、そのままレビューに回せます。かつて四半期かかっていたものが、昼休みのあいだに仕上がります。同じ午後のうちに読み終えられます。
現場からの便り
以前は、製品ページ40本のためにライターへ発注するだけで三週間かかっていました。月曜の朝にテンプレートをひとつ走らせたら、昼食前には400ページがレビュー待ちになっていたのです。編集長は「今回はどこのフリーランスに頼んだの」と聞いてきました。
Sarah Lindqvist SEOディレクター、Northbeam Commerce 市場に出ているAIライターはひととおり試しました。どれも結局は一行ずつ書き直すことになります。ところがこのツールは、本当にそのまま出稿しています。声の調子が崩れません。こんな経験は、これまで一度もありませんでした。
Marcus Okonkwo コンテンツ責任者、Arcade Labs 古い印刷機を動かしている感覚に近いのです。一度仕込んだら、あとは淡々と走り続ける。記事は一本ずつ目を通していますが、いまは一から書き直すのではなく、調子を整えるための編集になりました。
Yuki Tanaka 創業者、Kanjo Media 2,400
顧客1社あたり月に出荷する平均記事数
87%
人間の編集者レビューを初回で通過する割合
6
連携しているCMSプラットフォーム
40+
対応しているデータソース
読者のおたより
ChatGPTは一度に一本の記事を書くツールです。データもテンプレートも公開パイプラインもありません。EsyBlogはエンジンです。データセットとテンプレートを与えれば、夕方までに400本の完成した記事があなたのCMSに届きます。課題の形が違えば、道具の形も変わります。
私たちの検証では、扱われていません。モデルは編集文でファインチューニングされており、ウェブのスクレイピング素材で学習していないため、文章は人間のそれに近い調子になります。念のためAI検知のスコアラーも同梱しており、公開前にどの草稿でも確認できます。
Google Sheets、Airtable、Notion、Shopify、PostgreSQL、MySQL、汎用RESTへの直接コネクタ。単発の案件にはCSVアップロードも使えます。問い合わせられるものなら、私たちは使えます。
はい。エージェンシープランには、マルチワークスペース、ホワイトラベルのPDFレポート、クライアント別請求が含まれます。ぜひご相談ください。
いいえ。あなたのCMSへ直接公開するか、生のファイルとして書き出します。コンテンツは、あなたが望む場所に置かれます。
出荷前に、すべての記事が600億ページのウェブに対する盗用検査を通過します。ナラティブモデルは、スクレイピングされた素材ではなく、ライセンス取得済みの編集データで学習されています。