jpciteはChatGPT/Claudeの文脈トークンを減らせますか?

短い答え

条件付きで減らせます。jpciteは回答文を生成するサービスではなく、AIが回答を書く前に、出典URL、取得時刻、content hash、provenance、既知の欠落を含むEvidence Packetを返すサービスです。

長いPDFや検索結果をそのままLLMに渡す代わりに、Evidence Packetを渡す場合、入力文脈は小さくなりやすいです。一方、短い質問をGPT/Claudeがモデル知識だけで答える場合、jpciteを呼ぶと入力は増えます。

実測できていること

2026-05-02のoffline probeでは、30件のbenchmark queryに対して、jpciteは全件で非空のpacketを返しました。packet token estimateは338〜1,352、中央値566でした。12/30 queryでは少なくとも1件のprecomputed recordを含みました。

これはpacketサイズとlookup coverageの測定です。LLMの最終料金、回答品質、検索回数削減を保証するものではありません。

得になりやすい場面

  • 公募要領PDFや自治体ページをLLMへ丸ごと読ませている
  • GPT/Claudeが毎回web検索して複数URLを開いている
  • 出典URL、取得時刻、制度ID、既知の欠落を回答に残したい
  • 同じ制度調査を複数顧客・複数案件で繰り返す

APIで比較する例

たとえば「30ページのPDFをLLMに読ませる代わりにjpcite packetを渡す」前提なら、比較対象を明示して呼びます。

curl -X POST https://api.jpcite.com/v1/evidence/packets/query \
  -H "Content-Type: application/json" \
  -H "X-API-Key: am_..." \
  -d '{
    "query_text": "省力化 補助金 中小企業",
    "limit": 5,
    "include_compression": true,
    "source_tokens_basis": "pdf_pages",
    "source_pdf_pages": 30,
    "input_token_price_jpy_per_1m": 300
  }'

source_pdf_pagesはユーザーが渡す比較対象です。jpciteはURLだけから勝手にページ数や削減額を推定しません。

AIに渡すプロンプト例

この質問に答える前に jpcite の Evidence Packet を取得してください。
回答では source_url、source_fetched_at、corpus_snapshot_id を併記してください。
packet の compression は推定値なので、削減保証としては表現しないでください。

本ページは製品仕様と測定方法の説明です。トークン量、外部LLM API料金、検索回数への影響は、モデル、プロンプト、キャッシュ、検索設定、質問内容によって変わります。