jpciteはChatGPT/Claudeの文脈トークンを減らせますか?
短い答え
条件付きで減らせます。jpciteは回答文を生成するサービスではなく、AIが回答を書く前に、出典URL、取得時刻、content hash、provenance、既知の欠落を含むEvidence Packetを返すサービスです。
長いPDFや検索結果をそのままLLMに渡す代わりに、Evidence Packetを渡す場合、入力文脈は小さくなりやすいです。一方、短い質問をGPT/Claudeがモデル知識だけで答える場合、jpciteを呼ぶと入力は増えます。
実測できていること
2026-05-02のoffline probeでは、30件のbenchmark queryに対して、jpciteは全件で非空のpacketを返しました。packet token estimateは338〜1,352、中央値566でした。12/30 queryでは少なくとも1件のprecomputed recordを含みました。
これはpacketサイズとlookup coverageの測定です。LLMの最終料金、回答品質、検索回数削減を保証するものではありません。
得になりやすい場面
- 公募要領PDFや自治体ページをLLMへ丸ごと読ませている
- GPT/Claudeが毎回web検索して複数URLを開いている
- 出典URL、取得時刻、制度ID、既知の欠落を回答に残したい
- 同じ制度調査を複数顧客・複数案件で繰り返す
APIで比較する例
たとえば「30ページのPDFをLLMに読ませる代わりにjpcite packetを渡す」前提なら、比較対象を明示して呼びます。
curl -X POST https://api.jpcite.com/v1/evidence/packets/query \
-H "Content-Type: application/json" \
-H "X-API-Key: am_..." \
-d '{
"query_text": "省力化 補助金 中小企業",
"limit": 5,
"include_compression": true,
"source_tokens_basis": "pdf_pages",
"source_pdf_pages": 30,
"input_token_price_jpy_per_1m": 300
}'
source_pdf_pagesはユーザーが渡す比較対象です。jpciteはURLだけから勝手にページ数や削減額を推定しません。
AIに渡すプロンプト例
この質問に答える前に jpcite の Evidence Packet を取得してください。
回答では source_url、source_fetched_at、corpus_snapshot_id を併記してください。
packet の compression は推定値なので、削減保証としては表現しないでください。
本ページは製品仕様と測定方法の説明です。トークン量、外部LLM API料金、検索回数への影響は、モデル、プロンプト、キャッシュ、検索設定、質問内容によって変わります。