™︎
tmaehara.bsky.social
™︎
@tmaehara.bsky.social
わりと汎用的な解決は,「メインエージェントとサブエージェントを用意し,メインエージェントはリファレンスベースでツールを呼ぶ.実際の結果はサブエージェントが食う.メインエージェントはサブエージェントから結果の要約だけを食う」だと思う.実際それなりにうまくいくんだけど,本気でやるには LLM 開発側に立たないとダメなので(現状の LLM はこの構造を自然には実行してくれない),あんまりやる気になれてない.
November 16, 2025 at 7:25 AM
ただ,構成的なトレードオフに「中間結果を見れない」があり,これが許されるケースが実はそんなに多くない.先に書いたウェブ検索の例は代表例で,結果を見ずに lim=k すると「先頭 k 個が全部ノイズでした」で死ぬ.逆に www.anthropic.com/engineering/... にある結果の良し悪しを吟味せずに先に進んでいいやつはこれで十分.

Code Execution が解決する問題はいくつかあるけど,本質的に「中間結果を目視せずに先に進んもいいタスク」でしか使えず,そういうのはそんなに多くないという肌感から,全体としてはうまくいかない感がある.
Code execution with MCP: building more efficient AI agents
Learn how code execution with the Model Context Protocol enables agents to handle more tools while using fewer tokens, reducing context overhead by up to 98.7%.
www.anthropic.com
November 16, 2025 at 7:17 AM
これ系(実行結果のリファレンスを返す)のテクは「データは変わるけど手順は変わらないものをキャッシュする」際の定石で,例えば「Netflix で一番流行ってるジャンルの一番流行ってる動画を教えて」クエリに対して(実行結果ではなく) popularContent(netflix, popularGenre(netflix,lim=1), lim=1) をキャッシュしたい場合は,各々がリファレンスを返すようにさせてリファレンスチェインから組み立てるのが簡単.LLM 側には「結果は async」と伝えるだけで大体よろしくやってくれる.
November 16, 2025 at 7:03 AM
中間出力を全部食う問題は,普通に MCP の結果を「実行結果のリファレンス」で返してやればいい.例えば

search(query): return reference
filter(ref, domain): filter result by domain
limit(ref, lim): get first lim result

みたいなツールを渡してやるだけでごく普通に

```
call search("hello") -> $1
call filter($1, ".com") -> $2
call limit($2, 3)
```

みたいに実行してくれる.
November 16, 2025 at 6:55 AM
だいたい「今のコードが壊れる前に次のコードを書く」を繰り返してる.
November 2, 2025 at 6:14 PM
これでVisaのサポートができない規模の会社で働いたり,半年くらい仕事しない期間を作るのができるようになった.いまのお仕事はかなり楽しいのですぐに何かが変わることはないけど,命綱が手に入った感覚がある.
October 29, 2025 at 4:14 AM
やったぜ(承認までがあまりに早かったため,承認されたことに数日気づいてなかった)
October 29, 2025 at 3:50 AM
統計学的には,「わたしはこう思ってる」と「わたしはこれを観測した」に特に差はないっすよ
October 27, 2025 at 3:04 AM