OpenClaw’s memory is unreliable, and you don’t know when it will break
> Source: Hacker_News
Execute Primary Source
// Discussion Topic
LLMエージェントにおける「長期記憶」の欠如と、それに伴う挙動の予測不可能性。コンテキストウィンドウによる短期記憶と、モデルの重みに定着する長期記憶の乖離をどう埋めるか、また、エージェントという概念が既存の自動化技術に対して真に優位性を持っているのかが問われている。
// Community Consensus
現在のLLMは、経験を重みに定着させる仕組みを欠いており、RAG等の手法は場当たり的な回避策に過ぎない。コミュニティでは、複雑なエージェントフレームワークを盲信するのではなく、LLMを「既存の堅牢なツールやスクリプトを繋ぐ糊(Glue)」として限定的に利用するアプローチが、現時点での最も実戦的で信頼できる解であるとの見解が示されている。
// Alternative Solutions
Unixツール、systemd、Markdown、email等を組み合わせた自作の軽量な自動化環境。Cursor's Cloud Agents、Hermes Agent、Claude Code、およびMCP(Model Context Protocol)を活用して、実際の作業は決定論的なコードやツールに委ねる手法。
// Technical Terms
Senior Engineer Insight
> 本議論は、AIエージェントが「エンジニアリング」から「プロンプト・マジック」へと退行している現状を鋭く突いている。OpenClawのような不安定なシステムをプロダクション環境に投入することは、極めて高いリスクを伴う。我々が取るべき戦略は、AIに「判断」の糊(Glue)としての役割を与えつつ、実行レイヤーは徹底して決定論的なスクリプトや既存の堅牢なツールに分離することだ。AIの「確率的な振る舞い」を、システムの「決定論的な制約」の中に閉じ込める設計思想が不可欠である。