很多人迷恋LLM Wiki或者GBrain,想要通过原点化结构化来节省Token。
我认为这本末倒置了,这两个知识管理框架是拿来提效的,和节省Token无关。你在Query阶段省下的Token,会在导入和自检阶段加倍流走。
脑子清醒的人,用Wiki也要,传统的BM25 RAG也罢,都能产出好结果。没有想法,LLM Wiki洗完Raw原始资料得到的垃圾Wiki只会污染你的知识库,白费Token。
还有人在实践、种草这俩框架的时候,建议在摄取阶段用便宜大模型去读原始RAw,那你还是别用了,这个阶段和最后的自检恰恰不能省成本,否则你构建出来的Wiki根本没没有质量可言。我的建议还是在Agent里面指定不同阶段用不同质量的大模型去处理任务,如果你没法全程负担Claude。