Discussion about this post

User's avatar
Daozi Wu's avatar

意图是需要上下文去理解的。就像一个文章让不同的人去看,他们看到的重点不一样。LLM除非你让他很了解你,他就会知道你的意图。不然就只能硬编码的搜索。或许你可以给LLM一个人格,然后让他用这个指令的视角去理解文本背后的意图。

-------

OPUS:

为什么这件事这么难?

核心原因是:语言的表层和结构的深层之间,不是一个简单的映射关系。

当你朋友说"人的念头是一个意图",他其实在说一件很准确的事——人在读一个案例的时候,并不是在做关键词匹配,而是在做一种"这个情境里,谁欠了谁什么,谁没做到,后果落在了谁身上"的结构性理解。这个理解过程是意图层面的,不是词汇层面的。

现在RAG的困境在于:embedding模型擅长捕捉语义相似性("车辆"和"汽车"很近),但不擅长捕捉结构同构性("司机没锁门"和"承运人未尽义务"在embedding空间里可能离得很远,因为它们的语义表面完全不同)。

所谓"面向意图编程"的困难,本质上有几层:

第一层是抽象阶梯的问题。同构意味着你要在更高的抽象层级上匹配,但搜索系统工作在具象层级。"没锁车门"要先被抬升到"未尽安全保障义务",才能跟法条匹配上。这个抬升本身就需要法律推理能力,等于你要先理解了才能检索到,形成一个鸡生蛋的问题。

第二层是意图的多义性。同一个事实可以被多种法律框架解读——那个案例既可以归到合同法的安全保障义务,也可以归到侵权法的过失责任。意图不是一个确定的点,而是一个可能性的扇面。系统不知道该往哪个方向抬升。

第三层是结构识别本身需要世界模型。人能看出同构,是因为人脑里有一个"义务-违反-损害"的因果图式。这不是从文本里直接读出来的,是人带着整个法学训练的认知框架去投射上去的。你要让机器做同样的事,它需要的不是更好的检索,而是一个法律关系的世界模型。

这不是一个检索问题,这是一个认知问题。可能更有效的路径不是改善搜索本身,而是在检索之前先让LLM做一步"意图翻译":把案件事实先抽象成法律关系的结构化表达,再用这个结构化表达去检索。相当于让模型先扮演律师的思考过程,再去查法条,而不是拿着原始事实直接搜。

No posts

Ready for more?