Sherlock Your Queries: 通过对话式检索学习提出正确问题
论文原始标题:Sherlock Your Queries: Learning to Ask the Right Questions for Dialogue-Based Retrieval
论文作者:Dong Yun, Marco Schouten, Dim Papadopoulos
原始摘要:User queries in information retrieval are often ambiguous, making it challenging for systems to identify a user's target from a single query. While recent dialogue-based interactive retrieval systems can clarify user intent, they are inefficient as they often lack an explicit strategy to ask the most informative questions. To address this limitation, we propose SherlockLLM, a dialogue-driven retrieval framework that learns an optimal questioning strategy via Reinforcement Learning (RL) and avoids the need for large-scale annotated dialogue data. In our framework, an agent is trained to generate a sequence of binary questions to efficiently narrow down the search space. To validate our approach, we introduce a benchmark with both structured and unstructured tasks. Experimental results show that SherlockLLM is a robust and efficient solution. On the structured tasks, its performance matches strong baselines and approaches the theoretical optimal defined by binary search. On the challenging unstructured task, our agent significantly outperforms these baselines, showcasing its ability to learn a highly effective information-seeking dialogue policy.
翻译标题:Sherlock Your Queries: 通过对话式检索学习提出正确问题
翻译摘要:信息检索中的用户查询往往模糊,使得系统难以从单次查询中识别用户的真正目标。尽管最近的基于对话的交互式检索系统可以澄清用户意图,但由于缺乏提出最具信息量问题的显式策略,它们效率低下。为了解决这一限制,我们提出了 SherlockLLM,这是一种基于对话的检索框架,通过强化学习(RL)学习最优提问策略,且无需大规模人工标注对话数据。在我们的框架中,一个代理被训练生成一系列二元问题,以高效缩小搜索空间。为了验证我们的方法,我们引入了一个包含结构化和非结构化任务的基准。实验结果表明,SherlockLLM 是一种稳健且高效的解决方案。在结构化任务中,其性能与强基线相当,并接近由二进制搜索定义的理论最优。在具有挑战性的非结构化任务中,我们的代理显著优于这些基线,展示了其学习高效信息检索对话策略的能力。
智能问答:
Q1: 这篇论文试图解决什么问题?
论文旨在解决信息检索中用户查询模糊或不完整导致的检索失败问题。传统检索系统依赖一次性、精确的查询,而用户往往无法提供足够的关键词(例如“想不起名字的某位明星照片”)。为此,作者提出对话式交互检索思路,通过多轮 yes/no 提问逐步澄清用户意图。然而,现有对话检索系统缺乏显式策略来生成“最具信息量”的问题,导致交互效率低下。
核心挑战被形式化为:如何在每一轮对话中生成能最快缩小候选空间的问题,以最小化交互轮次并准确定位目标。论文提出 SherlockLLM 框架,将提问策略学习转化为序列决策问题,用强化学习(RL)训练一个 LLM 代理,使其自动生成最优的二元问题,无需大规模人工标注对话数据。实验表明,该方法在结构化(Guess Number / Guess Who)与非结构化(CelebA 图像检索)任务上均显著优于强基线,接近理论最优性能。
Q2: 有哪些相关研究?
论文在第 2 节“Related Work”中系统梳理了与对话式检索、查询改写、强化学习优化查询策略相关的研究,可归纳为以下三条主线:
信息检索与查询改写
查询扩展:通过添加同义词或相关词缓解查询词不足,如 Jagerman 等 [16]、Wang 等 [43]。
对话式查询改写:利用多轮对话逐步澄清意图,Wilson 等 [45]、Yuan 等 [48] 探索了上下文感知的查询重写;Mao 等 [28] 提出基于提示的上下文意图理解框架。
RAG 式改写:Borgeaud 等 [3]、Guu 等 [10]、Izacard 等 [15] 通过外部检索增强语言模型,实现迭代式查询生成。
大模型作为“提问者”
20-questions 风格对话:Hu 等 [12] 用策略梯度训练小型网络提问;White 等 [44] 在开放域无监督生成澄清问题。
LLM 驱动澄清:Lee 等 [20]、Levy 等 [21]、Li 等 [23] 直接提示大模型生成后续问题,但缺乏显式优化信号,问题信息量无法保证。
强化学习优化检索策略
排序反馈:Mao 等 [29]、Rafailov 等 [34] 用 good/bad 查询对训练偏好模型。
离线奖励:Peng 等 [31] 提出 BEQUE 估计查询效用;DeepSeek-R1 [9]、DeepRetrieval [17] 采用检索指标作为奖励,实现无监督策略更新。
信息增益奖励:Mazzaccara 等 [30]、Yu 等 [47] 以 Expected Information Gain(EIG)作为即时奖励,引导模型提出最大熵减问题。
SherlockLLM 在上述基础上首次将**“LLM 提问器 + 强化学习 + 信息增益/排序奖励”**整合为统一框架,无需人工对话标注即可在结构化与非结构化检索任务上端到端学习最优提问策略。
Q3: 论文如何解决这个问题?
论文把“用户查询模糊导致检索失败”这一难题转化为**“如何自动生成最优二元问题序列以最小化交互轮次”**的序列决策问题,并通过以下四个关键模块协同解决:
统一 MDP 形式化
将对话过程建模为有限期马尔可夫决策过程:
状态 $ s_t = tilde{h}_t $:带检索反馈的问答历史
动作 $ a_t = q_t $:LLM 生成的 yes/no 问题
环境:用户模拟器 + 特定领域检索器
终止:定位目标或达到最大轮次 $ T_{text{max}} $
领域无关的 Questioner(可训 LLM)
采用预训练 LLM(Qwen2.5-7B)作为策略 $ pi_theta(q_t|s_t) $,通过 GRPO 强化学习算法直接优化轨迹级奖励,无需额外价值网络。训练信号仅依赖环境返回的单步信息增益或目标排名变化,无需人工标注对话。
领域特定的 Retriever(可换即插)
结构化任务:基于属性–值对的确定性逻辑过滤,每轮严格缩小候选集,可精确计算 EIG。
图像检索:提出 Keyword-Conditioned CLIP 排名器(Algorithm 1)。先解析对话得到正/负关键词 $ K^+, K^- $,再用 sigmoid 门控折扣函数 $ psi(x)=1-(1-d_0) cdot sigma(beta(x-mu)) $ 对负关键词相似度进行惩罚,最终得分 $ S=S^+ odot prod_{k^- in K^-} psi(S^-) $,实现鲁棒的“与”语义。
轨迹级奖励函数
对每条对话轨迹 $ tau $ 计算:
$ R(tau)=begin{cases}
kappa + bar{epsilon} - alpha cdot frac{T}{T_{text{max}}, & text{success}
-kappa, & text{failure}
end{cases} $
结构化场景:$ epsilon_t $ 取期望信息增益(EIG),鼓励每轮尽可能二分候选空间。
图像场景:$ epsilon_t = log phi_{t-1} - log phi_t $,直接优化目标排名对数变化,使代理持续把正样本往前推。
通过上述设计,SherlockLLM 在训练阶段自动习得**“问最 informative 的问题”**这一策略,推理阶段零样本迁移到新目标即可高效完成检索。实验显示:
结构化任务平均轮次接近理论最优二进制搜索;
CelebA 图像检索在 100/500 候选集上分别将 SR 提升 150 %/200 %,MT 降低 60 %/43 %,显著优于参数量大 96× 的零样本强基线。
Q4: 论文做了哪些实验?
论文在 结构化 与 非结构化 两种数据形态上共设计 3 项任务,系统评估 SherlockLLM 的通用性与效率。实验分为 主实验、消融实验、算法对比、案例与可视化 四个层次,具体如下:
1 数据集与任务设置
任务t数据t候选规模t成功条件tTmax
Guess Numbert连续整数区间t100t命中目标数字t16
Guess Whot36 位虚拟角色,9 维属性t36t命中目标角色t16
CelebA Image Retrievalt202 599 张名人脸,40 维二元属性t100 / 500t目标 rank ≤ 5t20 / 25
2 主实验结果
2.1 结构化任务(表 1)
模型tGuess Number SR↑tMT↓tGuess Who SR↑tMT↓
Oracle(理论最优)t1.00t6.64t1.00t5.22
DeepSeek-V3.1 (671B)t1.00t8.02t1.00t6.18
Qwen2.5-7B + GRPO (Ours)t1.00t7.62t1.00t6.25
Qwen2.5-7B 零样本t0.68t12.43t0.46t13.26
SherlockLLM 在两项任务均达到 100 % 成功率,平均轮次 与 671B 巨模型相当或更优。
2.2 图像检索任务(表 2)
模型t100 张 SR/R@5↑tMT↓tMedR↓tMR↓
DeepSeek-V3.1t0.61t12.82t5.0t14.24
Qwen2.5-7B 零样本t0.36t15.33t17.0t25.75
Qwen2.5-7B + GRPO (Ours)t0.90t6.15t3.5t6.35
模型t500 张 SR/R@5↑tMT↓tMedR↓tMR↓
DeepSeek-V3.1t0.36t19.96t22.5t53.79
Qwen2.5-7B 零样本t0.23t21.52t65.0t115.30
Qwen2.5-7B + GRPO (Ours)t0.69t12.21t5.0t45.11
在 参数量少 96× 的情况下,SR 提升 47.5 % / 91.7 %,MT 降低 **52 % / 39 %,MedR 降低 79 % / 92 %。
3 消融实验
3.1 奖励函数组分(表 3)
奖励配置tGuess Who SR↑tMT↓
仅 EIGt0.99t7.55
仅步长惩罚t0.99t6.19
EIG + 步长惩罚t1.00t6.25
组合奖励兼顾“信息量”与“效率”,实现 100 % 成功率且最快收敛。
3.2 检索反馈形式(表 4)
任务t反馈类型tSR↑tMT↓
Guess Whot无反馈t1.00t6.98
Guess Whot属性分布反馈t1.00t6.25
Image-100ttop-5 图像t0.66t9.92
Image-100ttop-10 图像t0.90t6.15
图像任务中,将 top-K 从 5 增至 10 可 提升 SR 36 %,验证“更丰富的检索信号”对策略学习的关键作用。
4 算法对比实验
4.1 图像检索奖励信号(Supp. 表 6)
奖励类型tSRtMT↓tMedR↓tMR↓
Rank-based (默认)t0.90t6.15t3.5t6.35
Similarity-basedt0.90t6.55t4.0t5.9
直接优化 rank 比优化相似度值获得 更高对话效率与更稳定的中位排名,故被选为主方法。
4.2 排名算法(Supp. 表 7)
算法tR@5↑tMedR↓tMR↓
SherlockLLM (累积折扣)t0.42t7.5t15.33
RRF 融合t0.06t50.5t50.41
SSM 连乘t0.01t53.5t53.73
提出的累积折扣机制显著优于传统 RRF 与 SSM,R@5 提升 7×,中位排名降低 80 % 以上。
4.3 检索 backbone(表 5)
backbonet100 张 SRt500 张 SR
CLIP (训练无关)t0.90t0.69
BLIP (微调 9 epoch)t1.00t0.27
小场景 BLIP 更准;大数据集 CLIP 关键词折扣方案 扩展性更佳,验证“轻量级但鲁棒”的设计选择。
5 案例与可视化
图 3、5、6:展示 Guess Number/Guess Who 上各模型每轮问题与 EIG,SherlockLLM 严格遵循“二分”策略,接近 Oracle。
图 4、7:图像任务中,代理能在 rank 短暂恶化后自我修正,最终把目标推至 top-3,体现交互式优势。
6 结论
实验覆盖 逻辑推理、属性推理、语义图像检索 三类场景,从 成功率、对话长度、排名质量、消融、算法替换、可视化 六维度验证:
SherlockLLM 无需人工对话标注即可习得高效提问策略;
在结构化任务上 逼近理论最优;
在挑战性图像任务上 显著优于超大参数零样本模型,证明其通用性与实用价值。
Q5: 有什么可以进一步探索的点?
以下方向可在此基础上继续深入,分为理论层面、场景层面、技术层面与系统层面四个维度,供后续研究参考:
理论层面
信息增益与排序奖励的统一视角
目前结构化任务使用 EIG、图像任务使用 rank-based 奖励。可探索信息论-排序理论联合目标,例如将累积 EIG 与 Reciprocal Rank 或 NDCG 建立可微分边界,得到跨模态通用奖励。
最小提问复杂度下界
对任意候选空间大小 N 与属性分布,推导期望轮次下界(类似信息论下界 $ log_2 N $ 但考虑属性相关性与噪声)。可指导设计更接近最优的代理策略。
非确定用户模型
当前用户模拟器为确定性回答。引入噪声回答(Flip Noise)或偏好偏差(如用户仅知晓部分属性),研究策略的鲁棒性与贝叶斯最优提问。
场景层面
多模态混合检索
将文本、图像、表格、知识图谱放在同一候选池,代理需动态选择提问模态(问文字描述 vs. 问视觉属性)。可验证框架在异构证据融合上的扩展性。
开放域、动态数据库
候选集不再静态,而是实时流入(如新闻图片、电商上新)。需要在线持续学习或快速适应机制,避免灾难性遗忘。
多目标检索与集合检索
用户意图为一组目标(“找出所有戴墨镜的男性”)或复合条件(“A 或 B 且非 C”)。需重新定义终止条件与奖励,探索集合覆盖视角下的提问策略。
技术层面
连续/高维属性空间
当前属性为离散二元。对于连续值(年龄、价格、坐标)或高维向量(深度特征),需设计可微分信息增益估计器,避免暴力离散化带来的维度灾难。
多轮语义漂移与纠错
图像实验观察到 rank 先升后降现象。可引入显式置信度估计或回溯机制,允许代理撤销/修正之前的问题,形成带回溯的 MDP。
多代理协同提问
引入异构代理(视觉专家、文本专家)并行提问,再经投票或融合决定下一问题。可研究协同信息增益与通信代价权衡。
高效探索策略
当前使用 GRPO 的组内相对基线。可尝试模型化价值函数(如轻量级 critic)或蒙特卡树搜索(MCTS)以减少样本复杂度,加速大模型训练。
系统层面
真实用户在线学习
从模拟器过渡到真实用户面临反馈稀疏、延迟与隐私问题。可引入离线策略评估(IPS、Doubly Robust)或联邦 RL,在不上传原始数据情况下持续改进策略。
低延迟部署优化
图像检索每轮需重新编码关键词并全库排序。可研究增量向量索引(如 HNSW 更新)、关键词缓存与边缘-云协同,将单次推理延迟降至<100 ms。
可解释性与可控性
提供提问理由摘要(“因为剩余 42% 男性,故问 gender”)与用户干预接口(允许用户主动纠正或跳过问题),提升可信赖度与用户体验。
公平性与偏见审计
提问策略可能过度依赖敏感属性(种族、性别)。需建立公平性约束(如 equalized odds for rank)与审计工具,确保多轮澄清不加剧算法歧视。
小结
短期可关注 4、7、10——在现框架内做“模态/属性/算法”增量改进;
中期可攻关 1、3、11——建立更扎实的理论与真实用户闭环;
长期可挑战 5、6、14——迈向开放世界、多目标、负责任的多轮检索系统。
Q6: 总结一下论文的主要内容
SherlockLLM:用强化学习让大模型学会“提问”的对话式检索框架
问题
用户查询常含糊,传统一次检索失败;现有对话系统缺“问最 informative 问题”的显式策略,导致交互冗长。
思路
把“澄清检索”看成序列决策:代理连续生成 yes/no 问题,最大化信息增益、最小化轮次。用强化学习(GRPO)微调 LLM,无需人工对话标注。
框架
Questioner:7B 参数 LLM,策略 $ pi(q_t|s_t) $ 输出问题。
Retriever:领域可插拔
– 结构化:确定性属性过滤,实时算 EIG。
– 图像:Keyword-Conditioned CLIP,正关键词加分,负关键词 sigmoid 折扣。
User:LLM 模拟器,据目标属性只答 Yes/No。
奖励:轨迹级 $ R(tau) = text{success 奖励} + text{平均信息增益/对数 rank 提升} - text{轮次惩罚}。
实验
结构化:Guess Number(100 数)、Guess Who(36 角色)。
SR=100 %,平均轮次 7.6/6.25,逼近理论最优二进制搜索,比 671B 零样本 DeepSeek 更快。
非结构化:CelebA 图像检索(100/500 图)。
SR 从 0.36→0.90(+150 %)、0.23→0.69(+200 %),平均轮次缩短 60 %/43 %,显著优于超大模型。
贡献
① 提出 RL 驱动的对话检索框架,自动习得最优提问策略。
② 构建横跨结构化/非结构化的三项基准。
③ 实验验证框架高效、通用,代码与模型将开源。
阅读全文 →
来源:Arxiv2025-10-21 14:10:42 UTC