论文阅读 Feedback-Aware Double

Title: Feedback-Aware Double COntrolling Network for Emotional Support Conversation

论文速览

Abstract

  • 双层反馈策略选择器:通过反馈信息预测策略

  • 双层控制阅读器:通过策略约束上下文响应

  • 策略词典:丰富策略的语义信息 ## Introduction ## Related Work ## Problem Formulation ## Approach

  • 上下文编码器

    • BlenderBot预训练编码器编码上下文历史对话U,得到Ht
  • 双层反馈策略选择器

    • 策略选择
      • 输入
        • BlenderBot Encoder 编码上下文历史对话U,得到隐状态Ht
        • BlenderBot Encoder 编码策略S
        • EmoBERTa Encoder 编码上下文对话U
      • 公式
        • 上下文编码器(策略S同理):\[\boldsymbol{H}=\operatorname{Enc}_{cxt}\left(\boldsymbol{[CLS]}, \boldsymbol{u}_{1}, \boldsymbol{[SEP]}, \boldsymbol{u}_{2}, ..., \boldsymbol{u}_{M}\right)\],M为对话数
          • \[\boldsymbol{H}=\left(\boldsymbol{u}_{1},..., \boldsymbol{u}_{T}\right)\],T为Token数
        • 情感编码器:\[\boldsymbol{E}=\operatorname{EmoBERTa}\left(\boldsymbol{[CLS]}, \boldsymbol{u}_{1}, \boldsymbol{[SEP]}, \boldsymbol{u}_{2}, ..., \boldsymbol{u}_{M}\right)\],M为对话数
          • \[\boldsymbol{E}=\left(\boldsymbol{e}_{1},..., \boldsymbol{e}_{T}\right)\],T为Token数
        • 分类:\[\boldsymbol{o}=\operatorname{MLP}\left(\tanh \left(\boldsymbol{W}_{o}^{T}[\boldsymbol{s} ; \boldsymbol{c} ; \boldsymbol{r}]+\boldsymbol{b}_{\boldsymbol{o}}\right)\right)\]
          • s、c、r 为策略S、上下文H、情感分类E。编码+平均池化操作后得到
    • 双层反馈
      • 回合级反馈:局部变量,当前用户的感受。包含每轮对话Seeker情感Δe和Seeker评分变化Δr
      • 对话级反馈:全局变量Δc,用户的全局状态。包含Seeker在谈话后的情绪压力、Supporter对话题的回应的相关性、Supporter对Seeker感受的理解和共情
      • 融合adapter:整合回合级和会话级反馈的两类语义信息。Δs = Δe + Δr + uΔc【计算损失时,给予正向或负向的反馈】
  • 双控读取器(模仿情感聊天机器ECM)

    • context-to-strategy:利用上下文信息来选择上下文相关的策略
      • \[\boldsymbol{g}^{c} = \operatorname{sigmoid}\left( \boldsymbol{W}_{c}^{T} \boldsymbol{c} + \boldsymbol{b}_{c} \right)\]
    • strategy-to-context:编码阶段可以关注与策略相关的上下文,从而生成策略约束的响应
      • \[\boldsymbol{g}^{o} = \operatorname{sigmoid}\left( \boldsymbol{W}_{o}^{T} \boldsymbol{o} + \boldsymbol{b}_{o} \right)\]
    • 残差连接:在原始信息和更新信息之间进行权衡
      • \[\begin{array}{r} o^{\prime}=(1-\beta) \cdot o+\beta \cdot g^{c} \otimes o \\ h_{t}^{\prime}=(1-\alpha) \cdot h_{t}+\alpha \cdot g^{o} \otimes h_{t} \end{array}\]
  • 策略字典

  • 响应生成

    • BlenderBot Decoder:\[\boldsymbol{p}\left(y_{z} \mid \boldsymbol{y}_{<z}, \boldsymbol{h}_{\boldsymbol{t}}^{\prime}, \boldsymbol{V}\right)=\text { Generator }\left(\boldsymbol{W}_{y<z}, \boldsymbol{h}_{\boldsymbol{t}}^{\prime}, \boldsymbol{V}\right)\]
  • 联合训练

    • 策略预测:反馈感知负对数似然 feedback-aware negative log-likelihood
      • \[\mathcal{L}_{1}=\left\{\begin{array}{ccc} -\hat{o} \log \left(\operatorname{softmax}\left(\boldsymbol{o}^{\prime}\right)\right) & \text { if } & \Delta s>0 \\ -\hat{o} \log \left(1-\operatorname{softmax}\left(\boldsymbol{o}^{\prime}\right)\right) & \text { if } & \Delta s \leq 0 \end{array}\right.\\\]
    • 响应生成:标准交叉熵损失优化 cross-entropy
      • \[\mathcal{L}_{2}=-\sum_{z=1}^{Z} \log \boldsymbol{p}\left(y_{z} \mid \boldsymbol{y}_{<z}, \boldsymbol{h}_{\boldsymbol{t}}^{\prime}, \boldsymbol{V}\right)\] ## Experiment
  • 采用EmoBERTa-base作为特征提取器,以获取Seeker的情感得分和情感表征,情感得分由softmax函数使用EmoBERTa-base的[CLS]表示获得 ## Experimental Results ## Analyses ## conclusion # 关注的问题

  1. 预测策略只依靠对话历史,而不考虑求助者反馈,导致预测的结果与用户无关

  2. 建模过程只关注上下文到策略,而不关注策略到上下文和与策略相关的上下文 # 解决方法

  3. 双层反馈策略选择器:利用回合级和会话级反馈信息来激励或惩罚策略

  4. 双层控制阅读器:策略到上下文流来生成策略约束响应 # 创新点 / 本文的优势

实验结论

有待提升的部分