본문 바로가기
오늘의 자연어 처리

[2024-01-02] 오늘의 자연어처리

by 지환이아빠 2024. 1. 2.
반응형

Principled Gradient-based Markov Chain Monte Carlo for Text Generation

 

Abstract:Recent papers have demonstrated the possibility of energy-based text generation by adapting gradient-based sampling algorithms, a paradigm of MCMC algorithms that promises fast convergence. However, as we show in this paper, previous attempts on this approach to text generation all fail to sample correctly from the target language model distributions. To address this limitation, we consider the problem of designing text samplers that are faithful, meaning that they have the target text distribution as its limiting distribution. We propose several faithful gradient-based sampling algorithms to sample from the target energy-based text distribution correctly, and study their theoretical properties. Through experiments on various forms of text generation, we demonstrate that faithful samplers are able to generate more fluent text while adhering to the control objectives better.

 

추상화:최근 논문들은 빠른 수렴을 약속하는 MCMC 알고리즘의 패러다임인 그래디언트 기반 샘플링 알고리즘을 적용하여 에너지 기반 텍스트 생성의 가능성을 입증하였다. 그러나 본 논문에서 볼 수 있듯이 텍스트 생성에 대한 이러한 접근 방식에 대한 이전의 시도는 모두 목표 언어 모델 분포에서 올바르게 샘플링하지 못한다. 이러한 한계를 해결하기 위해 목표 텍스트 분포를 한계 분포로 갖는 것을 의미하는 충실한 텍스트 샘플러 설계 문제를 고려한다. 목표 에너지 기반 텍스트 분포에서 올바르게 샘플링하고 이론적 특성을 연구하기 위해 몇 가지 충실한 기울기 기반 샘플링 알고리듬을 제안한다. 다양한 형태의 텍스트 생성에 대한 실험을 통해 충실한 샘플러가 제어 목표를 더 잘 준수하면서 더 유창한 텍스트를 생성할 수 있음을 입증한다. 

 

 

Conversational Question Answering with Reformulations over Knowledge Graph

 

Abstract:conversational question answering (convQA) over knowledge graphs (KGs) involves answering multi-turn natural language questions about information contained in a KG. State-of-the-art methods of ConvQA often struggle with inexplicit question-answer pairs. These inputs are easy for human beings to understand given a conversation history, but hard for a machine to interpret, which can degrade ConvQA performance. To address this problem, we propose a reinforcement learning (RL) based model, CornNet, which utilizes question reformulations generated by large language models (LLMs) to improve ConvQA performance. CornNet adopts a teacher-student architecture where a teacher model learns question representations using human writing reformulations, and a student model to mimic the teacher model's output via reformulations generated by LLMs. The learned question representation is then used by an RL model to locate the correct answer in a KG. Extensive experimental results show that CornNet outperforms state-of-the-art convQA models.

 

추상: 지식 그래프(KG)를 통한 대화형 질문 답변(convQA)은 KG에 포함된 정보에 대한 다중 턴 자연어 질문에 답변하는 것을 포함한다. ConvQA의 최첨단 방법은 종종 명확하지 않은 질문-답변 쌍으로 어려움을 겪는다. 이러한 입력은 대화 이력을 고려할 때 인간이 이해하기 쉽지만 기계가 해석하기 어려워 ConvQA 성능을 저하시킬 수 있다. 이 문제를 해결하기 위해 ConvQA 성능을 향상시키기 위해 대형 언어 모델(LLM)에서 생성된 질문 재구성을 활용하는 강화 학습(RL) 기반 모델인 ConnNet을 제안한다. 콘넷은 교사 모델이 인간의 글쓰기 재구성을 사용하여 질문 표현을 학습하는 교사-학생 아키텍처와 LLM에 의해 생성된 재구성을 통해 교사 모델의 출력을 모방하는 학생 모델을 채택한다. 그런 다음 학습된 질문 표현은 KG에서 정답을 찾기 위해 RL 모델에 의해 사용된다. 광범위한 실험 결과는 옥수수넷이 최첨단 컨벌루션을 능가한다는 것을 보여준다QA 모델. 

 

 

Enhancing Quantitative Reasoning Skills of Large Language Models through Dimension Perception

 

Abstract:Quantities are distinct and critical components of texts that characterize the magnitude properties of entities, providing a precise perspective for the understanding of natural language, especially for reasoning tasks. In recent years, there has been a flurry of research on reasoning tasks based on large language models (LLMs), most of which solely focus on numerical values, neglecting the dimensional concept of quantities with units despite its importance. We argue that the concept of dimension is essential for precisely understanding quantities and of great significance for LLMs to perform quantitative reasoning. However, the lack of dimension knowledge and quantity-related benchmarks has resulted in low performance of LLMs. Hence, we present a framework to enhance the quantitative reasoning ability of language models based on dimension perception. We first construct a dimensional unit knowledge base (DimUnitKB) to address the knowledge gap in this area. We propose a benchmark DimEval consisting of seven tasks of three categories to probe and enhance the dimension perception skills of LLMs. To evaluate the effectiveness of our methods, we propose a quantitative reasoning task and conduct experiments. The experimental results show that our dimension perception method dramatically improves accuracy (43.55%->50.67%) on quantitative reasoning tasks compared to GPT-4.

 

추상화:양은 개체의 크기 특성을 특징짓는 텍스트의 뚜렷하고 중요한 구성 요소이며, 특히 추론 작업을 위해 자연 언어의 이해를 위한 정확한 관점을 제공한다. 최근에는 그 중요성에도 불구하고 단위를 갖는 양의 차원 개념을 등한시한 채 대부분 수치에만 초점을 맞춘 대형 언어 모델(LLM) 기반 추론 과제에 대한 연구가 난무하고 있다. 우리는 차원의 개념이 양을 정확하게 이해하는 데 필수적이며 LLM이 정량적 추론을 수행하는 데 매우 중요하다고 주장한다. 그러나 차원 지식과 수량 관련 벤치마크가 부족하여 LLM의 성능이 낮다. 따라서 차원 인식 기반 언어 모델의 정량적 추론 능력을 향상시키기 위한 프레임워크를 제시한다. 우리는 먼저 이 분야의 지식 격차를 해결하기 위해 차원 단위 지식 기반(DimUnitKB)을 구성한다. LLM의 차원 인식 능력을 조사하고 향상시키기 위해 3가지 범주의 7가지 과제로 구성된 벤치마크 DimEval을 제안한다. 우리 방법의 효과를 평가하기 위해 정량적 추론 과제를 제안하고 실험을 수행한다. 실험 결과는 우리의 차원 인식 방법이 GPT-4에 비해 정량적 추론 과제에 대한 정확도(43.55%->50.67%)를 획기적으로 향상시킨다는 것을 보여준다. 

 

 

반응형

댓글