본문 바로가기
오늘의 자연어 처리

[2023-10-31] 오늘의 자연어처리

by 지환이아빠 2023. 10. 31.
반응형

INA: An Integrative Approach for Enhancing Negotiation Strategies with Reward-Based Dialogue System

 

In this paper, we propose a novel negotiation dialogue agent designed for the online marketplace. Our agent is integrative in nature i.e, it possesses the capability to negotiate on price as well as other factors, such as the addition or removal of items from a deal bundle, thereby offering a more flexible and comprehensive negotiation experience. We create a new dataset called Integrative Negotiation Dataset (IND) to enable this functionality. For this dataset creation, we introduce a new semi-automated data creation method, which combines defining negotiation intents, actions, and intent-action simulation between users and the agent to generate potential dialogue flows. Finally, the prompting of GPT-J, a state-of-the-art language model, is done to generate dialogues for a given intent, with a human-in-the-loop process for post-editing and refining minor errors to ensure high data quality. We employ a set of novel rewards, specifically tailored for the negotiation task to train our Negotiation Agent, termed as the Integrative Negotiation Agent (INA). These rewards incentivize the chatbot to learn effective negotiation strategies that can adapt to various contextual requirements and price proposals. By leveraging the IND, we train our model and conduct experiments to evaluate the effectiveness of our reward-based dialogue system for negotiation. Our results demonstrate that the proposed approach and reward system significantly enhance the agent's negotiation capabilities. The INA successfully engages in integrative negotiations, displaying the ability to dynamically adjust prices and negotiate the inclusion or exclusion of items in a bundle deal

 

본 논문에서, 우리는 새로운 협상 대화 에이전트를 제안한다 온라인 장터. 우리의 에이전트는 본질적으로 통합적이다. 즉, 그것은 다음을 소유한다 추가와 같은 다른 요소뿐만 아니라 가격에 대해 협상할 수 있는 능력 또는 거래 묶음에서 항목을 제거하여 보다 유연하고 포괄적인 교섭 경험. 우리는 다음과 같은 새로운 데이터 세트를 만듭니다 이 기능을 활성화하기 위한 IND(Integrative Negotiation Dataset). 이거는 데이터셋 생성, 새로운 세미 automated 데이터 생성 방법을 소개합니다 협상 의도, 조치 및 의도-조치 시뮬레이션 정의를 결합합니다 잠재적인 대화 흐름을 생성하기 위해 사용자와 에이전트 간에. 마지막으로 최첨단 언어 모델인 GPT-J의 프롬프트가 생성된다 주어진 의도를 위한 대화, 사후에 대한 인간-인-더-루프 프로세스와 함께 높은 데이터 품질을 보장하기 위해 사소한 오류도 개선할 수 있습니다. 우리는 소설집을 쓴다 특히 우리의 훈련을 위한 협상 과제에 맞춘 보상 통합 협상 대리인(Integrative Negotiation Agent, INA)이라고 합니다. 이것들 보상은 챗봇이 다음과 같은 효과적인 협상 전략을 배우도록 동기를 부여한다 다양한 맥락적 요구사항과 가격 제안에 적응할 수 있습니다. 활용하여 IND, 우리는 우리의 모델을 훈련하고, 평가하기 위한 실험을 수행한다 협상을 위한 보상 기반 대화 시스템의 효과. 우리의 결과 제안된 접근방식과 보상체계가 크게 향상됨을 입증한다 대리인의 교섭 능력. INA가 성공적으로 참여함 가격을 동적으로 조정할 수 있는 능력을 보여주는 통합 협상 그리고 묶음 거래에 품목의 포함 또는 제외를 협상한다 

 

 

Knowledge Corpus Error in Question Answering

 

Abstract:Recent works in open-domain question answering (QA) have explored generating context passages from large language models (LLMs), replacing the traditional retrieval step in the QA pipeline. However, it is not well understood why generated passages can be more effective than retrieved ones. This study revisits the conventional formulation of QA and introduces the concept of knowledge corpus error. This error arises when the knowledge corpus used for retrieval is only a subset of the entire string space, potentially excluding more helpful passages that exist outside the corpus. LLMs may mitigate this shortcoming by generating passages in a larger space. We come up with an experiment of paraphrasing human-annotated gold context using LLMs to observe knowledge corpus error empirically. Our results across three QA benchmarks reveal an increased performance (10% - 13%) when using paraphrased passage, indicating a signal for the existence of knowledge corpus error. Our code is available at this https URL

 

초록:개방형 도메인 질문 응답(QA)의 최근 연구는 QA 파이프라인의 전통적인 검색 단계를 대체하여 대형 언어 모델(LLM)에서 컨텍스트 통로를 생성하는 것을 탐구했다. 그러나 생성된 통로가 검색된 통로보다 더 효과적일 수 있는 이유는 잘 알려져 있지 않다. 본 연구는 QA의 기존 공식화를 재검토하고 지식 코퍼스 오류 개념을 소개한다. 이 오류는 검색에 사용되는 지식 코퍼스가 전체 문자열 공간의 부분 집합에 불과할 때 발생하며, 코퍼스 외부에 존재하는 더 유용한 통로를 잠재적으로 배제한다. LLM들은 더 큰 공간에서 통로들을 생성함으로써 이러한 단점들을 완화할 수 있다. 우리는 지식 코퍼스 오류를 경험적으로 관찰하기 위해 LLM을 사용하여 인간이 주석을 단 금 맥락을 비유하는 실험을 제안한다. 세 가지 QA 벤치마크에 걸친 우리의 결과는 비유된 통로를 사용할 때 성능이 향상되었음을 보여주며, 이는 지식 말뭉치 오류의 존재에 대한 신호를 나타낸다. 우리의 코드는 이 https URL에서 사용 가능하다 

 

 

DELPHI: Data for Evaluating LLMs' Performance in Handling Controversial Issues

 

Abstract:Controversy is a reflection of our zeitgeist, and an important aspect to any discourse. The rise of large language models (LLMs) as conversational systems has increased public reliance on these systems for answers to their various questions. Consequently, it is crucial to systematically examine how these models respond to questions that pertaining to ongoing debates. However, few such datasets exist in providing human-annotated labels reflecting the contemporary discussions. To foster research in this area, we propose a novel construction of a controversial questions dataset, expanding upon the publicly released Quora Question Pairs Dataset. This dataset presents challenges concerning knowledge recency, safety, fairness, and bias. We evaluate different LLMs using a subset of this dataset, illuminating how they handle controversial issues and the stances they adopt. This research ultimately contributes to our understanding of LLMs' interaction with controversial issues, paving the way for improvements in their comprehension and handling of complex societal debates.

 

초록:논쟁은 우리의 시대정신을 반영하는 것이며, 어떤 담론에도 중요한 측면이 있다. 대화 시스템으로서의 대형 언어 모델(LLM)의 증가는 다양한 질문에 대한 답을 위해 이러한 시스템에 대한 대중의 의존도를 증가시켰다. 따라서 이러한 모형들이 기존의 논의와 관련된 질문에 어떻게 반응하는지 체계적으로 분석할 필요가 있다. 그러나 이러한 데이터 세트는 현대 논의를 반영한 인간 주석 레이블을 제공하는 데 거의 존재하지 않는다. 이 분야에 대한 연구를 촉진하기 위해 공개된 Quora 질문 쌍 데이터 세트를 확장하여 논란이 많은 질문 데이터 세트의 새로운 구성을 제안한다. 이 데이터 세트는 지식 최신성, 안전성, 공정성 및 편견과 관련된 과제를 제시한다. 우리는 이 데이터 세트의 하위 집합을 사용하여 다양한 LLM을 평가하며, 그들이 논쟁적인 문제를 처리하는 방법과 채택하는 입장을 설명한다. 본 연구는 궁극적으로 LLM들의 논쟁적 이슈와의 상호작용에 대한 이해에 기여함으로써 복잡한 사회적 논쟁에 대한 이해와 대처에 있어 개선의 길을 열어준다. 

 

 

반응형

댓글