본문 바로가기
오늘의 자연어 처리

[2024-01-06] 오늘의 자연어처리

by 지환이아빠 2024. 1. 6.
반응형

Joint Multi-Facts Reasoning Network For Complex Temporal Question Answering Over Knowledge Graph

 

Abstract:Temporal Knowledge Graph (TKG) is an extension of regular knowledge graph by attaching the time scope. Existing temporal knowledge graph question answering (TKGQA) models solely approach simple questions, owing to the prior assumption that each question only contains a single temporal fact with explicit/implicit temporal constraints. Hence, they perform poorly on questions which own multiple temporal facts. In this paper, we propose \textbf{\underline{J}}oint \textbf{\underline{M}}ulti \textbf{\underline{F}}acts \textbf{\underline{R}}easoning \textbf{\underline{N}}etwork (JMFRN), to jointly reasoning multiple temporal facts for accurately answering \emph{complex} temporal questions. Specifically, JMFRN first retrieves question-related temporal facts from TKG for each entity of the given complex question. For joint reasoning, we design two different attention (\ie entity-aware and time-aware) modules, which are suitable for universal settings, to aggregate entities and timestamps information of retrieved facts. Moreover, to filter incorrect type answers, we introduce an additional answer type discrimination task. Extensive experiments demonstrate our proposed method significantly outperforms the state-of-art on the well-known complex temporal question benchmark TimeQuestions.

 

추상화:TKG(Temporal Knowledge Graph)는 시간 범위를 붙여 정규 지식 그래프를 확장한 것이다. 기존의 시간 지식 그래프 질문 답변(TKGQA) 모델은 각 질문이 명시적/묵시적 시간 제약을 갖는 단일 시간적 사실만을 포함한다는 이전의 가정으로 인해 단순한 질문에만 접근한다. 따라서, 그들은 여러 시간적 사실을 가지고 있는 질문에 대해 잘 수행하지 못한다. 본 논문에서는 \textbf{\underline}을 제안한다J}점 \textbf{\underline}M}ulti \textbf{\underline}F}: 동작 \textbf{\underline}R}) \textbf{\underline{N}: 네트워크(JMFRN), \emph{complex} 시간적 질문에 정확하게 답하기 위해 여러 시간적 사실을 공동으로 추론한다. 구체적으로, JMFRN은 먼저 주어진 복합 질문의 각 개체에 대해 TKG로부터 질문 관련 시간적 사실을 검색한다. 공동 추론을 위해 범용 설정에 적합한 두 가지 다른 주의(\즉, 엔티티 인식 및 시간 인식) 모듈을 설계하여 검색된 사실의 정보를 집계하고 타임스탬프를 지정한다. 또한 오답형 정답을 필터링하기 위해 정답형 판별 과제를 추가로 도입한다. 광범위한 실험은 우리가 제안한 방법이 잘 알려진 복잡한 시간 질문 벤치마크인 Time Questions에서 최첨단 방법을 크게 능가한다는 것을 보여준다. 

 

 

Location Aware Modular Biencoder for Tourism Question Answering

 

Abstract:Answering real-world tourism questions that seek Point-of-Interest (POI) recommendations is challenging, as it requires both spatial and non-spatial reasoning, over a large candidate pool. The traditional method of encoding each pair of question and POI becomes inefficient when the number of candidates increases, making it infeasible for real-world applications. To overcome this, we propose treating the QA task as a dense vector retrieval problem, where we encode questions and POIs separately and retrieve the most relevant POIs for a question by utilizing embedding space similarity. We use pretrained language models (PLMs) to encode textual information, and train a location encoder to capture spatial information of POIs. Experiments on a real-world tourism QA dataset demonstrate that our approach is effective, efficient, and outperforms previous methods across all metrics. Enabled by the dense retrieval architecture, we further build a global evaluation baseline, expanding the search space by 20 times compared to previous work. We also explore several factors that impact on the model's performance through follow-up experiments. Our code and model are publicly available at this https URL.

 

추상화:대규모 후보 풀에 대해 공간적 추론과 비공간적 추론을 모두 필요로 하기 때문에 POI(Point-of-Interest) 권장 사항을 찾는 실제 관광 질문에 답하는 것은 어렵다. 각 쌍의 질문과 POI를 인코딩하는 전통적인 방법은 후보의 수가 증가하면 비효율적이 되어 실제 응용이 불가능하다. 이를 극복하기 위해 QA 작업을 밀집 벡터 검색 문제로 취급할 것을 제안하며, 여기서 질문과 POI를 별도로 인코딩하고 임베딩 공간 유사성을 활용하여 질문에 가장 관련성이 높은 POI를 검색한다. 사전 훈련된 언어 모델(PLM)을 사용하여 텍스트 정보를 인코딩하고 POI의 공간 정보를 캡처하기 위해 위치 인코더를 훈련시킨다. 실제 관광 QA 데이터 세트에 대한 실험은 우리의 접근 방식이 효과적이고 효율적이며 모든 메트릭에서 이전 방법을 능가한다는 것을 보여준다. 조밀한 검색 아키텍처를 통해 글로벌 평가 기준선을 추가로 구축하여 이전 작업에 비해 검색 공간을 20배 확장한다. 또한 후속 실험을 통해 모델의 성능에 영향을 미치는 여러 요인을 탐색한다. 우리의 코드와 모델은 이 https URL에서 공개적으로 이용할 수 있습니다. 

 

 

PEFT for Speech: Unveiling Optimal Placement, Merging Strategies, and Ensemble Techniques

 

Abstract:Parameter-Efficient Fine-Tuning (PEFT) is increasingly recognized as an effective method in speech processing. However, the optimal approach and the placement of PEFT methods remain inconclusive. Our study conducts extensive experiments to compare different PEFT methods and their layer-wise placement adapting Differentiable Architecture Search (DARTS). We also explore the use of ensemble learning to leverage diverse PEFT strategies. The results reveal that DARTS does not outperform the baseline approach, which involves inserting the same PEFT method into all layers of a Self-Supervised Learning (SSL) model. In contrast, an ensemble learning approach, particularly one employing majority voting, demonstrates superior performance. Our statistical evidence indicates that different PEFT methods learn in varied ways. This variation might explain why the synergistic integration of various PEFT methods through ensemble learning can harness their unique learning capabilities more effectively compared to individual layer-wise optimization.

 

추상화:PEFT(Parameter-Efficient Fine-Tuning)는 음성 처리에서 효과적인 방법으로 점점 더 인식되고 있다. 그러나 최적의 접근법과 PEFT 방법의 배치는 여전히 결정적이지 않다. 우리의 연구는 다양한 PEFT 방법과 DART(Differentiable Architecture Search)를 적용한 계층별 배치를 비교하기 위해 광범위한 실험을 수행한다. 또한 다양한 PEFT 전략을 활용하기 위한 앙상블 학습의 사용을 탐구한다. 결과는 DARTS가 동일한 PEFT 방법을 SSL(Self-Supervised Learning) 모델의 모든 계층에 삽입하는 것을 포함하는 기본 접근 방식을 능가하지 않는다는 것을 보여준다. 이에 비해 앙상블 학습 방법, 특히 다수결 방식을 사용하는 방법은 우수한 성능을 보여준다. 우리의 통계적 증거는 다른 PEFT 방법이 다양한 방식으로 학습한다는 것을 나타낸다. 이러한 변화는 앙상블 학습을 통한 다양한 PEFT 방법의 시너지 통합이 개별 계층별 최적화에 비해 그들의 고유한 학습 역량을 더 효과적으로 활용할 수 있는 이유를 설명할 수 있을 것이다. 

 

 

반응형

댓글