본문 바로가기
오늘의 자연어 처리

[2022-09-20] 오늘의 자연어처리

by 지환이아빠 2022. 9. 20.
반응형

ConFiguRe: Exploring Discourse-level Chinese Figures of Speech

 

Figures of speech, such as metaphor and irony, are ubiquitous in literature works and colloquial conversations. This poses great challenge for natural language understanding since figures of speech usually deviate from their ostensible meanings to express deeper semantic implications. Previous research lays emphasis on the literary aspect of figures and seldom provide a comprehensive exploration from a view of computational linguistics. In this paper, we first propose the concept of figurative unit, which is the carrier of a figure. Then we select 12 types of figures commonly used in Chinese, and build a Chinese corpus for Contextualized Figure Recognition (ConFiguRe). Different from previous token-level or sentence-level counterparts, ConFiguRe aims at extracting a figurative unit from discourse-level context, and classifying the figurative unit into the right figure type. On ConFiguRe, three tasks, i.e., figure extraction, figure type classification and figure recognition, are designed and the state-of-the-art techniques are utilized to implement the benchmarks. We conduct thorough experiments and show that all three tasks are challenging for existing models, thus requiring further research. Our dataset and code are publicly available at this https URL.

 

은유나 아이러니와 같은 언어의 형상은 문학에서 흔히 볼 수 있다. 작품과 구어체 대화 이것은 자연에 큰 도전을 제기한다. 언어의 수치들은 보통 그것들로부터 벗어나기 때문에 언어 이해. 더 깊은 의미론적 함의를 표현하기 위한 표면적인 의미. 선행연구 인물의 문학적 측면을 강조하고 거의 제공하지 않는다. 컴퓨터 언어학의 관점에서 포괄적인 탐구 이 점에서. 종이, 우리는 먼저 피규어 단위의 개념을 제안합니다, 그것은 운반체입니다. 도형 그리고 나서 우리는 중국어에서 일반적으로 사용되는 12가지 종류의 숫자를 선택한다. 상황별 도형 인식(ConfigureRe)을 위한 중국어 말뭉치를 구축한다. 이전의 토큰 레벨 또는 문장 레벨과 다른 ConfigureRe 담화 수준의 맥락에서 비유 단위를 추출하는 것을 목표로 한다. 도형 단위를 올바른 도형 유형으로 분류하는 것. ConfigureRe에서, 3 작업, 즉 그림 추출, 그림 유형 분류 및 그림 인식, 설계 및 최첨단 기술이 다음과 같이 사용된다. 벤치마크를 실시하다 우리는 철저한 실험을 수행하고 모든 것을 보여준다. 기존 모델에서는 세 가지 작업이 어려우므로 더 많은 작업이 필요합니다. 조사. 데이터셋 및 코드는 다음 사이트에서 공개적으로 사용할 수 있습니다. 이 https URL. 

 

 

Dynamic Generation of Interpretable Inference Rules in a Neuro-Symbolic Expert System

 

We present an approach for systematic reasoning that produces human interpretable proof trees grounded in a factbase. Our solution resembles the style of a classic Prolog-based inference engine, where we replace handcrafted rules through a combination of neural language modeling, guided generation, and semiparametric dense retrieval. This novel reasoning engine, NELLIE, dynamically instantiates interpretable inference rules that capture and score entailment (de)compositions over natural language statements. NELLIE provides competitive performance on scientific QA datasets requiring structured explanations over multiple facts.

 

우리는 인간을 생산하는 체계적인 추론을 위한 접근법을 제시한다. 사실에 입각한 해석 가능한 증명 나무들 우리의 솔루션은 기존의 Prolog 기반 추론 엔진 스타일로, 수공예품을 대체한다. 신경 언어 모델링, 유도 생성, 그리고의 조합을 통한 규칙 반모수 고밀도 검색 이 새로운 추리 엔진, 넬리는 캡처하고 점수를 매기는 해석 가능한 추론 규칙을 동적으로 인스턴스화합니다. 자연어 문장에 대한 수반 조건 NELLIE가 제공하는 것 구조화된 QA 데이터셋이 필요한 과학적 QA 데이터셋에 대한 경쟁력 있는 성능 여러 가지 사실에 대한 설명 

 

 

SF-DST: Few-Shot Self-Feeding Reading Comprehension Dialogue State Tracking with Auxiliary Task

 

Few-shot dialogue state tracking (DST) model tracks user requests in dialogue with reliable accuracy even with a small amount of data. In this paper, we introduce an ontology-free few-shot DST with self-feeding belief state input. The self-feeding belief state input increases the accuracy in multi-turn dialogue by summarizing previous dialogue. Also, we newly developed a slot-gate auxiliary task. This new auxiliary task helps classify whether a slot is mentioned in the dialogue. Our model achieved the best score in a few-shot setting for four domains on multiWOZ 2.0.

 

퓨샷 대화 상태 추적(DST) 모델은 대화에서 사용자 요청을 추적합니다. 적은 양의 데이터로도 신뢰할 수 있는 정확도로. 이 논문에서, 우리는 자체 공급 신념 상태 입력이 있는 온톨로지 프리 퓨샷 DST를 도입한다. 자가 공급 믿음 상태 입력은 멀티 턴의 정확도를 높입니다. 이전의 대화를 요약하여 대화합니다. 또한 슬롯 게이트를 새롭게 개발했습니다. 보조 업무 이 새로운 보조 작업은 슬롯이 다음과 같은지 여부를 분류하는 데 도움이 됩니다. 대화에서 언급되었습니다. 우리 모델은 몇 번의 샷으로 최고의 점수를 얻었다. 다중의 4개 도메인에 대한 설정WOZ 2.0. 

 

 

반응형

댓글