본문 바로가기
오늘의 자연어 처리

[2022-12-20] 오늘의 자연어처리

by 지환이아빠 2022. 12. 20.
반응형

Fast Rule-Based Decoding: Revisiting Syntactic Rules in Neural Constituency Parsing

 

Most recent studies on neural constituency parsing focus on encoder structures, while few developments are devoted to decoders. Previous research has demonstrated that probabilistic statistical methods based on syntactic rules are particularly effective in constituency parsing, whereas syntactic rules are not used during the training of neural models in prior work probably due to their enormous computation requirements. In this paper, we first implement a fast CKY decoding procedure harnessing GPU acceleration, based on which we further derive a syntactic rule-based (rule-constrained) CKY decoding. In the experiments, our method obtains 95.89 and 92.52 F1 on the datasets of PTB and CTB respectively, which shows significant improvements compared with previous approaches. Besides, our parser achieves strong and competitive cross-domain performance in zero-shot settings.

 

신경 구성 요소 구문 분석에 대한 가장 최근의 연구는 인코더에 초점을 맞추고 있다. 디코더에 전념하는 개발은 거의 없는 반면, 구조. 선행연구 통사론에 기초한 확률론적 통계 방법을 입증했다. 규칙은 특히 구성 요소 구문 분석에 효과적인 반면, 구문 분석은 더욱 효과적이다. 규칙은 아마도 이전 작업에서 신경 모델을 훈련하는 동안 사용되지 않는다. 방대한 계산 요구 사항 때문에. 이 논문에서, 우리는 GPU 가속을 이용한 빠른 CKY 디코딩 절차를 구현한다. 이는 구문 규칙 기반(규칙 제약) CKY 디코딩을 추가로 도출한다. 실험에서, 우리의 방법은 데이터 세트에서 95.89와 92.52 F1을 얻는다. 각각 PTB와 CTB는 와 비교하여 상당한 개선을 보여준다. 이전의 방법 게다가, 우리 파서는 강력하고 경쟁력이 있다. 제로샷 설정에서 교차 도메인 성능. 

 

 

How to disagree well: Investigating the dispute tactics used on Wikipedia

 

Disagreements are frequently studied from the perspective of either detecting toxicity or analysing argument structure. We propose a framework of dispute tactics that unifies these two perspectives, as well as other dialogue acts which play a role in resolving disputes, such as asking questions and providing clarification. This framework includes a preferential ordering among rebuttal-type tactics, ranging from ad hominem attacks to refuting the central argument. Using this framework, we annotate 213 disagreements (3,865 utterances) from Wikipedia Talk pages. This allows us to investigate research questions around the tactics used in disagreements; for instance, we provide empirical validation of the approach to disagreement recommended by Wikipedia. We develop models for multilabel prediction of dispute tactics in an utterance, achieving the best performance with a transformer-based label powerset model. Adding an auxiliary task to incorporate the ordering of rebuttal tactics further yields a statistically significant increase. Finally, we show that these annotations can be used to provide useful additional signals to improve performance on the task of predicting escalation.

 

불일치는 종종 감지의 관점에서 연구된다. 독성 또는 분석 논쟁 구조. 우리는 논쟁의 틀을 제안한다. 다른 대화 행위뿐만 아니라 이 두 관점을 통합하는 전술. 질문을 하고 제공하는 것과 같은 분쟁을 해결하는 데 역할을 한다. 해명 이 프레임워크는 다음 중에서 우선 순위를 포함한다. 인신공격에서부터 중앙에 대한 반박에 이르는 반박형 전술 논쟁. 이 프레임워크를 사용하여 213개의 불일치(3,865개)에 주석을 달았다. 위키피디아 토크 페이지에서 발췌. 이것은 우리가 연구를 조사할 수 있게 해준다. 의견 불일치에 사용되는 전술에 대한 질문; 예를 들어, 우리는 제공한다. 위키피디아가 추천한 의견 불일치에 대한 접근법의 경험적 검증. 우리는 발언에서 분쟁 전술의 다중 레이블 예측 모델을 개발한다. 변압기 기반 레이블 전원 집합 모델을 통해 최고의 성능을 달성합니다. 반박 전술의 순서를 통합하기 위한 보조 과제 추가 추가적으로 통계적으로 유의한 증가를 산출한다. 마지막으로, 우리는 그것을 보여준다. 이러한 주석은 개선하기 위한 유용한 추가 신호를 제공하는 데 사용될 수 있다. 에스컬레이션을 예측하는 작업에 대한 성능. 

 

 

MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text Generation

 

Prompting large language models has enabled significant recent progress in multi-step reasoning over text. However, when applied to text generation from semi-structured data (e.g., graphs or tables), these methods typically suffer from low semantic coverage, hallucination, and logical inconsistency. We propose MURMUR, a neuro-symbolic modular approach to text generation from semi-structured data with multi-step reasoning. MURMUR is a best-first search method that generates reasoning paths using: (1) neural and symbolic modules with specific linguistic and logical skills, (2) a grammar whose production rules define valid compositions of modules, and (3) value functions that assess the quality of each reasoning step. We conduct experiments on two diverse data-to-text generation tasks like WebNLG and LogicNLG. These tasks differ in their data representations (graphs and tables) and span multiple linguistic and logical skills. MURMUR obtains significant improvements over recent few-shot baselines like direct prompting and chain-of-thought prompting, while also achieving comparable performance to fine-tuned GPT-2 on out-of-domain data. Moreover, human evaluation shows that MURMUR generates highly faithful and correct reasoning paths that lead to 26% more logically consistent summaries on LogicNLG, compared to direct prompting.

 

큰 언어 모델을 촉구하는 것은 최근에 중요한 진전을 가능하게 했다. 텍스트에 대한 다단계 추론 그러나 다음에서 텍스트 생성에 적용할 경우 반구조화 데이터(예: 그래프 또는 표), 이러한 방법은 일반적으로 어려움을 겪는다. 낮은 의미론적 적용 범위, 환각, 논리적 불일치로부터. 우리가 텍스트 생성에 대한 신경 기호 모듈식 접근 방식인 MURMUR을 제안한다. 다단계 추론을 사용한 반구조화 데이터 MURMUR는 최선의 우선 검색입니다. 다음을 사용하여 추론 경로를 생성하는 방법: (1) 신경 및 기호 모듈 특정한 언어학적, 논리학적 기술을 가지고, (2) 생산된 문법. 규칙은 모듈의 유효한 구성을 정의하고, (3) 평가하는 값 함수 각 추론 단계의 품질 우리는 두 가지 다양한 실험을 수행한다. WebNLG 및 LogicNLG와 같은 데이터-텍스트 생성 작업. 이러한 작업은 다음과 같습니다. 데이터 표현(표 및 표)과 여러 언어 및 논리적 기술 MURMUR는 최근의 몇 번의 샷에 비해 상당한 개선을 얻었다. 직접적인 프롬프트와 생각의 연쇄적인 프롬프트와 같은 기준선. 도메인 외부 데이터에서 미세 조정된 GPT-2와 비슷한 성능을 달성합니다. 게다가, 인간의 평가는 MURMUR이 매우 충실하고 논리적으로 일관된 요약 26%로 이어지는 올바른 추론 경로 직접 프롬프트와 비교하여 LogicNLG. 

 

 

반응형

댓글