본문 바로가기
오늘의 자연어 처리

[2023-07-29] 오늘의 자연어처리

by 지환이아빠 2023. 7. 29.
반응형

ARC-NLP at PAN 2023: Transition-Focused Natural Language Inference for Writing Style Detection

 

The task of multi-author writing style detection aims at finding any positions of writing style change in a given text document. We formulate the task as a natural language inference problem where two consecutive paragraphs are paired. Our approach focuses on transitions between paragraphs while truncating input tokens for the task. As backbone models, we employ different Transformer-based encoders with warmup phase during training. We submit the model version that outperforms baselines and other proposed model versions in our experiments. For the easy and medium setups, we submit transition-focused natural language inference based on DeBERTa with warmup training, and the same model without transition for the hard setup.

 

다중 저자 쓰기 스타일 탐지 작업은 다음을 찾는 것을 목표로 한다 지정된 텍스트 문서에서 쓰기 유형의 위치가 변경됩니다. 우리는 공식화한다 두 개의 연속 단락이 있는 자연어 추론 문제로서의 작업 짝을 이루었습니다. 우리의 접근 방식은 단락 간의 전환에 초점을 맞추고 있다 작업에 대한 입력 토큰을 잘라냅니다. 백본 모델로서, 우리는 다른 것을 사용한다 교육 중 워밍업 단계가 있는 변압기 기반 인코더. 우리는 다음을 제출한다 기준선 및 기타 제안된 모델 버전을 능가하는 모델 버전 우리의 실험. 쉽고 중간 크기의 설정을 위해 전환 중심으로 제출합니다 준비운동 훈련으로 DeBERTa를 기반으로 한 자연어 추론, 그리고 같은 것 하드 설정을 위한 전환이 없는 모델. 

 

 

Improving Aspect-Based Sentiment with End-to-End Semantic Role Labeling Model

 

This paper presents a series of approaches aimed at enhancing the performance of Aspect-Based Sentiment Analysis (ABSA) by utilizing extracted semantic information from a Semantic Role Labeling (SRL) model. We propose a novel end-to-end Semantic Role Labeling model that effectively captures most of the structured semantic information within the Transformer hidden state. We believe that this end-to-end model is well-suited for our newly proposed models that incorporate semantic information. We evaluate the proposed models in two languages, English and Czech, employing ELECTRA-small models. Our combined models improve ABSA performance in both languages. Moreover, we achieved new state-of-the-art results on the Czech ABSA.

 

본 논문은 성능을 향상시키기 위한 일련의 접근법을 제시한다 추출된 의미론을 활용한 측면기반 감정분석(ABSA) 연구 SRL(Semantic Role Labeling) 모델의 정보입니다. 우리는 소설을 제안한다 대부분을 효과적으로 포착하는 엔드 투 엔드 시맨틱 역할 라벨링 모델 트랜스포머 숨겨진 상태 내의 구조화된 의미 정보입니다. 우리는 믿는다 이 엔드 투 엔드 모델은 다음과 같이 새롭게 제안된 모델에 적합합니다 시맨틱 정보를 통합하다. 우리는 제안된 모델을 두 가지로 평가한다 언어, 영어 및 체코어, ELECTRA 소형 모델을 사용합니다. 우리의 결합된 모델은 두 언어 모두에서 ABSA 성능을 향상시킵니다. 게다가, 우리는 새로운 것을 성취했다 체코 ABSA에 대한 최신 결과입니다. 

 

 

Improving Aspect-Based Sentiment with End-to-End Semantic Role Labeling Model

 

This paper presents a series of approaches aimed at enhancing the performance of Aspect-Based Sentiment Analysis (ABSA) by utilizing extracted semantic information from a Semantic Role Labeling (SRL) model. We propose a novel end-to-end Semantic Role Labeling model that effectively captures most of the structured semantic information within the Transformer hidden state. We believe that this end-to-end model is well-suited for our newly proposed models that incorporate semantic information. We evaluate the proposed models in two languages, English and Czech, employing ELECTRA-small models. Our combined models improve ABSA performance in both languages. Moreover, we achieved new state-of-the-art results on the Czech ABSA.

 

본 논문은 성능을 향상시키기 위한 일련의 접근법을 제시한다 추출된 의미론을 활용한 측면기반 감정분석(ABSA) 연구 SRL(Semantic Role Labeling) 모델의 정보입니다. 우리는 소설을 제안한다 대부분을 효과적으로 포착하는 엔드 투 엔드 시맨틱 역할 라벨링 모델 트랜스포머 숨겨진 상태 내의 구조화된 의미 정보입니다. 우리는 믿는다 이 엔드 투 엔드 모델은 다음과 같이 새롭게 제안된 모델에 적합합니다 시맨틱 정보를 통합하다. 우리는 제안된 모델을 두 가지로 평가한다 언어, 영어 및 체코어, ELECTRA 소형 모델을 사용합니다. 우리의 결합된 모델은 두 언어 모두에서 ABSA 성능을 향상시킵니다. 게다가, 우리는 새로운 것을 성취했다 체코 ABSA에 대한 최신 결과입니다. 

 

 

반응형

댓글