본문 바로가기
오늘의 자연어 처리

[2022-11-01] 오늘의 자연어처리

by 지환이아빠 2022. 11. 1.
반응형

When Life Gives You Lemons, Make Cherryade: Converting Feedback from Bad Responses into Good Labels

 

Deployed dialogue agents have the potential to integrate human feedback to continuously improve themselves. However, humans may not always provide explicit signals when the chatbot makes mistakes during interactions. In this work, we propose Juicer, a framework to make use of both binary and free-form textual human feedback. It works by: (i) extending sparse binary feedback by training a satisfaction classifier to label the unlabeled data; and (ii) training a reply corrector to map the bad replies to good ones. We find that augmenting training with model-corrected replies improves the final dialogue model, and we can further improve performance by using both positive and negative replies through the recently proposed Director model.

 

배치된 대화 에이전트는 인간 피드백을 통합할 수 있는 잠재력을 가지고 있다. 끊임없이 스스로를 향상시키다 그러나, 인간이 항상 제공하는 것은 아니다. 챗봇이 상호 작용 중에 실수를 할 때 명시적인 신호를 보낸다. 이 점에서. 작업, 우리는 이진 형식과 자유 형식을 모두 사용하는 프레임워크인 Juicer를 제안한다. 문자 그대로의 인간의 피드백 다음과 같이 작동합니다. (i) 희소 이진 피드백을 확장합니다. 라벨이 부착되지 않은 데이터에 라벨을 붙이기 위한 만족도 분류기 교육 및 (ii) 잘못된 답변을 좋은 답변에 매핑하기 위해 답변 수정자를 교육합니다. 을 발견한다. 모델별 응답으로 교육을 강화하면 최종 대화가 개선됩니다. 모델, 그리고 우리는 긍정적인 것과 긍정적인 것 모두를 사용함으로써 성능을 더욱 향상시킬 수 있다. 최근에 제안된 Director 모델을 통한 부정적인 답변. 

 

 

Stanceosaurus: Classifying Stance Towards Multilingual Misinformation

 

We present Stanceosaurus, a new corpus of 28,033 tweets in English, Hindi, and Arabic annotated with stance towards 251 misinformation claims. As far as we are aware, it is the largest corpus annotated with stance towards misinformation claims. The claims in Stanceosaurus originate from 15 fact-checking sources that cover diverse geographical regions and cultures. Unlike existing stance datasets, we introduce a more fine-grained 5-class labeling strategy with additional subcategories to distinguish implicit stance. Pre-trained transformer-based stance classifiers that are fine-tuned on our corpus show good generalization on unseen claims and regional claims from countries outside the training data. Cross-lingual experiments demonstrate Stanceosaurus' capability of training multi-lingual models, achieving 53.1 F1 on Hindi and 50.4 F1 on Arabic without any target-language fine-tuning. Finally, we show how a domain adaptation method can be used to improve performance on Stanceosaurus using additional RumourEval-2019 data. We make Stanceosaurus publicly available to the research community and hope it will encourage further work on misinformation identification across languages and cultures.

 

우리는 영어, 힌디어, 28,033개의 트윗의 새로운 말뭉치인 Stanceosaurus를 제시한다. 그리고 아랍어는 251개의 잘못된 정보 주장에 대한 입장으로 주석을 달았다. 까지 우리는 알고 있다, 그것은 에 대한 입장으로 주석이 달린 가장 큰 말뭉치이다. 오보 주장 스텐소사우루스의 주장은 15에서 유래했다. 다양한 지리적 지역과 문화를 포괄하는 사실 확인 출처 기존 스탠스 데이터 세트와 달리, 우리는 더 세밀한 5등급을 도입한다. 암묵적 입장을 구별하기 위한 추가 하위 범주가 있는 레이블링 전략. 사전 훈련된 변압기 기반 스탠스 분류기는 다음과 같이 미세 조정됩니다. 말뭉치는 보이지 않는 주장과 지역 주장에 대한 좋은 일반화를 보여준다. 교육 데이터에 포함되지 않은 국가. 언어 간 실험은 입증한다. Stanceosaurus의 다국어 모델 훈련 능력, 53.1 F1 달성 대상 언어의 미세 조정 없이 힌디어 및 아랍어에서는 50.4 F1. 마지막으로, 도메인 적응 방법을 사용하여 개선할 수 있는 방법을 보여준다. 추가적인 루머 평가 2019 데이터를 사용하여 스탠소사우루스에 대한 성능. 우리는 만든다 스타세오사우루스는 연구 커뮤니티에 공개적으로 이용가능하며 그렇게 되기를 희망한다. 언어 간 잘못된 정보 식별에 대한 추가 작업을 장려한다. 문화들. 

 

 

DORE: Document Ordered Relation Extraction based on Generative Framework

 

In recent years, there is a surge of generation-based information extraction work, which allows a more direct use of pre-trained language models and efficiently captures output dependencies. However, previous generative methods using lexical representation do not naturally fit document-level relation extraction (DocRE) where there are multiple entities and relational facts. In this paper, we investigate the root cause of the underwhelming performance of the existing generative DocRE models and discover that the culprit is the inadequacy of the training paradigm, instead of the capacities of the models. We propose to generate a symbolic and ordered sequence from the relation matrix which is deterministic and easier for model to learn. Moreover, we design a parallel row generation method to process overlong target sequences. Besides, we introduce several negative sampling strategies to improve the performance with balanced signals. Experimental results on four datasets show that our proposed method can improve the performance of the generative DocRE models. We have released our code at this https URL.

 

최근 몇 년간 세대 기반 정보 추출이 급증하고 있다. 사전 훈련된 언어 모델을 보다 직접적으로 사용할 수 있는 작업 및 출력 종속성을 효율적으로 캡처합니다. 그러나, 이전의 생성 방법들은 어휘 표현을 사용하는 것은 자연스럽게 문서 수준 관계에 맞지 않는다. 여러 엔티티 및 관계 팩트가 있는 경우 추출(DocRE). 인 이 논문, 우리는 압도적 성능의 근본 원인을 조사한다. 기존 생성 DocRE 모델 및 범인이라는 것을 발견합니다. 모델의 용량 대신 훈련 패러다임의 부적절함. 우리는 관계 행렬에서 기호적이고 순서 있는 시퀀스를 생성할 것을 제안한다. 이것은 결정론적이고 모델이 학습하기 더 쉽다. 게다가, 우리는 설계한다. 너무 긴 대상 시퀀스를 처리하는 병렬 행 생성 방법입니다. 게다가. 우리는 성능을 향상시키기 위해 몇 가지 부정적인 샘플링 전략을 도입한다. 균형 잡힌 신호로 4개의 데이터 세트에 대한 실험 결과에 따르면 제안된 방법은 생성 DocRE 모델의 성능을 향상시킬 수 있다. 우리가 이 https URL에서 코드를 공개했습니다. 

 

 

반응형

댓글