본문 바로가기
오늘의 자연어 처리

[2022-12-02] 오늘의 자연어처리

by 지환이아빠 2022. 12. 2.
반응형

X-PuDu at SemEval-2022 Task 6: Multilingual Learning for English and Arabic Sarcasm Detection

 

Detecting sarcasm and verbal irony from people's subjective statements is crucial to understanding their intended meanings and real sentiments and positions in social scenarios. This paper describes the X-PuDu system that participated in SemEval-2022 Task 6, iSarcasmEval - Intended Sarcasm Detection in English and Arabic, which aims at detecting intended sarcasm in various settings of natural language understanding. Our solution finetunes pre-trained language models, such as ERNIE-M and DeBERTa, under the multilingual settings to recognize the irony from Arabic and English texts. Our system ranked second out of 43, and ninth out of 32 in Task A: one-sentence detection in English and Arabic; fifth out of 22 in Task B: binary multi-label classification in English; first out of 16, and fifth out of 13 in Task C: sentence-pair detection in English and Arabic.

 

사람들의 주관적인 진술에서 빈정거림과 언어적 아이러니를 감지하는 것은 그들의 의도된 의미와 진정한 감정을 이해하는 데 결정적이다. 사회적 상황에서의 입장 이 논문은 다음과 같은 X-PuDu 시스템을 설명한다. SemEval-2022 과제 6, iSarcasmEval - 의도된 풍자 탐지에 참여했다. 영어와 아랍어로, 다양한 의도된 비아냥거림을 감지하는 것을 목표로 한다. 자연어 이해의 환경 사전 교육을 받은 NAT 솔루션 다국어 설정에서 ERNIE-M 및 DeBERTa와 같은 언어 모델 아랍어와 영어 텍스트의 아이러니를 인식하기 위해. 우리 시스템은 2위를 차지했다. 43개 중 9개, 과제 A에서 32개 중 9개: 영어의 한 문장 감지 및 아랍어; 과제 B에서 22개 중 5번째: 이진 다중 레이블 분류 영어; 과제 C에서 16개 중 1위, 13개 중 5위: 문장-쌍 영어와 아랍어로 된 탐지 

 

 

VideoDubber: Machine Translation with Speech-Aware Length Control for Video Dubbing

 

Video dubbing aims to translate the original speech in a film or television program into the speech in a target language, which can be achieved with a cascaded system consisting of speech recognition, machine translation and speech synthesis. To ensure the translated speech to be well aligned with the corresponding video, the length/duration of the translated speech should be as close as possible to that of the original speech, which requires strict length control. Previous works usually control the number of words or characters generated by the machine translation model to be similar to the source sentence, without considering the isochronicity of speech as the speech duration of words/characters in different languages varies. In this paper, we propose a machine translation system tailored for the task of video dubbing, which directly considers the speech duration of each token in translation, to match the length of source and target speech. Specifically, we control the speech length of generated sentence by guiding the prediction of each word with the duration information, including the speech duration of itself as well as how much duration is left for the remaining words. We design experiments on four language directions (German -> English, Spanish -> English, Chinese <-> English), and the results show that the proposed method achieves better length control ability on the generated speech than baseline methods. To make up the lack of real-world datasets, we also construct a real-world test set collected from films to provide comprehensive evaluations on the video dubbing task.

 

비디오 더빙은 영화나 텔레비전에서 원래의 연설을 번역하는 것을 목표로 한다. 목표 언어로 연설에 프로그램을 짜서, 그것은 다음과 같이 성취될 수 있다. 음성 인식, 기계 번역 및 로 구성된 계단식 시스템 음성 합성 번역된 음성이 다음과 잘 정렬되도록 하기 위해 해당 동영상, 번역된 음성의 길이/길이는 다음과 같아야 한다. 가능한 한 긴 연설을 필요로 하는 원래 연설의 그것에 가깝다. 통제. 이전 작품들은 보통 단어나 문자의 수를 조절한다. 소스와 유사하도록 기계 번역 모델에 의해 생성됨 문장, 연설의 등시성을 고려하지 않고. 언어마다 단어/문자의 지속 시간이 다릅니다. 이 논문에서, 우리는 비디오 더빙 작업에 적합한 기계 번역 시스템을 제안합니다. 번역에서 각 토큰의 음성 지속 시간을 직접적으로 고려합니다. 소스 및 대상 음성의 길이를 일치시킵니다. 구체적으로, 우리가 통제한다. 각 단어의 예측을 유도함으로써 생성된 문장의 음성 길이 그 자체의 연설 지속 시간을 포함한 지속 시간 정보 남은 단어의 지속 시간이 얼마인지를 확인합니다. 우리는 실험을 설계한다. 4가지 언어 방향(독일어 -> 영어, 스페인어 -> 영어, 중국어 <-> 영어), 그리고 결과는 제안된 방법이 더 나은 길이를 달성한다는 것을 보여준다. 기본 방법보다 생성된 음성에 대한 제어 능력. 다음을 구성하려면 실제 데이터 세트의 부족, 우리는 또한 수집된 실제 테스트 세트를 구성한다. 영화에서 비디오 더빙 작업에 대한 포괄적인 평가를 제공합니다. 

 

 

RAFT: Rationale adaptor for few-shot abusive language detection

 

Abusive language is a concerning problem in online social media. Past research on detecting abusive language covers different platforms, languages, demographies, etc. However, models trained using these datasets do not perform well in cross-domain evaluation settings. To overcome this, a common strategy is to use a few samples from the target domain to train models to get better performance in that domain (cross-domain few-shot training). However, this might cause the models to overfit the artefacts of those samples. A compelling solution could be to guide the models toward rationales, i.e., spans of text that justify the text's label. This method has been found to improve model performance in the in-domain setting across various NLP tasks. In this paper, we propose RAFT (Rationale Adaptor for Few-shoT classification) for abusive language detection. We first build a multitask learning setup to jointly learn rationales, targets, and labels, and find a significant improvement of 6% macro F1 on the rationale detection task over training solely rationale classifiers. We introduce two rationale-integrated BERT-based architectures (the RAFT models) and evaluate our systems over five different abusive language datasets, finding that in the few-shot classification setting, RAFT-based models outperform baseline models by about 7% in macro F1 scores and perform competitively to models finetuned on other source domains. Furthermore, RAFT-based models outperform LIME/SHAP-based approaches in terms of plausibility and are close in performance in terms of faithfulness.

 

욕설은 온라인 소셜 미디어에서 우려되는 문제이다. 과거. 욕설 탐지에 대한 연구는 다양한 플랫폼, 언어, 인구 통계학 등 그러나 이러한 데이터 세트를 사용하여 훈련된 모델은 수행되지 않는다. 도메인 간 평가 설정에 잘 있습니다. 이를 극복하기 위해, 공통된 전략은 목표 도메인의 샘플 몇 개를 사용하여 모델을 훈련시키는 것입니다. 해당 도메인의 성능(도메인 간 퓨샷 교육). 하지만, 이것은 모형이 해당 표본의 아티팩트를 과도하게 적합시킬 수 있습니다. 설득력 있는 해결책은 모델을 이성, 즉 텍스트의 범위로 안내하는 것일 수 있다. 그것이 텍스트의 레이블을 정당화합니다. 이 방법은 모델을 개선하는 것으로 확인되었습니다. 다양한 NLP 작업에 걸친 도메인 내 설정에서의 성능. 이 논문에서, 우리는 학대를 위한 RAFT(Few-shot 분류를 위한 합리적인 어댑터)를 제안한다. 언어 탐지 우리는 먼저 공동 학습을 위한 멀티태스킹 학습 설정을 구축한다. 합리화, 대상 및 레이블, 그리고 6% 매크로의 상당한 개선 사항을 찾습니다. 근거 분류기만을 훈련하는 것에 대한 근거 탐지 과제에 대한 F1. 우리는 두 가지 이론적 통합 BERT 기반 아키텍처(RAFT)를 소개한다. 모델) 및 5개의 서로 다른 욕설 데이터 세트에 대한 시스템을 평가합니다. 퓨샷 분류 설정에서 RAFT 기반 모델 찾기 매크로 F1 점수에서 기준 모델을 약 7% 능가하고 성능을 발휘합니다. 다른 소스 도메인에서 미세 조정된 모델과 경쟁적으로. 더 나아가, RAFT 기반 모델은 다음과 같은 측면에서 LIME/SHAP 기반 접근 방식을 능가합니다. 신뢰성 측면에서 성능이 근접합니다. 

 

 

반응형

댓글