본문 바로가기
오늘의 자연어 처리

[2022-08-11] 오늘의 자연어처리

by 지환이아빠 2022. 8. 11.
반응형

CLEVR-Math: A Dataset for Compositional Language, Visual and Mathematical Reasoning

 

We introduce CLEVR-Math, a multi-modal math word problems dataset consisting of simple math word problems involving addition/subtraction, represented partly by a textual description and partly by an image illustrating the scenario. The text describes actions performed on the scene that is depicted in the image. Since the question posed may not be about the scene in the image, but about the state of the scene before or after the actions are applied, the solver envision or imagine the state changes due to these actions. Solving these word problems requires a combination of language, visual and mathematical reasoning. We apply state-of-the-art neural and neuro-symbolic models for visual question answering on CLEVR-Math and empirically evaluate their performances. Our results show how neither method generalise to chains of operations. We discuss the limitations of the two in addressing the task of multi-modal word problem solving.

 

우리는 다음과 같은 다중 모달 수학 단어 문제 데이터 세트인 CLEVR-Math를 소개한다. 덧셈/뺄셈과 관련된 간단한 수학 단어 문제의 경우, 부분적으로 표현된다. 텍스트 설명과 부분적으로 시나리오를 설명하는 이미지에 의해. 그 텍스트는 영상에 묘사된 장면에서 수행되는 작업을 설명합니다. 왜냐하면 제시된 질문은 이미지의 장면에 관한 것이 아니라, 그 장면에 관한 것일 수 있기 때문이다. 행동이 적용되기 전이나 후에 장면의 상태, 해결사는 상상한다. 또는 이러한 행동으로 인해 상태가 변화한다고 상상한다. 이러한 단어 문제 해결 언어, 시각 및 수학적 추론의 조합을 요구합니다. 신청합니다 시각적 질문에 대한 답변을 위한 최첨단 신경 및 신경 분석 모델 CLEVR-Math를 사용하여 성능을 경험적으로 평가합니다. 우리의 결과는 어떻게 두 가지 방법 모두 연쇄적으로 작용하지 않는다. 우리는 한계에 대해 논의한다. 이 두 가지 중 하나가 다중 언어 단어 문제 해결 과제를 해결하는 데 사용됩니다. 

 

 

Exploring Hate Speech Detection with HateXplain and BERT

 

Hate Speech takes many forms to target communities with derogatory comments, and takes humanity a step back in societal progress. HateXplain is a recently published and first dataset to use annotated spans in the form of rationales, along with speech classification categories and targeted communities to make the classification more humanlike, explainable, accurate and less biased. We tune BERT to perform this task in the form of rationales and class prediction, and compare our performance on different metrics spanning across accuracy, explainability and bias. Our novelty is threefold. Firstly, we experiment with the amalgamated rationale class loss with different importance values. Secondly, we experiment extensively with the ground truth attention values for the rationales. With the introduction of conservative and lenient attentions, we compare performance of the model on HateXplain and test our hypothesis. Thirdly, in order to improve the unintended bias in our models, we use masking of the target community words and note the improvement in bias and explainability metrics. Overall, we are successful in achieving model explanability, bias removal and several incremental improvements on the original BERT implementation.

 

Hate Speech는 경멸적인 코멘트를 가진 커뮤니티를 목표로 하기 위해 많은 형태를 취한다. 인류를 사회적 진보로 한 걸음 물러나게 할 것입니다. HateXplain은 최근에 게시된 데이터 집합과 주석이 달린 범위를 합리성의 형태로 사용하는 첫 번째 데이터 집합, 음성 분류 범주 및 만들 대상 커뮤니티와 함께 더 인간적이고, 설명 가능하고, 정확하고, 덜 편향된 분류. 우리가 이 작업을 합리성과 클래스 예측의 형태로 수행하도록 BERT를 조정한다. 그리고 정확도에 걸쳐 다양한 지표에서 성능을 비교합니다. 설명 가능성과 편견 우리의 참신함은 세 가지다. 먼저, 우리는 실험을 한다. 중요도 값이 다른 통합 이론적 클래스 손실. 둘째, 우리는 다음과 같은 사실에 대한 주의 값을 광범위하게 실험한다. 이치 보수적이고 관대한 관심을 도입하면서 우리는 HateXplain에서 모델의 성능을 비교하고 가설을 테스트한다. 셋째, 모델에서 의도하지 않은 편견을 개선하기 위해 마스킹을 사용한다. 대상 커뮤니티 단어 및 편견의 개선을 주목한다. 설명 가능성 메트릭스. 전반적으로 모델을 성공적으로 달성하고 있습니다. 설명 가능성, 편향 제거 및 에 대한 몇 가지 점진적 개선 원래의 BERT 구현. 

 

 

Emotion Detection From Tweets Using a BERT and SVM Ensemble Model

 

Automatic identification of emotions expressed in Twitter data has a wide range of applications. We create a well-balanced dataset by adding a neutral class to a benchmark dataset consisting of four emotions: fear, sadness, joy, and anger. On this extended dataset, we investigate the use of Support Vector Machine (SVM) and Bidirectional Encoder Representations from Transformers (BERT) for emotion recognition. We propose a novel ensemble model by combining the two BERT and SVM models. Experiments show that the proposed model achieves a state-of-the-art accuracy of 0.91 on emotion recognition in tweets.

 

트위터 데이터로 표현되는 감정 자동식별은 광범위하다. 적용 범위 중립을 추가하여 균형 잡힌 데이터 세트를 만든다. 공포, 슬픔, 기쁨, 네 가지 감정으로 구성된 벤치마크 데이터 세트에 대한 클래스 그리고 분노. 이 확장된 데이터 세트에서 Support Vector의 사용을 조사한다. 변압기의 기계(SVM) 및 양방향 인코더 표현 감정 인식을 위한 (BERT) 우리는 다음을 결합하여 새로운 앙상블 모델을 제안한다. 두 가지 BERT 및 SVM 모델. 실험은 제안된 모델이 다음을 달성한다는 것을 보여준다. 트윗의 감정 인식에 대한 0.91의 최첨단 정확도 

 

 

반응형

댓글