본문 바로가기
오늘의 자연어 처리

[2022-12-13] 오늘의 자연어처리

by 지환이아빠 2022. 12. 13.
반응형

Comparative Study of Sentiment Analysis for Multi-Sourced Social Media Platforms

 

There is a vast amount of data generated every second due to the rapidly growing technology in the current world. This area of research attempts to determine the feelings or opinions of people on social media posts. The dataset we used was a multi-source dataset from the comment section of various social networking sites like Twitter, Reddit, etc. Natural Language Processing Techniques were employed to perform sentiment analysis on the obtained dataset. In this paper, we provide a comparative analysis using techniques of lexicon-based, machine learning and deep learning approaches. The Machine Learning algorithm used in this work is Naive Bayes, the Lexicon-based approach used in this work is TextBlob, and the deep-learning algorithm used in this work is LSTM.

 

빠른 속도로 인해 매 초마다 방대한 양의 데이터가 생성됩니다. 현재 세계에서 성장하는 기술 이 연구 분야는 다음을 시도한다. 소셜 미디어 게시물에서 사람들의 감정이나 의견을 결정합니다. 데이터 집합 우리는 다양한 소셜의 댓글 섹션에서 다중 소스 데이터 세트를 사용했다. 트위터, 레딧 등의 네트워킹 사이트 자연어 처리 획득된 데이터 세트에 대한 감정 분석을 수행하기 위해 기술이 사용되었다. 본 논문에서는 다음과 같은 기술을 사용하여 비교 분석을 제공한다. 어휘 기반, 기계 학습 및 딥 러닝 접근법. 더 머신 이 작업에 사용된 학습 알고리즘은 렉시콘 기반 접근법인 나이브 베이즈입니다. 이 작업에 사용된 것은 TextBlob이고, 이 작업에 사용된 딥러닝 알고리즘입니다. 일은 LSTM이다. 

 

 

VASR: Visual Analogies of Situation Recognition

 

A core process in human cognition is analogical mapping: the ability to identify a similar relational structure between different situations. We introduce a novel task, Visual Analogies of Situation Recognition, adapting the classical word-analogy task into the visual domain. Given a triplet of images, the task is to select an image candidate B' that completes the analogy (A to A' is like B to what?). Unlike previous work on visual analogy that focused on simple image transformations, we tackle complex analogies requiring understanding of scenes. We leverage situation recognition annotations and the CLIP model to generate a large set of 500k candidate analogies. Crowdsourced annotations for a sample of the data indicate that humans agree with the dataset label ~80% of the time (chance level 25%). Furthermore, we use human annotations to create a gold-standard dataset of 3,820 validated analogies. Our experiments demonstrate that state-of-the-art models do well when distractors are chosen randomly (~86%), but struggle with carefully chosen distractors (~53%, compared to 90% human accuracy). We hope our dataset will encourage the development of new analogy-making models. Website: this https URL

 

인간 인지의 핵심 과정은 아날로그 매핑이다: 할 수 있는 능력. 서로 다른 상황 사이의 유사한 관계 구조를 식별한다. 우리가 새로운 과제인 상황 인식의 시각적 유사성을 소개한다. 시각 영역으로 고전적인 단어 찾기 작업. 세 개의 이미지를 봤을 때 작업은 유추를 완료하는 이미지 후보 B'를 선택하는 것입니다(A에서 A'). 무엇에 B와 같은가?) 시각적 유추에 대한 이전 연구와 달리 간단한 이미지 변환, 우리는 필요한 복잡한 유추를 다룬다. 장면의 이해 우리는 상황 인식 주석과 CLIP 모델을 활용하여 생성한다. 500,000개의 후보 유사체의 대규모 집합 샘플에 대한 주석을 크라우드소싱 데이터 중에서 인간은 데이터 세트 레이블에 80%까지 동의한다는 것을 나타낸다. (수준 25%). 게다가, 우리는 인간 주석을 사용하여 다음을 만든다. 3,820개의 검증된 유사성의 골드 표준 데이터 세트. 우리의 실험은 다음을 증명한다. 주의를 산만하게 하는 사람들이 무작위로 선택되었을 때 최첨단 모델들이 잘 작동한다는 것. (~86%), 그러나 신중하게 선택된 주의 산만자(~53%, 90%)로 어려움을 겪는다. 인간의 정확성) 우리는 우리의 데이터 세트가 새로운 개발을 장려하기를 바란다. 유추 모형 웹 사이트: 이 https URL 

 

 

Implicit causality in GPT-2: a case study

 

This case study investigates the extent to which a language model (GPT-2) is able to capture native speakers' intuitions about implicit causality in a sentence completion task. We first reproduce earlier results (showing lower surprisal values for pronouns that are congruent with either the subject or object, depending on which one corresponds to the implicit causality bias of the verb), and then examine the effects of gender and verb frequency on model performance. Our second study examines the reasoning ability of GPT-2: is the model able to produce more sensible motivations for why the subject VERBed the object if the verbs have stronger causality biases? We also developed a methodology to avoid human raters being biased by obscenities and disfluencies generated by the model.

 

이 사례 연구는 언어 모델(GPT-2)의 범위를 조사한다. 암묵적 인과관계에 대한 원어민의 직관을 포착할 수 있다. 문장 완성 과제 먼저 이전 결과를 재현합니다(낮음 표시). 주어와 일치하는 대명사에 대한 놀라운 값들 또는 객체, 어떤 것이 암묵적 인과관계 편향에 해당하는지에 따라. 동사), 그리고 모델에 대한 성별과 동사 빈도의 영향을 조사한다. 성능. 우리의 두 번째 연구는 GPT-2의 추론 능력을 조사한다. 왜 주제가 동사인지에 대해 더 합리적인 동기를 생산할 수 있는 모델 동사가 더 강한 인과관계 편향을 가지고 있다면 목적어? 우리는 또한 개발했다. 인간 평가자들이 외설과 유창성에 의해 편향되는 것을 피하기 위한 방법론 모델에 의해 생성됩니다. 

 

 

반응형

댓글