본문 바로가기
오늘의 자연어 처리

[2023-06-16] 오늘의 자연어처리

by 지환이아빠 2023. 6. 16.
반응형

Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language Models -- and Disappeared in GPT-4

 

Large language models (LLMs) are currently at the forefront of intertwining AI systems with human communication and everyday life. Therefore, it is of great importance to evaluate their emerging abilities. In this study, we show that LLMs, most notably GPT-3, exhibit behavior that strikingly resembles human-like intuition -- and the cognitive errors that come with it. However, LLMs with higher cognitive capabilities, in particular ChatGPT and GPT-4, learned to avoid succumbing to these errors and perform in a hyperrational manner. For our experiments, we probe LLMs with the Cognitive Reflection Test (CRT) as well as semantic illusions that were originally designed to investigate intuitive decision-making in humans. Moreover, we probe how sturdy the inclination for intuitive-like decision-making is. Our study demonstrates that investigating LLMs with methods from psychology has the potential to reveal otherwise unknown emergent traits.

 

대규모 언어 모델(LLM)은 현재 서로 얽혀있는 최전선에 있다 인간의 의사소통과 일상생활이 가능한 인공지능 시스템. 그러므로, 그것은 이다 그들의 새로운 능력을 평가하는 것은 매우 중요하다. 이 연구에서, 우리는 보여준다 LLM, 특히 GPT-3는 눈에 띄게 유사한 행동을 보인다 인간과 같은 직관 -- 그리고 그것에 수반되는 인지적 오류. 하지만, 인지 능력이 더 높은 LLM, 특히 ChatGPT과 GPT-4, 이러한 오류에 굴복하지 않고 초이성적으로 수행하는 법을 배웠습니다 우리의 실험을 위해, 우리는 인지 반사 테스트로 LLM을 조사한다 (CRT) 뿐만 아니라 원래 목적으로 설계된 의미론적 환상도 있다 인간의 직관적인 의사 결정을 조사하다. 게다가, 우리는 얼마나 튼튼한지 조사한다 직관적인 의사결정을 하는 경향은. 우리의 연구는 증명한다 심리학의 방법으로 LLM을 조사하는 것은 잠재력이 있다 그 밖에 알려지지 않은 출현 특성을 드러내다. 

 

 

GEmo-CLAP: Gender-Attribute-Enhanced Contrastive Language-Audio Pretraining for Speech Emotion Recognition

 

Contrastive Language-Audio Pretraining (CLAP) has recently exhibited impressive success in diverse fields. In this paper, we propose GEmo-CLAP, a kind of efficient gender-attribute-enhanced CLAP model for speech emotion recognition (SER). Specifically, we first build an effective emotion CLAP model termed Emo-CLAP for SER, utilizing various self-supervised learning based pre-trained models. Then, considering the importance of the gender attribute in speech emotion modeling, two GEmo-CLAP approaches are further proposed to integrate the emotion and gender information of speech signals, forming more reasonable objectives. Extensive experiments conducted on the IEMOCAP corpus demonstrate that our proposed two GEmo-CLAP approaches consistently outperform the baseline Emo-CLAP with different pre-trained models, while also achieving superior recognition performance compared with other state-of-the-art methods.

 

대조적 언어-오디오 사전 훈련(CLAP)이 최근에 나타났다 다양한 분야에서 인상적인 성공. 이 논문에서, 우리는 GEMO-CLAP, 즉 언어 감정을 위한 효율적인 성별 속성 강화 CLAP 모델 같은 것 인식(SER). 구체적으로, 우리는 먼저 효과적인 감정 CLAP 모델을 구축한다 다양한 자체 지도 학습 기반을 활용하는 SER용 Emo-CLAP이라고 한다 사전 훈련된 모델. 그렇다면, 성별 속성의 중요성을 고려하면 음성 감정 모델링, 두 가지 GEMO-CLAP 접근법이 추가로 제안된다 음성 신호의 감정과 성별 정보를 통합하여 더 많은 것을 형성한다 합리적인 목적. IEMOCAP 말뭉치에 대해 수행된 광범위한 실험 제안된 두 가지 GEMO-CLAP 접근 방식이 일관되게 성능을 능가한다는 것을 입증한다 서로 다른 사전 훈련된 모델을 사용하는 기본 Emo-CLAP을 사용하는 동시에 다른 최첨단 방법에 비해 뛰어난 인식 성능을 제공합니다. 

 

 

Hybrid lemmatization in HuSpaCy

 

Lemmatization is still not a trivial task for morphologically rich languages. Previous studies showed that hybrid architectures usually work better for these languages and can yield great results. This paper presents a hybrid lemmatizer utilizing both a neural model, dictionaries and hand-crafted rules. We introduce a hybrid architecture along with empirical results on a widely used Hungarian dataset. The presented methods are published as three HuSpaCy models.

 

레미제이션은 형태학적으로 풍부한 언어들에게 여전히 사소한 작업이 아니다. 이전 연구에 따르면 하이브리드 아키텍처는 일반적으로 이러한 환경에서 더 잘 작동합니다 언어와 좋은 결과를 낼 수 있다. 이 논문은 하이브리드 레마타이저를 제시한다 신경 모델, 사전 및 수작업 규칙을 모두 활용합니다. 우리가 널리 사용되는 경험적 결과와 함께 하이브리드 아키텍처를 도입합니다 헝가리 데이터 집합입니다. 제시된 방법은 세 가지 HuSpaCy 모델로 게시된다. 

 

 

반응형

댓글