본문 바로가기
오늘의 자연어 처리

[2023-11-21] 오늘의 자연어처리

by 지환이아빠 2023. 11. 21.
반응형

The Impact of Familiarity on Naming Variation: A Study on Object Naming in Mandarin Chinese

 

Abstract:Different speakers often produce different names for the same object or entity (e.g., "woman" vs. "tourist" for a female tourist). The reasons behind variation in naming are not well understood. We create a Language and Vision dataset for Mandarin Chinese that provides an average of 20 names for 1319 naturalistic images, and investigate how familiarity with a given kind of object relates to the degree of naming variation it triggers across subjects. We propose that familiarity influences naming variation in two competing ways: increasing familiarity can either expand vocabulary, leading to higher variation, or promote convergence on conventional names, thereby reducing variation. We find evidence for both factors being at play. Our study illustrates how computational resources can be used to address research questions in Cognitive Science.

 

추상화:다른 화자들은 종종 동일한 대상이나 개체에 대해 다른 이름을 생성한다(예: "여성" vs. 여성 관광객을 위한 "tourist")입니다. 이름의 차이에 대한 이유는 잘 알려져 있지 않다. 1319개의 자연주의 이미지에 대해 평균 20개의 이름을 제공하는 만다린 중국어를 위한 언어 및 비전 데이터 세트를 만들고, 주어진 종류의 객체에 대한 친숙도가 주제 간의 이름 변경을 유발하는 정도와 어떻게 관련이 있는지 조사한다. 우리는 친숙도가 두 가지 경쟁적인 방법으로 이름 변경에 영향을 미친다고 제안한다: 친숙도를 높이는 것은 어휘를 확장하여 더 높은 변경으로 이어지거나 기존 이름에 대한 수렴을 촉진하여 변경을 줄일 수 있다. 우리는 두 요소가 모두 작용하고 있다는 증거를 발견한다. 우리의 연구는 인지 과학의 연구 문제를 해결하기 위해 계산 자원이 어떻게 사용될 수 있는지를 보여준다. 

 

 

Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human Narrative Processing

 

Abstract:Understanding how humans process natural language has long been a vital research direction. The field of natural language processing (NLP) has recently experienced a surge in the development of powerful language models. These models have proven to be invaluable tools for studying another complex system known to process human language: the brain. Previous studies have demonstrated that the features of language models can be mapped to fMRI brain activity. This raises the question: is there a commonality between information processing in language models and the human brain? To estimate information flow patterns in a language model, we examined the causal relationships between different layers. Drawing inspiration from the workspace framework for consciousness, we hypothesized that features integrating more information would more accurately predict higher hierarchical brain activity. To validate this hypothesis, we classified language model features into two categories based on causal network measures: 'low in-degree' and 'high in-degree'. We subsequently compared the brain prediction accuracy maps for these two groups. Our results reveal that the difference in prediction accuracy follows a hierarchical pattern, consistent with the cortical hierarchy map revealed by activity time constants. This finding suggests a parallel between how language models and the human brain process linguistic information.

 

추상화:인간이 자연어를 어떻게 처리하는지 이해하는 것은 오랫동안 중요한 연구 방향이었다. 자연어 처리(NLP) 분야는 최근 강력한 언어 모델의 개발이 급증하고 있다. 이 모델들은 인간의 언어를 처리하는 것으로 알려진 또 다른 복잡한 시스템인 뇌를 연구하는 데 매우 귀중한 도구임이 입증되었다. 이전의 연구들은 언어 모델들의 특징들이 fMRI 뇌 활동에 매핑될 수 있다는 것을 증명했다. 이것은 언어 모델의 정보 처리와 인간의 뇌 사이에 공통점이 있는가라는 질문을 제기한다? 언어 모델에서 정보 흐름 패턴을 추정하기 위해 서로 다른 계층 간의 인과 관계를 조사했다. 의식을 위한 작업 공간 프레임워크에서 영감을 끌어 더 많은 정보를 통합하는 기능이 더 높은 계층적 뇌 활동을 더 정확하게 예측할 수 있다고 가정했다. 이 가설을 검증하기 위해 언어 모델 특징을 인과적 네트워크 척도에 따라 '낮은 정도'와 '높은 정도'의 두 가지 범주로 분류하였다. 이후 이 두 그룹에 대한 뇌 예측 정확도 지도를 비교했다. 우리의 결과는 예측 정확도의 차이가 활동 시간 상수로 밝혀진 피질 계층 지도와 일치하는 계층적 패턴을 따른다는 것을 보여준다. 이 발견은 언어 모델과 인간의 뇌가 언어 정보를 처리하는 방법의 유사성을 시사한다. 

 

 

Bias A-head? Analyzing Bias in Transformer-Based Language Model Attention Heads

 

Abstract:Transformer-based pretrained large language models (PLM) such as BERT and GPT have achieved remarkable success in NLP tasks. However, PLMs are prone to encoding stereotypical biases. Although a burgeoning literature has emerged on stereotypical bias mitigation in PLMs, such as work on debiasing gender and racial stereotyping, how such biases manifest and behave internally within PLMs remains largely unknown. Understanding the internal stereotyping mechanisms may allow better assessment of model fairness and guide the development of effective mitigation strategies. In this work, we focus on attention heads, a major component of the Transformer architecture, and propose a bias analysis framework to explore and identify a small set of biased heads that are found to contribute to a PLM's stereotypical bias. We conduct extensive experiments to validate the existence of these biased heads and to better understand how they behave. We investigate gender and racial bias in the English language in two types of Transformer-based PLMs: the encoder-based BERT model and the decoder-based autoregressive GPT model. Overall, the results shed light on understanding the bias behavior in pretrained language models.

 

추상화:BERT 및 GPT와 같은 트랜스포머 기반 사전 훈련된 큰 언어 모델(PLM)은 NLP 작업에서 놀라운 성공을 거두었다. 그러나 PLM은 정형화된 편향을 인코딩하기 쉽다. 성별 및 인종 고정관념의 편향에 대한 연구와 같이 PLM의 고정관념적 편향 완화에 대한 문헌이 등장했지만 이러한 편향이 PLM 내에서 어떻게 나타나고 행동하는지는 크게 알려지지 않았다. 내부 고정관념 메커니즘을 이해하는 것은 모델 공정성에 대한 더 나은 평가를 가능하게 하고 효과적인 완화 전략의 개발을 안내할 수 있다. 본 연구에서는 트랜스포머 아키텍처의 주요 구성 요소인 주의 헤드에 초점을 맞추고 PLM의 고정 편향에 기여하는 것으로 밝혀진 소수의 편향 헤드 세트를 탐색하고 식별하기 위해 편향 분석 프레임워크를 제안한다. 우리는 이러한 편향된 머리의 존재를 검증하고 그들이 어떻게 행동하는지 더 잘 이해하기 위해 광범위한 실험을 수행한다. 인코더 기반 BERT 모델과 디코더 기반 자기회귀 GPT 모델의 두 가지 유형의 Transformer 기반 PLM에서 영어의 성별 및 인종 편향을 조사한다. 전반적으로, 결과는 사전 훈련된 언어 모델에서 편향 행동을 이해하는 것을 조명한다. 

 

 

반응형

댓글