"More Than Words": Linking Music Preferences and Moral Values Through Lyrics
This study explores the association between music preferences and moral values by applying text analysis techniques to lyrics. Harvesting data from a Facebook-hosted application, we align psychometric scores of 1,386 users to lyrics from the top 5 songs of their preferred music artists as emerged from Facebook Page Likes. We extract a set of lyrical features related to each song's overarching narrative, moral valence, sentiment, and emotion. A machine learning framework was designed to exploit regression approaches and evaluate the predictive power of lyrical features for inferring moral values. Results suggest that lyrics from top songs of artists people like inform their morality. Virtues of hierarchy and tradition achieve higher prediction scores ($.20 \leq r \leq .30$) than values of empathy and equality ($.08 \leq r \leq .11$), while basic demographic variables only account for a small part in the models' explainability. This shows the importance of music listening behaviours, as assessed via lyrical preferences, alone in capturing moral values. We discuss the technological and musicological implications and possible future improvements.
이 연구는 음악 선호와 도덕 사이의 연관성을 탐구한다. 텍스트 분석 기법을 가사에 적용하여 값을 산출합니다. 에서 데이터 수집 Facebook 호스팅된 애플리케이션, 우리는 1,386명의 사용자들의 사이코메트릭 점수를 다음과 일치시킨다. 그들이 선호하는 음악 아티스트들의 상위 5곡의 가사. 페이스북 페이지 좋아요. 우리는 각각과 관련된 일련의 서정적인 특징들을 추출한다. 노래의 가장 중요한 서사, 도덕적 가치, 감정, 그리고 감정. 기계 학습 프레임워크는 회귀 접근법을 활용하고 평가하기 위해 설계되었다. 도덕적 가치를 추론하는 서정적인 특징의 예측력 결과. 사람들이 좋아하는 아티스트들의 탑송의 가사가 그들에게 알려주기를 제안합니다. 도덕성 위계질서와 전통의 덕목은 더 높은 예측 점수를 달성한다. ($.20 \leq r \leq.30$) 공감과 평등의 가치 ($.08 \leq r \leq)보다. .11$), 기본 인구 통계 변수는 단지 작은 부분을 차지한다. 모델의 설명 가능성 이것은 음악 감상의 중요성을 보여준다. 서정적인 선호를 통해 평가되는 행동들, 도덕성을 포착하는 것만으로. 우리는 기술적, 음악적인 의미에 대해 논의한다. 장래에 있을 수 있는 개선 사항
Find the Funding: Entity Linking with Incomplete Funding Knowledge Bases
Automatic extraction of funding information from academic articles adds significant value to industry and research communities, such as tracking research outcomes by funding organizations, profiling researchers and universities based on the received funding, and supporting open access policies. Two major challenges of identifying and linking funding entities are: (i) sparse graph structure of the Knowledge Base (KB), which makes the commonly used graph-based entity linking approaches suboptimal for the funding domain, (ii) missing entities in KB, which (unlike recent zero-shot approaches) requires marking entity mentions without KB entries as NIL. We propose an entity linking model that can perform NIL prediction and overcome data scarcity issues in a time and data-efficient manner. Our model builds on a transformer-based mention detection and bi-encoder model to perform entity linking. We show that our model outperforms strong existing baselines.
학술 기사에서 자금 지원 정보 자동 추출 추가 추적과 같은 산업 및 연구 커뮤니티에 중요한 가치 자금조달 조직, 연구자 프로파일링 및 지원받은 자금과 오픈 액세스를 지원하는 대학들 정책들. 자금조달 주체를 식별하고 연결하는 두 가지 주요 과제는 다음과 같다. (i) 기술 자료(KB)의 희박한 그래프 구조, 일반적으로 다음을 만든다. 사용된 그래프 기반 엔티티 연결 접근 방식은 기금 영역에 대해 차선이다. (ii) KB 단위의 누락된 엔티티, (최근 제로샷 접근 방식과 달리) KB 항목이 없는 엔티티 멘션을 NIL로 표시해야 합니다. 우리는 제안합니다. NIL 예측을 수행하고 데이터 부족을 극복할 수 있는 엔티티 연결 모델 시간 및 데이터 효율적인 방식으로 문제를 해결합니다. 우리 모델은 다음을 기반으로 합니다. 트랜스포머 기반 멘션 감지 및 엔티티 수행을 위한 쌍대역 모델 링크 우리는 우리의 모델이 강력한 기존 기준선을 능가한다는 것을 보여준다.
Multi-Scale Contrastive Co-Training for Event Temporal Relation Extraction
Extracting temporal relationships between pairs of events in texts is a crucial yet challenging problem for natural language understanding. Depending on the distance between the events, models must learn to differently balance information from local and global contexts surrounding the event pair for temporal relation prediction. Learning how to fuse this information has proved challenging for transformer-based language models. Therefore, we present MulCo: Multi-Scale Contrastive Co-Training, a technique for the better fusion of local and global contextualized features. Our model uses a BERT-based language model to encode local context and a Graph Neural Network (GNN) to represent global document-level syntactic and temporal characteristics. Unlike previous state-of-the-art methods, which use simple concatenation on multi-view features or select optimal sentences using sophisticated reinforcement learning approaches, our model co-trains GNN and BERT modules using a multi-scale contrastive learning objective. The GNN and BERT modules learn a synergistic parameterization by contrasting GNN multi-layer multi-hop subgraphs (i.e., global context embeddings) and BERT outputs (i.e., local context embeddings) through end-to-end back-propagation. We empirically demonstrate that MulCo provides improved ability to fuse local and global contexts encoded using BERT and GNN compared to the current state-of-the-art. Our experimental results show that MulCo achieves new state-of-the-art results on several temporal relation extraction datasets.
텍스트에서 이벤트 쌍 사이의 시간적 관계를 추출하는 것은 자연어 이해를 위한 중요하지만 어려운 문제 부수적인 사건들 사이의 거리에서, 모델들은 다른 균형을 잡는 법을 배워야 한다. 이벤트 쌍을 둘러싼 로컬 및 글로벌 컨텍스트의 정보 시간 관계 예측 이 정보를 융합하는 방법을 배우는 것이 증명되었습니다. 변압기 기반 언어 모델에 대한 도전입니다. 따라서, 우리는 MulCo를 제시한다. 국소적 융합을 위한 기술인 다중 스케일 대조적 공동 훈련 및 전역 상황별 기능. 우리 모델은 BERT 기반 언어 모델을 사용한다. 글로벌을 나타내기 위해 로컬 컨텍스트와 그래프 신경망(GNN)을 인코딩하다 문서 수준의 구문 및 시간적 특성. 이전과 달리 멀티뷰 기능에 간단한 연결을 사용하는 최첨단 방법 또는 정교한 강화 학습을 사용하여 최적의 문장을 선택한다. 접근 방식, 우리 모델은 다중 스케일을 사용하여 GNN 및 BERT 모듈을 공동 교육한다. 대조적인 학습 목표 GNN 및 BERT 모듈은 시너지 효과를 학습합니다. GNN 다중 계층 다중 홉 하위 그래프를 대조하여 매개 변수화(즉, 전역 컨텍스트 임베딩) 및 BERT 출력(즉, 로컬 컨텍스트 임베딩) 엔드 투 엔드 백트래픽을 통해. 우리는 MulCo를 경험적으로 BERT를 사용하여 인코딩된 로컬 및 글로벌 컨텍스트를 융합하는 향상된 기능을 제공합니다. 그리고 GNN을 현재의 최첨단 기술과 비교한다. 우리의 실험 결과는 MulCo가 여러 시간적 관계에서 새로운 최첨단 결과를 달성한다는 것. 추출 데이터 세트
'오늘의 자연어 처리' 카테고리의 다른 글
[2022-09-07] 오늘의 자연어처리 (0) | 2022.09.07 |
---|---|
[2022-09-06] 오늘의 자연어처리 (0) | 2022.09.06 |
[2022-09-05] 오늘의 자연어처리 (0) | 2022.09.05 |
[2022-09-04] 오늘의 자연어처리 (0) | 2022.09.04 |
[2022-09-03] 오늘의 자연어처리 (0) | 2022.09.03 |
댓글