본문 바로가기
오늘의 자연어 처리

[2023-08-16] 오늘의 자연어처리

by 지환이아빠 2023. 8. 16.
반응형

Aesthetics of Sanskrit Poetry from the Perspective of Computational Linguistics: A Case Study Analysis on Siksastaka

 

Sanskrit poetry has played a significant role in shaping the literary and cultural landscape of the Indian subcontinent for centuries. However, not much attention has been devoted to uncovering the hidden beauty of Sanskrit poetry in computational linguistics. This article explores the intersection of Sanskrit poetry and computational linguistics by proposing a roadmap of an interpretable framework to analyze and classify the qualities and characteristics of fine Sanskrit poetry. We discuss the rich tradition of Sanskrit poetry and the significance of computational linguistics in automatically identifying the characteristics of fine poetry. The proposed framework involves a human-in-the-loop approach that combines deterministic aspects delegated to machines and deep semantics left to human experts. We provide a deep analysis of Siksastaka, a Sanskrit poem, from the perspective of 6 prominent kavyashastra schools, to illustrate the proposed framework. Additionally, we provide compound, dependency, anvaya (prose order linearised form), meter, rasa (mood), alankar (figure of speech), and riti (writing style) annotations for Siksastaka and a web application to illustrate the poem's analysis and annotations. Our key contributions include the proposed framework, the analysis of Siksastaka, the annotations and the web application for future research. Link for interactive analysis: this https URL

 

산스크리트어 시는 문학을 형성하는 데 중요한 역할을 했다 수세기 동안 인도 아대륙의 문화 경관. 그러나 많지는 않다 산스크리트어 시의 숨겨진 아름다움을 발견하는 데 관심을 기울였다 계산 언어학에서. 이 기사는 다음의 교차점을 탐구한다 산스크리트어 시와 컴퓨터 언어학은 산스크리트어의 로드맵을 제안한다 품질을 분석하고 분류하기 위한 해석 가능한 프레임워크 및 훌륭한 산스크리트 시의 특징. 우리는 의 풍부한 전통에 대해 논의한다 산스크리트어 시와 컴퓨터 언어학의 중요성 자동적으로 훌륭한 시의 특징을 확인합니다. 제안된 프레임워크는 결정론을 결합하는 인간-인-더-루프 접근법을 포함한다 기계에 위임된 측면과 인간 전문가에게 남겨진 깊은 의미론. 우리가 산스크리트어 시인 식사스타카의 관점에서 깊은 분석을 제공한다 제안된 프레임워크를 설명하기 위해 6개의 저명한 카비아샤스트라 학교. 또한, 우리는 화합물, 의존성, 안바야(prose order linarized)를 제공한다 폼), 미터, 라사(키워드), 랭커(말의 형상) 및 리티(쓰기 스타일) 식사스타카에 대한 주석과 시의 내용을 설명하기 위한 웹 애플리케이션 분석 및 주석. 우리의 주요 기여는 제안된 프레임워크를 포함한다, 식사스타카의 분석, 주석 및 미래를 위한 웹 애플리케이션 조사. 대화형 분석을 위한 링크: 이 https URL 

 

 

Large Language Models for Information Retrieval: A Survey

 

As a primary means of information acquisition, information retrieval (IR) systems, such as search engines, have integrated themselves into our daily lives. These systems also serve as components of dialogue, question-answering, and recommender systems. The trajectory of IR has evolved dynamically from its origins in term-based methods to its integration with advanced neural models. While the neural models excel at capturing complex contextual signals and semantic nuances, thereby reshaping the IR landscape, they still face challenges such as data scarcity, interpretability, and the generation of contextually plausible yet potentially inaccurate responses. This evolution requires a combination of both traditional methods (such as term-based sparse retrieval methods with rapid response) and modern neural architectures (such as language models with powerful language understanding capacity). Meanwhile, the emergence of large language models (LLMs), typified by ChatGPT and GPT-4, has revolutionized natural language processing due to their remarkable language understanding, generation, generalization, and reasoning abilities. Consequently, recent research has sought to leverage LLMs to improve IR systems. Given the rapid evolution of this research trajectory, it is necessary to consolidate existing methodologies and provide nuanced insights through a comprehensive overview. In this survey, we delve into the confluence of LLMs and IR systems, including crucial aspects such as query rewriters, retrievers, rerankers, and readers. Additionally, we explore promising directions within this expanding field.

 

정보획득의 주요 수단으로서 정보검색(IR) 검색 엔진과 같은 시스템은 우리의 일상에 통합되었다 삶. 이 시스템들은 대화, 질의응답, 그리고 추천 시스템. IR의 궤적은 그것으로부터 역동적으로 진화해왔다 용어 기반 방법의 기원은 고급 신경 모델과의 통합입니다. 신경 모델은 복잡한 상황 신호를 포착하는 데 탁월하지만 의미론적 뉘앙스로 IR 풍경을 재구성하여, 그들은 여전히 직면하고 있다 데이터 부족, 해석 가능성 및 생성과 같은 문제 상황에 따라 그럴듯하지만 잠재적으로 부정확한 응답입니다. 이 진화 기존의 두 가지 방법(예: 용어 기반 희소)의 조합 필요 빠른 응답을 통한 검색 방법 및 최신 신경 구조(예 강력한 언어 이해 능력을 갖춘 언어 모델). 그 동안에 ChatGPT와 GPT-4로 대표되는 큰 언어 모델(LLM)의 출현은 그들의 놀라운 언어로 인해 혁신적인 자연어 처리 이해, 생성, 일반화 및 추론 능력. 결과적으로, 최근의 연구는 IR을 개선하기 위해 LLM을 활용하려고 했다 시스템들. 이 연구 궤적의 빠른 진화를 고려할 때, 그것은 필요하다 기존 방법론을 통합하고 A를 통해 미묘한 통찰력을 제공한다 종합적인 개관. 이 조사에서, 우리는 LLM의 합류점에 대해 자세히 조사한다 쿼리 재작성기, 검색기와 같은 중요한 측면을 포함한 IR 시스템, 랭커, 그리고 독자들. 또한, 우리는 내에서 유망한 방향을 탐구한다 이 확장된 분야. 

 

 

Comparison between parameter-efficient techniques and full fine-tuning: A case study on multilingual news article classification

 

Adapters and Low-Rank Adaptation (LoRA) are parameter-efficient fine-tuning techniques designed to make the training of language models more efficient. Previous results demonstrated that these methods can even improve performance on some classification tasks. This paper complements the existing research by investigating how these techniques influence the classification performance and computation costs compared to full fine-tuning when applied to multilingual text classification tasks (genre, framing, and persuasion techniques detection; with different input lengths, number of predicted classes and classification difficulty), some of which have limited training data. In addition, we conduct in-depth analyses of their efficacy across different training scenarios (training on the original multilingual data; on the translations into English; and on a subset of English-only data) and different languages. Our findings provide valuable insights into the applicability of the parameter-efficient fine-tuning techniques, particularly to complex multilingual and multilabel classification tasks.

 

어댑터 및 LoRA(Low Rank Adaptation)는 파라미터 효율적인 미세 조정입니다 언어 모델의 훈련을 더 효율적으로 만들기 위해 고안된 기술들. 이전의 결과는 이러한 방법이 성능을 향상시킬 수 있음을 보여주었다 몇 가지 분류 작업에서. 이 논문은 기존의 연구를 보완한다 이러한 기술이 분류 성과에 어떤 영향을 미치는지 조사하고 다국어에 적용할 때 전체 미세 조정 대비 계산 비용 텍스트 분류 작업(로그인, 프레이밍 및 설득 기법 검출); 다른 입력 길이, 예측 클래스 수 및 cl 포함시제 난이도), 일부는 훈련 데이터가 제한되어 있다. 게다가, 우리는 실시한다 다양한 교육 시나리오에 걸친 효과에 대한 심층 분석 (원본 다국어 데이터에 대한 교육; 영어로의 번역; 그리고 영어 전용 데이터의 하위 집합)과 다른 언어에 대한 정보를 제공합니다. 우리의 연구 결과 매개변수 효율성의 적용 가능성에 대한 귀중한 통찰력을 제공 특히 복잡한 다국어 및 다중 레이블을 위한 미세 조정 기술 분류 작업. 

 

 

반응형

댓글