본문 바로가기
오늘의 자연어 처리

[2023-08-25] 오늘의 자연어처리

by 지환이아빠 2023. 8. 25.
반응형

Reranking Passages with Coarse-to-Fine Neural Retriever using List-Context Information

 

Passage reranking is a crucial task in many applications, particularly when dealing with large-scale documents. Traditional neural architectures are limited in retrieving the best passage for a question because they usually match the question to each passage separately, seldom considering contextual information in other passages that can provide comparison and reference information. This paper presents a list-context attention mechanism to augment the passage representation by incorporating the list-context information from other candidates. The proposed coarse-to-fine (C2F) neural retriever addresses the out-of-memory limitation of the passage attention mechanism by dividing the list-context modeling process into two sub-processes, allowing for efficient encoding of context information from a large number of candidate answers. This method can be generally used to encode context information from any number of candidate answers in one pass. Different from most multi-stage information retrieval architectures, this model integrates the coarse and fine rankers into the joint optimization process, allowing for feedback between the two layers to update the model simultaneously. Experiments demonstrate the effectiveness of the proposed approach.

 

특히 다음과 같은 경우에 많은 응용 프로그램에서 통로 순위 변경은 중요한 작업입니다 대규모 문서를 다루는 것. 전통적인 신경 구조는 그들은 보통 질문에 대한 가장 좋은 구절을 검색하는 데 제한이 있다 문맥을 거의 고려하지 않고 질문을 각 구절에 개별적으로 맞추다 비교와 참조를 제공할 수 있는 다른 절의 정보 정보. 이 논문은 증강하기 위한 목록 맥락 주의 메커니즘을 제시한다 목록에 포함된 정보를 통합하여 통과 표시 다른 후보자들. 제안된 C2F(Corse-to-Fine) 신경 검색기 주소 다음을 구분하여 통행 주의 메커니즘의 메모리 부족 한계 효율성을 위해 두 개의 하위 요소로 구성된 목록 편집 모델링 프로세스 다수의 후보 답변에서 컨텍스트 정보를 인코딩합니다. 이것. 방법은 일반적으로 임의의 수의 상황 정보를 인코딩하는 데 사용될 수 있다 한 번의 패스로 후보자의 답변. 대부분의 다단계 정보와 다름 검색 아키텍처, 이 모델은 거친 랭커와 미세 랭커를 통합한다 두 계층 간에 피드백을 허용하는 공동 최적화 프로세스 모델을 동시에 업데이트합니다. 실험은 의 효과를 입증한다 제안된 방법. 

 

 

Towards an On-device Agent for Text Rewriting

 

Large Language Models (LLMs) have demonstrated impressive capabilities for text rewriting. Nonetheless, the large sizes of these models make them impractical for on-device inference, which would otherwise allow for enhanced privacy and economical inference. Creating a smaller yet potent language model for text rewriting presents a formidable challenge because it requires balancing the need for a small size with the need to retain the emergent capabilities of the LLM, that requires costly data collection. To address the above challenge, we introduce a new instruction tuning approach for building a mobile-centric text rewriting model. Our strategies enable the generation of high quality training data without any human labeling. In addition, we propose a heuristic reinforcement learning framework which substantially enhances performance without requiring preference data. To further bridge the performance gap with the larger server-side model, we propose an effective approach that combines the mobile rewrite agent with the server model using a cascade. To tailor the text rewriting tasks to mobile scenarios, we introduce MessageRewriteEval, a benchmark that focuses on text rewriting for messages through natural language instructions. Through empirical experiments, we demonstrate that our on-device model surpasses the current state-of-the-art LLMs in text rewriting while maintaining a significantly reduced model size. Notably, we show that our proposed cascading approach improves model performance.

 

LLM(Large Language Model)은 다음과 같은 탁월한 기능을 입증했습니다 텍스트 개서. 그럼에도 불구하고, 이 모델들의 큰 크기는 그것들을 만든다 장치 내 추론에서는 비현실적이며, 그렇지 않으면 향상될 수 있다 사생활과 경제적 추론. 더 작지만 강력한 언어 모델 만들기 텍스트 재작성은 필요하기 때문에 엄청난 도전이 된다 작은 크기에 대한 필요와 응급 상황을 유지해야 하는 필요의 균형 비용이 많이 드는 데이터 수집이 필요한 LLM의 기능입니다. 주소를 지정하려면 위의 과제에서, 우리는 구축을 위한 새로운 명령 조정 접근법을 도입한다 모바일 중심 텍스트 다시 쓰기 모델. 우리의 전략은 다음의 생성을 가능하게 합니다 사용자 라벨이 없는 고품질 교육 데이터. 게다가, 우리는 제안한다 상당히 향상된 휴리스틱 강화 학습 프레임워크 선호도 데이터를 요구하지 않는 성능을 제공합니다. 다리를 더 놓으려면 더 큰 서버 측 모델과의 성능 격차, 우리는 효과적인 방법을 제안한다 모바일 재작성 에이전트와 서버 모델을 결합하는 접근 방식은 다음을 사용합니다 계단식의. 텍스트 다시 쓰기 작업을 모바일 시나리오에 맞게 조정하기 위해 소개합니다 MessageRewriteEval, 메시지의 텍스트 재작성에 초점을 맞춘 벤치마크 자연어 교육을 통해. 경험적 실험을 통해, 우리는 온 디바이스 모델이 현재의 최첨단 모델을 능가한다는 것을 입증합니다 상당히 줄어든 모델 크기를 유지하면서 텍스트 재작성의 LLM. 특히, 우리는 제안된 계단식 접근 방식이 모델을 개선한다는 것을 보여준다 성능. 

 

 

From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning

 

In the realm of Large Language Models, the balance between instruction data quality and quantity has become a focal point. Recognizing this, we introduce a self-guided methodology for LLMs to autonomously discern and select cherry samples from vast open-source datasets, effectively minimizing manual curation and potential cost for instruction tuning an LLM. Our key innovation, the Instruction-Following Difficulty (IFD) metric, emerges as a pivotal tool to identify discrepancies between a model's expected responses and its autonomous generation prowess. Through the adept application of IFD, cherry samples are pinpointed, leading to a marked uptick in model training efficiency. Empirical validations on renowned datasets like Alpaca and WizardLM underpin our findings; with a mere 10% of conventional data input, our strategy showcases improved results. This synthesis of self-guided cherry-picking and the IFD metric signifies a transformative leap in the optimization of LLMs, promising both efficiency and resource-conscious advancements.

 

Large Language Models의 영역에서 명령 데이터 간의 균형 질과 양은 초점이 되었다. 이를 인식하여, 우리는 A를 소개한다 LLM이 체리를 자율적으로 식별하고 선택하기 위한 자체 유도 방법론 방대한 오픈 소스 데이터 세트의 샘플로 수동 큐레이션을 효과적으로 최소화 그리고 LLM을 조정하기 위한 잠재적인 비용. 우리의 핵심 혁신은 지침 추종 난이도(IFD) 메트릭은 다음을 위한 중추적인 도구로 부상합니다 모델의 예상 반응과 자율 반응 사이의 불일치 확인 세대의 위용. IFD의 능숙한 적용을 통해 체리 샘플은 모델 교육 효율성이 크게 향상된 것으로 이어 모델 교육 효율성이 크게 향상되었습니다. 경험적 알파카 및 마법사 LM과 같은 유명한 데이터 세트에 대한 검증은 우리의 기반이 된다 결과: 기존 데이터 입력의 10%에 불과한 우리의 전략은 공개됩니다 개선된 결과. 자가유도 체리피킹과 IFD의 합성 메트릭은 LLM 최적화의 변혁적 도약을 의미하며, 약속합니다 효율성과 자원을 중요하게 생각하는 진보. 

 

 

반응형

댓글