본문 바로가기
오늘의 자연어 처리

[2023-08-30] 오늘의 자연어처리

by 지환이아빠 2023. 8. 30.
반응형

Examining User-Friendly and Open-Sourced Large GPT Models: A Survey on Language, Multimodal, and Scientific GPT Models

 

Generative pre-trained transformer (GPT) models have revolutionized the field of natural language processing (NLP) with remarkable performance in various tasks and also extend their power to multimodal domains. Despite their success, large GPT models like GPT-4 face inherent limitations such as considerable size, high computational requirements, complex deployment processes, and closed development loops. These constraints restrict their widespread adoption and raise concerns regarding their responsible development and usage. The need for user-friendly, relatively small, and open-sourced alternative GPT models arises from the desire to overcome these limitations while retaining high performance. In this survey paper, we provide an examination of alternative open-sourced models of large GPTs, focusing on user-friendly and relatively small models that facilitate easier deployment and accessibility. Through this extensive survey, we aim to equip researchers, practitioners, and enthusiasts with a thorough understanding of user-friendly and relatively small open-sourced models of large GPTs, their current state, challenges, and future research directions, inspiring the development of more efficient, accessible, and versatile GPT models that cater to the broader scientific community and advance the field of general artificial intelligence. The source contents are continuously updating in this https URL.

 

GPT(Generative Pre-Trained Transformer) 모델은 이 분야를 혁신적으로 발전시켰습니다 다양한 분야에서 주목할 만한 성능을 가진 자연어 처리(NLP)의 작업 및 그 권한을 멀티모달 도메인으로 확장합니다. 그들의 성공에도 불구하고, GPT-4와 같은 대형 GPT 모델은 다음과 같은 내재적 한계에 직면한다 크기, 높은 계산 요구사항, 복잡한 구축 프로세스 및 폐쇄된 기능 개발 고리. 이러한 제약은 그들의 광범위한 채택을 제한한다 그들의 책임 있는 개발과 사용에 대한 우려를 제기한다. 의 필요성 사용자 친화적이고 비교적 작고 개방적인 대체 GPT 모델이 등장한다 높은 성능을 유지하면서 이러한 한계를 극복하고자 하는 욕구에서 비롯됩니다. 이 설문지에서, 우리는 대안적인 오픈 소스에 대한 조사를 제공한다 사용자 친화적이고 비교적 작은 모델에 초점을 맞춘 대형 GPT 모델 구현 및 접근성을 용이하게 합니다. 이 넓은 범위를 통해서 설문조사, 우리는 연구자, 실무자 및 매니아를 준비시키는 것을 목표로 한다 사용자 친화적이고 비교적 작은 오픈 소스에 대한 철저한 이해 대규모 GPT의 모델, 현재 상태, 과제 및 향후 연구 보다 효율적이고 접근하기 쉬운 개발에 영감을 주는 방향, 그리고. 더 넓은 과학계에 부응하고 발전하는 다용도 GPT 모델 일반 인공 지능 분야. 출처 내용은 이 https URL에서 지속적으로 업데이트합니다. 

 

 

DISC-MedLLM: Bridging General Large Language Models and Real-World Medical Consultation

 

We propose DISC-MedLLM, a comprehensive solution that leverages Large Language Models (LLMs) to provide accurate and truthful medical response in end-to-end conversational healthcare services. To construct high-quality Supervised Fine-Tuning (SFT) datasets, we employ three strategies: utilizing medical knowledge-graphs, reconstructing real-world dialogues, and incorporating human-guided preference rephrasing. These datasets are instrumental in training DISC-MedLLM, surpassing existing medical LLMs in both single-turn and multi-turn consultation scenarios. Extensive experimental results demonstrate the effectiveness of the proposed model in bridging the gap between general language models and real-world medical consultation. Additionally, we release the constructed dataset and model weights to further contribute to research and development. Further details and resources can be found at this https URL

 

우리는 Large를 활용하는 포괄적인 솔루션인 DISC-MedLLM을 제안한다 정확하고 진실한 의료 대응을 제공하기 위한 언어 모델(LLM) 엔드 투 엔드 대화형 의료 서비스입니다. 고품질을 구축하기 위해 감독된 미세 조정(SFT) 데이터 세트는 세 가지 전략을 사용한다 의학 지식 수집, 실제 대화 재구성, 그리고 인간에 의해 유도되는 선호 표현을 통합한다. 이러한 데이터 세트는 DISC-MedLLM을 훈련하는 데 중요하며, 두 가지 모두에서 기존 의료 LLM을 능가한다 단회전 및 다회전 상담 시나리오. 대규모 실험 결과는 격차 해소에 있어 제안된 모델의 효과를 보여준다 일반 언어 모델과 실제 의료 상담 사이에서. 또한, 우리는 구성된 데이터 세트와 모델 가중치를 공개하여 추가적으로 제공한다 연구 개발에 공헌하다. 자세한 내용 및 리소스는 다음과 같습니다 이 https URL에서 찾을 수 있습니다 

 

 

Examining User-Friendly and Open-Sourced Large GPT Models: A Survey on Language, Multimodal, and Scientific GPT Models

 

Generative pre-trained transformer (GPT) models have revolutionized the field of natural language processing (NLP) with remarkable performance in various tasks and also extend their power to multimodal domains. Despite their success, large GPT models like GPT-4 face inherent limitations such as considerable size, high computational requirements, complex deployment processes, and closed development loops. These constraints restrict their widespread adoption and raise concerns regarding their responsible development and usage. The need for user-friendly, relatively small, and open-sourced alternative GPT models arises from the desire to overcome these limitations while retaining high performance. In this survey paper, we provide an examination of alternative open-sourced models of large GPTs, focusing on user-friendly and relatively small models that facilitate easier deployment and accessibility. Through this extensive survey, we aim to equip researchers, practitioners, and enthusiasts with a thorough understanding of user-friendly and relatively small open-sourced models of large GPTs, their current state, challenges, and future research directions, inspiring the development of more efficient, accessible, and versatile GPT models that cater to the broader scientific community and advance the field of general artificial intelligence. The source contents are continuously updating in this https URL.

 

GPT(Generative Pre-Trained Transformer) 모델은 이 분야를 혁신적으로 발전시켰습니다 다양한 분야에서 주목할 만한 성능을 가진 자연어 처리(NLP)의 작업 및 그 권한을 멀티모달 도메인으로 확장합니다. 그들의 성공에도 불구하고, GPT-4와 같은 대형 GPT 모델은 다음과 같은 내재적 한계에 직면한다 크기, 높은 계산 요구사항, 복잡한 구축 프로세스 및 폐쇄된 기능 개발 고리. 이러한 제약은 그들의 광범위한 채택을 제한한다 그들의 책임 있는 개발과 사용에 대한 우려를 제기한다. 의 필요성 사용자 친화적이고 비교적 작고 개방적인 대체 GPT 모델이 등장한다 높은 성능을 유지하면서 이러한 한계를 극복하고자 하는 욕구에서 비롯됩니다. 이 설문지에서, 우리는 대안적인 오픈 소스에 대한 조사를 제공한다 사용자 친화적이고 비교적 작은 모델에 초점을 맞춘 대형 GPT 모델 구현 및 접근성을 용이하게 합니다. 이 넓은 범위를 통해서 설문조사, 우리는 연구자, 실무자 및 매니아를 준비시키는 것을 목표로 한다 사용자 친화적이고 비교적 작은 오픈 소스에 대한 철저한 이해 대규모 GPT의 모델, 현재 상태, 과제 및 향후 연구 보다 효율적이고 접근하기 쉬운 개발에 영감을 주는 방향, 그리고. 더 넓은 과학계에 부응하고 발전하는 다용도 GPT 모델 일반 인공 지능 분야. 출처 내용은 이 https URL에서 지속적으로 업데이트합니다. 

 

 

반응형

댓글