본문 바로가기
오늘의 자연어 처리

[2023-06-19] 오늘의 자연어처리

by 지환이아빠 2023. 6. 19.
반응형

Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large Language Models

 

The wide applicability and adaptability of generative large language models (LLMs) has enabled their rapid adoption. While the pre-trained models can perform many tasks, such models are often fine-tuned to improve their performance on various downstream applications. However, this leads to issues over violation of model licenses, model theft, and copyright infringement. Moreover, recent advances show that generative technology is capable of producing harmful content which exacerbates the problems of accountability within model supply chains. Thus, we need a method to investigate how a model was trained or a piece of text was generated and what their pre-trained base model was. In this paper we take the first step to address this open problem by tracing back the origin of a given fine-tuned LLM to its corresponding pre-trained base model. We consider different knowledge levels and attribution strategies, and find that we can correctly trace back 8 out of the 10 fine tuned models with our best method.

 

생성적 대규모 언어 모델의 광범위한 적용성 및 적응성 (LLM)은 신속한 채택을 가능하게 했다. 사전 교육을 받은 모델은 다음과 같은 작업을 수행할 수 있습니다 많은 작업을 수행하며, 그러한 모델은 종종 그들의 개선을 위해 미세 조정된다 다양한 다운스트림 애플리케이션의 성능. 그러나 이는 문제로 이어진다 모델 라이선스 위반, 모델 도난 및 저작권 침해에 대해. 게다가, 최근의 발전은 생성 기술이 할 수 있다는 것을 보여준다 책임 문제를 악화시키는 유해한 콘텐츠 제작 모델 공급망 내에서. 따라서, 우리는 모델이 어떻게 훈련을 받았거나 텍스트가 생성되었고 사전 훈련된 기반이 무엇인지 모델은. 이 논문에서 우리는 이 미해결 문제를 해결하기 위한 첫 단계를 수행한다 주어진 미세 조정된 LLM의 원점을 해당 LLM으로 추적합니다 사전 훈련된 기본 모델. 우리는 다양한 지식 수준과 속성을 고려한다 전략, 그리고 우리가 10개의 벌금 중 8개를 정확하게 추적할 수 있다는 것을 발견한다 최적의 방법으로 모델을 조정했습니다. 

 

 

Diplomat: A Dialogue Dataset for Situated PragMATic Reasoning

 

Pragmatic reasoning aims at resolving implicit meanings that commonly occur in real-life and is crucial for building communicative social agents. We introduce a new benchmark, Diplomat, aiming at a unified paradigm for pragmatic reasoning and situated conversational understanding. Compared with previous works that treat different figurative expressions (e.g., metaphor, sarcasm) as individual tasks, Diplomat provides a unified understanding towards general pragmatic understanding. Our dataset is created using Amazon Mechanical Turk ( AMT ), resulting in 4, 177 multi-turn dialogues. In company with the dataset, we propose two tasks: Pragmatic Identification and Reasoning and Conversational Question Answering. Experimental results with state-of-the-art (SOTA) neural architectures demonstrate that: 1) large language models ( LLMs) show poor performances in this subjective topic. 2) Context understanding is a crucial factor in building benign human-machine interaction. 3) Current models defect in the application of pragmatic reasoning. As a result, we call on more attention to improve the ability of context understanding, reasoning and implied meaning modeling.

 

실용적 추론은 일반적으로 발생하는 암묵적 의미를 해결하는 것을 목표로 한다 의사소통하는 사회적 에이전트를 구축하는 데 중요합니다. 우리가 실용주의를 위한 통일된 패러다임을 목표로 하는 새로운 벤치마크인 Diplomatic을 도입한다 추론과 위치한 대화 이해. 이전과 비교하여 다른 비유적 표현(예: 은유, 풍자)을 다음과 같이 다루는 작품들 개별 과제, 외교관은 일반에 대한 통일된 이해를 제공한다 실천적 이해. 우리의 데이터 세트는 Amazon Mechanical Turk()를 사용하여 생성된다 AMT)를 통해 4,177개의 다중 턴 대화가 생성됩니다. 데이터 세트와 함께, 우리는 두 가지 과제를 제안한다: 실용적 식별과 추론 그리고 대화 질문 답변. 최첨단(SOTA) 신경을 사용한 실험 결과 아키텍처는 다음을 입증합니다. 1) 대규모 언어 모델(LLM)은 열악함을 보여줍니다 이 주제의 공연. 2) 문맥 이해는 매우 중요하다 양성 인간-기계 상호작용을 형성하는 요인. 3) 현재 모델 결함 실용적인 추론의 적용에 있어서. 결과적으로, 우리는 더 많은 것을 요구한다 문맥 이해, 추론 능력을 향상시키기 위한 주의 암시적 의미 모델링. 

 

 

Macaw-LLM: Multi-Modal Language Modeling with Image, Audio, Video, and Text Integration

 

Although instruction-tuned large language models (LLMs) have exhibited remarkable capabilities across various NLP tasks, their effectiveness on other data modalities beyond text has not been fully studied. In this work, we propose Macaw-LLM, a novel multi-modal LLM that seamlessly integrates visual, audio, and textual information. Macaw-LLM consists of three main components: a modality module for encoding multi-modal data, a cognitive module for harnessing pretrained LLMs, and an alignment module for harmonizing diverse representations. Our novel alignment module seamlessly bridges multi-modal features to textual features, simplifying the adaptation process from the modality modules to the cognitive module. In addition, we construct a large-scale multi-modal instruction dataset in terms of multi-turn dialogue, including 69K image instances and 50K video instances. We have made our data, code and model publicly available, which we hope can pave the way for future research in multi-modal LLMs and expand the capabilities of LLMs to handle diverse data modalities and address complex real-world scenarios.

 

비록 명령어 조정된 큰 언어 모델(LLM)이 나타났지만 다양한 NLP 작업에 걸쳐 주목할 만한 기능, 다른 작업에 대한 효과 텍스트 이외의 데이터 양식은 완전히 연구되지 않았다. 이 작품에서 우리는 시각적으로 완벽하게 통합된 새로운 멀티모달 LLM인 Macaw-LLM을 제안합니다, 오디오 및 텍스트 정보. Macaw-LLM은 세 가지 주요 구성 요소로 구성됩니다 다중 프로토콜 데이터 인코딩을 위한 모달리티 모듈, 인지 모듈 사전 훈련된 LLM 및 다양한 조화를 위한 정렬 모듈 활용 표상. 우리의 새로운 정렬 모듈은 다중 모드를 매끄럽게 연결한다 텍스트 기능에 대한 기능으로, 적응 프로세스를 단순화합니다 인식 모듈에 모달리티 모듈을 연결합니다. 추가로, 우리는 다음을 구성한다 다중 턴 대화의 관점에서 대규모 다중 스레드 명령 데이터 세트, 69K 이미지 인스턴스와 50K 비디오 인스턴스를 포함합니다. 우리는 우리의 데이터를 만들었다, 공개적으로 이용 가능한 코드와 모델, 우리는 미래를 위한 길을 닦을 수 있기를 바란다 다중 모드 LLM 연구 및 처리할 LLM의 기능 확장 다양한 데이터 양식을 제공하고 복잡한 실제 시나리오를 해결합니다. 

 

 

반응형

댓글