본문 바로가기
오늘의 자연어 처리

[2023-07-14] 오늘의 자연어처리

by 지환이아빠 2023. 7. 14.
반응형

Enhancing Portuguese Sign Language Animation with Dynamic Timing and Mouthing

 

Current signing avatars are often described as unnatural as they cannot accurately reproduce all the subtleties of synchronized body behaviors of a human signer. In this paper, we propose a new dynamic approach for transitions between signs, focusing on mouthing animations for Portuguese Sign Language. Although native signers preferred animations with dynamic transitions, we did not find significant differences in comprehension and perceived naturalness scores. On the other hand, we show that including mouthing behaviors improved comprehension and perceived naturalness for novice sign language learners. Results have implications in computational linguistics, human-computer interaction, and synthetic animation of signing avatars.

 

현재 서명하는 아바타는 종종 부자연스러운 것으로 묘사된다 동기화된 신체 행동의 모든 세부 사항을 정확하게 재현합니다 인간 서명자. 이 논문에서, 우리는 전환을 위한 새로운 동적 접근법을 제안한다 수화를 위한 애니메이션을 입에 담는 것에 초점을 맞춘 수화 사이. 비록 원어민 수화자들이 역동적인 변화가 있는 애니메이션을 선호했지만, 우리는 그랬다 이해력과 지각된 자연스러움에서 큰 차이를 발견하지 못하다 반면에, 우리는 말하기 행동을 포함하는 것이 향상되었다는 것을 보여준다 수화 초보 학습자를 위한 이해력과 지각된 자연스러움. 결과는 컴퓨터 언어학, 인간-컴퓨터에 영향을 미친다 상호작용, 그리고 서명 아바타의 합성 애니메이션. 

 

 

Pluggable Neural Machine Translation Models via Memory-augmented Adapters

 

Although neural machine translation (NMT) models perform well in the general domain, it remains rather challenging to control their generation behavior to satisfy the requirement of different users. Given the expensive training cost and the data scarcity challenge of learning a new model from scratch for each user requirement, we propose a memory-augmented adapter to steer pretrained NMT models in a pluggable manner. Specifically, we construct a multi-granular memory based on the user-provided text samples and propose a new adapter architecture to combine the model representations and the retrieved results. We also propose a training strategy using memory dropout to reduce spurious dependencies between the NMT model and the memory. We validate our approach on both style- and domain-specific experiments and the results indicate that our method can outperform several representative pluggable baselines.

 

신경 기계 번역(NMT) 모델이 일반적으로 잘 수행되지만 도메인, 그들의 세대 행동을 통제하는 것은 여전히 어렵다 다양한 사용자의 요구 사항을 충족합니다. 비싼 교육비를 감안하면 그리고 각각의 새로운 모델을 처음부터 배우는 데이터 부족 문제 사용자 요구 사항, 우리는 사전 훈련된 NMT를 조종하기 위한 메모리 증강 어댑터를 제안한다 플러그인 가능한 방식으로 모델을 만듭니다. 구체적으로, 우리는 다중 입자를 구성한다 사용자가 제공한 텍스트 샘플에 기반한 메모리 및 새 어댑터 제안 모델 표현과 검색된 결과를 결합하는 아키텍처. 우리가 또한 허위를 줄이기 위해 메모리 중퇴를 사용하는 훈련 전략을 제안한다 NMT 모델과 메모리 간의 종속성. 우리는 우리의 접근 방식을 검증한다 스타일 및 도메인별 실험과 결과는 우리의 메서드는 몇 가지 대표적인 플러그인 가능 기준선을 능가할 수 있습니다. 

 

 

Predictive Pipelined Decoding: A Compute-Latency Trade-off for Exact LLM Decoding

 

This paper presents "Predictive Pipelined Decoding (PPD)," an approach that speeds up greedy decoding in Large Language Models (LLMs) while maintaining the exact same output as the original decoding. Unlike conventional strategies, PPD employs additional compute resources to parallelize the initiation of subsequent token decoding during the current token decoding. This innovative method reduces decoding latency and reshapes the understanding of trade-offs in LLM decoding strategies. We have developed a theoretical framework that allows us to analyze the trade-off between computation and latency. Using this framework, we can analytically estimate the potential reduction in latency associated with our proposed method, achieved through the assessment of the match rate, represented as p_correct. The results demonstrate that the use of extra computational resources has the potential to accelerate LLM greedy decoding.

 

이 논문은 다음과 같은 접근법인 "예측 파이프라인 디코딩(PPD)"을 제시한다 LLM(Large Language Model)에서 탐욕스러운 디코딩 속도를 높이는 동시에 원본 디코딩과 동일한 출력을 제공합니다. 기존 전략과 달리 PPD는 추가 컴퓨팅 리소스를 사용하여 시작을 병렬화합니다 현재 토큰 디코딩 중 후속 토큰 디코딩. 이 혁신적인 것 방법은 디코딩 대기 시간을 줄이고 트레이드오프에 대한 이해를 재구성한다 LLM 디코딩 전략입니다. 우리는 이론적인 틀을 개발했다. 그것은 다음과 같다 우리는 계산과 대기 시간 사이의 균형을 분석한다. 사용 프레임워크, 우리는 잠재적인 지연 시간 감소를 분석적으로 추정할 수 있다 우리가 제안한 방법과 관련하여, 평가를 통해 달성했다 일치율, p_correct로 표시됩니다. 결과는 다음을 사용한다는 것을 보여준다 추가 계산 자원은 LLM 탐욕을 가속화할 수 있는 잠재력을 가지고 있다 복호. 

 

 

반응형

댓글