본문 바로가기
오늘의 자연어 처리

[2023-08-02] 오늘의 자연어처리

by 지환이아빠 2023. 8. 2.
반응형

LLMediator: GPT-4 Assisted Online Dispute Resolution

 

In this article, we introduce LLMediator, an experimental platform designed to enhance online dispute resolution (ODR) by utilizing capabilities of state-of-the-art large language models (LLMs) such as GPT-4. In the context of high-volume, low-intensity legal disputes, alternative dispute resolution methods such as negotiation and mediation offer accessible and cooperative solutions for laypeople. These approaches can be carried out online on ODR platforms. LLMediator aims to improve the efficacy of such processes by leveraging GPT-4 to reformulate user messages, draft mediator responses, and potentially autonomously engage in the discussions. We present and discuss several features of LLMediator and conduct initial qualitative evaluations, demonstrating the potential for LLMs to support ODR and facilitate amicable settlements. The initial proof of concept is promising and opens up avenues for further research in AI-assisted negotiation and mediation.

 

이 글에서는 설계된 실험 플랫폼인 LLMediator를 소개한다 기능을 활용하여 온라인 분쟁 해결(ODR)을 강화한다 GPT-4와 같은 최첨단 대형 언어 모델(LLM)의 맥락에서 많은 양의 낮은 강도의 법적 분쟁, 대체 분쟁 해결 협상과 조정과 같은 방법들은 접근 가능하고 협력적이다 비전문가를 위한 해결책. 이러한 접근 방식은 ODR을 통해 온라인으로 수행할 수 있습니다 플랫폼. LLMediator는 다음과 같이 그러한 프로세스의 효율성을 향상시키는 것을 목표로 한다 GPT-4를 활용하여 사용자 메시지를 재구성하고 중재자 응답 초안을 작성합니다 자율적으로 논의에 참여할 가능성이 있습니다. 우리는 발표하고 토론한다 LLMediator의 몇 가지 기능과 초기 정성적 평가를 수행한다, LLM이 ODR을 지원하고 우호적인 관계를 촉진할 수 있는 잠재력을 입증합니다 정착지. 초기 개념 증명은 유망하며 다음을 위한 길을 열어줍니다 AI 지원 협상 및 조정에 대한 추가 연구. 

 

 

Data Augmentation for Neural Machine Translation using Generative Language Model

 

Despite the rapid growth in model architecture, the scarcity of large parallel corpora remains the main bottleneck in Neural Machine Translation. Data augmentation is a technique that enhances the performance of data-hungry models by generating synthetic data instead of collecting new ones. We explore prompt-based data augmentation approaches that leverage large-scale language models such as ChatGPT. To create a synthetic parallel corpus, we compare 3 methods using different prompts. We employ two assessment metrics to measure the diversity of the generated synthetic data. This approach requires no further model training cost, which is mandatory in other augmentation methods like back-translation. The proposed method improves the unaugmented baseline by 0.68 BLEU score.

 

모델 아키텍처의 급속한 성장에도 불구하고, 대형의 희소성은 병렬 말뭉치는 신경 기계 번역에서 주요 병목 현상으로 남아 있다. 데이터 증가는 데이터 부족의 성능을 향상시키는 기술입니다 새로운 데이터를 수집하는 대신 합성 데이터를 생성하여 모델을 만듭니다. 우리는 탐험한다 대규모 언어를 활용하는 신속한 데이터 증강 접근 방식 ChatGPT 같은 모델. 합성 병렬 말뭉치를 만들기 위해, 우리는 3을 비교한다 다른 프롬프트를 사용하는 방법입니다. 두 가지 평가 지표를 사용하여 측정합니다 생성된 합성 데이터의 다양성. 이 접근 방식은 필요하지 않습니다 다른 증강 방법에서 필수적으로 요구되는 추가 모델 교육 비용 뒷담화처럼. 제안된 방법은 다음과 같이 확대되지 않은 기준선을 개선합니다 0.68 BLEU 점수. 

 

 

Specification of MiniDemographicABM.jl: A simplified agent-based demographic model of the UK

 

This document presents adequate formal terminology for the mathematical specification of a simplified non-calibrated agent-based demographic model of the UK. Individuals of an initial population are subject to ageing, deaths, births, divorces and marriages. The main purpose of the model is to explore and exploit capabilities of the state-of-the-art Agents.jl Julia package [1]. Additionally, the model can serve as a base model to be adjusted to realistic large-scale socio-economics, pandemics or social interactions-based studies mainly within a demographic context. A specific simulation is progressed with a user-defined simulation fixed step size on a hourly, daily, weekly, monthly basis or even an arbitrary user-defined clock rate.

 

이 문서는 수학에 적합한 공식 용어를 제시한다 단순화된 보정되지 않은 에이전트 기반 인구통계학적 모델의 지정 영국. 초기 인구의 개인은 노화, 사망, 출생, 이혼, 결혼. 모델의 주요 목적은 탐색 및 최첨단 Agents.jl Julia 패키지의 기능을 활용합니다 [1]. 또한 모델은 현실적으로 조정되는 기본 모델의 역할을 할 수 있습니다 사회적 대규모 유행병, 유행병 또는 사회적 상호작용에 기초한 연구 주로 인구학적 맥락 안에서. 특정 시뮬레이션은 다음과 같이 진행됩니다 시간, 일, 주, 월 단위로 사용자 정의 시뮬레이션 고정 단계 크기 기본 또는 임의의 사용자 정의 클럭 속도. 

 

 

반응형

댓글