본문 바로가기
오늘의 자연어 처리

[2023-03-13] 오늘의 자연어처리

by 지환이아빠 2023. 3. 13.
반응형

Making a Computational Attorney

 

This "blue sky idea" paper outlines the opportunities and challenges in data mining and machine learning involving making a computational attorney -- an intelligent software agent capable of helping human lawyers with a wide range of complex high-level legal tasks such as drafting legal briefs for the prosecution or defense in court. In particular, we discuss what a ChatGPT-like Large Legal Language Model (L$^3$M) can and cannot do today, which will inspire researchers with promising short-term and long-term research objectives.

 

이 "블루 스카이 아이디어" 논문은 데이터의 기회와 과제를 개략적으로 설명합니다 채굴과 기계 학습은 컴퓨터 변호사를 만드는 것을 포함한다 광범위한 범위의 인간 변호사들을 도울 수 있는 지능형 소프트웨어 에이전트 법적 개요 초안 작성과 같은 복잡한 높은 수준의 법적 작업의 경우 법정에서의 기소 또는 변호. 특히, 우리는 ChatGPT 같은 것이 무엇인지에 대해 논의한다 L$^3$M(Large Legal Language Model)은 오늘날 할 수 있고 할 수 없으며 영감을 줄 것이다 유망한 단기 및 장기 연구 목표를 가진 연구자들. 

 

 

Dynamic Multi-View Fusion Mechanism For Chinese Relation Extraction

 

Recently, many studies incorporate external knowledge into character-level feature based models to improve the performance of Chinese relation extraction. However, these methods tend to ignore the internal information of the Chinese character and cannot filter out the noisy information of external knowledge. To address these issues, we propose a mixture-of-view-experts framework (MoVE) to dynamically learn multi-view features for Chinese relation extraction. With both the internal and external knowledge of Chinese characters, our framework can better capture the semantic information of Chinese characters. To demonstrate the effectiveness of the proposed framework, we conduct extensive experiments on three real-world datasets in distinct domains. Experimental results show consistent and significant superiority and robustness of our proposed framework. Our code and dataset will be released at: this https URL

 

최근 많은 연구들이 외부 지식을 성격 수준에 통합하고 있다 중국 관계 추출의 성능을 향상시키기 위한 기능 기반 모델. 그러나 이러한 방법들은 중국인들의 내부 정보를 무시하는 경향이 있다 외부 지식의 시끄러운 정보를 걸러내지 못한다. 로. 이러한 문제를 해결하고, 우리는 다음과 같은 혼합 전문가 프레임워크(MoVE) 중국 관계 추출을 위한 다중 뷰 기능을 동적으로 학습합니다. 와 함께 우리의 틀인 한자에 대한 내적, 외적 지식 모두 는 한자의 의미 정보를 더 잘 캡처할 수 있습니다. 로. 제안된 프레임워크의 효과를 입증하고 광범위하게 수행한다 서로 다른 도메인에서 세 개의 실제 데이터 세트에 대한 실험. 실험적 결과는 일관되고 상당한 우수성과 견고성을 보여준다 제안된 틀. 우리의 코드와 데이터 세트는 다음 위치에서 공개될 예정입니다: 이 https URL 

 

 

MathPrompter: Mathematical Reasoning using Large Language Models

 

Large Language Models (LLMs) have limited performance when solving arithmetic reasoning tasks and often provide incorrect answers. Unlike natural language understanding, math problems typically have a single correct answer, making the task of generating accurate solutions more challenging for LLMs. To the best of our knowledge, we are not aware of any LLMs that indicate their level of confidence in their responses which fuels a trust deficit in these models impeding their adoption. To address this deficiency, we propose `MathPrompter', a technique that improves performance of LLMs on arithmetic problems along with increased reliance in the predictions. MathPrompter uses the Zero-shot chain-of-thought prompting technique to generate multiple Algebraic expressions or Python functions to solve the same math problem in different ways and thereby raise the confidence level in the output results. This is in contrast to other prompt based CoT methods, where there is no check on the validity of the intermediate steps followed. Our technique improves over state-of-the-art on the MultiArith dataset ($78.7\%\rightarrow92.5\%$) evaluated using 175B parameter GPT-based LLM.

 

LLM(Large Language Model)은 산술을 풀 때 성능이 제한됩니다 추론 작업을 수행하고 종종 오답을 제공합니다. 자연어와 다르게 이해, 수학 문제는 일반적으로 하나의 정답을 가지고 있다 정확한 솔루션을 생성하는 작업은 LLM에게 더 도전적입니다. 최선을 다합니다 우리의 지식, 우리는 그들의 수준을 나타내는 어떤 LLM도 알지 못한다 이러한 모델에 대한 신뢰 부족을 부채질하는 그들의 반응에 대한 자신감 그들의 입양을 방해합니다. 이 결함을 해결하기 위해, 우리는 'Math Prompter'를 제안한다, 산술 문제에 대한 LLM의 성능을 향상시키는 기술 예측에 대한 신뢰도가 높아짐. Math Promptor는 제로샷을 사용합니다 여러 개의 대수적 표현을 생성하기 위한 생각의 연쇄 유도 기법 또는 Python 함수는 같은 수학 문제를 다른 방법으로 해결한다 따라서 출력 결과의 신뢰 수준을 높입니다. 이것은 대조적이다 유효성에 대한 확인이 없는 다른 프롬프트 기반 CoT 방법으로 중간 단계가 뒤따랐습니다. 우리의 기술은 최첨단 기술보다 향상된다 175B를 사용하여 평가된 MultiArs 데이터 세트($78.7\%\rightarrow92.5\%$)에서 GPT 기반 LLM 매개 변수입니다. 

 

 

반응형

댓글