본문 바로가기
오늘의 자연어 처리

[2023-08-05] 오늘의 자연어처리

by 지환이아빠 2023. 8. 5.
반응형

Investigating Reinforcement Learning for Communication Strategies in a Task-Initiative Setting

 

Many conversational domains require the system to present nuanced information to users. Such systems must follow up what they say to address clarification questions and repair misunderstandings. In this work, we explore this interactive strategy in a referential communication task. Using simulation, we analyze the communication trade-offs between initial presentation and subsequent followup as a function of user clarification strategy, and compare the performance of several baseline strategies to policies derived by reinforcement learning. We find surprising advantages to coherence-based representations of dialogue strategy, which bring minimal data requirements, explainable choices, and strong audit capabilities, but incur little loss in predicted outcomes across a wide range of user models.

 

많은 대화 도메인에서 시스템이 미묘한 정보를 표시해야 합니다 사용자에게. 그러한 시스템은 그들이 말하는 것을 따라야만 해명을 할 수 있다 질문과 오해를 고칩니다. 이 작업에서, 우리는 이것을 탐구한다 참조 통신 작업에서의 대화형 전략. 우리는 시뮬레이션을 이용하여 초기 프레젠테이션 사이의 의사소통 상충관계를 분석한다 사용자 설명 전략의 기능으로 후속 후속 조치를 수행하고 비교합니다 다음을 통해 도출된 정책에 대한 몇 가지 기본 전략의 성과 학습을 강화하다. 우리는 일관성 기반에서 놀라운 이점을 발견한다 최소한의 데이터 요구사항을 수반하는 대화 전략의 표현, 설명 가능한 선택과 강력한 감사 기능이 있지만 손실은 거의 없습니다 광범위한 사용자 모델에 걸쳐 결과를 예측합니다. 

 

 

Large Language Model Displays Emergent Ability to Interpret Novel Literary Metaphors

 

Recent advances in the performance of large language models (LLMs) have sparked debate over whether, given sufficient training, high-level human abilities emerge in such generic forms of artificial intelligence (AI). Despite the exceptional performance of LLMs on a wide range of tasks involving natural language processing and reasoning, there has been sharp disagreement as to whether their abilities extend to more creative human abilities. A core example is the ability to interpret novel metaphors. Given the enormous and non-curated text corpora used to train LLMs, a serious obstacle to designing tests is the requirement of finding novel yet high-quality metaphors that are unlikely to have been included in the training data. Here we assessed the ability of GPT-4, a state-of-the-art large language model, to provide natural-language interpretations of novel literary metaphors drawn from Serbian poetry and translated into English. Despite exhibiting no signs of having been exposed to these metaphors previously, the AI system consistently produced detailed and incisive interpretations. Human judge - blind to the fact that an AI model was involved - rated metaphor interpretations generated by GPT-4 as superior to those provided by a group of college students. In interpreting reversed metaphors, GPT-4, as well as humans, exhibited signs of sensitivity to the Gricean cooperative principle. These results indicate that LLMs such as GPT-4 have acquired an emergent ability to interpret complex novel metaphors.

 

최근 대형 언어 모델(LLM)의 성능에 있어서의 발전은 충분한 훈련이 주어지면, 높은 수준의 인간인지에 대한 논쟁을 촉발했다 능력은 그러한 일반적인 형태의 인공지능(AI)에서 나타난다. 불구하고 자연을 포함하는 광범위한 작업에 대한 LLM의 탁월한 성능 언어 처리와 추론, 에 대해 첨예한 의견 대립이 있었다 그들의 능력이 더 창의적인 인간의 능력으로 확장되는지 여부. 핵심적인 예 새로운 비유를 해석하는 능력이다. 거대하고 큐레이팅되지 않은 것을 고려할 때 LLM을 훈련하는 데 사용되는 텍스트 말뭉치, 테스트 설계의 심각한 장애물은 그럴 것 같지 않은 참신하면서도 고품질의 비유를 찾는 요건 교육 데이터에 포함되었습니다. 여기서 우리는 GPT-4의 능력을 평가했다, 자연어를 제공하는 최첨단 대형 언어 모델 세르비아 시에서 끌어낸 참신한 문학적 은유의 해석과 영어로 번역된. 노출된 흔적이 없음에도 불구하고 이러한 은유들은 이전에, 인공지능 시스템은 지속적으로 상세하고 날카로운 해석. 인간 판사 - 인공지능 모델이 있다는 사실에 눈을 감았다 관련됨 - GPT-4에 의해 생성된 메타포 해석은 다음과 같이 평가됩니다 대학생 그룹이 제공한 것들. 역으로 해석할 때 인간뿐만 아니라 은유, GPT-4는 에 대해 민감한 징후를 보였다 그리스의 협력 원칙. 이러한 결과는 GPT-4와 같은 LLM을 나타낸다 복잡한 소설적 비유를 해석할 수 있는 새로운 능력을 얻었다. 

 

 

NBIAS: A Natural Language Processing Framework for Bias Identification in Text

 

Bias in textual data can lead to skewed interpretations and outcomes when the data is used. These biases could perpetuate stereotypes, discrimination, or other forms of unfair treatment. An algorithm trained on biased data ends up making decisions that disproportionately impact a certain group of people. Therefore, it is crucial to detect and remove these biases to ensure the fair and ethical use of data. To this end, we develop a comprehensive and robust framework \textsc{Nbias} that consists of a data layer, corpus contruction, model development layer and an evaluation layer. The dataset is constructed by collecting diverse data from various fields, including social media, healthcare, and job hiring portals. As such, we applied a transformer-based token classification model that is able to identify bias words/ phrases through a unique named entity. In the assessment procedure, we incorporate a blend of quantitative and qualitative evaluations to gauge the effectiveness of our models. We achieve accuracy improvements ranging from 1% to 8% compared to baselines. We are also able to generate a robust understanding of the model functioning, capturing not only numerical data but also the quality and intricacies of its performance. The proposed approach is applicable to a variety of biases and contributes to the fair and ethical use of textual data.

 

텍스트 데이터의 편향은 다음과 같은 경우에 왜곡된 해석과 결과를 초래할 수 있다 데이터가 사용됩니다. 이러한 편견은 고정관념, 차별, 또는 다른 형태의 부당한 대우. 편향된 데이터에 대해 훈련된 알고리즘은 결국 특정 집단의 사람들에게 불균형적으로 영향을 미치는 결정을 내리는 것. 따라서 공정성을 보장하기 위해서는 이러한 편견을 감지하고 제거하는 것이 중요하다 데이터의 윤리적 사용. 이를 위해 포괄적이고 강력한 제품을 개발합니다 데이터 계층, 말뭉치 구성, 모델 개발 계층 및 평가 계층. 데이터 세트는 다음과 같이 구성됩니다 소셜 미디어를 포함한 다양한 분야에서 다양한 데이터를 수집하고, 의료, 그리고 일자리 채용 포털. 이와 같이, 우리는 변압기 기반을 적용했다 편향 단어/구를 식별할 수 있는 토큰 분류 모델 고유의 이름을 가진 개체. 평가 절차에서, 우리는 다음의 혼합물을 포함한다 우리의 효과를 측정하기 위한 양적 및 질적 평가 모형. 우리는 정확도를 1%에서 8%까지 향상시켰다 기준선. 또한 모델에 대한 강력한 이해를 창출할 수 있습니다 기능, 수치 데이터뿐만 아니라 품질 및 그 수행의 복잡성. 제안된 접근 방식은 A에 적용할 수 있다 다양한 편향과 텍스트 데이터의 공정하고 윤리적인 사용에 기여합니다. 

 

 

반응형

댓글