본문 바로가기
오늘의 자연어 처리

[2023-03-19] 오늘의 자연어처리

by 지환이아빠 2023. 3. 19.
반응형

GLEN: General-Purpose Event Detection for Thousands of Types

 

The development of event extraction systems has been hindered by the absence of wide-coverage, large-scale datasets. To make event extraction systems more accessible, we build a general-purpose event detection dataset GLEN, which covers 3,465 different event types, making it over 20x larger in ontology than any current dataset. GLEN is created by utilizing the DWD Overlay, which provides a mapping between Wikidata Qnodes and PropBank rolesets. This enables us to use the abundant existing annotation for PropBank as distant supervision. In addition, we also propose a new multi-stage event detection model specifically designed to handle the large ontology size and partial labels in GLEN. We show that our model exhibits superior performance (~10% F1 gain) compared to both conventional classification baselines and newer definition-based models. Finally, we perform error analysis and show that label noise is still the largest challenge for improving performance.

 

이벤트 추출 시스템의 개발은 부재로 인해 방해를 받았다 광범위하고 대규모 데이터 세트를 제공합니다. 이벤트 추출 시스템을 추가하려면 접근 가능, 우리는 범용 이벤트 감지 데이터 세트 GLEN을 구축한다 3,465개의 다양한 이벤트 유형을 포함하여 온톨로지에서 20배 이상 크다 현재 데이터 집합. GLEN은 DWD 오버레이를 사용하여 생성됩니다 에서는 Wikidata Qnodes와 PropBank 역할 집합 간의 매핑을 제공합니다. 이를 통해 우리는 PropBank에 대한 풍부한 기존 주석을 원거리 감독으로 사용한다. 또한, 우리는 새로운 다단계 이벤트 감지 모델을 제안한다 큰 온톨로지 크기와 부분 레이블을 처리하도록 특별히 설계되었습니다 GLEN. 우리는 우리 모델이 우수한 성능을 보인다는 것을 보여준다(~10% F1 게인) 기존 분류 기준선 및 최신 분류 기준선과 비교하여 정의 기반 모델입니다. 마지막으로, 우리는 오류 분석을 수행하고 그 라벨을 보여줍니다 소음은 여전히 성능 향상을 위한 가장 큰 과제입니다. 

 

 

Trustera: A Live Conversation Redaction System

 

Trustera, the first functional system that redacts personally identifiable information (PII) in real-time spoken conversations to remove agents' need to hear sensitive information while preserving the naturalness of live customer-agent conversations. As opposed to post-call redaction, audio masking starts as soon as the customer begins speaking to a PII entity. This significantly reduces the risk of PII being intercepted or stored in insecure data storage. Trustera's architecture consists of a pipeline of automatic speech recognition, natural language understanding, and a live audio redactor module. The system's goal is three-fold: redact entities that are PII, mask the audio that goes to the agent, and at the same time capture the entity, so that the captured PII can be used for a payment transaction or caller identification. Trustera is currently being used by thousands of agents to secure customers' sensitive information.

 

Trustera, 개인 식별이 가능하도록 수정하는 최초의 기능 시스템 실시간 음성 대화에서 정보(PII)를 사용하여 에이전트의 필요성을 제거합니다 삶의 자연스러움을 보존하면서 민감한 정보를 듣다 고객-대리인 간의 대화. 호출 후 수정과 달리 오디오 마스킹 고객이 PII 엔티티와 대화를 시작하는 즉시 시작됩니다. 이것. PII가 차단되거나 안전하지 않은 상태로 저장될 위험을 크게 줄입니다 데이터 저장소. Trustera의 아키텍처는 자동 파이프라인으로 구성됩니다 음성 인식, 자연어 이해 및 라이브 오디오 리다이터 모듈. 시스템의 목표는 세 가지입니다. PII인 엔티티를 수정하고 마스크합니다 에이전트에게 전달되는 오디오, 그리고 동시에 엔티티를 캡처하여 캡처된 PII는 결제 트랜잭션 또는 호출자에 사용될 수 있습니다 신분증. 트러스테라는 현재 수천 명의 요원들에 의해 사용되고 있다 고객의 민감한 정보를 보호합니다. 

 

 

Text-to-ECG: 12-Lead Electrocardiogram Synthesis conditioned on Clinical Text Reports

 

Electrocardiogram (ECG) synthesis is the area of research focused on generating realistic synthetic ECG signals for medical use without concerns over annotation costs or clinical data privacy restrictions. Traditional ECG generation models consider a single ECG lead and utilize GAN-based generative models. These models can only generate single lead samples and require separate training for each diagnosis class. The diagnosis classes of ECGs are insufficient to capture the intricate differences between ECGs depending on various features (e.g. patient demographic details, co-existing diagnosis classes, etc.). To alleviate these challenges, we present a text-to-ECG task, in which textual inputs are used to produce ECG outputs. Then we propose Auto-TTE, an autoregressive generative model conditioned on clinical text reports to synthesize 12-lead ECGs, for the first time to our knowledge. We compare the performance of our model with other representative models in text-to-speech and text-to-image. Experimental results show the superiority of our model in various quantitative evaluations and qualitative analysis. Finally, we conduct a user study with three board-certified cardiologists to confirm the fidelity and semantic alignment of generated samples. our code will be available at this https URL

 

심전도(ECG) 합성은 다음에 초점을 맞춘 연구 분야이다 걱정 없이 의료용으로 현실적인 합성 심전도 신호를 생성한다 주석 비용 또는 임상 데이터 개인 정보 보호 제한에 대해. 전통적인 심전도 생성 모델은 단일 심전도 유도를 고려하고 GAN 기반 생성을 활용한다 모델. 이 모델들은 단일 납 샘플만 생성할 수 있으며 별도의 납 샘플이 필요합니다 각 진단 클래스에 대한 교육. 심전도의 진단 등급은 다음과 같습니다 에 따라 ECG 사이의 복잡한 차이를 포착하기에 충분하지 않다 다양한 기능(예: 환자 인구 통계 세부 정보, 공존 진단) 수업 등). 이러한 과제를 완화하기 위해 텍스트-ECG 작업을 제시한다, ECG 출력을 생성하기 위해 텍스트 입력이 사용되는 경우. 그럼 우리가 제안하자 Auto-TTE, 임상 텍스트를 조건으로 하는 자기 회귀 생성 모델 우리가 아는 한, 12-리드 ECG를 합성하는 것을 보고한다. 우리가 우리 모델의 성능을 다른 대표적인 모델과 비교합니다 텍스트에서 이미지로, 텍스트에서 이미지로. 실험 결과는 의 우수성을 보여준다 다양한 정량적 평가와 정성적 분석에서 우리의 모델. 마지막으로, 우리는 3명의 이사회 인증 심장 전문의와 함께 사용자 연구를 수행하여 생성된 샘플의 충실도와 의미론적 정렬을 확인한다. 우리의 암호는 이 https URL에서 사용할 수 있습니다 

 

 

반응형

댓글