본문 바로가기
오늘의 자연어 처리

[2023-06-23] 오늘의 자연어처리

by 지환이아빠 2023. 6. 23.
반응형

Medical ministrations through web scraping

 

Web scraping is a technique that allows us to extract data from websites automatically. in the field of medicine, web scraping can be used to collect information about medical procedures, treatments, and healthcare providers. this information can be used to improve patient care, monitor the quality of healthcare services, and identify areas for improvement. one area where web scraping can be particularly useful is in medical ministrations. medical ministrations are the actions taken to provide medical care to patients, and web scraping can help healthcare providers identify the most effective ministrations for their patients. for example, healthcare providers can use web scraping to collect data about the symptoms and medical histories of their patients, and then use this information to determine the most appropriate ministrations. they can also use web scraping to gather information about the latest medical research and clinical trials, which can help them stay up-to-date with the latest treatments and procedures.

 

웹 스크래핑은 우리가 웹사이트에서 데이터를 추출할 수 있게 해주는 기술이다 자동으로. 의학 분야에서, 웹 스크래핑은 수집하는 데 사용될 수 있다 의료 절차, 치료 및 의료 제공자에 대한 정보. 이 정보는 환자 관리를 개선하고 품질을 모니터링하는 데 사용될 수 있다 의료 서비스를 제공하고 개선해야 할 부분을 파악합니다. 웹이 있는 한 지역 스크래핑은 특히 의료기관에서 유용할 수 있다 사역은 환자에게 의료 서비스를 제공하기 위해 취한 조치이다 웹 스크래핑은 의료 기관이 가장 효과적인 방법을 식별하는 데 도움이 될 수 있다 그들의 환자들을 위한 투약. 예를 들어, 의료 서비스 제공자들은 웹을 사용할 수 있다 그들의 증상과 병력에 대한 데이터를 수집하기 위한 스크랩 환자, 그리고 나서 이 정보를 사용하여 가장 적합한 것을 결정합니다 행정부. 그들은 또한 웹 스크래핑을 사용하여 정보를 수집할 수 있다 그들이 머물 수 있도록 도울 수 있는 최신 의학 연구와 임상 실험 최신 치료법과 절차로 최신 정보를 제공합니다. 

 

 

Solving and Generating NPR Sunday Puzzles with Large Language Models

 

We explore the ability of large language models to solve and generate puzzles from the NPR Sunday Puzzle game show using PUZZLEQA, a dataset comprising 15 years of on-air puzzles. We evaluate four large language models using PUZZLEQA, in both multiple choice and free response formats, and explore two prompt engineering techniques to improve free response performance: chain-of-thought reasoning and prompt summarization. We find that state-of-the-art large language models can solve many PUZZLEQA puzzles: the best model, GPT-3.5, achieves 50.2% loose accuracy. However, in our few-shot puzzle generation experiment, we find no evidence that models can generate puzzles: GPT-3.5 generates puzzles with answers that do not conform to the generated rules. Puzzle generation remains a challenging task for future work.

 

우리는 퍼즐을 풀고 생성하는 큰 언어 모델의 능력을 탐구한다 15개로 구성된 데이터 세트인 퍼즐QA를 사용하는 NPR 선데이 퍼즐 게임 쇼에서 다년간의 방송 퍼즐. 우리는 PULLZEQA를 사용하여 4개의 큰 언어 모델을 평가한다, 객관식 및 자유 응답 형식 모두에서 두 가지 프롬프트를 탐색합니다 자유 응답 성능 향상을 위한 엔지니어링 기술: 생각의 사슬 추론과 신속한 요약. 우리는 그 첨단 기술이 거대하다는 것을 발견한다 언어 모델은 많은 퍼즐을 풀 수 있다: 최고의 모델, GPT-3.5, 50.2%의 느슨한 정확도를 달성합니다. 그러나, 우리의 퓨샷 퍼즐 생성에서 실험, 우리는 모델이 퍼즐을 생성할 수 있다는 증거를 찾지 못했다: GPT-3.5 생성된 규칙과 일치하지 않는 답변으로 퍼즐을 생성합니다. 퍼즐 생성은 향후 작업에서 여전히 어려운 과제로 남아 있다. 

 

 

Solving and Generating NPR Sunday Puzzles with Large Language Models

 

We explore the ability of large language models to solve and generate puzzles from the NPR Sunday Puzzle game show using PUZZLEQA, a dataset comprising 15 years of on-air puzzles. We evaluate four large language models using PUZZLEQA, in both multiple choice and free response formats, and explore two prompt engineering techniques to improve free response performance: chain-of-thought reasoning and prompt summarization. We find that state-of-the-art large language models can solve many PUZZLEQA puzzles: the best model, GPT-3.5, achieves 50.2% loose accuracy. However, in our few-shot puzzle generation experiment, we find no evidence that models can generate puzzles: GPT-3.5 generates puzzles with answers that do not conform to the generated rules. Puzzle generation remains a challenging task for future work.

 

우리는 퍼즐을 풀고 생성하는 큰 언어 모델의 능력을 탐구한다 15개로 구성된 데이터 세트인 퍼즐QA를 사용하는 NPR 선데이 퍼즐 게임 쇼에서 다년간의 방송 퍼즐. 우리는 PULLZEQA를 사용하여 4개의 큰 언어 모델을 평가한다, 객관식 및 자유 응답 형식 모두에서 두 가지 프롬프트를 탐색합니다 자유 응답 성능 향상을 위한 엔지니어링 기술: 생각의 사슬 추론과 신속한 요약. 우리는 그 첨단 기술이 거대하다는 것을 발견한다 언어 모델은 많은 퍼즐을 풀 수 있다: 최고의 모델, GPT-3.5, 50.2%의 느슨한 정확도를 달성합니다. 그러나, 우리의 퓨샷 퍼즐 생성에서 실험, 우리는 모델이 퍼즐을 생성할 수 있다는 증거를 찾지 못했다: GPT-3.5 생성된 규칙과 일치하지 않는 답변으로 퍼즐을 생성합니다. 퍼즐 생성은 향후 작업에서 여전히 어려운 과제로 남아 있다. 

 

 

반응형

댓글