KR20240141907A - Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning - Google Patents
Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning Download PDFInfo
- Publication number
- KR20240141907A KR20240141907A KR1020230036153A KR20230036153A KR20240141907A KR 20240141907 A KR20240141907 A KR 20240141907A KR 1020230036153 A KR1020230036153 A KR 1020230036153A KR 20230036153 A KR20230036153 A KR 20230036153A KR 20240141907 A KR20240141907 A KR 20240141907A
- Authority
- KR
- South Korea
- Prior art keywords
- layer
- waveform
- data
- value
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/12—Audiometering
- A61B5/121—Audiometering evaluating hearing capacity
- A61B5/125—Audiometering evaluating hearing capacity objective methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Pathology (AREA)
- Primary Health Care (AREA)
- Computing Systems (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Otolaryngology (AREA)
- Acoustics & Sound (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 청력 검사 결과 판독 장치 및 방법에 관한 것으로, 특히, 청성뇌간반응검사의 청력 검사 영상을 판독하여 관심영역을 추출하고, 인공지능 딥러닝을 통하여 파형의 특정 신호가 발생하는 구간과 시간을 측정하여 분석함으로써 난청 유무를 판독하는 청력 검사 결과 판독 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 청력 검사 결과 판독 장치는, 청성뇌간반응검사의 청력 검사 영상에 대해 데이터 전처리를 실행하여, 데이터의 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 정규화 하는 데이터 전처리부, 상기 데이터 전처리부로부터 전달되는 상기 파형의 특징을 추출 및 분석하고, 상기 파형의 전체 형태로부터 피크 값 및 피크가 발생하는 시간 정보를 산출하는 AI 모듈, 및 상기 AI 모듈에서 산출된 상기 파형의 피크 값 및 피크가 발생하는 시간 정보로부터 난청 유무를 판독하는 난청 판독부를 포함한다. The present invention relates to a device and method for interpreting the results of a hearing test, and more particularly, to a device and method for interpreting the results of a hearing test for extracting a region of interest by interpreting a hearing test image of an auditory brainstem response test, and analyzing the section and time at which a specific signal of a waveform occurs by using artificial intelligence deep learning to interpret the presence or absence of hearing loss. The device for interpreting the results of a hearing test according to one embodiment of the present invention includes a data preprocessing unit for executing data preprocessing on a hearing test image of an auditory brainstem response test, and normalizing the value of each waveform of the data to a value between 0 and 1 by dividing the value of each waveform by the maximum value of each waveform, an AI module for extracting and analyzing the features of the waveform transmitted from the data preprocessing unit, and calculating a peak value and information on the time at which the peak occurs from the entire form of the waveform, and a hearing loss interpretation unit for interpreting the presence or absence of hearing loss from the peak value and information on the time at which the peak occurs of the waveform calculated by the AI module.
Description
본 발명은 청력 검사 결과 판독 장치에 관한 것으로, 특히, 청성뇌간반응검사의 청력 검사 영상을 판독하여 관심영역을 추출하고, 인공지능 딥러닝을 통하여 파형의 특정 신호가 발생하는 구간과 시간을 측정하여 분석함으로써 난청 유무를 판독하는 청력 검사 결과 판독 장치에 관한 것이다. The present invention relates to a hearing test result interpretation device, and more particularly, to a hearing test result interpretation device that interprets a hearing test image of an auditory brainstem response test to extract a region of interest, and analyzes the section and time at which a specific signal of a waveform occurs through artificial intelligence deep learning to interpret the presence or absence of hearing loss.
소리가 잘 안 들리는 것을 난청이라 한다. 난청은 이상 부위에 따라 크게 전음성 난청, 감각신경성 난청, 혼합성 난청으로 나눌 수 있으며, 난청의 원인에 따라 보다 세분화 된다. Hearing loss is when you can't hear sounds well. Hearing loss can be broadly divided into conductive hearing loss, sensorineural hearing loss, and mixed hearing loss depending on the abnormality, and is further subdivided based on the cause of the hearing loss.
전음성 난청은 음을 전달하는 외이나 중이에 문제가 있는 경우이며, 감각신경성 난청은 내이 이후 신경 회로에 문제가 있는 경우이고, 혼합성 난청은 외이, 중이, 내이 모두에 문제가 있는 경우이다. Conductive hearing loss occurs when there is a problem with the outer or middle ear that conducts sound, sensorineural hearing loss occurs when there is a problem with the neural circuits after the inner ear, and mixed hearing loss occurs when there is a problem with the outer, middle, and inner ear.
난청 판독은 환자의 청력검사 중 순음청력검사(PTA, Pure Tone Audiometry)와 청성뇌간반응검사(ABR, Auditory Brainstem Response)의 검사 결과에 기초하여 청력을 판독한다. Hearing loss interpretation is based on the results of pure tone audiometry (PTA) and auditory brainstem response (ABR) tests during the patient's hearing test.
순음청력검사는 피검사자의 반응이 필요한 주관적 평가방법 중 하나이다. 피검사자에게 각 주파수 대역의 순음(pure-tone)을 제시하여 개인이 들을 수 있는 가장 작은 소리 레벨을 산출하는 검사 방법이다. 순음청력검사는 피검사자가 헤드폰을 착용하고 순음을 전달하여 공기전도경로를 확인하는 기도순음청력검사(ACT)와 피검사자가 골전동체를 착용하고 두개골의 진동을 통해 소리를 전달하여 골전도경로를 확인하는 골도순음청력검사(BCT)가 있다. 검사자는 기도순음청력검사(ACT)와 골도순음청력검사(BCT)를 통한 청력검사 결과를 판독하여, 전음성 난청, 감각신경성 난청, 혼합성 난청 등을 변별할 수 있다. Pure tone audiometry is one of the subjective evaluation methods that requires the testee's response. It is a test method that presents the testee with pure tones of each frequency band to calculate the quietest sound level that the individual can hear. Pure tone audiometry includes air conduction pure tone audiometry (ACT), in which the testee wears headphones and transmits pure tones to check the air conduction path, and bone conduction pure tone audiometry (BCT), in which the testee wears a bone conduction device and transmits sounds through the vibration of the skull to check the bone conduction path. The tester can differentiate conductive hearing loss, sensorineural hearing loss, and mixed hearing loss by interpreting the results of the hearing tests through air conduction pure tone audiometry (ACT) and bone conduction pure tone audiometry (BCT).
청성뇌간반응검사는 소리 자극을 들려주고 이에 대한 청각계로부터의 전기반응을 두피에 위치한 전극을 통하여 기록하는 검사이다. 청성뇌간반응은 소리 자극 후 10msec 이내에 청신경과 뇌간에서 나타나는 반응으로 마취와 수면의 영향을 받지 않고 측정이 가능하다. 자극음은 클릭(click), 톤핍(tone pip) 등이 사용되는데 이 중에서 클릭음은 주파수 특성이 없으나 생성시간과 지속시간이 짧고 청신경원을 동시에 흥분시킬 수 있어 임상적으로 널리 사용된다. 톤핍은 주파수 특이성 검사, 특히 저음역 난청이 있는 경우 사용된다. Auditory brainstem response (ABRS) testing is a test that records the electrical response from the auditory system to a sound stimulus using electrodes placed on the scalp. The ABRS is a response that occurs in the auditory nerve and brainstem within 10 msec after a sound stimulus, and can be measured regardless of anesthesia or sleep. Clicks and tone pips are used as stimulus sounds. Among these, clicks have no frequency characteristics, but they are widely used clinically because they have a short production time and duration and can simultaneously excite the auditory nerves. Tone pips are used to test frequency specificity, especially in cases of low-frequency hearing loss.
청각 장애 판정을 받기 위해서는 청성뇌간반응검사를 반드시 받아야 하며, 청성뇌간반응검사는 객관적 검사로서, 청각 신호가 뇌간(brainstem)에 전달되는 과정에서 여러 파형의 잠복기와 진폭 등을 확인하여 청력 역치를 파악한다. 청성뇌간반응검사는 주로 누워서 검사를 시행하며, 아이의 경우 각성 상태에 있을 때, 검사 자체가 어려우므로, 수면제를 섭취 후 검사를 시행하는 경우가 많다. 성인의 경우도, 각성 상태에서 긴장을 하면 정확한 파형을 획득할 수 없으므로, 최소한 명상 단계에서 검사하는 것이 바람직하다. In order to be diagnosed with hearing impairment, you must take an auditory brainstem response test. The auditory brainstem response test is an objective test that determines the hearing threshold by checking the latency and amplitude of various waveforms during the process in which auditory signals are transmitted to the brainstem. The auditory brainstem response test is mainly conducted while lying down. In the case of children, it is difficult to take the test while they are awake, so the test is often conducted after they have taken sleeping pills. In the case of adults, it is also difficult to obtain accurate waveforms if they are tense while awake, so it is recommended to take the test at least during the meditation stage.
난청 검사와 관련하여, 일본공개특허 2001-231767호는 노이즈 검출 및 판정 능력을 구비한 청력 판정 장치에 관한 것으로, 음향 자극에 응답해 발생하는 청각 뇌의 중추부 반응(ABR) 판정 검사의 개발에 있어서 과도한 노이즈 및 과도한 비생리 노이즈의 정확한 검출을 가능하게 하는 구성을 개시하며, 한국공개특허 2015-0131022호는 청력 검사 장치, 청력 검사 방법 및 청력 검사용 단어 작성 방법에 관한 것으로, 잘못 들을 가능성이 있는 단어를 적어도 하나 포함하는 설문 문장을 음성 출력하고, 이에 대한 회답의 내용에 기초하여 회답자의 청력 저하의 유무를 판별하는 구성을 개시하고, 일본등록특허 5221545호는 타각적 자동 청력 검사 장치의 자동 청력 검사 방법 및 타각적 자동 청력 검사 장치에 관한 것으로, 청성 유발 전위(auditory evoked potential, AEP)의 평가에 기초하여 목표하는 청력 검사를 자동화 하는 방법을 개시한다. In relation to hearing loss tests, Japanese Patent Laid-Open No. 2001-231767 relates to a hearing test device having noise detection and judgment capabilities, and discloses a configuration that enables accurate detection of excessive noise and excessive non-physiological noise in the development of an auditory brain center response (ABR) judgment test that occurs in response to acoustic stimulation, and Korean Patent Laid-Open No. 2015-0131022 relates to a hearing test device, a hearing test method, and a method for writing words for a hearing test, and discloses a configuration that outputs a questionnaire sentence including at least one word that is likely to be misheard, and determines whether or not the respondent has hearing impairment based on the content of the response thereto, and Japanese Patent Registration No. 5221545 relates to an automatic hearing test method and an automatic objective hearing test device for an objective automatic hearing test, and discloses a method for automating a target hearing test based on the evaluation of an auditory evoked potential (AEP).
상기 종래 기술들은 청성뇌간반응검사(ABR)의 청력 검사 영상으로부터 난청 유무 판독을 위한 데이터 추출 및 분석에 있어 개선의 여지가 있다. The above conventional technologies have room for improvement in data extraction and analysis for determining the presence or absence of hearing loss from auditory brainstem response (ABR) audiometric test images.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명의 목적은 청성뇌간반응검사의 청력 검사 영상을 판독하여 관심영역을 추출하고, 인공지능 딥러닝을 통하여 파형의 특정 신호가 발생하는 구간과 시간을 측정하여 분석함으로써 난청 유무를 판독하는 청력 검사 결과 판독 장치를 제공하는데 있다. The present invention has been created in consideration of the above circumstances, and the purpose of the present invention is to provide a hearing test result interpretation device that interprets a hearing test image of an auditory brainstem response test to extract a region of interest, and analyzes the section and time at which a specific signal of the waveform occurs through artificial intelligence deep learning to determine whether there is hearing loss.
본 발명의 일 실시예에 따른 청력 검사 결과 판독 장치는, 청성뇌간반응검사의 청력 검사 영상에 대해 데이터 전처리를 실행하여, 데이터의 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 정규화 하는 데이터 전처리부, 상기 데이터 전처리부로부터 전달되는 상기 파형의 특징을 추출 및 분석하고, 상기 파형의 전체 형태로부터 피크 값 및 피크가 발생하는 시간 정보를 산출하는 AI 모듈, 및 상기 AI 모듈에서 산출된 상기 파형의 피크 값 및 피크가 발생하는 시간 정보로부터 난청 유무를 판독하는 난청 판독부를 포함한다. A hearing test result interpretation device according to one embodiment of the present invention includes a data preprocessing unit that performs data preprocessing on a hearing test image of an auditory brainstem response test, normalizes the value of each waveform of the data to a value between 0 and 1 by dividing the value by the maximum value of each waveform, an AI module that extracts and analyzes features of the waveform transmitted from the data preprocessing unit, and calculates a peak value and information on the time at which the peak occurs from the entire shape of the waveform, and a hearing loss interpretation unit that determines whether there is hearing loss from the peak value of the waveform and information on the time at which the peak occurs calculated by the AI module.
상기 데이터 전처리부는 파형의 전체 형태를 이용해 피크를 추출하여 분석하며, 정규화(Normalization0화정을 통해 파형의 y값이 (100, 200) 의 범주를 갖는다면, 해당 파형의 모든 y값을 최대값인 200으로 나누어 (0.5, 1) 의 범주를 갖도록 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 변경하도록 동작한다. The above data preprocessing unit extracts and analyzes peaks using the entire shape of the waveform, and through normalization (if the y value of the waveform has a category of (100, 200), all y values of the waveform are divided by the maximum value of 200 to have a category of (0.5, 1), and the values of each waveform are divided by the maximum value of each waveform to change them to values between 0 and 1.
상기 AI모듈은 상기 데이터 전처리부를 통해 전처리가 이루어진 청력 검사 결과 데이터가 입력되면, 입력된 데이터 내 관심영역을 추출 및 분석하고, 데이터의 파형 내 V파(5번 피크)를 출력한다.When the above AI module receives the hearing test result data that has been preprocessed through the above data preprocessing unit, it extracts and analyzes the region of interest within the input data and outputs the V wave (peak 5) within the data waveform.
상기 AI모듈에서 사용된 기계 학습 기법은 딥 러닝(deep learning)으로, 인공신경망(ANN, Artificial Neural Network)에서 설명하는 NN 즉, 신경망을 여러 층 쌓은 것으로, 다층 구조의 신경망을 통해 학습이 실행되는 DNN(Deep Neural Network)을 사용하고, The machine learning technique used in the above AI module is deep learning, which is a multi-layered NN described in the artificial neural network (ANN), and uses a DNN (Deep Neural Network) in which learning is performed through a multi-layered neural network.
상기 AI모듈은 The above AI module
모즌 층이 이전 층에서 입력 받은 값을 계산하여 다음 층으로 보내는 역할을 수행하도록 하기 위하여 다중 레이어로 구성하되, 제1 레이어 내지 제6 레이어를 포함하도록 구성하고, 제1 레이어는 제1 입력층(Input1) 및 제2 입력층(Input2), 제2 레이어는 밀집층(Dense Layer) 및 양방향(Bidirectional) RNN, 제3 레이어는 재형성층(Reshape layer) 및 시간 분배 밀집층(Time Distributed Dense Layer), 제4 레이어는 연결층(Concatenate Layer), 제5 레이어는 밀집층, 제6 레이어는 소프트맥스 밀집층(softmax Dense Layer)을 포함하도록 구성한다.In order for each layer to perform the role of calculating the value input from the previous layer and sending it to the next layer, it is configured with multiple layers, and is configured to include the first to sixth layers, and the first layer includes the first input layer (Input1) and the second input layer (Input2), the second layer includes a Dense Layer and a Bidirectional RNN, the third layer includes a Reshape layer and a Time Distributed Dense Layer, the fourth layer includes a Concatenate Layer, the fifth layer includes a Dense Layer, and the sixth layer includes a softmax Dense Layer.
본 발명에 따른 청력 검사 결과 판독 장치 및 방법은 청성뇌간반응검사의 청력 검사 영상에 인공지능 딥러닝 기술을 적용하여 관심영역 추출 및 분석을 실행함으로써, 난청 유무 판독의 정밀성을 높일 수 있는 효과가 있다. The device and method for interpreting hearing test results according to the present invention can increase the accuracy of interpreting the presence or absence of hearing loss by applying artificial intelligence deep learning technology to the hearing test image of the auditory brainstem response test to extract and analyze the region of interest.
도 1은 본 발명의 일 실시예에 따른 청력 검사 결과 판독 장치의 구성을 도시한 블록도이다.
도 2는 학습 데이터로 사용되는 청력 검사 결과 파형을 도시하는 도면이다.
도 3은 본 발명의 AI 모듈의 신경망 구조를 도시한 도면이다.
도 4는 양방향 RNN 내부구조 및 시간 분배 밀집층(Time Distributed Dense Layer)을 도시한 도면이다. FIG. 1 is a block diagram illustrating the configuration of a hearing test result reading device according to one embodiment of the present invention.
Figure 2 is a diagram showing the waveform of the hearing test results used as learning data.
Figure 3 is a diagram illustrating the neural network structure of the AI module of the present invention.
Figure 4 is a diagram illustrating the internal structure of a bidirectional RNN and a time distributed dense layer.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in this specification and claims are not to be construed as limited to their usual or dictionary meanings, and should be interpreted as meanings and concepts that conform to the technical idea of the present invention, based on the principle that the inventor can appropriately define the concept of the term in order to explain his or her own invention in the best manner.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, this does not mean that other components are excluded, but rather that other components can be included, unless otherwise specifically stated. In addition, terms such as "part," "unit," "module," and "device" described in the specification mean a unit that processes at least one function or operation, and this can be implemented by a combination of hardware and/or software.
명세서 전체에서 "및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.Throughout the specification, the term "and/or" should be understood to include all combinations possible from one or more of the associated items. For example, "the first item, the second item, and/or the third item" means not only the first, second, or third items, but also all combinations of items possible from two or more of the first, second, or third items.
명세서 전체에서 각 단계들에 있어 식별부호(예를 들어, a, b, c, ...)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 한정하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Throughout the specification, identifiers (e.g., a, b, c, ...) for each step are used for convenience of explanation and do not limit the order of each step. Each step may occur in a different order than stated unless the context clearly indicates a specific order. That is, each step may occur in the same order as stated, may be performed substantially simultaneously, or may be performed in the opposite order.
이하, 도면을 참고하여 본 발명의 일실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 청력 검사 결과 판독 장치의 구성을 도시한 블록도이다.FIG. 1 is a block diagram illustrating the configuration of a hearing test result reading device according to one embodiment of the present invention.
도 1을 참조하면, 본 발명의 청력 검사 결과 판독 장치(100)는 데이터 전처리부(110), AI 모듈(120) 및 난청 판독부(130)를 포함한다. Referring to FIG. 1, the hearing test result reading device (100) of the present invention includes a data preprocessing unit (110), an AI module (120), and a hearing loss reading unit (130).
데이터 전처리부(110)는 청성뇌간반응검사의 청력 검사 영상에 대해 데이터 전처리를 실행하여, 데이터의 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 정규화 한다. The data preprocessing unit (110) performs data preprocessing on the hearing test image of the auditory brainstem response test, normalizing the value of each waveform of the data to a value between 0 and 1 by dividing it by the maximum value of each waveform.
AI 모듈(120)은 데이터 전처리부(110)로부터 전달되는 파형의 특징을 추출 및 분석하고, 상기 파형의 전체 형태로부터 피크 값 및 피크가 발생하는 시간 정보를 산출한다. 이를 위해, AI 모듈(120)은 제1 레이어(121), 제2 레이어(122), 제3 레이어(123), 제4 레이어(124), 제5 레이어(125) 및 제6 레이어(126)를 포함할 수 있으며, 각 레이어의 기능 및 역할에 대해서는 후술한다.The AI module (120) extracts and analyzes the characteristics of the waveform transmitted from the data preprocessing unit (110), and calculates peak values and peak occurrence time information from the overall shape of the waveform. To this end, the AI module (120) may include a first layer (121), a second layer (122), a third layer (123), a fourth layer (124), a fifth layer (125), and a sixth layer (126), and the functions and roles of each layer will be described later.
난청 판독부(130)는 AI 모듈(120)에서 산출된 상기 파형의 피크 값 및 피크가 발생하는 시간 정보로부터 난청 유무를 판독한다. The hearing loss interpretation unit (130) interprets whether there is hearing loss from the peak value of the waveform produced by the AI module (120) and the time information at which the peak occurs.
도 2는 학습 데이터로 사용되는 청력 검사 결과 파형을 도시하는 도면이다. Figure 2 is a diagram showing the waveform of the hearing test results used as learning data.
도 2를 참조하면, 총 6개의 파형이 있으며, 각 파형은 학습 데이터로 사용되며, 6개 파형은 각각 다른 크기(데시벨)의 소리 자극에 대한 청력 검사 결과를 나타낸다.Referring to Figure 2, there are a total of six waveforms, each of which is used as learning data, and each of the six waveforms represents the results of a hearing test for sound stimuli of different sizes (decibels).
우선, 데이터 전처리부(110)를 통해 전처리가 이루어진 청력 검사 결과 데이터가 입력되면, AI 모듈(120)은 데이터 내 관심영역을 추출 및 분석하고, 데이터의 파형 내 V파(5번 피크)를 출력한다. First, when the hearing test result data that has been preprocessed through the data preprocessing unit (110) is input, the AI module (120) extracts and analyzes the region of interest within the data and outputs the V wave (peak 5) within the waveform of the data.
도 2에서 추출된 파형은 실제 측정 데이터이다. 측정 데이터는 소리의 크기(데시벨)에 따라 각각 다른 범위의 값을 갖고 있다. 이 상태에서 기계 학습을 실행시키면, AI 모듈(120)이 계산해야 할 데이터 범위가 매우 방대 해지며, 실제 피크 값을 분석하는데 초점이 맞춰진다. The waveform extracted in Fig. 2 is actual measurement data. The measurement data has different ranges of values depending on the sound size (decibels). If machine learning is executed in this state, the data range that the AI module (120) must calculate becomes very large, and the focus is on analyzing the actual peak value.
그러나, 본 발명에서는 파형의 값 자체보다는 파형의 전체 형태를 이용해 피크를 추출하는 것이므로, 파형의 전체 형태에 초점을 두고 분석을 진행한다. However, since the present invention extracts peaks using the entire shape of the waveform rather than the waveform value itself, the analysis is conducted with a focus on the entire shape of the waveform.
따라서, 전처리 과정(정규화, Normalization)을 통해 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 변경한다. 예를 들어, 파형의 y값이 (100, 200) 의 범주를 갖는다면, 해당 파형의 모든 y값을 최대값인 200으로 나누어 (0.5, 1) 의 범주를 갖도록 한다. Therefore, through the preprocessing process (normalization), the value of each waveform is divided by the maximum value of each waveform and changed to a value between 0 and 1. For example, if the y value of the waveform has a category of (100, 200), all the y values of the waveform are divided by the maximum value of 200 to have a category of (0.5, 1).
상기와 같이 전처리가 실행된 데이터에 대해 AI 모듈(120)은 학습(DNN)을 실행한다. 이하에서는, 본 발명의 이해의 편의를 위해 실제 실험예에 대해 설명하지만, 본 발명의 사상은 이에 제한적이지 않으며, 다양한 변형 또는 수정이 가능하다. As described above, the AI module (120) performs learning (DNN) on the data for which preprocessing has been performed. Hereinafter, an actual experimental example will be described for the convenience of understanding the present invention, but the spirit of the present invention is not limited thereto, and various modifications or alterations are possible.
청력 검사 결과로부터 추출된 데이터는 2,098개이며, 이중 80%인 1,684개를 학습데이터, 414개를 테스트 데이터로 설정하여 학습을 진행한다. The data extracted from the hearing test results is 2,098, of which 80%, or 1,684, are set as training data and 414 are set as test data to proceed with learning.
모든 기계 학습은 학습 데이터 및 테스트 데이터를 활용하여 학습한다. 학습데이터는 학습을 진행하는 데이터로, AI 모듈(120)은 기계 학습 기법을 이용하여 해당 학습 데이터를 학습한다. All machine learning uses learning data and test data to learn. Learning data is data that undergoes learning, and the AI module (120) learns the corresponding learning data using machine learning techniques.
테스트 데이터는 학습을 완료한 AI 모듈(120)을 테스트 하는데 사용하는 데이터로, 실제 AI 모듈(120)의 성능은 테스트 데이터의 테스트 결과로 평가된다. Test data is data used to test an AI module (120) that has completed learning, and the performance of the actual AI module (120) is evaluated based on the test results of the test data.
본 발명의 AI 모듈(120)에서 사용된 기계 학습 기법은 딥 러닝(deep learning)으로, 그 중 DNN(Deep Neural Network)을 사용한다. DNN은 인공신경망(ANN, Artificial Neural Network)의 딥 러닝 버전이다. DNN은 ANN에서 설명하는 NN 즉, 신경망을 여러 층 쌓은 것으로, 다층 구조의 신경망을 통해 학습이 실행된다. The machine learning technique used in the AI module (120) of the present invention is deep learning, and among them, a DNN (Deep Neural Network) is used. DNN is a deep learning version of an artificial neural network (ANN). DNN is a NN described in ANN, that is, a neural network that is stacked in multiple layers, and learning is performed through a neural network with a multilayer structure.
도 3은 본 발명의 AI 모듈의 신경망 구조를 도시한 도면이다. Figure 3 is a diagram illustrating the neural network structure of the AI module of the present invention.
도 3을 참조하면, AI 모듈(120)은 제1 레이어(121) 내지 제6 레이어(126)를 포함한다. 제1 레이어(121)는 제1 입력층(Input1) 및 제2 입력층(Input2), 제2 레이어(122)는 밀집층(Dense Layer) 및 양방향(Bidirectional) RNN, 제3 레이어(123)는 재형성층(Reshape layer) 및 시간 분배 밀집층(Time Distributed Dense Layer), 제4 레이어(124)는 연결층(Concatenate Layer), 제5 레이어(125)는 밀집층, 제6층은 소프트맥스 밀집층(softmax Dense Layer)을 포함할 수 있다. Referring to FIG. 3, the AI module (120) includes a first layer (121) to a sixth layer (126). The first layer (121) may include a first input layer (Input1) and a second input layer (Input2), the second layer (122) may include a dense layer and a bidirectional RNN, the third layer (123) may include a reshape layer and a time distributed dense layer, the fourth layer (124) may include a concatenate layer, the fifth layer (125) may include a dense layer, and the sixth layer may include a softmax dense layer.
모든 층은 이전 층에서 입력 받은 값을 계산하여 다음 층으로 보내는 역할을 한다. 도 3에서, 각 층 사이의 화살표는 데이터 처리 및 이동의 방향을 나타낸다. Each layer calculates the values input from the previous layer and sends them to the next layer. In Figure 3, the arrows between each layer indicate the direction of data processing and movement.
AI 모듈(120)의 제1 레이어(121)는 2개의 입력층으로 구성될 수 있다. 청성뇌간반응검사 결과의 각 파형은 이전에 측정한 데시벨의 파형 내 피크에 영향을 받는다. 각 파형 내 피크 간 연관 관계를 분석하기 위해 제1 입력층(Input1)에는 이전 측정된 데시벨의 파형의 피크 값이 입력된다. 입력 데이터의 형식은 파형의 총 시간(이하 T)의 길이와 같다. 그 중 피크가 발견된 시간 t를 1, 피크가 발견되지 않은 시간은 0으로 설정한다. The first layer (121) of the AI module (120) may be composed of two input layers. Each waveform of the auditory brainstem response test result is affected by the peak of the previously measured decibel waveform. In order to analyze the correlation between the peaks in each waveform, the peak value of the previously measured decibel waveform is input to the first input layer (Input1). The format of the input data is the same as the length of the total time (hereinafter T) of the waveform. Among them, the time t at which the peak is found is set to 1, and the time at which the peak is not found is set to 0.
이를 수식으로 나타내면 하기와 같다. If we express this as a formula, it is as follows.
[수학식 1] [Mathematical Formula 1]
제2 입력층(Input2)에는 현재 데시벨 파형의 전처리 된 값이 입력된다. 제2 입력층에 입력되는 파형은 제1 입력층에 입력되는 파형과 마찬가지로 총 시간은 T이다. The second input layer (Input2) receives the preprocessed value of the current decibel waveform. The waveform input to the second input layer has a total time of T, similar to the waveform input to the first input layer.
밀집층(Dense Layer)은 데이터의 전반적인 분석을 실행한다. 일반적으로, 밀집층의 이전 층은 데이터의 특징을 추출하는 층이 위치한다. 데이터 특징이 입력되는 밀집층은 특징으로부터 분석 혹은 판단을 한다. The dense layer performs an overall analysis of the data. Typically, the previous layer of the dense layer is a layer that extracts data features. The dense layer, into which data features are input, analyzes or makes judgments based on the features.
재형성층(Reshape layer)은 별다른 연산 과정 없이, 입력 받은 데이터의 형식을 변경하는데 사용된다. 본 발명의 AI 모듈(120)에서, 재형성층은 제1 입력층으로부터 계산되어 전달된 데이터를 제2 입력층으로부터 계산되어 전달된 데이터와 같은 형식으로 맞추기 위해 사용될 수 있다. The reshape layer is used to change the format of input data without any additional computational process. In the AI module (120) of the present invention, the reshape layer can be used to match data calculated and transmitted from the first input layer to the same format as data calculated and transmitted from the second input layer.
양방향(Bidirectional) RNN은 RNN(순환신경망, Recurrent Neural Network)의 일종이다. RNN은 이전 층의 데이터를 시간의 흐름에 따라 분석하는데 사용되는 신경망이다. 제2 입력층에 입력된 데이터는 총시간 T인 시간의 흐름에 따라 y 값이 변하는 파형이며, RNN은 이러한 파형을 분석하는데 사용된다. Bidirectional RNN is a type of RNN (Recurrent Neural Network). RNN is a neural network used to analyze data from the previous layer over time. The data input to the second input layer is a waveform in which the y value changes over time, which is the total time T, and RNN is used to analyze this waveform.
일반적인 RNN의 경우, 시간의 순행의 분석에 사용된다. 본 발명의 AI 모듈(120)은 양방향 RNN이 사용될 수 있으며, 파형에서 시간의 순행에 따른 값의 변화와 역행에 따른 값의 변화를 모두 분석하여 청성뇌간반응검사 결과의 피크를 정밀하게 검출할 수 있다. In the case of general RNN, it is used for analysis of time forward movement. The AI module (120) of the present invention can use a bidirectional RNN, and can precisely detect the peak of the auditory brainstem response test result by analyzing both the change in value according to time forward movement and the change in value according to time backward movement in the waveform.
도 4는 양방향 RNN 내부구조 및 시간 분배 밀집층(Time Distributed Dense Layer)을 도시한 도면이다. Figure 4 is a diagram illustrating the internal structure of a bidirectional RNN and a time distributed dense layer.
도 4를 참조하면, RNN 내부에는 LSTM(Long Short-Term Memory) 셀(Cell)이 총시간 T 개 만큼 구성된다.Referring to Figure 4, the RNN is configured with a total number of LSTM (Long Short-Term Memory) cells T.
각 셀에는 제2 입력층에서 전달되는 파형의 y값이 입력된다. LSTM은 각 y값 뿐만 아니라, 같은 RNN 내부의 다른 LSTM의 결과값을 참고하여 분석한다. Each cell receives the y-value of the waveform transmitted from the second input layer. LSTM analyzes not only each y-value but also the results of other LSTMs within the same RNN.
시간 분배 밀집층(Time Distributed Dense Layer)은 일반적인 밀집층과 유사하나, RNN의 후방에서 각 LSTM 셀로부터 출력되는 값을 입력 받는다는 점에서 다른 밀집층과 차이가 있다. The Time Distributed Dense Layer is similar to a general dense layer, but it differs from other dense layers in that it receives the output values from each LSTM cell at the rear of the RNN.
일반적으로 RNN 전체의 결과만 밀집층의 입력 값으로 사용되는 것과는 달리, 본 발명의 시간 분배 밀집층은 RNN 내부의 모든 셀의 후방에서 각 셀에 상응하여 밀집층이 위치한다. Unlike the general RNN, where only the result of the entire RNN is used as the input value of the dense layer, the time-distributed dense layer of the present invention has a dense layer positioned corresponding to each cell at the rear of all cells within the RNN.
연결층(Concatenate Layer)은 제3 레이어(123)의 재형성층과 시간 분배 밀집층으로부터 전달되는 결과 값을 하나의 배열로 합쳐주는 역할을 한다. The concatenate layer combines the result values transmitted from the reshaping layer and the time distribution dense layer of the third layer (123) into a single array.
소프트맥스 밀집층(softmax Dense Layer)은 softmax 활성화 함수를 사용하여, 밀집층의 결과값을 계산한다. 또한, 소프트맥스 밀집층은 본 발명의 AI 모듈(120)의 출력층이다. 출력된 값은 총시간 T 중에서 각 시간이 피크일 확률에 관한 분포도이다. The softmax dense layer uses the softmax activation function to calculate the result value of the dense layer. In addition, the softmax dense layer is the output layer of the AI module (120) of the present invention. The output value is a distribution of the probability that each time is a peak among the total time T.
손실 함수(Loss function)는 출력층에서 계산된 결과값과 실제 피크 값의 차이를 계산한다. 출력층의 결과값은 총 면적 1을 갖는 확률분포(1)이다. The loss function calculates the difference between the output value calculated in the output layer and the actual peak value. The output value of the output layer is a probability distribution (1) with a total area of 1.
실제 피크 값은 학습에 사용하는 파형의 실제 피크 시간 t를 1로, 나머지를 0으로 한 그래프(2)이며, 전술한 수학식 1과 같다. The actual peak value is a graph (2) in which the actual peak time t of the waveform used for learning is 1 and the rest are 0, and is the same as the mathematical expression 1 described above.
손실 함수는 여러 계산법을 이용해 (2) - (1)의 값을 산출한다. The loss function uses several calculation methods to calculate the values of (2) - (1).
본 발명의 일 실시예에서, cosine similarity를 이용하여 계산될 수 있으며, (2) - (1)의 산출 값은 각 레이어(121~126)에 다시 전달될 수 있다. 이 과정이 역전파(back propagation)이며, 학습은 제1 레이어(121)에서 제6 레이어(126)로 순차적으로 데이터가 전달되는 순전파(feedforward)와 역전파를 반복 계산하여 이루어진다. In one embodiment of the present invention, it can be calculated using cosine similarity, and the output values of (2) - (1) can be passed back to each layer (121 to 126). This process is back propagation, and learning is performed by repeatedly calculating feedforward and back propagation in which data is sequentially passed from the first layer (121) to the sixth layer (126).
본 발명의 실험예에서, 학습데이터 세트(set) 1,684개 모두 각각 순전파, 역전파 계산을 한 경우를 1 epoch 라고 하며, AI 모듈(120)은 총 139 epoch의 학습을 진행하였다. 해당 AI 모듈(120)의 성능은 MSE(Mean Squared Error)를 이용해 오차를 계산하였으며, 테스트 데이터를 모두 계산한 결과, 평균 MSE가 0.10515368729829788 로 도출되었다. In the experimental example of the present invention, when each of the 1,684 learning data sets was subjected to forward and backward propagation calculations, it is called 1 epoch, and the AI module (120) performed learning for a total of 139 epochs. The performance of the AI module (120) was calculated using the MSE (Mean Squared Error), and as a result of calculating all test data, the average MSE was derived as 0.10515368729829788.
즉, AI 모듈을 통해 산출되는 값은 결국 실제 피크 시간 t인 것으로 보입니다. 청성뇌간반응검사는 청력역치를 파악하여 난청 여부를 판단하는 것인데, 피크 시간 t 값 산출을 통해 난청 여부 판단이 가능한 것이다.In other words, the value produced by the AI module appears to be the actual peak time t. The auditory brainstem response test determines whether there is hearing loss by determining the hearing threshold, and it is possible to determine whether there is hearing loss by calculating the peak time t value.
AI 모듈에 데이터 파형이 입력되는 단계에서, 전처리를 통해 파형의 y값이 정규화(0~1) 되었으므로, 다시 역의 과정을 거쳐 y값을 산출해야 청력역치를 파악할 수 있는 것이다. At the stage where the data waveform is input to the AI module, the y value of the waveform is normalized (0 to 1) through preprocessing, so the y value must be calculated again through the reverse process to determine the hearing threshold.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로 컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서 (parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and one or more software applications running on the OS. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, a processing device may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody) 될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may independently or collectively command the processing device. The software and/or data may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal waves, for interpretation by the processing device or for providing instructions or data to the processing device. The software may also be distributed over network-connected computer systems, and stored or executed in a distributed manner. The software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나, 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the embodiment, or may be those known to and usable by those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands, such as ROMs, RAMs, and flash memories. Examples of the program commands include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.Although the present invention has been described in detail with reference to preferred embodiments thereof, the present invention is not limited to the above-described embodiments, and it will be understood by those skilled in the art that various modifications or variations can be made therein without departing from the gist of the present invention as claimed in the following claims.
이상에서 본 발명은 기재된 구체예에 대하여 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허 청구범위에 속함은 당연한 것이다.Although the present invention has been described in detail with respect to the described specific examples, it will be apparent to those skilled in the art that various modifications and variations are possible within the technical scope of the present invention, and it is natural that such modifications and variations fall within the scope of the appended patent claims.
100: 청력 검사 결과 판독 장치
110: 데이터 전처리부
120: AI 모듈
121: 제1 레이어
122: 제2 레이어
123: 제3 레이어
124: 제4 레이어
125: 제5 레이어
126: 제6 레이어
130: 난청 판독부100: Hearing test result interpretation device
110: Data preprocessing unit 120: AI module
121: 1st layer 122: 2nd layer
123: 3rd layer 124: 4th layer
125: 5th layer 126: 6th layer
130: Deaf Reading Department
Claims (12)
상기 데이터 전처리부로부터 전달되는 상기 파형의 특징을 추출 및 분석하고, 상기 파형의 전체 형태로부터 피크 값 및 피크가 발생하는 시간 정보를 산출하는 AI 모듈; 및
상기 AI 모듈에서 산출된 상기 파형의 피크 값 및 피크가 발생하는 시간 정보로부터 난청 유무를 판독하는 난청 판독부를 포함하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
A data preprocessing unit that performs data preprocessing on the hearing test image of the auditory brainstem response test, normalizing the value of each waveform of the data to a value between 0 and 1 by dividing it by the maximum value of each waveform;
An AI module that extracts and analyzes the features of the waveform transmitted from the data preprocessing unit and calculates peak values and peak occurrence time information from the overall form of the waveform; and
A hearing test result interpretation device characterized by including a hearing loss interpretation unit that interprets whether there is hearing loss from the peak value of the waveform produced by the AI module and the time information at which the peak occurs.
상기 데이터 전처리부는
파형의 전체 형태를 이용해 피크를 추출하여 분석하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 1,
The above data preprocessing unit
A hearing test result interpretation device characterized by extracting and analyzing peaks using the entire shape of the waveform.
상기 데이터 전처리부는
정규화(Normalization0화정을 통해 파형의 y값이 (100, 200) 의 범주를 갖는다면, 해당 파형의 모든 y값을 최대값인 200으로 나누어 (0.5, 1) 의 범주를 갖도록 각 파형의 값을 각 파형의 최대값으로 나누어 0 내지 1 사이의 값으로 변경하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 2,
The above data preprocessing unit
A hearing test result interpretation device characterized in that, if the y-value of a waveform has a category of (100, 200) through normalization, all y-values of the waveform are divided by the maximum value of 200 to have a category of (0.5, 1), and the values of each waveform are divided by the maximum value of each waveform to change them to values between 0 and 1.
상기 AI모듈은
상기 데이터 전처리부를 통해 전처리가 이루어진 청력 검사 결과 데이터가 입력되면, 입력된 데이터 내 관심영역을 추출 및 분석하고, 데이터의 파형 내 V파(5번 피크)를 출력하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 1,
The above AI module
A hearing test result interpretation device characterized in that, when hearing test result data that has been preprocessed through the above data preprocessing unit is input, the device extracts and analyzes the region of interest within the input data and outputs the V wave (peak 5) within the waveform of the data.
상기 AI모듈에서 사용된 기계 학습 기법은
딥 러닝(deep learning)으로, 인공신경망(ANN, Artificial Neural Network)에서 설명하는 NN 즉, 신경망을 여러 층 쌓은 것으로, 다층 구조의 신경망을 통해 학습이 실행되는 DNN(Deep Neural Network)을 사용하는 것을 특징으로 하는 청력 검사 결과 판독 장치. In claim 1,
The machine learning technique used in the above AI module is
A hearing test result interpretation device characterized by using a DNN (Deep Neural Network) in which learning is executed through a multi-layered neural network, which is a NN described in an artificial neural network (ANN) with multiple layers of neural networks stacked together through deep learning.
상기 AI모듈은
모든 층이 이전 층에서 입력 받은 값을 계산하여 다음 층으로 보내는 역할을 수행하도록 하기 위하여 다중 레이어로 구성하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 5,
The above AI module
A hearing test result reading device characterized by being configured with multiple layers so that each layer performs the role of calculating values input from the previous layer and sending them to the next layer.
상기 다중 레이어는
제1 레이어 내지 제6 레이어를 포함하도록 구성하고, 제1 레이어는 제1 입력층(Input1) 및 제2 입력층(Input2), 제2 레이어는 밀집층(Dense Layer) 및 양방향(Bidirectional) RNN, 제3 레이어는 재형성층(Reshape layer) 및 시간 분배 밀집층(Time Distributed Dense Layer), 제4 레이어는 연결층(Concatenate Layer), 제5 레이어는 밀집층, 제6 레이어는 소프트맥스 밀집층(softmax Dense Layer)을 포함하도록 구성하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 6,
The above multiple layers
A hearing test result interpretation device characterized in that it is configured to include first to sixth layers, wherein the first layer includes a first input layer (Input1) and a second input layer (Input2), the second layer includes a dense layer and a bidirectional RNN, the third layer includes a reshape layer and a time distributed dense layer, the fourth layer includes a concatenate layer, the fifth layer includes a dense layer, and the sixth layer includes a softmax dense layer.
상기 제1 레이어는
청성뇌간반응검사 결과의 각 파형은 이전에 측정한 데시벨의 파형 내 피크에 영향을 받는 것을 기준으로 2개의 입력층으로 구성하여, 각 파형 내 피크 간 연관 관계를 분석하기 위해 제1 입력층(Input1)에는 이전 측정된 데시벨의 파형의 피크 값이 입력되고, 입력 데이터의 형식은 파형의 총 시간(이하 T)의 길이와 같으며, 그 중 피크가 발견된 시간 t를 1, 피크가 발견되지 않은 시간은 0으로 설정하고 제2 입력층에는 현재 데시벨 파형의 전처리된 값을 입력하는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 7,
The above first layer
A hearing test result interpretation device characterized in that each waveform of the auditory brainstem response test result is configured with two input layers based on the influence of the peak in the previously measured decibel waveform, and the peak value of the previously measured decibel waveform is input into the first input layer (Input1) in order to analyze the correlation between the peaks in each waveform, and the format of the input data is the same as the length of the total time (hereinafter T) of the waveform, and among them, the time t at which the peak is found is set to 1, the time at which the peak is not found is set to 0, and the preprocessed value of the current decibel waveform is input into the second input layer.
상기 제2 레이어는
이전층에서 추출된 데이터의 특징을 이용하여 분석 혹은 판단을 진행하고, 양방향(Bidirectional) RNN은 RNN(순환신경망, Recurrent Neural Network)의 일종으로 이전 층의 데이터를 시간의 흐름에 따라 분석하는데 사용되는 신경망인 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 7,
The second layer above
A hearing test result interpretation device that uses the characteristics of data extracted from the previous layer to conduct analysis or judgment, and a bidirectional RNN is a type of RNN (Recurrent Neural Network) that is used to analyze data from the previous layer over time.
상기 제3 레이어의 재형성층(Reshape layer)은
별다른 연산 과정 없이, 입력 받은 데이터의 형식을 변경하는데 사용되는 것으로, 재형성층은 제1 입력층으로부터 계산되어 전달된 데이터를 제2 입력층으로부터 계산되어 전달된 데이터와 같은 형식으로 맞추기 위해 사용되고, 시간 분배 밀집층(Time Distributed Dense Layer)은 일반적인 밀집층과 유사하나, RNN의 후방에서 각 LSTM 셀로부터 출력되는 값을 입력받는 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 7,
The reshape layer of the third layer above is
A hearing test result reading device characterized by being used to change the format of input data without any additional computational process, the reformatting layer is used to match the data calculated and transmitted from the first input layer to the same format as the data calculated and transmitted from the second input layer, and the time distributed dense layer is similar to a general dense layer, but receives the values output from each LSTM cell at the rear of the RNN.
상기 제4 레이어의 연결층은
상기 제3 레이어의 재형성층과 시간 분배 밀집층으로부터 전달되는 결과 값을 하나의 배열로 합쳐주는 역할을 수행하는 청력 검사 결과 판독 장치.
In claim 7,
The connection layer of the above fourth layer
A hearing test result reading device that performs the function of merging the result values transmitted from the reformation layer and the time distribution dense layer of the third layer into a single array.
상기 제6 레이어의 소프트웨어 밀집층은
softmax 활성화 함수를 사용하여, 밀집층의 결과값을 계산하는 것으로, AI 모듈의 출력층으로 출력된 값은 총시간 T 중에서 각 시간이 피크일 확률에 관한 분포도인 것을 특징으로 하는 청력 검사 결과 판독 장치.
In claim 7,
The software dense layer of the above 6th layer is
A hearing test result interpretation device characterized in that the output value of the dense layer is calculated using a softmax activation function, and the value output to the output layer of the AI module is a distribution regarding the probability that each time is a peak among the total time T.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230036153A KR20240141907A (en) | 2023-03-20 | 2023-03-20 | Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230036153A KR20240141907A (en) | 2023-03-20 | 2023-03-20 | Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20240141907A true KR20240141907A (en) | 2024-09-30 |
Family
ID=92927793
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230036153A Pending KR20240141907A (en) | 2023-03-20 | 2023-03-20 | Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20240141907A (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5221545U (en) | 1975-08-01 | 1977-02-16 | ||
| JP2001231767A (en) | 2000-01-07 | 2001-08-28 | Natus Medical Inc | Auditory capacity judging device with detection and evaluation capability noise |
| US20150131022A1 (en) | 2013-11-13 | 2015-05-14 | Shenzhen China Star Optoelectronics Technology Co. Ltd. | Multiple display monitor |
-
2023
- 2023-03-20 KR KR1020230036153A patent/KR20240141907A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5221545U (en) | 1975-08-01 | 1977-02-16 | ||
| JP2001231767A (en) | 2000-01-07 | 2001-08-28 | Natus Medical Inc | Auditory capacity judging device with detection and evaluation capability noise |
| US20150131022A1 (en) | 2013-11-13 | 2015-05-14 | Shenzhen China Star Optoelectronics Technology Co. Ltd. | Multiple display monitor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Tremblay et al. | Central auditory plasticity: changes in the N1-P2 complex after speech-sound training | |
| JP2008539977A (en) | Neurophysiological central auditory processing evaluation system and method | |
| US20230156413A1 (en) | Closed-loop method to individualize neural-network-based audio signal processing | |
| US10349852B2 (en) | Analysing physiological electrograms | |
| CN114970641A (en) | Emotion category identification method and device, processor and electronic equipment | |
| US20230129442A1 (en) | System and method for real-time detection of user's attention sound based on neural signals, and audio output device using the same | |
| Liu et al. | Side-aware meta-learning for cross-dataset listener diagnosis with subjective tinnitus | |
| Zimatore et al. | Post-processing analysis of transient-evoked otoacoustic emissions to detect 4 kHz-notch hearing impairment–a pilot study | |
| TWI482611B (en) | Emotional brainwave imaging method | |
| Fawcett et al. | Automated classification of acoustic startle reflex waveforms in young CBA/CaJ mice using machine learning | |
| Özyurt et al. | Multi-transfer learning techniques for detecting auditory brainstem response | |
| Margolis et al. | Clinical interpretation of word-recognition scores for listeners with sensorineural hearing loss: Confidence intervals, limits, and levels | |
| KR20240141907A (en) | Apparatus for determining resultant of auditory brainstem response based on artificial intelligence deep learning | |
| Hag et al. | A wearable single EEG channel analysis for mental stress state detection | |
| De Clercq et al. | Neural tracking of natural speech: An effective marker for post-stroke aphasia | |
| CN110338811A (en) | For the hearing test apparatus and computer-readable medium under complicated acoustical signal background | |
| Shin et al. | Preprocessing of Pure Tone Audiometry Data and Design of Machine Learning Models for Hearing Loss Classification | |
| Arora et al. | A fusion framework based on cepstral domain features from phonocardiogram to predict heart health status | |
| Nikolaevna et al. | Bioengineering system for research on human emotional response to external stimuli | |
| JP7549348B2 (en) | DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM | |
| KR102731023B1 (en) | Method for performance improvement of classification apparatus of mental illness disorders based on resting-state electroencephalogram | |
| CN110338812A (en) | Integrated hearing diagnosis system | |
| Langroudi et al. | Auditory evoked potential detection during pure-tone audiometry | |
| Ali | The role of sound offsets in auditory temporal processing and perception | |
| Jain | AN APPROACH FOR PREDICTION OF SPEECH INTELLIGIBILITY IN NOISE: A CASE STUDY |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |