WO2018199031A1 - 学習型信号分離方法、及び学習型信号分離装置 - Google Patents
学習型信号分離方法、及び学習型信号分離装置 Download PDFInfo
- Publication number
- WO2018199031A1 WO2018199031A1 PCT/JP2018/016472 JP2018016472W WO2018199031A1 WO 2018199031 A1 WO2018199031 A1 WO 2018199031A1 JP 2018016472 W JP2018016472 W JP 2018016472W WO 2018199031 A1 WO2018199031 A1 WO 2018199031A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- signal
- generator
- specific component
- classifier
- learning
- Prior art date
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 73
- 238000012549 training Methods 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 70
- 230000008569 process Effects 0.000 claims abstract description 59
- 238000012545 processing Methods 0.000 claims description 64
- 238000010276 construction Methods 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 23
- 239000000654 additive Substances 0.000 claims description 6
- 230000000996 additive effect Effects 0.000 claims description 6
- 238000009472 formulation Methods 0.000 abstract 2
- 239000000203 mixture Substances 0.000 abstract 2
- 230000006870 function Effects 0.000 description 42
- 238000010606 normalization Methods 0.000 description 23
- 230000008878 coupling Effects 0.000 description 12
- 238000010168 coupling process Methods 0.000 description 12
- 238000005859 coupling reaction Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 230000000747 cardiac effect Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 206010043268 Tension Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 206010003119 arrhythmia Diseases 0.000 description 1
- 230000006793 arrhythmia Effects 0.000 description 1
- 230000002567 autonomic effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 239000010839 body fluid Substances 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/346—Analysis of electrocardiograms
- A61B5/349—Detecting specific parameters of the electrocardiograph cycle
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4866—Evaluating metabolism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Definitions
- the present invention relates to a learning type signal separation method and a learning type signal separation device.
- An electrocardiogram is a graphical representation of biological signals that fluctuate due to various factors such as blood circulation status and mental tension.
- the electrocardiogram analysis results are applied to various uses such as diagnosis of diseases such as arrhythmia, evaluation of autonomic nervous function, health condition and physical condition management.
- Measurement of a biological signal used for an electrocardiogram is performed using a measuring instrument having a biological electrode as shown in Non-Patent Document 1, for example.
- a wearable type measuring instrument In order to accurately measure biological signals, it is necessary to make the measuring instrument come into close contact with the body stably.
- a wearable type measuring instrument has a problem in that accurate measurement and determination cannot be performed because signal distortion and noise are caused by body movement, sensor vibration, and floating.
- Techniques such as independent component analysis, state space model, and frequency conversion are known as techniques for separating such unnecessary signals such as signal distortion and noise.
- Independent component analysis assumes that each component is independent in a multivariate signal composed of a plurality of additive components, and separates them so as to reduce mutual information between components (for example, non-patent) Reference 2).
- Independent component analysis is applied to sound source separation that extracts only a specific person's voice from conversational voices of a plurality of persons.
- this technique is effective for data measured at multiple points, and there is a problem that it is difficult to apply to biological signal data measured at a single point.
- the state space model assumes that each component is independent in a multivariate signal composed of multiple additive components, and expresses each component with an appropriate model such as trend, autoregression, and seasonal variation. Separate (see Non-Patent Document 3, for example).
- the state space model is applied to the analysis of sales data of stores observed in time series.
- the biological signal used for the electrocardiogram is a signal in which various factors such as the state of blood circulation and the mental tension are combined, and there is a problem that it is difficult to model them precisely.
- Separation by frequency transformation assumes that the frequency characteristics of each component are different in a multivariate signal composed of multiple additive components, and converts the signal into a frequency domain representation using Fourier transform or wavelet transform. Separate (see, for example, Non-Patent Documents 4 and 5). Separation by frequency conversion is applied when removing low-frequency noise and high-frequency noise. However, there is a problem that it is difficult to apply unless the frequency characteristics of the component having the characteristics to be separated are obtained in advance.
- the present invention is a signal that is measured at a single point and is difficult to model a signal component, even if characteristics of a specific component such as signal distortion or noise are unknown.
- An object of the present invention is to provide a technique capable of separating and removing specific components contained therein.
- One embodiment of the present invention is a training signal including a common feature, based on the training signal including a specific component and the training signal not including the specific component.
- a learning type signal separation method performed using a model construction unit that performs the following, based on information indicating whether or not the specific component is included in the training signal, and the training signal,
- a learning process for generating a signal of a data sequence obtained by separating and removing the specific component from the data sequence of the training signal is generated in the model construction unit to generate learned data, and includes the common feature
- An arbitrary signal is acquired, and based on the acquired arbitrary signal and the generated learned data, a signal of a data sequence obtained by separating and removing the specific component from the data sequence of the arbitrary signal To generate learning type signal separation method That.
- the model construction unit is GAN (Generative Adversarial Network), and includes a classifier, a generator, the classifier, and the generator.
- a learning processing unit that learns, and the learning processing unit uses the training signal as an input signal, and the input signal and whether or not the specific component is included in the input signal.
- Information indicating to the classifier and the generator, and the classifier learns to output a classification result indicating whether or not the specific component is included in the input signal.
- the generator trains the generator to generate a signal of a data sequence obtained by separating and removing the specific component from the data sequence of the input signal, and from the generator The output signal is given to the classifier as the input signal.
- the classifier performs learning if the input signal includes the specific component, while the generator does not include the specific component in the input signal. Learning is performed so as to be classified by a classifier, and among the generated learned data, the learned data of the generator is used as signal separation model data, and the signal separation model data and the acquired arbitrary signal are used. Based on the data sequence of the arbitrary signal, a signal of a data sequence is generated by separating and removing the specific component.
- One aspect of the present invention is the above learning type signal separation method, wherein the learning processing unit includes the specific component when the classifier includes the specific component in the input signal.
- the classifier performs learning and gives the input signal including the specific component to the generator, the output signal output from the generator is given to the classifier as the input signal.
- the classifier learns to output a classification result indicating that the specific component is included in the input signal, and the input signal including the specific component is supplied to the generator By the generator
- the classifier learns to output a classification result indicating that the specific component is not included in the input signal. To do.
- One aspect of the present invention is the learning-type signal separation method described above, wherein the learning processing unit is configured to identify the input signal when the classifier includes the specific component. If the input signal does not include the specific component and the input signal, the classification result indicating that the component or the newly added component is included in the input signal is output. The generator outputs the classification result indicating that the newly added component is not included, and causes the classifier to perform learning and provides the input signal to the generator.
- the classifier When the output signal to be output is given to the classifier as the input signal, the classifier outputs a classification result indicating that the input signal includes the specific component or a component newly added by the generator Like When the classifier performs learning, and the input signal is supplied to the generator, the output signal output from the generator is supplied to the classifier as the input signal.
- the generator is trained to output a classification result indicating that a specific component and a component newly added by the generator are not included.
- One aspect of the present invention is the above learning type signal separation method, wherein the learning processing unit includes a data string of the input signal when the input signal supplied to the generator does not include the specific component.
- the generator is trained to generate a signal having the same data string as.
- One aspect of the present invention is the above-described learning type signal separation method, wherein the training signal, the arbitrary signal, and the signal of the data string are configured by a plurality of additive components. Or a univariate signal.
- One aspect of the present invention is the learning-type signal separation method described above, wherein the training signal, the arbitrary signal, and the signal of the data string are measured biological signals, and the specific component is These are unnecessary components added to the biological signal.
- One aspect of the present invention is the above learning type signal separation method, wherein the data string is a waveform or a frequency.
- One embodiment of the present invention is a training signal including a common feature, and is obtained by distinguishing the training signal including a specific component from the training signal not including the specific component.
- the training signal Based on the training signal acquisition unit, the training signal acquired by the training signal acquisition unit, and information indicating whether or not the specific component is included in the training signal, the training signal Performs a learning process to generate a signal of a data string obtained by separating and removing the specific component from the signal data string, and obtains an arbitrary signal including the common feature and a model building unit that generates learned data
- the specific component is separated and removed from the data sequence of the arbitrary signal based on the test signal acquisition unit to perform, the arbitrary signal acquired by the test signal acquisition unit, and the generated learned data Generate data stream signal
- a signal separation and removal part of a learning signal separating device comprising a.
- the specific component included in the signal can be separated and removed.
- the multivariate signal is a signal that includes common features, for example, although it is difficult to model because various factors act in a complex manner.
- the multivariate signal is, for example, a biological signal, a sound or image signal, or the like. This embodiment illustrates the case where the multivariate signal is a biological signal.
- the biological signal is a signal in which the state of the living body is measured and is described as a quantitative value.
- the multivariate signal includes common features such that P, Q, R, S, and T waves are repeatedly shown like the biological signal used in the electrocardiogram.
- the training signal acquisition unit 2 is specific to the multivariate signals to be acquired. It is obtained by distinguishing whether or not a component is included.
- the specific component is, for example, an unnecessary component such as signal distortion or noise that originally exists in the measurement signal depending on the performance of the measuring instrument, or noise that is mixed during measurement.
- the specific component is not limited to an independent component such as signal distortion or noise.
- the moving average and the moving average having an abnormal value may be handled as a multivariate signal including a specific component to be separated.
- the moving average of the cardiac potential per second is below -600 ⁇ V or above 600 ⁇ V, it is assumed that signal distortion and noise are included with a high probability, so that it is treated as a multivariate signal including a specific component to be separated. It may be.
- the moving standard deviation of the cardiac potential for one second exceeds 600 ⁇ V or is less than 40 ⁇ V, it is treated as a multivariate signal including a specific component to be separated, assuming that signal distortion and noise are included with high probability. You may do it.
- the generator 32 When the learning is sufficiently performed, the generator 32 generates a signal of a data string obtained by separating and removing a specific component to be separated from the data string of the multivariate signal when the multivariate signal is taken as an input signal.
- the data string of the multivariate signal is, for example, the waveform of the multivariate signal, the frequency of the multivariate signal, and the like.
- a process of generating a signal having a waveform obtained by separating and removing a specific component to be separated from the waveform of the multivariate signal is exemplified.
- the learning processing unit 35 gives the classifier 31 a multivariate signal that does not include a specific component for training as an input signal, and the classifier 31 determines that the “specific component and the component newly added by the generator 32”. The weight coefficient inside the classifier 31 is changed so that it is output. In addition, the learning processing unit 35 gives the classifier 31 a multivariate signal including a specific component for training as an input signal, and the classifier 31 adds “the specific component or the generator 32 newly added. The weighting coefficient inside the classifier 31 is changed so as to output “includes components”.
- the component newly added by the generator 32 is an extra component that the generator 32 adds to the output signal generated and output by the generator 32 based on the input signal. For example, it is a component of the difference between the output signal of the generator 32 when the multivariate signal for training not including a specific component is given to the generator 32 as an input signal, and the input signal. The difference between the input signal and the signal obtained by adding the specific component to the output signal of the generator 32 when the training multivariate signal including the specific component is given to the generator 32 as the input signal is also generated by the generator 32. Is a newly added component. As learning progresses, components newly added by the generator 32 are also reduced.
- the learning processing unit 35 gives the output signal output from the generator 32 to the classifier 31 by giving the training multivariate signal to the generator 32, and the classifier 31 Learning is performed by changing the weighting coefficient inside the classifier 31 so as to output “the component 32 includes a newly added component”.
- the learning processing unit 35 gives the generator 32 a multivariate signal that does not include a specific component for training as an input signal, and the generator 32 generates and outputs a signal having the same waveform as the input signal. As described above, learning is performed by changing the weighting factor inside the generator 32. In addition, when the learning processing unit 35 gives the output signal output from the generator 32 to the classifier 31 by giving the training multivariate signal to the generator 32, the classifier 31 reads “the specific component and The learning is performed by changing the weighting coefficient inside the generator 32 so that the generator 32 does not include the newly added component.
- the storage unit 36 stores the latest weighting factors of the classifier 31 and the generator 32 that are updated in the learning process by the learning processing unit 35.
- Test signal acquisition unit 4 acquires a test multivariate signal supplied from the outside.
- the test multivariate signal is an arbitrary signal for which it is not known whether or not a specific component is included. For example, a biological signal such as a cardiac potential measured from an arbitrary subject is actually applied.
- the signal separation / removal unit 5 reads the weight coefficient information of the generator 32 stored in the storage unit 36 of the model construction unit 3 as signal separation model data.
- the signal separation / removal unit 5 generates a generator 32a having the same configuration as that of the generator 32 based on the read signal separation model data. Further, the signal separation / removal unit 5 gives a test multivariate signal as an input signal to the generated generator 32a, and a signal generated by the generator 32a separating and removing a specific component from the input signal. Output.
- the training signal acquisition unit 2 takes in a training multivariate signal supplied from the outside as an input signal. At this time, the training signal acquisition unit 2 distinguishes and takes in whether or not a specific component is included in the training multivariate signal (step Sa1).
- the model construction unit 3 starts a learning process subroutine for generating signal separation model data (step Sa2).
- the learning processing unit 35 performs the first learning process of the classifier 31 that causes the classifier 31 to learn using the training multivariate signal in the model construction unit 3 (step Sa2-1). After the first learning process of the classifier 31, the learning processing unit 35 performs the learning process of the generator 32 for learning the generator 32 using the training multivariate signal (step Sa2-2). After the learning process of the generator 32, the learning processor 35 performs the second learning process of the classifier 31 that causes the classifier 31 to learn using the output signal from the generator 32 (step Sa2-3).
- the processes of steps Sa2-1, Sa2-2, and Sa2-3 are repeated a predetermined number of times (loops L1s to L1e).
- the predetermined number of times is, for example, the number of times that learning is sufficiently performed.
- FIG. 4 is a diagram conceptually showing the processes of steps Sa2-1, Sa2-2 and Sa2-3 performed by the learning processing unit 35.
- the first learning process of the classifier 31 in step Sa2-1 corresponds to steps Sb1 and Sb2 in FIG. 4
- the learning process of the generator 32 in step Sa2-2 corresponds to steps Sc1 and Sc2 in FIG.
- the second learning process of the classifier 31 in step Sa2-3 corresponds to steps Sd1 and Sd2 in FIG. Details of each processing will be described with reference to FIGS.
- FIG. 5 is a flowchart showing the flow of the first learning process of the classifier 31 in step Sa2-1.
- the learning processing unit 35 gives a training multivariate signal ( ⁇ ) including a specific component to the classifier 31 as an input signal (step Sb1-1).
- the classifier 31 obtains an output value based on the internal weight coefficient and the input signal ( ⁇ ), and outputs the classification ⁇ as a classification result.
- the learning processing unit 35 determines that the information indicated by the classification ⁇ is information indicating that “the specific component or the component newly added by the generator 32” is included. 31 is learned (step Sb1-2).
- the classification result output by the classifier 31 is a probability value indicated by a value between 0 and 1, and information indicating that “a specific component or a component newly added by the generator 32 is included” is “ It is assumed that the information indicating that “the specific component and the component newly added by the generator 32 are not included” is “0”.
- the learning processing unit 35 calculates the weighting factor inside the classifier 31 by using a predetermined error function so that the value of the classification ⁇ approaches “1”, and the weighting factor inside the classifier 31 is calculated. Rewrite and update the calculated weighting factor.
- the learning processing unit 35 writes and stores the calculated weighting coefficient of the classifier 31 in the storage unit 36.
- the learning processing unit 35 gives a training multivariate signal ( ⁇ ) that does not include a specific component to the classifier 31 as an input signal (step Sb2-1).
- the classifier 31 obtains an output value based on the internal weight coefficient and the input signal ( ⁇ ), and outputs the classification ⁇ as a classification result.
- the learning processing unit 35 sets the classifier 31 so that the information indicated by the classification ⁇ is information that “the specific component and the component newly added by the generator 32 are not included”. Learning is performed (step Sb2-2).
- the learning processing unit 35 calculates the weighting factor inside the classifier 31 so that the value of the classification ⁇ approaches “0”, and rewrites the weighting factor inside the classifier 31 with the calculated weighting factor. Update.
- the learning processing unit 35 writes and stores the calculated weighting coefficient of the classifier 31 in the storage unit 36.
- the first learning process of the classifier 31 illustrated in FIG. 5 includes information indicating that “a specific component or a component newly added by the generator 32” is included, and “the specific component and the generator 32 are newly added.
- the supervised learning uses the information indicating that “the component added to is not included” as the teacher data.
- the learning processing unit 35 Based on the information indicated by the classification ⁇ , the learning processing unit 35 generates the generator so that the information indicated by the classification ⁇ is information indicating that “the specific component and the component newly added by the generator 32 are not included”. 32 is learned (step Sc1-2). That is, the learning processing unit 35 calculates the weighting factor inside the generator 32 so that the value of the classification ⁇ approaches “0”, and rewrites the weighting factor inside the generator 32 with the calculated weighting factor. Update. The learning processing unit 35 writes the calculated weighting coefficient of the generator 32 in the storage unit 36 and stores it.
- Step Sc1-2 and step Sc2-4 information indicating that “a specific component and a component newly added by the generator 32 are not included” is used as teacher data. And supervised learning.
- Step Sc2-2 is supervised learning using the input signal ( ⁇ ) as teacher data.
- FIG. 7 is a flowchart showing the flow of the second learning process of the classifier 31 in step Sa2-3.
- step Sd1-1 is the same as step Sc1 in FIG.
- step Sd2-1 is the process of step Sc2-3 in FIG.
- the process of step Sd1-2 is performed using the process result of step Sc1-1
- the process of step Sd2-2 is performed using the process result of step Sc2-3.
- the learning processing unit 35 reverses the learning performed on the generator 32, and the information indicated by the classification ⁇ is “a specific component or a component newly added by the generator 32”.
- the classifier 31 is trained so as to obtain the information “includes” (step Sd1-2). That is, the learning processing unit 35 calculates the weighting factor inside the classifier 31 so that the value of the classification ⁇ approaches “1”, and rewrites the weighting factor inside the classifier 31 with the calculated weighting factor. Update.
- the learning processing unit 35 writes and stores the calculated weighting coefficient of the classifier 31 in the storage unit 36.
- the learning processing unit 35 outputs the classification ⁇ ′ as the classification result from the classifier 31 by giving the training multivariate signal ( ⁇ ) not including a specific component to the generator 32 as an input signal (step Sd2 ⁇ ). 1).
- the signal separation / removal unit 5 gives the test multivariate signal acquired by the test signal acquisition unit 4 as an input signal to the generator 32a generated inside.
- the generator 32a generates and outputs a signal having a waveform obtained by separating and removing a specific component from the waveform of the input signal.
- the signal separation / removal unit 5 outputs the output signal of the generator 32a to the outside.
- the output signal of the signal separation / removal unit 5 is as follows. That is, when a specific component is not included in the test multivariate signal, the signal is the same as the test multivariate signal. On the other hand, when a specific component is included in the test multivariate signal, the specific component is separated and removed from the test multivariate signal.
- the classifier 31 includes, in order from the input side, a “Conversion layer” 311, “Batch Normalization layer + relu (Rectified Liner Unit) function” 312, “Convolution layer” 313, “Batch Normalization layer + relu function”. 314, all coupling layer 315, “Batch Normalization layer + relu function” 316, LSTM (Long Short-term memory) layer 317, and all coupling layer 318 are combined.
- the input signal of the classifier 31 is a signal in which 256 points are selected from the latest in a continuous time-series signal, or a 256-point signal output from the generator 32. Each of the 256 point values is captured by 256 input units of the Convolution layer 311.
- the output signal of the classifier 31 is a value output from the two output units. From the two output values, for example, as described above, information indicating that “a specific component or a component newly added by the generator 32 is included” is set to “1”, and “a specific component and a generator are included”. A probability value between 0 and 1 is obtained with information indicating that “32 does not include newly added component” as “0”.
- Convolution layers 311, 313, 321, and 323 are blanks having a predetermined size at intervals (hereinafter referred to as stride) for applying a predetermined filter to an input signal. (Hereinafter referred to as padding), and a convolution operation is performed based on a predetermined number of filters.
- DeConvolution layers 330 and 332 apply a predetermined amount of padding to the input signal with a predetermined stride, and perform a deconvolution operation based on a predetermined number of filters.
- Converting the 64-channel configuration to the 1-channel configuration means that 64 units and 64 channel values are arranged side by side to obtain 4096 1-channel signals.
- to convert the 1-channel configuration to the 64-channel configuration is, for example, when there are 4096 1-channel signals, 64 units of 64 channel signals.
- the error function when the learning processing unit 35 causes the classifier 31 to correctly classify whether or not the input signal includes a specific component for example, a cross-entropy of a softmax function is applied.
- the error function in the learning process is not limited to the cross-entropy of the softmax function.
- the Earth Move's distance is applied as in the case of the Winestein GAN
- the energy function is applied in the same manner as the Energy-Based GAN
- the L2 distance is applied as in the case of the Last Squares GAN. Or you may.
- the training signal acquisition unit 2 includes a training multivariate signal including a specific component and a training multivariate signal not including the specific component. Get distinguished.
- the model construction unit 3 uses the training multivariate signal including the specific component and the training multivariate signal acquired by the training signal acquisition unit 2 based on the training multivariate signal not including the specific component. Learning to generate a signal of a data string obtained by separating and removing a specific component from the data string is generated to generate learned data.
- the test signal acquisition unit 4 acquires an arbitrary multivariate signal for which it is not known whether or not a specific component is included.
- the output signal generated by the generator 32 based on the input signal is given even when the classifier 31 and the generator 32 are sufficiently learned by the learning processing unit 35.
- the learning type signal separation device 1 in the above-described embodiment may be realized by a computer.
- a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed.
- the “computer system” includes an OS and hardware such as peripheral devices.
- the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Cardiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Fuzzy Systems (AREA)
- Obesity (AREA)
- Algebra (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
共通の特徴を含んだ訓練用の信号であって、特定の成分を含む前記訓練用の信号と前記特定の成分を含まない前記訓練用の信号とに基づいて学習処理を行うモデル構築部を用いて行う学習型信号分離方法であって、前記訓練用の信号に前記特定の成分が含まれているか否かを示す情報と、前記訓練用の信号とに基づいて、前記訓練用の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習処理を前記モデル構築部に行わせて学習済みデータを生成し、前記共通の特徴を含んだ任意の信号を取得し、取得した前記任意の信号と、生成した前記学習済みデータとに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習型信号分離方法。
Description
本発明は、学習型信号分離方法、及び学習型信号分離装置に関する。
本願は、2017年4月27日に、日本に出願された特願2017-088717号に基づき優先権を主張し、その内容をここに援用する。
本願は、2017年4月27日に、日本に出願された特願2017-088717号に基づき優先権を主張し、その内容をここに援用する。
心電図は、血液循環の状態や精神的緊張度などの様々な要因によって変動する生体信号をグラフにして表したものである。心電図の解析結果は、不整脈などの疾病の診断や自律神経機能の評価、健康状態や体調管理など様々な用途に応用されている。心電図に用いる生体信号の計測は、例えば、非特許文献1に示されるような生体電極を有する計測器を用いて行われる。
生体信号を正確に計測するためには、計測器を体と安定して密着させる必要がある。しかし、ウェアラブルタイプの計測器は、体動やセンサの振動や浮き上がりなどによって信号の歪みや雑音を生じるため、正確な計測や判定ができないことが問題となっている。このような信号の歪みや雑音等の不要な信号を分離する技術として、独立成分分析、状態空間モデル、周波数変換などの技術が知られている。
小笠原 隆行、小野 一善、松浦 伸昭、山口 真澄、渡邊 淳司、塚田 信吾、"ウェアラブル電極インナー技術の応用展開"、NTT技術ジャーナル、2014年11月、pp.16-20.
Taigang He, Gari Clifford, and Lionel Tarassenko, "Application of independent component analysis in removing artefacts from the electrocardiogram", Neural Comput & Applic, (2006), pp.105-116.
MA Mneimneh, EE Yaz, MT Johnson, RJ Povinelli, "An Adaptive Kalman Filter for Removing Baseline Wandering in ECG Signals", Computers in Cardiology 2006;33:253-256.
Juan Pablo Martinez, et al., "A Wavelet-Based ECG Delineator: Evaluation on Standard Databases", IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, VOL.51, NO.4, APRIL 2004, pp.570-581.
Xiong, Peng, et al., "ECG signal enhancement based on improved denoising auto-encoder", Engineering Applications of Artificial Intelligence, 52 (2016), pp.194-202.
独立成分分析は、複数の加法的な成分で構成される多変量の信号において、それぞれの成分が独立であると仮定し、成分間の相互情報量を小さくするように分離する(例えば、非特許文献2参照)。独立成分分析は、複数人の会話音声から特定の人の声のみを抽出する音源分離などに応用されている。しかしながら、多点計測されたデータに対して有効な技術であり、単一点で計測された生体信号データに対しては適用が難しいという問題がある。
状態空間モデルは、複数の加法的な成分で構成される多変量の信号において、それぞれの成分が独立であると仮定し、各成分をトレンドや自己回帰、季節変動といった適切なモデルで表現して分離する(例えば、非特許文献3参照)。状態空間モデルは、時系列に観測される店舗の売上データの分析などに応用されている。しかしながら、心電図に用いられる生体信号は、血液循環の状態や精神的緊張度などの様々な要因が複合的に作用した信号であり、それらを精緻にモデル化することは難しいという問題がある。
周波数変換による分離は、複数の加法的な成分で構成される多変量の信号において、それぞれの成分の周波数特性が異なると仮定し、フーリエ変換やウェーブレット変換で信号を周波数領域の表現に変換して分離する(例えば、非特許文献4,5参照)。周波数変換による分離は、低周波ノイズや高周波ノイズを除去する場合に適用されている。しかしながら、分離したい特性の成分の周波数特性が事前に得られていないと適用が難しいという問題がある。
上記事情に鑑み、本発明は、単一点で計測される信号であって信号成分のモデル化が難しい信号において、信号の歪みや雑音等の特定の成分の特性が不明であっても、信号に含まれる特定の成分を分離して除去することができる技術の提供を目的としている。
本発明の一態様は、共通の特徴を含んだ訓練用の信号であって、特定の成分を含む前記訓練用の信号と前記特定の成分を含まない前記訓練用の信号とに基づいて学習処理を行うモデル構築部を用いて行う学習型信号分離方法であって、前記訓練用の信号に前記特定の成分が含まれているか否かを示す情報と、前記訓練用の信号とに基づいて、前記訓練用の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習処理を前記モデル構築部に行わせて学習済みデータを生成し、前記共通の特徴を含んだ任意の信号を取得し、取得した前記任意の信号と、生成した前記学習済みデータとに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習型信号分離方法である。
本発明の一態様は、上記の学習型信号分離方法であって、前記モデル構築部が、GAN(Generative Adversarial Network)であって、分類器と、生成器と、前記分類器と前記生成器とを学習させる学習処理部とを有しており、前記学習処理部が、前記訓練用の信号を入力信号とし、前記入力信号と、当該入力信号に前記特定の成分が含まれているか否かを示す情報とを前記分類器と前記生成器に与えて、前記分類器が、前記入力信号に前記特定の成分が含まれているか否かを示す分類結果を出力するように、前記分類器に学習を行わせ、前記生成器が、前記入力信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成するように、前記生成器に学習を行わせ、前記生成器からの出力信号を前記入力信号として前記分類器に与えた際、前記分類器には、前記入力信号に前記特定の成分が含まれていると学習を行わせる一方、前記生成器には、前記入力信号に前記特定の成分が含まれていないと前記分類器に分類させるように学習を行わせ、生成した前記学習済みデータのうち、前記生成器の学習済みデータを信号分離モデルデータとし、前記信号分離モデルデータと、取得した前記任意の信号とに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する。
本発明の一態様は、上記の学習型信号分離方法であって、前記学習処理部は、前記分類器が、前記入力信号に前記特定の成分が含まれている場合、前記特定の成分が含まれていることを示す分類結果を出力し、前記入力信号に前記特定の成分が含まれていない場合、前記入力信号に前記特定の成分が含まれていないことを示す分類結果を出力するように、前記分類器に学習を行わせ、前記特定の成分を含む前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分が含まれていることを示す分類結果を出力するように、前記分類器に学習を行わせ、前記特定の成分を含む前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分が含まれていないことを示す分類結果を出力するように、前記生成器に学習を行わせる。
本発明の一態様は、上記の学習型信号分離方法であって、前記学習処理部は、前記分類器が、前記入力信号に前記特定の成分が含まれている場合、前記入力信号に前記特定の成分または前記生成器が新たに付加した成分が含まれていることを示す分類結果を出力し、前記入力信号に前記特定の成分が含まれていない場合、前記入力信号に前記特定の成分及び前記生成器が新たに付加した成分が含まれていないことを示す分類結果を出力するように、前記分類器に学習を行わせ、前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分または前記生成器が新たに付加した成分が含まれていることを示す分類結果を出力するように、前記分類器に学習を行わせ、前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分及び前記生成器が新たに付加した成分が含まれていないことを示す分類結果を出力するように、前記生成器に学習を行わせる。
本発明の一態様は、上記の学習型信号分離方法であって、前記学習処理部は、前記生成器に与える前記入力信号に前記特定の成分が含まれていない場合、前記入力信号のデータ列と同一のデータ列の信号を生成するように、前記生成器に学習を行わせる。
本発明の一態様は、上記の学習型信号分離方法であって、前記訓練用の信号、前記任意の信号、及び前記データ列の信号は、複数の加法的な成分で構成される多変量信号、または単変量信号である。
本発明の一態様は、上記の学習型信号分離方法であって、前記訓練用の信号、前記任意の信号、及び前記データ列の信号は、計測された生体信号であり、前記特定の成分は、前記生体信号に付加される不要な成分である。本発明の一態様は、上記の学習型信号分離方法であって、前記データ列は波形または周波数である。
本発明の一態様は、共通の特徴を含んだ訓練用の信号であって、特定の成分を含む前記訓練用の信号と前記特定の成分を含まない前記訓練用の信号とを区別して取得する訓練信号取得部と、前記訓練信号取得部が取得する前記訓練用の信号と、当該訓練用の信号に前記特定の成分が含まれているか否かを示す情報とに基づいて、前記訓練用の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習処理を行い、学習済みデータを生成するモデル構築部と、前記共通の特徴を含んだ任意の信号を取得するテスト信号取得部と、前記テスト信号取得部が取得する前記任意の信号と、生成した前記学習済みデータとに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する信号分離除去部と、を備える学習型信号分離装置である。
本発明により、単一点で計測される信号であって信号成分のモデル化が難しい信号において、信号の歪みや雑音等の特定の成分の特性が不明であっても、信号に含まれる特定の成分を分離して除去することが可能となる。
以下、本発明の実施形態について図面を参照して説明する。図1は、本発明の一実施形態による学習型信号分離装置1の構成を示すブロック図である。学習型信号分離装置1は、訓練信号取得部2、モデル構築部3、テスト信号取得部4、及び信号分離除去部5を備える。訓練信号取得部2は、外部から与えられる訓練用の多変量信号を取得する。ここで、多変量信号とは、複数の加法的な成分で構成される信号であり、単一系列の時系列信号であってもよいし、同一時刻に計測された複数系列の時系列信号であってもよい。また、当該多変量信号は、様々な要因が複合的に作用しているために、モデル化が難しいものの、例えば、共通の特徴が含まれている信号である。
多変量信号は、例えば、生体信号、音や画像の信号等である。本実施形態は、多変量信号が生体信号である場合を例示する。生体信号は、生体の状態が計測された信号であって、量的な値として記述された信号である。多変量信号が生体信号である場合、多変量信号は、心電図に用いられる生体信号のように、P、Q、R、S、T波が繰り返し示されるような共通の特徴を含む。
多変量信号は、例えば、生体信号、音や画像の信号等である。本実施形態は、多変量信号が生体信号である場合を例示する。生体信号は、生体の状態が計測された信号であって、量的な値として記述された信号である。多変量信号が生体信号である場合、多変量信号は、心電図に用いられる生体信号のように、P、Q、R、S、T波が繰り返し示されるような共通の特徴を含む。
外部から与えられる訓練用の多変量信号としては、特定の成分を含む多変量信号と、特定の成分を含まない多変量信号があり、訓練信号取得部2は、取得する多変量信号に特定の成分が含まれているか否かを区別して取得する。特定の成分とは、例えば、計測器の性能に依存して計測信号に元から存在する信号の歪みや雑音、計測の際に混入する雑音等の不要な成分である。
なお、特定の成分は、信号の歪みや雑音などの独立した成分に限られるものではない。例えば、心電位の生体信号の場合、移動平均と移動平均が異常値であるものを分離したい特定の成分を含む多変量信号として取り扱うようにしてもよい。また、1秒間の心電位の移動平均が-600μVを下回る、もしくは600μVを上回る場合、高い確率で信号の歪みや雑音が含まれているとして、分離したい特定の成分を含む多変量信号として取り扱うようにしてもよい。また、1秒間の心電位の移動標準偏差が600μVを上回る、もしくは40μVを下回る場合も、高い確率で信号の歪みや雑音が含まれているとして、分離したい特定の成分を含む多変量信号として取り扱うようにしてもよい。
モデル構築部3は、訓練信号取得部2が取得する訓練用の多変量信号に基づいて学習を行い、多変量信号から特定の成分を分離する信号分離モデルデータを生成する。モデル構築部3は、GAN(Generative Adversarial Network)を構成する分類器31、生成器32、学習処理部35、及び記憶部36を有する。分類器31は、学習が充分に行われると、多変量信号を入力信号として取り込んだ場合、分離したい特定の成分を含むか否かを分類して分類結果を出力する。生成器32は、学習が充分に行われると、多変量信号を入力信号として取り込んだ場合、多変量信号のデータ列から分離したい特定の成分を分離して除去したデータ列の信号を生成する。多変量信号のデータ列は、例えば、多変量信号の波形、多変量信号の周波数等である。本実施形態では、多変量信号の波形から、分離したい特定の成分を分離して除去した波形の信号を生成する処理を例示する。
なお、分類器31と生成器32が、それぞれ、GANのDiscriminator とGenerator に相当し、Discriminator とGenerator の学習を行う機能部が、学習処理部35に相当する。分類器31と生成器32の各々は、例えば、多層パーセプトロンであり、内部の重み係数が学習処理部35によって変更されることで学習が行われる。
学習処理部35は、分類器31に、訓練用の特定の成分を含まない多変量信号を入力信号として与えて、分類器31が、「特定の成分、及び生成器32が新たに付加した成分を含まない」と出力するように分類器31の内部の重み係数を変更して学習させる。また、学習処理部35は、分類器31に、訓練用の特定の成分を含む多変量信号を入力信号として与えて、分類器31が、「特定の成分、または生成器32が新たに付加した成分を含む」と出力するように分類器31の内部の重み係数を変更して学習させる。
ここで、生成器32が新たに付加した成分とは、生成器32が入力信号に基づいて生成して出力する出力信号に生成器32が付加してしまう余分な成分である。例えば、特定の成分を含まない訓練用の多変量信号を入力信号として生成器32に与えた場合の生成器32の出力信号と、入力信号との差分の成分である。また、特定の成分を含む訓練用の多変量信号を入力信号として生成器32に与えた場合の生成器32の出力信号に特定の成分を加えた信号と、入力信号との差分も生成器32が新たに付加した成分である。学習が進むにしたがって、生成器32が新たに付加する成分も軽減されていくことになる。
また、学習処理部35は、訓練用の多変量信号を生成器32に与えることにより生成器32が出力する出力信号を分類器31に与えて、分類器31が、「特定の成分、または生成器32が新たに付加した成分を含む」と出力するように分類器31の内部の重み係数を変更して学習させる。
また、学習処理部35は、生成器32に、訓練用の特定の成分を含まない多変量信号を入力信号として与えて、生成器32が、入力信号と同一の波形の信号を生成して出力するように、生成器32の内部の重み係数を変更して学習させる。また、学習処理部35は、訓練用の多変量信号を生成器32に与えることにより生成器32が出力する出力信号を分類器31に与えた場合、分類器31が、「特定の成分、及び生成器32が新たに付加した成分を含まない」と出力するように生成器32の内部の重み係数を変更して学習させる。
記憶部36は、学習処理部35による学習過程において更新されていく分類器31と生成器32の最新の重み係数を記憶する。
記憶部36は、学習処理部35による学習過程において更新されていく分類器31と生成器32の最新の重み係数を記憶する。
テスト信号取得部4は、外部から供給されるテスト用の多変量信号を取得する。テスト用の多変量信号は、特定の成分を含むか否かが既知でない任意の信号であり、例えば、実際に、任意の被験者から計測した心電位などの生体信号が適用される。信号分離除去部5は、モデル構築部3の記憶部36に記憶されている生成器32の重み係数の情報を、信号分離モデルデータとして読み出す。また、信号分離除去部5は、読み出した信号分離モデルデータに基づいて生成器32と同一の構成を有する生成器32aを内部に生成する。また、信号分離除去部5は、生成した生成器32aにテスト用の多変量信号を入力信号として与えて、生成器32aが入力信号から特定の成分を分離して除去することにより生成する信号を出力する。
(学習型信号分離装置の処理)
次に、図2から図7を参照しつつ学習型信号分離装置1による学習型信号分離方法の処理の流れについて説明する。訓練信号取得部2は、外部から供給される訓練用の多変量信号を入力信号として取り込む。このとき、訓練信号取得部2は、訓練用の多変量信号に特定の成分が含まれているか否かを区別して取り込む(ステップSa1)。モデル構築部3は、信号分離モデルデータを生成する学習処理のサブルーチンを開始する(ステップSa2)。
次に、図2から図7を参照しつつ学習型信号分離装置1による学習型信号分離方法の処理の流れについて説明する。訓練信号取得部2は、外部から供給される訓練用の多変量信号を入力信号として取り込む。このとき、訓練信号取得部2は、訓練用の多変量信号に特定の成分が含まれているか否かを区別して取り込む(ステップSa1)。モデル構築部3は、信号分離モデルデータを生成する学習処理のサブルーチンを開始する(ステップSa2)。
図3に進み、モデル構築部3において、訓練用の多変量信号を用いて分類器31を学習させる分類器31の第1学習処理が学習処理部35によって行われる(ステップSa2-1)。分類器31の第1学習処理の後、訓練用の多変量信号を用いて生成器32を学習させる生成器32の学習処理が学習処理部35によって行われる(ステップSa2-2)。生成器32の学習処理の後、生成器32からの出力信号を用いて分類器31を学習させる分類器31の第2学習処理が学習処理部35によって行われる(ステップSa2-3)。ステップSa2-1、Sa2-2及びSa2-3の処理は、予め定められる回数繰り返し行われる(ループL1s~L1e)。ここで、予め定められる回数は、例えば、学習が充分行われると想定される回数である。
図4は、学習処理部35によって行われるステップSa2-1、Sa2-2及びSa2-3の処理を概念的に示す図である。ステップSa2-1の分類器31の第1学習処理が、図4のステップSb1及びSb2に対応し、ステップSa2-2の生成器32の学習処理が、図4のステップSc1及びSc2に対応し、ステップSa2-3の分類器31の第2学習処理が、図4のステップSd1及びSd2に対応する。各々の処理の詳細について、図4から図7を参照しつつ説明する。
図5は、ステップSa2-1の分類器31の第1学習処理の流れを示すフローチャートである。学習処理部35は、特定の成分を含む訓練用の多変量信号(α)を入力信号として分類器31に与える(ステップSb1-1)。分類器31が、内部の重み係数と、入力信号(α)とに基づいて、出力値を求めて、分類結果として分類αを出力する。学習処理部35は、分類αが示す情報に基づいて、分類αが示す情報が「特定の成分、または生成器32が新たに付加した成分を含む」ということを示す情報になるように分類器31を学習させる(ステップSb1-2)。
例えば、分類器31が出力する分類結果が0から1の間の値で示される確率値であり、「特定の成分、または生成器32が新たに付加した成分を含む」ことを示す情報が「1」であり、「特定の成分、及び生成器32が新たに付加した成分を含まない」ことを示す情報が「0」であると予め定められているとする。
このとき、学習処理部35は、分類αの値が、「1」に近づくように、予め定められる誤差関数により分類器31の内部の重み係数を算出し、分類器31の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した分類器31の重み係数を記憶部36に書き込んで記憶させる。
学習処理部35は、特定の成分を含まない訓練用の多変量信号(β)を入力信号として分類器31に与える(ステップSb2-1)。分類器31が、内部の重み係数と、入力信号(β)とに基づいて、出力値を求めて、分類結果として分類βを出力する。学習処理部35は、分類βが示す情報に基づいて、分類βが示す情報が「特定の成分、及び生成器32が新たに付加した成分を含まない」という情報になるように分類器31を学習させる(ステップSb2-2)。
すなわち、学習処理部35は、分類βの値が、「0」に近づくように、分類器31の内部の重み係数を算出し、分類器31の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した分類器31の重み係数を記憶部36に書き込んで記憶させる。
図5に示した分類器31の第1学習処理は、「特定の成分、または生成器32が新たに付加した成分を含む」ことを示す情報と、「特定の成分、及び生成器32が新たに付加した成分を含まない」ことを示す情報とを教師データとした教師あり学習である。
図6は、ステップSa2-2の生成器32の学習処理の流れを示すフローチャートである。学習処理部35は、特定の成分を含む訓練用の多変量信号(Γ)を入力信号として生成器32に与える。生成器32は、内部の重み係数と、入力信号(Γ)に基づいて、出力信号(γ)を生成して出力する。分類器31は、生成器32が出力した出力信号(γ)を入力信号として取り込み、内部の重み係数と、入力信号(γ)とに基づいて、出力値を求めて、分類結果として分類γを分類器31に入力信号として出力する(ステップSc1-1)。
学習処理部35は、分類γが示す情報に基づいて、分類γが示す情報が「特定の成分、及び生成器32が新たに付加した成分を含まない」ことを示す情報になるように生成器32を学習させる(ステップSc1-2)。すなわち、学習処理部35は、分類γの値が、「0」に近づくように、生成器32の内部の重み係数を算出し、生成器32の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した生成器32の重み係数を記憶部36に書き込んで記憶させる。
学習処理部35は、特定の成分を含まない訓練用の多変量信号(Ε)を入力信号として生成器32に与える(ステップSc2-1)。生成器32は、内部の重み係数と、入力信号(Ε)に基づいて、出力信号(ε)を生成して出力する。学習処理部35は、入力信号(Ε)の波形と、出力信号(ε)の波形が同一の波形になるように生成器32を学習させる(ステップSc2-2)。
すなわち、学習処理部35は、入力信号(Ε)と、出力信号(ε)とに基づいて、入力信号(Ε)の波形と、出力信号(ε)の波形が同一の波形になるように生成器32の内部の重み係数を算出する。学習処理部35は、生成器32の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した生成器32の重み係数を記憶部36に書き込んで記憶させる。
分類器31は、ステップSc2-2で重みを更新した生成器32が、入力信号(Ε)を入力として出力した出力信号(ε’)を入力信号として取り込む(ステップSc2-3)。分類器31は、内部の重み係数と、入力信号(ε’)とに基づいて、出力値を求めて、分類結果として分類ε’を出力する。
学習処理部35は、分類ε’が示す情報に基づいて、分類ε’が示す情報が「特定の成分、及び生成器32が新たに付加した成分を含まない」という情報になるように生成器32を学習させる(ステップSc2-4)。すなわち、学習処理部35は、分類ε’の値が、「0」に近づくように、生成器32の内部の重み係数を算出し、生成器32の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した生成器32の重み係数を記憶部36に書き込んで記憶させる。
図6に示した生成器32の学習処理において、ステップSc1-2及びステップSc2-4については「特定の成分、及び生成器32が新たに付加した成分を含まない」ことを示す情報を教師データとした教師あり学習である。また、ステップSc2-2については、入力信号(Ε)を教師データとした教師あり学習である。
図7は、ステップSa2-3の分類器31の第2学習処理の流れを示すフローチャートである。なお、説明の便宜上、生成器32の学習処理のフローチャートと、分類器31の第2の学習処理のフローチャートを分けて記載しているが、以下のステップSd1-1は、図6のステップSc1-1の処理であり、ステップSd2-1の処理は、図6のステップSc2-3の処理である。ステップSc1-1の処理結果を用いてステップSd1-2の処理が行われ、ステップSc2-3の処理結果を用いてステップSd2-2の処理が行われる。
学習処理部35は、特定の成分を含む訓練用の多変量信号(Γ)を入力信号として生成器32に与えることにより、分類器31から分類結果として分類γを出力させる(ステップSd1-1)。
学習処理部35は、分類γが示す情報に基づいて、生成器32に対して行った学習とは逆に、分類γが示す情報が「特定の成分、または生成器32が新たに付加した成分を含む」という情報になるように分類器31を学習させる(ステップSd1-2)。すなわち、学習処理部35は、分類γの値が、「1」に近づくように、分類器31の内部の重み係数を算出し、分類器31の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した分類器31の重み係数を記憶部36に書き込んで記憶させる。
学習処理部35は、特定の成分を含まない訓練用の多変量信号(Ε)を入力信号として生成器32に与えることにより、分類器31から分類結果として分類ε’を出力させる(ステップSd2-1)。
学習処理部35は、分類ε’が示す情報に基づいて、生成器32に対して行った学習とは逆に、分類ε’が示す情報が「特定の成分、または生成器32が新たに付加した成分を含む」という情報になるように分類器31を学習させる(ステップSd2-2)。すなわち、学習処理部35は、分類ε’の値が、「1」に近づくように、分類器31の内部の重み係数を算出し、分類器31の内部の重み係数を算出した重み係数に書き換えて更新する。学習処理部35は、算出した分類器31の重み係数を記憶部36に書き込んで記憶させる。
図2に戻り、ステップSa2のモデル構築部3による学習処理が終了した際に記憶部36に記憶されている生成器32の学習済みの重み係数の情報が、特定の成分を分離することができる信号分離モデルデータとなる。
テスト信号取得部4は、外部から与えられる、特定の成分を含むか否かが既知でないテスト用の任意の多変量信号を取り込む(ステップSa3)。信号分離除去部5は、モデル構築部3の記憶部36に記憶されている学習済みの生成器32の重み係数、すなわち信号分離モデルデータを読み出し、読み出した信号分離モデルデータに基づいて内部に生成器32aを生成する。
信号分離除去部5は、内部に生成した生成器32aに、テスト信号取得部4が取得したテスト用の多変量信号を入力信号として与える。生成器32aは、入力信号の波形から特定の成分を分離して除去した波形の信号を生成して出力する。信号分離除去部5は、生成器32aの出力信号を外部に出力する。モデル構築部3における学習が充分に行われている場合、信号分離除去部5の出力信号は、次のような信号となる。すなわち、テスト用の多変量信号に特定の成分が含まれていない場合、テスト用の多変量信号と同一の信号となる。一方、テスト用の多変量信号に特定の成分が含まれている場合、テスト用の多変量信号から当該特定の成分が分離されて除去された信号となる。
図8及び図9は、それぞれ分類器31と生成器32の具体的な構成の一例を示す図である。図8に示すように、分類器31は、入力側から順に、「Convolution層」311、「Batch Normalization層+relu(Rectified Liner Unit)関数」312、「Convolution層」313、「Batch Normalization層+relu関数」314、全結合層315、「Batch Normalization層+relu関数」316、LSTM(Long short-term memory)層317、及び全結合層318が結合した多層構成となっている。
図9に示すように、生成器32は、入力側から順に、「Convolution層」321、「Batch Normalization層+relu関数」322、「Convolution層」323、「Batch Normalization層+relu関数」324、全結合層325、「Batch Normalization層+relu関数」326、LSTM層327、全結合層328、「Batch Normalization層+relu関数」329、DeConvolution層330、「Batch Normalization層+relu関数」331、及びDeConvolution層332が結合した多層構成となっている。
分類器31の入力信号は、連続する時系列信号において最新のものから256点を選択した信号、または生成器32が出力する256点の信号である。当該256点の値の各々を、Convolution層311の256個の入力ユニットが取り込む。分類器31の出力信号は、2つの出力ユニットから出力される値である。出力された2つの値から、例えば、上述したように「特定の成分、または生成器32が新たに付加した成分を含む」ことを示す情報を「1」とし、「特定の成分、及び生成器32が新たに付加した成分を含まない」ことを示す情報を「0」とする、0~1の間の確率値が求められる。
生成器32の入力信号は、連続する時系列信号において最新のものから256点を選択した信号であり、当該256点の値の各々をConvolution層321の256個の入力ユニットが取り込む。生成器32の出力信号は、入力信号と同じ256点の信号となる。
以下、各層の構成について説明する。なお、以下の説明において、ユニットとは、処理対象とする信号から、予め定められる最小単位のデータ長(図8、図9の例では256点とした)で選択される個数のデータである。また、チャネル(ch)とは、複数のユニットが連続して存在する場合のユニットの個数を示す値である。
図8及び図9において、「Convolution層」311,313,321,323は、入力信号に対して、予め定められるフィルタを適用する間隔(以下、ストライドという)で、予め定められる大きさの余白(以下、パディングという)を適用して、予め定められる数のフィルタに基づいて畳み込み演算を行う。
「Convolution層」311,321の構成は、入力ユニット数256×1、入力ch数1、出力ユニット数128×1、出力ch数32、フィルタサイズ(4,1)、ストライドサイズ2、パディングサイズ(2,0)となっている。これにより、256×1のユニットで構成された1チャネルの入力信号に対して、32種類の4×1のフィルタを2×0の余白を加えた上で2点間隔ごとに適用して畳み込み演算が行われ、128×1のユニットで構成された32チャネルの出力信号が出力される。
「Convolution層」313,323の構成は、入力ユニット数128×1、入力ch数32、出力ユニット数64×1、出力ch数64、フィルタサイズ(4,1)、ストライドサイズ2、パディングサイズ(2,0)となっている。これにより、128×1のユニットで構成された32チャネルの入力信号のそれぞれに対して、64種類の4×1のフィルタを2×0の余白を加えた上で2点間隔ごとに適用して畳み込み演算が行われ、64×1のユニットで構成された64チャネルの出力信号が出力される。
「DeConvolution層」330,332は、入力信号に対して、予め定められるストライドで、予め定められる大きさのパディングを適用し、予め定められる数のフィルタに基づいて逆畳み込み演算を行う。
「DeConvolution層」330の構成は、入力ユニット数64×1、入力ch数64、出力ユニット数128×1、出力ch数32、フィルタサイズ(4,1)、ストライドサイズ2、パディングサイズ(2,0)となっている。これにより、64×1のユニットで構成された64チャネルの入力信号のそれぞれに対して、32種類の4×1のフィルタを2×0の余白を加えた上で2点間隔ごとに適用して逆畳み込み演算が行われ、128×1のユニットで構成された32チャネルの出力信号が出力される。
「DeConvolution層」332の構成は、入力ユニット数128×1、入力ch数32、出力ユニット数256×1、出力ch数1、フィルタサイズ(4,1)、ストライドサイズ2、パディングサイズ(2,0)となっている。これにより、128×1のユニットで構成された32チャネルの入力信号のそれぞれに対して、1種類の4×1のフィルタを2×0の余白を加えた上で2点間隔ごとに適用して逆畳み込み演算が行われ、256×1のユニットで構成された1チャネルの出力信号が出力される。
「Batch Normalization層+relu関数」312,314,316,322,324,326,329,331において、Batch Normalization層は、入力信号の平均値と分散値とを用いて正規化を行うことにより入力信号の分布の偏りを軽減する。relu関数は、活性化関数の1つであり、入力に対して非線形な出力を行う。Batch Normalization層は、1つのユニットに入力と出力があり、出力に対してrelu関数が適用される。
「Batch Normalization層+relu関数」312,322の構成は、ユニット数128×1、ch数32となっている。「Batch Normalization層+relu関数」314,324の構成は、ユニット数64×1、ch数64となっている。「Batch Normalization層+relu関数」316,326,329は、ユニット数64×64となっている。「Batch Normalization層+relu関数」331の構成は、ユニット数128×1、ch数64となっている。
LSTM層317,327は、内部にメモリとゲートを備えた層を有しており、当該メモリを用いて長期にわたる記憶を行うことで、学習の過程において与えられる訓練用の情報間の長期依存関係の維持を行う。LSTM層317,327の構成は、入力ユニット数64×64、出力ユニット数64×64となっている。
全結合層315,318,325,328は、入力層と出力層との間で入力ノードと出力ノードの全てが接続されており、適切な重み係数を適用することで、重要な入力ノードの出力信号を次の出力ノードに反映する。全結合層315,325,328の構成は、入力ユニット数64×64、出力ユニット数64×64となっており、4096個の入力ユニットが、4096個の出力ユニットの各々に結合している。全結合層318の構成は、入力ユニット数64×64、出力ユニット数2となっており、4096個の入力ユニットが、2個の出力ユニットの各々に結合している。
なお、全結合層315,318,325,328やLSTM層317,327は、単一チャネルを対象とする構成である。そのため、分類器31では、「Batch Normalization層+relu関数」314から全結合層315の間において、生成器32では、「Batch Normalization層+relu関数」324から全結合層325の間において、64チャネル構成を1チャネル構成に変換している。また、生成器32では、「Batch Normalization層+relu関数」329からDeConvolution層330の間において、1チャネル構成を64チャネル構成の信号に変換している。
64チャネル構成を1チャネル構成に変換するとは、64ユニット、64チャネルの値を横に並べて4096個の1チャネルの信号とすることである。逆に、1チャネル構成を64チャネル構成に変換するとは、例えば、4096個の1チャネルの信号が存在した場合、64ユニットの64チャネルの信号とすることである。
分類器31では、Convolution層311,313と、「Batch Normalization層+relu関数」312,314を繰り返して適用して経時変化のパターンを段階的に抽出した後、全結合層315と、「Batch Normalization層+relu関数」316と、LSTM層317と、全結合層318とにより長期依存を含めた特徴抽出及び分類を行っている。
生成器32では、分類器31と同様に、Convolution層321,323と、「Batch Normalization層+relu関数」322,324,326、329と、LSTM層327と、全結合層325,328とにより長期依存を含めた経時変化のパターンを抽出した後、DeConvolution層330,332と「Batch Normalization層+relu関数」331により擬似的な信号を生成している。
図6のステップSc2-1,Sc2-2に相当する学習処理、すなわち、特定の成分を含まない信号(Ε)の入力信号の波形が、生成器32が出力する出力信号(ε)の波形と同一の波形になるように生成器32に学習させる際の誤差関数として、例えば、ユークリッド距離が適用される。なお、当該学習処理における誤差関数は、ユークリッド距離に限られるものではなく、L1距離など形状の類似性を表す距離関数を適用するようにしてもよい。
学習処理部35が、分類器31に入力信号が特定の成分を含むか否かを正確に分類させるように学習させる際の誤差関数として、例えば、ソフトマックス関数の交差エントロピーが適用される。なお、当該学習処理における誤差関数は、ソフトマックス関数の交差エントロピーに限られるものではない。当該学習処理における誤差関数は、Wasserstein GANと同様に、Earth Mover’s distanceを適用したり、Energy-Based GANと同様にエネルギー関数を適用したり、Least Squares GANと同様に、L2距離を適用したりしてもよい。
分類器31と生成器32の誤差の重みの比率については、例えば、以下のようにして定められる。生成器32に入力信号(Ε)と出力信号(ε)が同一波形になるように学習させる際の誤差関数として、ユークリッド距離を適用する際の誤差を第1の誤差とする。分類器31が、分類γ及び分類ε’を分類して出力する際に誤差関数として適用されるソフトマックス関数の交差エントロピーの誤差を第2の誤差とする。このとき、第1の誤差と第2の誤差の重みの比として、例えば、比「1:0.001」を適用する。なお、誤差の重みの比率も、当該比率に限られるものではなく、他の比率であってもよい。
学習処理部35は、誤差関数で誤差を算出した後、誤差逆伝播法により、分類器31の各層311~318及び生成器32の各層321~332の重み係数を、算出した重み係数に書き換えて更新することで最適化を行う。最適化の手法としては、Adam(Adaptive moment estimation)が適用される。なお、最適化手法は、Adamに限られるものではなく、確率的勾配法などの他の最適化手法を適用するようにしてもよい。
(シミュレーション結果)
図10及び図11は、信号分離モデルデータを信号分離除去部5に適用し、テスト用多変量信号として、心電図の信号を与えた場合のシミュレーション結果を示す図である。図10の上段のグラフが特定の成分を含む多変量信号(Γ)の一例となる信号であり、下段が、当該信号の出力信号である。また、図11の上段のグラフが特定の成分を含まない多変量信号(Ε)の一例となる信号であり、下段が、当該信号の出力信号である。グラフの縦軸はいずれも電位(mV)であり、横軸は、時間である。信号に含まれるデータの間隔は、0.02秒ごとである。
図10及び図11は、信号分離モデルデータを信号分離除去部5に適用し、テスト用多変量信号として、心電図の信号を与えた場合のシミュレーション結果を示す図である。図10の上段のグラフが特定の成分を含む多変量信号(Γ)の一例となる信号であり、下段が、当該信号の出力信号である。また、図11の上段のグラフが特定の成分を含まない多変量信号(Ε)の一例となる信号であり、下段が、当該信号の出力信号である。グラフの縦軸はいずれも電位(mV)であり、横軸は、時間である。信号に含まれるデータの間隔は、0.02秒ごとである。
典型的な心電図は、例えば、図11の上段のグラフに示されるように、ピークを示すR波が生じた後、少し高い波であるT波が生じるモデルがある一定の間隔で繰り返して表示される。図10の上段の黒丸で囲った領域を参照すると、R波よりも大きな電位の変化が生じていることが分かる。また、信号の歪みや雑音の中にR波のパターンが含まれていることも分かる。信号分離除去部5の出力である、図10の下段の出力信号(γ)を参照すると、信号の歪みや雑音が軽減され、R波のパターンが、入力信号(Γ)のR波の位置とほぼ同一の時間に再現されていることが分かる。また、更に、T波も再現されていることが分かる。
次に、図11を参照すると、図11の上段のグラフに示されるように、特定の成分を含まない入力信号(Ε)の場合、R波とT波が明瞭に計測されていることが分かる。信号分離除去部5の出力である、下段の出力信号(ε)を参照すると、ほとんど変化しない信号、すなわち、R波とT波が、入力信号(Ε)と、ほぼ同一の時間に再現されていることが分かる。なお、図11のグラフでは、R波のピークの電位が、入力信号(Ε)と、出力信号(ε)とで多少違いがある。これについては、訓練用の多変量信号を増やして入力信号(Ε)の波形と出力信号(ε)の波形が同一の波形となるように生成器32に学習させて誤差を小さくすることで、R波のピーク電位の違いを小さくすることができる。
上記の実施形態の構成により、学習型信号分離装置1において、訓練信号取得部2は、特定の成分を含む訓練用の多変量信号と、特定の成分を含まない訓練用の多変量信号とを区別して取得する。モデル構築部3は、特定の成分を含む訓練用の多変量信号と、特定の成分を含まない訓練用の多変量信号とに基づいて、訓練信号取得部2が取得した訓練用の多変量信号のデータ列から特定の成分を分離して除去したデータ列の信号を生成する学習を行い、学習済みデータを生成する。テスト信号取得部4は、特定の成分を含むか否かが既知でない任意の多変量信号を取得する。信号分離除去部5は、テスト信号取得部4が取得した任意の多変量信号と、モデル構築部3が生成した学習済みデータとに基づいて、任意の多変量信号のデータ列から特定の成分を分離して除去したデータ列の信号を生成する。
したがって、特定の成分が含まれているか否かが予めラベル付けされた訓練用の多変量信号を用いて、分離したい特定の成分の特徴をモデル構築部3が学習し、信号分離除去部5が、学習済みのデータを用いて、任意の多変量信号から特定の成分を分離して除去することができる。
これにより、特定の成分の周波数特性が既知でなくても、単一点で計測された多変量信号から特性の成分を除去した上で分析する等の処理が可能となり、また、多変量信号の各成分を事前にモデル設計することも不要となる。
換言すると、多変量信号の各信号成分を事前にモデル設計していなくても、また、分類したい特定の成分の周波数特性が事前に得られていなくても、単一点で計測した多変量信号から特定の成分を分離して除去することが可能となる。
そのため、単一点で計測される信号であって信号成分のモデル化が難しい信号において、信号の歪みや雑音等の特定の成分の特性が不明であっても、信号に含まれる特定の成分を分離して除去することができることになる。例えば、生体信号のように様々な要因が複合的に作用した信号から、信号の歪みや雑音等の不要な成分を分離して除去することができる。
上記の実施形態では、信号が生体信号である場合を例示したが、信号が音や画像等の信号である場合も同様である。信号成分のモデル化が難しい、音や画像等の信号がある。このような信号であっても、特性が不明な特定の成分を、音や画像等の信号から分離し除去することができる。
したがって、特定の成分が含まれているか否かが予めラベル付けされた訓練用の多変量信号を用いて、分離したい特定の成分の特徴をモデル構築部3が学習し、信号分離除去部5が、学習済みのデータを用いて、任意の多変量信号から特定の成分を分離して除去することができる。
これにより、特定の成分の周波数特性が既知でなくても、単一点で計測された多変量信号から特性の成分を除去した上で分析する等の処理が可能となり、また、多変量信号の各成分を事前にモデル設計することも不要となる。
換言すると、多変量信号の各信号成分を事前にモデル設計していなくても、また、分類したい特定の成分の周波数特性が事前に得られていなくても、単一点で計測した多変量信号から特定の成分を分離して除去することが可能となる。
そのため、単一点で計測される信号であって信号成分のモデル化が難しい信号において、信号の歪みや雑音等の特定の成分の特性が不明であっても、信号に含まれる特定の成分を分離して除去することができることになる。例えば、生体信号のように様々な要因が複合的に作用した信号から、信号の歪みや雑音等の不要な成分を分離して除去することができる。
上記の実施形態では、信号が生体信号である場合を例示したが、信号が音や画像等の信号である場合も同様である。信号成分のモデル化が難しい、音や画像等の信号がある。このような信号であっても、特性が不明な特定の成分を、音や画像等の信号から分離し除去することができる。
また、上記の実施形態において、図5から図7の学習処理を繰り返すことで、分類器31の第1学習処理により、分類器31は、特定の成分を含む訓練用の多変量信号が入力信号として与えられた場合、「特定の成分、または生成器32が新たに付加した成分を含む」という分類結果を出力するようになる。また、分類器31は、特定の成分を含まない訓練用の多変量信号が入力信号として与えられた場合、「特定の成分、及び生成器32が新たに付加した成分を含まない」という分類結果を出力するようになる。
また、分類器31の第2学習処理と生成器32の学習処理により、分類器31は、生成器32に与えられる入力信号が特定の成分を含むか否かに関わらず、生成器32からの出力信号を入力信号として取り込んだ分類器31が出力する分類結果が、「特定の成分、または生成器32が新たに付加した成分を含む」という分類結果を出力する。その一方、入力信号が特定の成分を含むか否かに関わらず、生成器32からの出力信号を入力信号として取り込んだ分類器31が出力する分類結果が、「特定の成分、及び生成器32が新たに付加した成分を含まない」という分類結果になるような出力信号を生成器32が出力する。
このようにすることで、GANによる学習手法に基づいて、分類器31には、正確な分類を行うように学習させる一方、生成器32は、分類器31が誤って「特定の成分、及び生成器32が新たに付加した成分を含まない」と分類してしまうような信号を生成することを学習させることになる。そのため、分類器31と生成器32が、競い合うかのように、学習を行う。これにより、分類器31は、第1学習処理のみを行うよりも、生成器32が生成した多変量信号を用いた第2学習処理を行うことにより更に高い正確さで分類を行うことができるようになる。また、生成器32が、同様の高い正確さで、入力信号のデータ列から特定の成分を分離して除去したデータ列を生成することになる。
これにより、生成器32は、学習が充分に行われると、入力信号が特定の成分を含まない多変量信号の場合、入力信号をそのまま出力するようになる。また、生成器32は、学習が充分に行われると、入力信号が特定の成分を含む多変量信号の場合、特定の成分を含まない、すなわち、入力信号のデータ列から特定の成分を分離して除去したデータ列の信号を生成して出力するようになる。また、学習が充分に行われると、生成器32自体が新たな成分を付加することもなくなる。
GANの適用によりモデル構築部3は、計測対象の信号のほとんど全てに、例えば、心電位の生体信号のように、モデル化が難しいものの共通の特徴が含まれている場合、信号の歪みや雑音等の特定の成分の特徴と、共通の特徴とを学習しているということができる。そのため、計測された信号から、直接的に信号の歪みや雑音等の特定の成分を除去するというよりは、計測された信号のデータ列に基づいて、特定の成分を含まず、かつ共通の特徴を含んだデータ列の信号を生成することを可能としている。そのため、モデル構築部3が生成した信号分離モデルデータを適用することにより、計測した任意の信号が共通の特徴を含んでいれば、当該信号のデータ列から特定の成分を分離して除去するデータ列の信号を生成することができる。
また、上記の実施形態において、図6の生成器32のステップSc2-1,Sc2-2の学習処理を行う。このため、生成器32は、特定の成分を含まない訓練用の多変量信号(Ε)が入力信号として与えられた場合、入力信号のデータ列(波形)と同一のデータ列(波形)の信号を出力するようになる。これにより、GANによる学習手法に加えて、生成器32が、更に精度よく、特定の成分を分離して除去することが可能となる。
また、上記の実施形態では、分類器31に対して学習処理部35は、「特定の成分、または生成器32が新たに付加した成分を含む」、または「特定の成分、及び生成器32が新たに付加した成分を含まない」ということを学習させているが、本発明は、当該実施の形態に限られない。例えば、分類器31に対して学習処理部35は、「特定の成分を含む」、または「特定の成分を含まない」ということのみを学習させるようにしてもよい。
ただし、「特定の成分を含む」、または「特定の成分を含まない」ということのみを学習させる場合、図6に示す生成器32の学習処理のステップSc2-3及びSc2-4、並びに図7に示す分類器31の第2学習処理のステップSd2-1及びSd2-2の処理は行わないようにする必要がある。その理由は、生成器32は、充分な学習を行った結果、特定の成分を含まない多変量信号(Ε)が与えられると、同一の波形の出力信号(ε)を生成して出力するようになるのであって、学習が充分に行われていない状態では、出力信号(ε)と、入力信号(Ε)の波形は、類似していない。そのため、学習途上の出力信号(ε)に基づいて、分類器31や生成器32を学習させると誤った方向に学習させる恐れがあるためである。
上記の実施形態のように、「特定の成分」に加えて、「生成器32が新たに付加した成分」を分離対象とする理由は、以下の通りである。特定の成分を含まない多変量信号(Ε)の多様性が小さい場合、すなわち、多変量信号(Ε)の事例があまりにも少ない場合、学習処理部35は、生成器32に対して、特定の成分を含む多変量信号(Γ)を入力信号として与えると、多変量信号(Ε)のうちいずれか1つを出力するように過学習させてしまう可能性がある。
これに対して、「生成器32が新たに付加した成分」を分離対象とすることで、分類器31の分類対象として適切なものとすることができる。そのため、図6に示す生成器32の学習処理のステップSc2-3及びSc2-4、並びに図7に示す分類器31の第2学習処理のステップSd2-1及びSd2-2の処理を加えることができるため、上記のような過学習を回避することが可能となる。すなわち、「生成器32が新たに付加した成分」を分離対象とすることにより、特定の成分だけでなく、生成器32が新たに付加した成分も分離するように学習させることができ、より正確に特定の成分を分離することができる。
また、上記の実施形態において、学習処理部35によって、分類器31と生成器32が充分に学習された場合であっても、入力信号に基づいて生成器32が生成する出力信号は、与えた訓練用の多変量信号に依存する。そのため、特定の成分を含まない多変量信号を学習済みの生成器32に入力信号として与えた場合、生成器32は、入力信号の波形とほぼ同一の波形の出力信号を生成するが、必ずしも入力信号と完全に同一の波形の信号を生成して出力するとは限らない。
また、上記の実施形態において、図3のL1s~L1eのループ処理の回数を予め定められる回数としているが、分類器31、または生成器32の出力値が予め定められる条件、例えば、閾値を満たすまで繰り返すようにしてもよい。
また、上記の実施形態において、図3に示す処理の順番を、ステップSa2-1の分類器の第1学習処理、ステップSa2-2の生成器32の学習処理、ステップSa2-3の分類器の第2の学習処理としている。ただし、これらの学習処理の順番は、入れ替わってもよい。
また、上記の実施形態では、複数の加法的な成分で構成される多変量信号を対象としているが、共通の特徴を含んだ単変量信号を対象としてもよい。
上記の実施形態では、多変量信号または単変量信号が心電図に用いられる生体信号である場合を例示したが、この例に限定されるものではない。生体信号は、例えば、筋電図、脳波、血圧、血流、体温、体液中の成分の濃度等であってもよい。また、生体信号は、加速度によって取得される体動の情報であってもよい。体動は、例えば、姿勢、動作、歩容である。上記の実施形態によると、上記の心電図以外の生体信号のように様々な要因が複合的に作用した信号であっても、信号の歪みや雑音等の不要な成分を分離して除去することができる。
上記の実施形態では、多変量信号または単変量信号が心電図に用いられる生体信号である場合を例示したが、この例に限定されるものではない。生体信号は、例えば、筋電図、脳波、血圧、血流、体温、体液中の成分の濃度等であってもよい。また、生体信号は、加速度によって取得される体動の情報であってもよい。体動は、例えば、姿勢、動作、歩容である。上記の実施形態によると、上記の心電図以外の生体信号のように様々な要因が複合的に作用した信号であっても、信号の歪みや雑音等の不要な成分を分離して除去することができる。
また、上記の実施形態では、信号分離除去部5が、信号分離モデルデータを記憶部36から読み出して、内部に生成器32と同一構成の生成器32aを生成する。ただし、モデル構築部3の生成器32を用いて、テスト信号取得部4が取得したテスト用の多変量信号から特定の成分を分離して除去するように処理されてもよい。
上述した実施形態における学習型信号分離装置1をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明により、単一点で計測される信号であって信号成分のモデル化が難しい信号において、信号の歪みや雑音等の特定の成分の特性が不明であっても、信号に含まれる特定の成分を分離して除去することが可能となる。
1…学習型信号分離装置,2…訓練信号取得部,3…モデル構築部,4…テスト信号取得部,5…信号分離除去部,31…分類器,32…生成器,35…学習処理部,36…記憶部
Claims (9)
- 共通の特徴を含んだ訓練用の信号であって、特定の成分を含む前記訓練用の信号と前記特定の成分を含まない前記訓練用の信号とに基づいて学習処理を行うモデル構築部を用いて行う学習型信号分離方法であって、
前記訓練用の信号に前記特定の成分が含まれているか否かを示す情報と、前記訓練用の信号とに基づいて、前記訓練用の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習処理を前記モデル構築部に行わせて学習済みデータを生成し、
前記共通の特徴を含んだ任意の信号を取得し、
取得した前記任意の信号と、生成した前記学習済みデータとに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習型信号分離方法。 - 前記モデル構築部が、GAN(Generative Adversarial Network)であって、分類器と、生成器と、前記分類器と前記生成器とを学習させる学習処理部とを有しており、
前記学習処理部が、前記訓練用の信号を入力信号とし、前記入力信号と、当該入力信号に前記特定の成分が含まれているか否かを示す情報とを前記分類器と前記生成器に与えて、
前記分類器が、前記入力信号に前記特定の成分が含まれているか否かを示す分類結果を出力するように、前記分類器に学習を行わせ、
前記生成器が、前記入力信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成するように、前記生成器に学習を行わせ、
前記生成器からの出力信号を前記入力信号として前記分類器に与えた際、前記分類器には、前記入力信号に前記特定の成分が含まれていると学習を行わせる一方、前記生成器には、前記入力信号に前記特定の成分が含まれていないと前記分類器に分類させるように学習を行わせ、
生成した前記学習済みデータのうち、前記生成器の学習済みデータを信号分離モデルデータとし、前記信号分離モデルデータと、取得した前記任意の信号とに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する、請求項1に記載の学習型信号分離方法。 - 前記学習処理部は、
前記分類器が、前記入力信号に前記特定の成分が含まれている場合、前記特定の成分が含まれていることを示す分類結果を出力し、前記入力信号に前記特定の成分が含まれていない場合、前記入力信号に前記特定の成分が含まれていないことを示す分類結果を出力するように、前記分類器に学習を行わせ、
前記特定の成分を含む前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分が含まれていることを示す分類結果を出力するように、前記分類器に学習を行わせ、
前記特定の成分を含む前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分が含まれていないことを示す分類結果を出力するように、前記生成器に学習を行わせる、請求項2に記載の学習型信号分離方法。 - 前記学習処理部は、
前記分類器が、前記入力信号に前記特定の成分が含まれている場合、前記入力信号に前記特定の成分または前記生成器が新たに付加した成分が含まれていることを示す分類結果を出力し、前記入力信号に前記特定の成分が含まれていない場合、前記入力信号に前記特定の成分及び前記生成器が新たに付加した成分が含まれていないことを示す分類結果を出力するように、前記分類器に学習を行わせ、
前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分または前記生成器が新たに付加した成分が含まれていることを示す分類結果を出力するように、前記分類器に学習を行わせ、
前記入力信号を前記生成器に与えることにより前記生成器が出力する出力信号を前記入力信号として前記分類器に与えた際、前記分類器が前記入力信号に前記特定の成分及び前記生成器が新たに付加した成分が含まれていないことを示す分類結果を出力するように、前記生成器に学習を行わせる、請求項2に記載の学習型信号分離方法。 - 前記学習処理部は、
前記生成器に与える前記入力信号に前記特定の成分が含まれていない場合、前記入力信号のデータ列と同一のデータ列の信号を生成するように、前記生成器に学習を行わせる、請求項3又は4に記載の学習型信号分離方法。 - 前記訓練用の信号、前記任意の信号、及び前記データ列の信号は、複数の加法的な成分で構成される多変量信号、または単変量信号である、請求項1から5のいずれか一項に記載の学習型信号分離方法。
- 前記訓練用の信号、前記任意の信号、及び前記データ列の信号は、計測された生体信号であり、
前記特定の成分は、前記生体信号に付加される不要な成分である、請求項1から6のいずれか一項に記載の学習型信号分離方法。 - 前記データ列は波形または周波数である、請求項1から7のいずれか一項に記載の学習型信号分離方法。
- 共通の特徴を含んだ訓練用の信号であって、特定の成分を含む前記訓練用の信号と前記特定の成分を含まない前記訓練用の信号とを区別して取得する訓練信号取得部と、
前記訓練信号取得部が取得する前記訓練用の信号と、当該訓練用の信号に前記特定の成分が含まれているか否かを示す情報とに基づいて、前記訓練用の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する学習処理を行い、学習済みデータを生成するモデル構築部と、
前記共通の特徴を含んだ任意の信号を取得するテスト信号取得部と、
前記テスト信号取得部が取得する前記任意の信号と、生成した前記学習済みデータとに基づいて、前記任意の信号のデータ列から前記特定の成分を分離して除去したデータ列の信号を生成する信号分離除去部と、
を備える学習型信号分離装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18792073.1A EP3605408B1 (en) | 2017-04-27 | 2018-04-23 | Learning-type signal separation method and learning-type signal separation device |
US16/607,357 US11625603B2 (en) | 2017-04-27 | 2018-04-23 | Learning-type signal separation method and learning-type signal separation device |
JP2019514494A JP6783927B2 (ja) | 2017-04-27 | 2018-04-23 | 学習型信号分離方法、及び学習型信号分離装置 |
CN201880027224.8A CN110520875B (zh) | 2017-04-27 | 2018-04-23 | 学习型信号分离方法和学习型信号分离装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-088717 | 2017-04-27 | ||
JP2017088717 | 2017-04-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018199031A1 true WO2018199031A1 (ja) | 2018-11-01 |
Family
ID=63919102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/016472 WO2018199031A1 (ja) | 2017-04-27 | 2018-04-23 | 学習型信号分離方法、及び学習型信号分離装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11625603B2 (ja) |
EP (1) | EP3605408B1 (ja) |
JP (1) | JP6783927B2 (ja) |
CN (1) | CN110520875B (ja) |
WO (1) | WO2018199031A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109660206A (zh) * | 2018-12-20 | 2019-04-19 | 福州大学 | 一种基于Wasserstein GAN的光伏阵列故障诊断方法 |
JP2021081915A (ja) * | 2019-11-18 | 2021-05-27 | 株式会社東海理化電機製作所 | 学習装置、学習方法、および測定装置 |
WO2022064708A1 (ja) * | 2020-09-28 | 2022-03-31 | 日本電気株式会社 | 診断支援装置、診断支援方法、及びコンピュータ読み取り可能な記録媒体 |
JP2022529863A (ja) * | 2019-04-24 | 2022-06-27 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム |
JP7464138B2 (ja) | 2020-09-30 | 2024-04-09 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110840445B (zh) * | 2019-12-12 | 2021-07-20 | 山东省计算中心(国家超级计算济南中心) | 一种动态心电信号的自动降噪方法 |
CN111084621B (zh) * | 2019-12-30 | 2022-09-06 | 上海数创医疗科技有限公司 | 基于深度自编码器的qrs波群形态识别方法和装置 |
CN111956201B (zh) * | 2020-07-22 | 2022-09-06 | 上海数创医疗科技有限公司 | 基于卷积神经网络的心拍类型识别方法和装置 |
KR20220055387A (ko) * | 2020-10-26 | 2022-05-03 | 주식회사 바디프랜드 | 건강을 진단할 딥러닝 모델을 학습하는 장치 |
CN113271272B (zh) * | 2021-05-13 | 2022-09-13 | 侯小琪 | 一种基于残差神经网络的单通道时频混叠信号盲分离方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007189589A (ja) * | 2006-01-16 | 2007-07-26 | Sony Corp | 情報処理装置および情報処理方法、学習装置および学習方法、並びにプログラム |
JP2015031889A (ja) * | 2013-08-05 | 2015-02-16 | 株式会社半導体理工学研究センター | 音響信号分離装置、音響信号分離方法及び音響信号分離プログラム |
WO2017027856A1 (en) * | 2015-08-12 | 2017-02-16 | Massachusetts Institute Of Technology | System and methods to predict serum lactate level |
JP2017088717A (ja) | 2015-11-09 | 2017-05-25 | 日信化学工業株式会社 | インクジェットインク製造用塩化ビニル系樹脂及びインクジェットインク |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8326240B1 (en) * | 2010-09-27 | 2012-12-04 | Rockwell Collins, Inc. | System for specific emitter identification |
WO2014132402A1 (ja) * | 2013-02-28 | 2014-09-04 | 株式会社東芝 | データ処理装置および物語モデル構築方法 |
CN105910827B (zh) * | 2016-04-25 | 2017-04-05 | 东南大学 | 基于判别性卷积特征学习的感应电机故障诊断方法 |
CN106127702B (zh) * | 2016-06-17 | 2018-08-14 | 兰州理工大学 | 一种基于深度学习的图像去雾方法 |
CN106250707A (zh) * | 2016-08-12 | 2016-12-21 | 王双坤 | 一种基于深度学习算法处理头部结构像数据的方法 |
-
2018
- 2018-04-23 WO PCT/JP2018/016472 patent/WO2018199031A1/ja unknown
- 2018-04-23 JP JP2019514494A patent/JP6783927B2/ja active Active
- 2018-04-23 EP EP18792073.1A patent/EP3605408B1/en active Active
- 2018-04-23 CN CN201880027224.8A patent/CN110520875B/zh active Active
- 2018-04-23 US US16/607,357 patent/US11625603B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007189589A (ja) * | 2006-01-16 | 2007-07-26 | Sony Corp | 情報処理装置および情報処理方法、学習装置および学習方法、並びにプログラム |
JP2015031889A (ja) * | 2013-08-05 | 2015-02-16 | 株式会社半導体理工学研究センター | 音響信号分離装置、音響信号分離方法及び音響信号分離プログラム |
WO2017027856A1 (en) * | 2015-08-12 | 2017-02-16 | Massachusetts Institute Of Technology | System and methods to predict serum lactate level |
JP2017088717A (ja) | 2015-11-09 | 2017-05-25 | 日信化学工業株式会社 | インクジェットインク製造用塩化ビニル系樹脂及びインクジェットインク |
Non-Patent Citations (7)
Title |
---|
GOODFELLOW, I. J. ET AL.: "Generative adversarial nets", THE NEURAL INFORMATION PROCESSING SYSTEMS FOUNDATION, PROCEEDINGS OF ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 27 (NIPS 2014), 13 December 2014 (2014-12-13), pages 1 - 9, XP055468946, Retrieved from the Internet <URL:http://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf> [retrieved on 20180621] * |
JUAN PABLO MARTINEZ ET AL.: "A Wavelet-Based ECG Delineator: Evaluation on Standard Databases", IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, vol. 51, no. 4, April 2004 (2004-04-01), pages 570 - 581, XP011109261, DOI: 10.1109/TBME.2003.821010 |
MA MNEIMNEHEE YAZMT JOHNSONRJ POVINELLI: "An Adaptive Kalman Filter for Removing Baseline Wandering in ECG Signals", COMPUTERS IN CARDIOLOGY, vol. 33, 2006, pages 253 - 256, XP031248955 |
See also references of EP3605408A4 |
TAIGANG HEGARI CLIFFORDLIONEL TARASSENKO: "Application of independent component analysis in removing artefacts from the electrocardiogram", NEURAL COMPUT & APPLIC, 2006, pages 105 - 116, XP019381264, DOI: 10.1007/s00521-005-0013-y |
TAKAYUKI OGASAWARAKAZUYOSHI ONONOBUAKI MATSUURAMASUMI YAMAGUCHIJUNJI WATANABESHINGO TSUKADA: "Application of Wearable Electrode Inner Technology", NTT TECHNICAL JOURNAL, November 2014 (2014-11-01), pages 16 - 20 |
XIONG, PENG ET AL.: "ECG signal enhancement based on improved denoising auto-encoder", ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE, vol. 52, 2016, pages 194 - 202, XP029530661, DOI: 10.1016/j.engappai.2016.02.015 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109660206A (zh) * | 2018-12-20 | 2019-04-19 | 福州大学 | 一种基于Wasserstein GAN的光伏阵列故障诊断方法 |
JP2022529863A (ja) * | 2019-04-24 | 2022-06-27 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム |
JP7213358B2 (ja) | 2019-04-24 | 2023-01-26 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム |
JP2021081915A (ja) * | 2019-11-18 | 2021-05-27 | 株式会社東海理化電機製作所 | 学習装置、学習方法、および測定装置 |
JP7285763B2 (ja) | 2019-11-18 | 2023-06-02 | 株式会社東海理化電機製作所 | 学習装置、学習方法、および測定装置 |
WO2022064708A1 (ja) * | 2020-09-28 | 2022-03-31 | 日本電気株式会社 | 診断支援装置、診断支援方法、及びコンピュータ読み取り可能な記録媒体 |
JP7464138B2 (ja) | 2020-09-30 | 2024-04-09 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6783927B2 (ja) | 2020-11-11 |
US20200050937A1 (en) | 2020-02-13 |
EP3605408A4 (en) | 2021-01-20 |
US11625603B2 (en) | 2023-04-11 |
EP3605408B1 (en) | 2023-06-28 |
CN110520875A (zh) | 2019-11-29 |
CN110520875B (zh) | 2023-07-11 |
JPWO2018199031A1 (ja) | 2019-11-07 |
EP3605408A1 (en) | 2020-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6783927B2 (ja) | 学習型信号分離方法、及び学習型信号分離装置 | |
Chiarion et al. | Connectivity analysis in EEG data: a tutorial review of the state of the art and emerging trends | |
Aayesha et al. | Machine learning-based EEG signals classification model for epileptic seizure detection | |
Gupta et al. | Neural network classification of homomorphic segmented heart sounds | |
Ari et al. | Detection of cardiac abnormality from PCG signal using LMS based least square SVM classifier | |
Übeyli | Analysis of EEG signals by implementing eigenvector methods/recurrent neural networks | |
Übeyli | Statistics over features: EEG signals analysis | |
Dokur et al. | Heart sound classification using wavelet transform and incremental self-organizing map | |
Naderi et al. | Analysis and classification of EEG signals using spectral analysis and recurrent neural networks | |
Upretee et al. | Accurate classification of heart sounds for disease diagnosis by a single time-varying spectral feature: Preliminary results | |
Sujadevi et al. | Deep models for phonocardiography (PCG) classification | |
Boashash et al. | A review of time–frequency matched filter design with application to seizure detection in multichannel newborn EEG | |
Yıldız et al. | Automated auscultative diagnosis system for evaluation of phonocardiogram signals associated with heart murmur diseases | |
Uyulan et al. | Analysis of Time—Frequency EEG Feature Extraction Methods for Mental Task Classification | |
González-Rodríguez et al. | Robust denoising of phonocardiogram signals using time-frequency analysis and U-Nets | |
Morshed et al. | Automated heart valve disorder detection based on PDF modeling of formant variation pattern in PCG signal | |
Sathyanarayanan et al. | Heart sound analysis using SAINet incorporating CNN and transfer learning for detecting heart diseases | |
Altaf et al. | Systematic review for phonocardiography classification based on machine learning | |
Phinyomark et al. | Applications of variance fractal dimension: A survey | |
Shah et al. | Analysis of EEG for Parkinson’s disease detection | |
KR20220117876A (ko) | 혈관 액세스를 평가하기 위한 디바이스 및 방법 | |
Jana et al. | Performance analysis of supervised machine learning algorithms for epileptic seizure detection with high variability EEG datasets: A comparative study | |
Said et al. | Automatic detection of mild cognitive impairment from EEG recordings using discrete wavelet transform leader and ensemble learning methods | |
Zeng et al. | A novel cuboid method with particle swarm optimization for real-life noise attenuation from heart sound signals | |
Hemalatha et al. | A Novel Fast Mask Recurrent Convolutional Neural Network Developed to Detect the Accurate Location of PCG Murmur |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18792073 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019514494 Country of ref document: JP Kind code of ref document: A |
|
ENP | Entry into the national phase |
Ref document number: 2018792073 Country of ref document: EP Effective date: 20191022 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |