+

WO2016129160A1 - 画像処理装置、画像処理方法、プログラムおよび画像処理システム - Google Patents

画像処理装置、画像処理方法、プログラムおよび画像処理システム Download PDF

Info

Publication number
WO2016129160A1
WO2016129160A1 PCT/JP2015/082271 JP2015082271W WO2016129160A1 WO 2016129160 A1 WO2016129160 A1 WO 2016129160A1 JP 2015082271 W JP2015082271 W JP 2015082271W WO 2016129160 A1 WO2016129160 A1 WO 2016129160A1
Authority
WO
WIPO (PCT)
Prior art keywords
peak
exposure control
image processing
luminance
control unit
Prior art date
Application number
PCT/JP2015/082271
Other languages
English (en)
French (fr)
Inventor
昌嗣 村北
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/541,269 priority Critical patent/US10306151B2/en
Priority to JP2016574626A priority patent/JP6620762B2/ja
Publication of WO2016129160A1 publication Critical patent/WO2016129160A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, a program, and an image processing system.
  • the peak detection unit that detects the first peak and the second peak in order from the high luminance side from the pixel number distribution for each luminance of the endoscopic image based on the imaging by the image sensor; And an exposure control unit that performs exposure control based on the first luminance difference between the first peak and the second peak.
  • the first peak and the second peak are detected in order from the high luminance side, from the pixel number distribution for each luminance of the endoscopic image based on the imaging by the image sensor;
  • An image processing method comprising: performing exposure control based on a first luminance difference between the first peak and the second peak by a processor.
  • the computer detects a first peak and a second peak in order from the high luminance side, from a pixel number distribution for each luminance of an endoscopic image based on imaging by an image sensor,
  • a program for causing an image processing apparatus to include an exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak.
  • the light source unit that emits light
  • the image sensor that receives the reflected light of the light emitted by the light source unit and captures an endoscopic image
  • a peak detection unit that detects a first peak and a second peak in order from the high luminance side, and a first luminance difference between the first peak and the second peak
  • an image processing system having an image processing apparatus including an exposure control unit that performs exposure control.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets or numbers after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • FIG. 1 is a diagram illustrating a configuration example of an image processing system according to an embodiment of the present disclosure.
  • the image processing system 1A includes an image processing apparatus 100A, an insertion unit 200A, a light source unit 300A, a display unit 400A, and an operation unit 500A.
  • the light source unit 300A includes a white light source 310A and a condensing lens 320A.
  • the white light source 310A emits white light.
  • an example using white light is mainly described, but the color of light is not particularly limited. Therefore, a light source that emits visible light other than white may be used instead of the white light source 310A.
  • the condensing lens 320A condenses the light emitted by the white light source 310A on a light guide 210A described later.
  • the insertion unit 200A can correspond to a scope that is inserted into the body.
  • the insertion portion 200A may be a rigid mirror or a flexible mirror.
  • the insertion unit 200A includes a light guide 210A, an illumination lens 220A, an imaging unit 230A, and a memory 240A.
  • the imaging unit 230A includes an objective lens 231A, an image sensor (imaging device) 232A, and an A / D (analog / digital) conversion unit 233A.
  • the light guide 210A guides the light collected by the light source unit 300A to the tip of the insertion unit 200A.
  • the illumination lens 220A diffuses the light guided to the tip by the light guide 210 and irradiates the observation target (subject SuA).
  • the objective lens 231A forms an image of reflected light returning from the observation target (subject Su) on the image sensor 232A.
  • the image sensor 232A outputs an analog signal (endoscopic image) captured by receiving the reflected light to the A / D conversion unit 233A.
  • the image sensor 232A has, for example, a primary color Bayer array.
  • the endoscopic image obtained by the image sensor 232A is a primary color Bayer image.
  • the primary color Bayer image is an image in which each pixel has one of RGB signals, and is an image in which the RGB pixels are arranged in a checkered pattern.
  • the image sensor 232A is not limited to the primary color Bayer array. That is, the endoscopic image is not limited to a primary color Bayer image.
  • the endoscopic image may be an image acquired by an endoscopic imaging method other than the primary color Bayer such as complementary color or frame sequential.
  • the A / D conversion unit 233A converts an analog signal (endoscopic image) output from the image sensor 232A into a digital signal based on a control signal output from the control unit 130 (to be described later). (Scope image) is output to the image processing apparatus 100A.
  • the memory 240A stores a program for realizing the functions of the image processing apparatus 100A by being executed by an arithmetic device (not shown).
  • the insertion part 200A may be appropriately described as a scope.
  • a type of scope corresponding to the diagnosis site can be used.
  • Each scope is given an identification number for specifying a target diagnostic region and a function such as a zoom function.
  • the identification number may be referred to as a scope ID.
  • the memory 240A stores the scope ID.
  • the image processing apparatus 100A includes an automatic exposure control unit 110A, an image processing unit 120A, and a control unit 130A.
  • the endoscopic image acquired by the imaging unit 230A is output to the automatic exposure control unit 110A and the image processing unit 120A.
  • the automatic exposure control unit 110A is connected to the white light source 310A and the image sensor 232A, and controls the white light source 310A and the image sensor 232A.
  • the image processing unit 120A is connected to the display unit 400A.
  • the control unit 130A is bidirectionally connected to the imaging unit 230A, the image processing unit 120A, the display unit 400A, and the operation unit 500A, and controls these components.
  • the automatic exposure control unit 110A automatically exposes the image sensor 232A so that the luminance of the endoscopic image acquired by the imaging unit 230A becomes a value suitable for observation (hereinafter also referred to as “appropriate value”). Take control. Details of the automatic exposure control unit 110A will be described later.
  • the image processing unit 120A performs image processing on the endoscopic image captured by the imaging unit 230A. For example, the image processing unit 120A performs gradation conversion processing and noise reduction processing. Image processing unit 120A outputs the image after image processing to display unit 400A.
  • the control unit 130A is connected to the imaging unit 230A, the image processing unit 120A, the display unit 400A, and the operation unit 500A, and outputs a control signal for controlling them.
  • the display unit 400A outputs the endoscope image output by the image processing unit 120A to an image display device such as an endoscope monitor.
  • the operation unit 500A is an interface for accepting an operation from the user.
  • the operation unit 500A includes a power switch for turning on / off the power, a shutter button for starting imaging, a mode switching button for switching a shooting mode and various other modes.
  • FIGS. 2 and 3 are diagrams for describing a specific example of exposure control.
  • the analog signal captured by the image sensor 232A is converted into a digital signal (endoscopic image) by the A / D conversion unit 233A.
  • the vertical axis indicates the output value from the image sensor 232A.
  • the horizontal axis represents the image plane illuminance of the image sensor 232A corresponding to each output value.
  • the output value from the image sensor 232A may be an average value of output values corresponding to each pixel.
  • the appropriate value of the output value from the image sensor 232A is indicated as “U0A”, and the image plane illuminance of the image sensor 232A corresponding to the appropriate value U0A is indicated as “L0A”.
  • U0A the output value of the output value from the image sensor 232A
  • L0A the image plane illuminance of the image sensor 232A corresponding to the appropriate value U0A.
  • the appropriate value of the output value from the image sensor 232 is indicated as “U0A”, and the image plane illuminance of the image sensor 232A corresponding to the appropriate value U0A is “L0A”. ".
  • the output value U2A from the image sensor 232A is smaller than the appropriate value U0A.
  • exposure control can be performed by adjusting parameters for controlling exposure.
  • Various parameters are assumed as parameters for controlling the exposure.
  • the parameter for controlling the exposure may include at least one of an electronic shutter speed of the image sensor 232A and a gain multiplied by an analog signal captured by the image sensor 232A.
  • the parameter for controlling the exposure may include the brightness of the white light source 310A.
  • the exposure control for decreasing the output value from the image sensor 232A by dU1A shown in FIG. 2 may be executed by increasing the electronic shutter speed by an amount corresponding to dU1A, or by the image sensor 232A. It may be executed by reducing the gain multiplied by the imaged analog signal by an amount corresponding to dU1A.
  • the exposure control for reducing the output value from the image sensor 232A may be executed by reducing the brightness of the white light source 310A by an amount corresponding to dU1A.
  • the exposure control for increasing the output value from the image sensor 232A by dU2A shown in FIG. 3 may be executed by reducing the electronic shutter speed by an amount corresponding to dU2A, or by the image sensor 232A. It may be executed by increasing the gain multiplied by the imaged analog signal by an amount corresponding to dU2A.
  • exposure control that increases the output value from the image sensor 232A may be executed by increasing the brightness of the white light source 310A by an amount corresponding to dU2A.
  • FIG. 4 is a block diagram illustrating a detailed functional configuration example of the automatic exposure control unit 110A.
  • the automatic exposure control unit 110A includes a peak detection unit 111A and an exposure control unit 112A.
  • the peak detection unit 111A acquires an endoscopic image from the imaging unit 230A.
  • FIG. 5 is a diagram showing an example of an endoscopic image.
  • each pixel is arranged in a grid pattern.
  • the endoscopic image Im1A is generally imaged in a situation where the light source unit 300A and the image sensor 232A are close to each other and in a situation where the light source unit 300A and the subject are close to each other. Therefore, the white area Rw1A exists.
  • the color depth of each pixel represents the height of luminance of each pixel.
  • FIG. 6 is a diagram illustrating an example of the distribution of the number of pixels for each luminance of the endoscopic image.
  • the luminance of the endoscopic image is shown on the horizontal axis, and the number of pixels for each luminance is shown on the vertical axis.
  • a first peak hereinafter also referred to as “peak B1A”
  • a second peak hereinafter also referred to as “peak B2A”
  • peak B1A A first peak
  • peak B2A a second peak
  • the number of pixels in each of the peak B1A and the peak B2A is indicated as “N1A” and “N2A”.
  • the peak detection unit 111A detects the peak B1A and the peak B2A in order from the high luminance side from the distribution of the number of pixels for each luminance of the endoscope image.
  • the peak B1A belongs to the white region Rw1A and the peak B2A belongs to the observation region Rs1A
  • the exposure control unit 112 may perform exposure control based on the luminance difference Df1A between the peak B1A and the peak B2A. Then, it is possible to more appropriately adjust the luminance of the endoscopic image Im1A by reducing the possibility that the observation region Rs1A becomes excessively dark.
  • the exposure control unit 112A acquires a parameter correction value (hereinafter also referred to as “first correction value”) based on the luminance difference Df1A, corrects the parameter based on the first correction value, Exposure control may be performed based on the corrected parameters.
  • the exposure control unit 112A may correct the parameter by adding the first correction value to the parameter.
  • FIG. 6 shows an example in which the peak B2A has moved to the position of the peak B0A as a result of the exposure control performed based on the corrected parameters (example in which the position of the peak B2A has moved by “Cm1A”). It is shown).
  • the method for acquiring the first correction value is not particularly limited.
  • the exposure control unit 112A may acquire the first correction value corresponding to the luminance difference Df1A from the table, or may acquire the first correction value by calculation based on the luminance difference Df1A.
  • a method for acquiring the first correction value by calculation based on the luminance difference Df1A is not particularly limited.
  • the exposure control unit 112A may calculate the first correction value from the luminance difference Df1A, assuming that the first correction value linearly changes with respect to the luminance difference Df1A.
  • the exposure control unit 112A corrects the parameter when the luminance difference Df1A exceeds a threshold value (hereinafter also referred to as “first threshold value”), whereas when the luminance difference Df1A falls below the first threshold value.
  • the parameters need not be corrected. This is because when the luminance difference Df1A is lower than the first threshold, it is unlikely that the exposure control has been performed so that the luminance of the endoscopic image Im1A becomes excessively low.
  • the parameter may be corrected or the parameter may not be corrected.
  • the exposure control unit 112A corrects the parameter when the number of pixels of the peak B1A exceeds the predetermined number of pixels, and corrects the parameter when the number of pixels of the peak B1A does not exceed the predetermined number of pixels. It does not have to be. This is because when the number of pixels of the peak B1A does not exceed the predetermined number of pixels, it is unlikely that the exposure control has been performed so that the luminance of the endoscopic image Im1A becomes excessively low. In addition, when the number of pixels of the peak B1A is equal to the predetermined number of pixels, the parameter may be corrected or the parameter may not be corrected.
  • FIG. 7 is a flowchart showing an example of the operation when two peaks (peak B1A and peak B2A) are detected from the low luminance side. Note that the example of the operation illustrated in FIG. 7 is merely an example of the operations of the peak detection unit 111A and the exposure control unit 112A. Therefore, the operations of the peak detection unit 111A and the exposure control unit 112A are not limited to the operation example shown in FIG.
  • the peak detector 111A generates a pixel number distribution for each luminance in the endoscopic image (S11A). Then, the peak detector 111 detects the first peak (peak B1A) and the second peak (peak B2A) in order from the high luminance side from the pixel number distribution for each luminance (S12A). Subsequently, the exposure control unit 112A determines that the first luminance difference (luminance difference Df1A) between the first peak (peak B1A) and the second peak (peak B2A) is lower than the first threshold (in S13A). “No”), the operation is terminated.
  • the first correction value of the parameter for controlling the exposure is acquired (S14A)
  • the first correction value is added to the parameter (S15A)
  • the operation is terminated. If exposure control is performed based on the parameter after the first correction value is added, the possibility that the observation region Rs1A becomes too dark is reduced, and the brightness of the endoscopic image Im1A is more appropriately adjusted. It becomes possible to do.
  • the endoscopic image Im1A becomes partially dark due to light shielding by a lens hood or the like that transmits light to the image sensor 232A.
  • the region that becomes dark due to such light shielding in the endoscopic image Im1A is also simply referred to as a “black region”.
  • the phenomenon in which such a black region occurs in the endoscopic image Im1A is also referred to as “vignetting”.
  • the black area Rb1A is generated in the endoscopic image Im1A
  • exposure control is performed by the automatic exposure control unit 110A so that the luminance of the endoscopic image Im1A becomes excessively high.
  • the observation region Rs1A may become excessively bright. Therefore, in the following, a technique that can adjust the luminance of the endoscope image Im1A more appropriately by reducing the possibility that the observation region Rs1A becomes excessively bright will be described.
  • FIG. 8 is a diagram showing another example of the pixel number distribution for each luminance of the endoscopic image.
  • the luminance of the endoscopic image is shown on the horizontal axis, and the number of pixels for each luminance is shown on the vertical axis.
  • a third peak (hereinafter also referred to as “peak B3A”) is arranged in order from the high luminance side, following the first peak (peak B1A) and the second peak (peak B2A).
  • the number of pixels in each of the peak B1A, the peak B2A, and the peak B3A is indicated as “N1A”, “N2A”, and “N3A”.
  • the peak detector 111A detects the peak B3A on the lower luminance side than the peak B2A from the pixel number distribution for each luminance of the endoscopic image.
  • the peak B3A belongs to the black region Rb1A and the peak B2A belongs to the observation region Rs1A
  • the exposure control unit 112A may perform exposure control based on the luminance difference Df1A and the luminance difference (second luminance difference) Df2A between the peak B3A and the peak B2A. Then, it is possible to more appropriately adjust the luminance of the endoscope image Im1A by reducing the possibility that the observation region Rs1A becomes excessively bright.
  • the exposure control unit 112A obtains a parameter correction value (hereinafter also referred to as “second correction value”) based on the luminance difference Df2A, and based on the first correction value and the second correction value. It is preferable to correct the parameters and perform exposure control based on the corrected parameters.
  • the exposure control unit 112A may correct the parameter by adding the first correction value and the second correction value to the parameter.
  • FIG. 8 shows an example in which the peak B2A is moved to the position of the peak B0A as a result of performing the exposure control based on the corrected parameters (the positions of the peaks B2A are “Cm1A” and “Cm2A”). And a total of “Cm0A” has been moved).
  • the method for acquiring the second correction value is not particularly limited.
  • the exposure control unit 112A may acquire the second correction value corresponding to the luminance difference Df2A from the table, or may acquire the second correction value by calculation based on the luminance difference Df2A.
  • a method for acquiring the second correction value by calculation based on the luminance difference Df2A is not particularly limited.
  • the exposure control unit 112A may calculate the second correction value from the luminance difference Df2A, assuming that the second correction value linearly changes with respect to the luminance difference Df2A.
  • the exposure control unit 112A corrects the parameter when the luminance difference Df2A exceeds a threshold value (hereinafter also referred to as “second threshold value”), while the luminance difference Df2A falls below the second threshold value.
  • the parameters need not be corrected. This is because when the luminance difference Df2A is lower than the second threshold, it is unlikely that the exposure control has been performed so that the luminance of the endoscope image Im1A becomes excessively high.
  • the parameter may be corrected or the parameter may not be corrected.
  • the exposure control unit 112A corrects the parameter when the number of pixels of the peak B3A exceeds the predetermined number of pixels, and corrects the parameter when the number of pixels of the peak B3A does not exceed the predetermined number of pixels. It does not have to be. This is because when the number of pixels of the peak B3A does not exceed the predetermined number of pixels, it is unlikely that the exposure control has been performed so that the luminance of the endoscope image Im1A becomes excessively high. If the number of pixels of peak B3A is equal to the predetermined number of pixels, the parameter may be corrected or the parameter may not be corrected.
  • FIG. 9 is a flowchart illustrating an example of an operation in the case of detecting three peaks (peak B1A, peak B2A, and peak B3A) from the low luminance side.
  • the example of the operation illustrated in FIG. 9 is only an example of the operations of the peak detection unit 111A and the exposure control unit 112A. Therefore, the operations of the peak detection unit 111A and the exposure control unit 112A are not limited to the operation example shown in FIG.
  • S11A to S15A shown in FIG. 9 are executed in the same manner as S11A to S15A shown in FIG. Subsequent to S15A, the peak detection unit 111A detects the second peak (the third peak (peak B3A) on the lower luminance side than the peak B2A) from the pixel number distribution for each luminance (S21A). When the second luminance difference (luminance difference Df2A) between the third peak (peak B3A) and the second peak (peak B2A) is lower than the second threshold (“No” in S22A), the control unit 112A End the operation.
  • the first peak (peak B1A) in order from the high luminance side and the pixel number distribution for each luminance of the endoscope image Im1A based on the imaging by the image sensor 232A and
  • An image processing apparatus comprising: a peak detection unit 111A that detects a second peak (peak B2A); and an exposure control unit 112A that performs exposure control based on a luminance difference Df1A between the first peak and the second peak. 100A is provided. According to such a configuration, it is possible to more appropriately adjust the luminance of the endoscopic image Im1A by reducing the possibility that the observation region Rs1A will become excessively dark.
  • An image processing apparatus comprising: (2) The exposure control unit acquires a first correction value of a parameter for controlling exposure based on the first luminance difference, and corrects the parameter based on the first correction value, Performing the exposure control; The image processing apparatus according to (1).
  • the exposure control unit corrects the parameter by adding the first correction value to the parameter; The image processing apparatus according to (2).
  • the exposure control unit acquires the first correction value corresponding to the first luminance difference from a table; The image processing apparatus according to (2) or (3). (5) The exposure control unit obtains the first correction value by calculation based on the first luminance difference; The image processing apparatus according to (2) or (3). (6) The exposure control unit calculates the first correction value from the first luminance difference, assuming that the first correction value linearly changes with respect to the first luminance difference. The image processing apparatus according to (5). (7) The exposure control unit performs the exposure control when the first luminance difference exceeds a threshold; The image processing apparatus according to any one of (1) to (6).
  • the exposure control unit performs the exposure control when the number of pixels of the first peak exceeds a predetermined number of pixels;
  • the image processing apparatus according to any one of (1) to (7).
  • the peak detection unit detects a third peak on the lower luminance side than the second peak, The exposure control unit performs the exposure control based on the first luminance difference and the second luminance difference of the second peak and the third peak;
  • the image processing apparatus according to any one of (2) to (6).
  • the exposure control unit acquires a second correction value of the parameter based on the second luminance difference, and corrects the parameter based on the first correction value and the second correction value. To perform the exposure control, The image processing apparatus according to (9).
  • the exposure control unit corrects the parameter by adding the first correction value and the second correction value to the parameter;
  • the image processing apparatus according to (10).
  • the parameter includes at least one of an electronic shutter speed of the image sensor and a gain multiplied by an analog signal captured by the image sensor.
  • the image processing apparatus according to any one of (2) to (6).
  • the parameter includes the brightness of the light source, The image processing apparatus according to any one of (2) to (6).
  • Computer A peak detector for detecting the first peak and the second peak in order from the high luminance side from the distribution of the number of pixels for each luminance of the endoscopic image based on imaging by the image sensor; An exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak; A program for causing an image processing apparatus to function.
  • a light source that emits light
  • An image sensor that receives the reflected light of the light emitted by the light source unit and captures an endoscopic image; From the distribution of the number of pixels for each luminance of the endoscopic image, a peak detection unit for detecting the first peak and the second peak in order from the high luminance side; An exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak;
  • An image processing system having an image processing apparatus.
  • observation area an area other than the black area
  • the peak detection unit that detects the first peak and the second peak in order from the low luminance side from the distribution of the number of pixels for each luminance of the endoscopic image based on the imaging by the image sensor, and the first And an exposure control unit that performs exposure control based on the first luminance difference between the first peak and the second peak.
  • An image processing method comprising: performing exposure control based on a first luminance difference between the first peak and the second peak by a processor.
  • the computer detects a first peak and a second peak in order from the low luminance side, from the pixel number distribution for each luminance of the endoscopic image based on imaging by the image sensor,
  • a program for causing an image processing apparatus to include an exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak.
  • the light source unit that emits light
  • the image sensor that receives the reflected light of the light emitted by the light source unit and captures an endoscopic image
  • a peak detection unit that detects the first peak and the second peak in order from the low luminance side, and the first luminance difference between the first peak and the second peak
  • FIG. 10 is a diagram illustrating a configuration example of an image processing system according to an embodiment of the present disclosure.
  • the image processing system 1B includes an image processing device 100B, an insertion unit 200B, a light source unit 300B, a display unit 400B, and an operation unit 500B.
  • the light source unit 300B includes a white light source 310B and a condenser lens 320B.
  • the white light source 310B emits white light.
  • an example using white light is mainly described, but the color of light is not particularly limited. Therefore, a light source that emits visible light other than white may be used instead of the white light source 310B.
  • the condensing lens 320B condenses the light emitted by the white light source 310B on a light guide 210B described later.
  • the insertion unit 200B may correspond to a scope that is inserted into the body.
  • the insertion portion 200B may be a rigid mirror or a flexible mirror.
  • the insertion unit 200B includes a light guide 210B, an illumination lens 220B, an imaging unit 230B, and a memory 240B.
  • the imaging unit 230B includes an objective lens 231B, an image sensor (imaging device) 232B, and an A / D (analog / digital) conversion unit 233B.
  • the light guide 210B guides the light collected by the light source unit 300B to the tip of the insertion unit 200B.
  • the illumination lens 220B diffuses the light guided to the tip by the light guide 210B and irradiates the observation target (subject SuB).
  • the objective lens 231B forms an image of reflected light returning from the observation target (subject SuB) on the image sensor 232B.
  • the image sensor 232B outputs an analog signal (endoscopic image) captured by receiving the reflected light to the A / D converter 233B.
  • the image sensor 232B has, for example, a primary color Bayer array.
  • the endoscopic image obtained by the image sensor 232B is a primary color Bayer image.
  • the primary color Bayer image is an image in which each pixel has one of RGB signals, and is an image in which the RGB pixels are arranged in a checkered pattern.
  • the image sensor 232B is not limited to the primary color Bayer array. That is, the endoscopic image is not limited to a primary color Bayer image.
  • the endoscopic image may be an image acquired by an endoscopic imaging method other than the primary color Bayer such as complementary color or frame sequential.
  • the A / D conversion unit 233B converts an analog signal (endoscopic image) output from the image sensor 232B into a digital signal based on a control signal output from the control unit 130B, which will be described later. (Scope image) is output to the image processing apparatus 100B.
  • the memory 240B stores a program for realizing the functions of the image processing apparatus 100B by being executed by an arithmetic device (not shown).
  • the insertion part 200B may be appropriately described as a scope.
  • a type of scope corresponding to the diagnosis site can be used.
  • Each scope is given an identification number for specifying a target diagnostic region and a function such as a zoom function.
  • the identification number may be referred to as a scope ID.
  • the memory 240B stores the scope ID.
  • the image processing apparatus 100B includes an automatic exposure control unit 110B, an image processing unit 120B, and a control unit 130B.
  • the endoscopic image acquired by the imaging unit 230B is output to the automatic exposure control unit 110B and the image processing unit 120B.
  • the automatic exposure control unit 110B is connected to the white light source 310B and the image sensor 232B, and controls the white light source 310B and the image sensor 232B.
  • the image processing unit 120B is connected to the display unit 400B.
  • the control unit 130B is bidirectionally connected to the imaging unit 230B, the image processing unit 120B, the display unit 400B, and the operation unit 500B, and controls these components.
  • the automatic exposure control unit 110B automatically exposes the image sensor 232B so that the brightness of the endoscopic image acquired by the imaging unit 230B becomes a value suitable for observation (hereinafter also referred to as “appropriate value”). Take control. Details of the automatic exposure control unit 110B will be described later.
  • the image processing unit 120B performs image processing on the endoscopic image captured by the imaging unit 230B. For example, the image processing unit 120B performs gradation conversion processing and noise reduction processing.
  • the image processing unit 120B outputs the image after image processing to the display unit 400B.
  • the control unit 130B is connected to the imaging unit 230B, the image processing unit 120B, the display unit 400B, and the operation unit 500B, and outputs a control signal for controlling them.
  • the display unit 400B outputs the endoscope image output by the image processing unit 120B to an image display device such as an endoscope monitor.
  • the operation unit 500B is an interface for receiving an operation from the user.
  • the operation unit 500B includes a power switch for turning on / off the power, a shutter button for starting imaging, a mode switching button for switching a photographing mode and various other modes.
  • FIG. 11 and 12 are diagrams for explaining a specific example of exposure control.
  • the analog signal captured by the image sensor 232B is converted into a digital signal (endoscopic image) by the A / D conversion unit 233B.
  • the output value from the image sensor 232B is shown on the vertical axis.
  • the horizontal axis represents the image plane illuminance of the image sensor 232B corresponding to each output value.
  • the output value from the image sensor 232B may be an average value of output values corresponding to each pixel.
  • the appropriate value of the output value from the image sensor 232B is indicated as “U0B”, and the image plane illuminance of the image sensor 232B corresponding to the appropriate value U0B is indicated as “L0B”. .
  • U0B the image plane illuminance of the image sensor 232B corresponding to the appropriate value U0B
  • L0B the image plane illuminance of the image sensor 232B corresponding to the appropriate value U0B.
  • the appropriate value of the output value from the image sensor 232B is indicated as “U0B”, and the image plane illuminance of the image sensor 232B corresponding to the appropriate value U0B is “L0B”. ".
  • the output value U2B from the image sensor 232B is smaller than the appropriate value U0B.
  • exposure control can be performed by adjusting parameters for controlling exposure.
  • Various parameters are assumed as parameters for controlling the exposure.
  • the parameter for controlling the exposure may include at least one of an electronic shutter speed of the image sensor 232B and a gain multiplied by an analog signal imaged by the image sensor 232B.
  • the parameter for controlling the exposure may include the brightness of the white light source 310B.
  • the exposure control for decreasing the output value from the image sensor 232B by dU1B shown in FIG. 11 may be executed by increasing the electronic shutter speed by an amount corresponding to dU1B, or by the image sensor 232B. It may be executed by reducing the gain multiplied by the imaged analog signal by an amount corresponding to dU1B.
  • exposure control that reduces the output value from the image sensor 232B may be executed by reducing the brightness of the white light source 310B by an amount corresponding to dU1B.
  • the exposure control for increasing the output value from the image sensor 232B by dU2B shown in FIG. 12 may be executed by decreasing the electronic shutter speed by an amount corresponding to dU2B, or by the image sensor 232B. It may be executed by increasing the gain multiplied by the imaged analog signal by an amount corresponding to dU2B.
  • exposure control that increases the output value from the image sensor 232B may be executed by increasing the brightness of the white light source 310B by an amount corresponding to dU2B.
  • FIG. 13 is a block diagram illustrating a detailed functional configuration example of the automatic exposure control unit 110B.
  • the automatic exposure control unit 110B includes a peak detection unit 111B and an exposure control unit 112B.
  • the peak detection unit 111B acquires an endoscopic image from the imaging unit 230B.
  • FIG. 14 is a diagram showing an example of an endoscopic image.
  • each pixel is arranged in a grid pattern.
  • the endoscopic image Im1B includes a black region Rb1B in addition to the observation region Rs1B.
  • a line HmB indicates a boundary line between the black region Rb1B and the observation region Rs1B.
  • the color depth of each pixel represents the height of luminance of each pixel.
  • FIG. 15 is a diagram illustrating an example of the pixel number distribution for each luminance of the endoscopic image.
  • the luminance of the endoscopic image is shown on the horizontal axis, and the number of pixels for each luminance is shown on the vertical axis.
  • a first peak hereinafter also referred to as “peak B1B”
  • a second peak hereinafter also referred to as “peak B2B”
  • peak B1B A first peak
  • peak B2B a second peak
  • the numbers of pixels in each of the peak B1B and the peak B2B are indicated as “N1B” and “N2B”.
  • the peak detection unit 111B detects the peak B1B and the peak B2B in order from the low luminance side from the pixel number distribution for each luminance of the endoscopic image.
  • the peak B1B belongs to the black region Rb1B and the peak B2B belongs to the observation region Rs1B
  • the exposure control unit 112B may perform exposure control based on the luminance difference Df1B between the peak B1B and the peak B2B. Then, it is possible to more appropriately adjust the luminance of the endoscope image Im1B by reducing the possibility that the observation region Rs1B becomes excessively bright.
  • the exposure control unit 112B acquires a parameter correction value (hereinafter also referred to as a “first correction value”) based on the luminance difference Df1B, corrects the parameter based on the first correction value, Exposure control may be performed based on the corrected parameters.
  • the exposure control unit 112B may correct the parameter by adding the first correction value to the parameter.
  • FIG. 15 shows an example in which the peak B2B is moved to the position of the peak B0B as a result of the exposure control performed based on the corrected parameters (example in which the position of the peak B2B is moved by “Cm1B”). It is shown).
  • the method for acquiring the first correction value is not particularly limited.
  • the exposure control unit 112B may acquire the first correction value corresponding to the luminance difference Df1B from the table, or may acquire the first correction value by calculation based on the luminance difference Df1B.
  • a method for acquiring the first correction value by calculation based on the luminance difference Df1B is not particularly limited.
  • the exposure control unit 112B may calculate the first correction value from the luminance difference Df1B, assuming that the first correction value linearly changes with respect to the luminance difference Df1B.
  • the exposure control unit 112B corrects the parameter when the luminance difference Df1B exceeds a threshold value (hereinafter also referred to as “first threshold value”), while the luminance difference Df1B falls below the first threshold value.
  • the parameters need not be corrected. This is because when the luminance difference Df1B is lower than the first threshold, it is unlikely that the exposure control has been performed so that the luminance of the endoscope image Im1B becomes excessively high.
  • the parameter may be corrected or the parameter may not be corrected.
  • the exposure control unit 112B corrects the parameter when the number of pixels of the peak B1B exceeds the predetermined number of pixels, and corrects the parameter when the number of pixels of the peak B1B does not exceed the predetermined number of pixels. It does not have to be. This is because when the number of pixels of the peak B1B does not exceed the predetermined number of pixels, it is unlikely that the exposure control has been performed so that the luminance of the endoscopic image Im1B becomes excessively high. When the number of pixels of the peak B1B is equal to the predetermined number of pixels, the parameter may be corrected or the parameter may not be corrected.
  • FIG. 16 is a flowchart illustrating an example of an operation when two peaks (peak B1B and peak B2B) are detected from the low luminance side. Note that the example of the operation illustrated in FIG. 16 is merely an example of the operations of the peak detection unit 111B and the exposure control unit 112B. Therefore, the operations of the peak detection unit 111B and the exposure control unit 112B are not limited to the operation example shown in FIG.
  • the peak detection unit 111B generates a pixel number distribution for each luminance in the endoscopic image (S11B). Then, the peak detector 111B detects the first peak (peak B1B) and the second peak (peak B2B) in order from the low luminance side from the pixel number distribution for each luminance (S12B). Subsequently, when the first luminance difference (luminance difference Df1B) between the first peak (peak B1B) and the second peak (peak B2B) is lower than the first threshold (in S13B), the exposure control unit 112B “No”), the operation is terminated.
  • the first luminance difference (luminance difference Df1B) between the first peak (peak B1B) and the second peak (peak B2B) exceeds the first threshold (in S13B “ Yes ”) the first correction value of the parameter for controlling the exposure is acquired (S14B), the first correction value is added to the parameter (S15B), and the operation is terminated. If exposure control is performed based on the parameter after the addition of the first correction value, the possibility that the observation region Rs1B becomes excessively bright is reduced, and the brightness of the endoscope image Im1B is adjusted more appropriately. It becomes possible to do.
  • the endoscopic image Im1B when an object having a higher brightness than the body (for example, forceps or gauze) is captured as a subject, a phenomenon may occur in which the endoscopic image Im1B is partially brightened.
  • the endoscope image Im1B is generally imaged in a situation where the light source unit 300B and the image sensor 232B are close to each other, and in a situation where the light source unit 300B and the subject are close to each other. Therefore, the endoscopic image Im1B also includes a region that becomes partially bright.
  • an area of the endoscopic image that is partially brightened due to the reflection of such a high-luminance object is also simply referred to as a “white area”.
  • FIG. 17 is a diagram illustrating another example of the pixel number distribution for each luminance of the endoscopic image.
  • the luminance of the endoscopic image is shown on the horizontal axis, and the number of pixels for each luminance is shown on the vertical axis.
  • a third peak (hereinafter also referred to as “peak B3B”) is arranged in order from the low luminance side, following the first peak (peak B1B) and the second peak (peak B2B).
  • the number of pixels in each of the peak B1B, peak B2B, and peak B3B is shown as “N1B”, “N2B”, and “N3B”.
  • the peak detection unit 111B detects the peak B3B on the higher luminance side than the peak B2B from the distribution of the number of pixels for each luminance of the endoscope image.
  • the peak B3B belongs to the white region Rw1B and the peak B2B belongs to the observation region Rs1B
  • the exposure control unit 112B may perform exposure control based on the luminance difference Df1B and the luminance difference (second luminance difference) Df2B between the peak B3B and the peak B2B. Then, it is possible to more appropriately adjust the luminance of the endoscope image Im1B by reducing the possibility that the observation region Rs1B becomes excessively dark.
  • the exposure control unit 112B acquires a parameter correction value (hereinafter also referred to as “second correction value”) based on the luminance difference Df2B, and based on the first correction value and the second correction value. It is preferable to correct the parameters and perform exposure control based on the corrected parameters.
  • the exposure control unit 112B may correct the parameter by adding the first correction value and the second correction value to the parameter.
  • FIG. 17 shows an example in which the peak B2B is moved to the position of the peak B0B as a result of performing the exposure control based on the corrected parameters (the positions of the peaks B2B are “Cm1B” and “Cm2B”). And a total of “Cm0B” is shown.)
  • the method for acquiring the second correction value is not particularly limited.
  • the exposure control unit 112B may acquire the second correction value corresponding to the luminance difference Df2B from the table, or may acquire the second correction value by calculation based on the luminance difference Df2B.
  • a method for acquiring the second correction value by calculation based on the luminance difference Df2B is not particularly limited.
  • the exposure control unit 112B may calculate the second correction value from the luminance difference Df2B, assuming that the second correction value linearly changes with respect to the luminance difference Df2B.
  • the exposure control unit 112B corrects the parameter when the luminance difference Df2B exceeds a threshold (hereinafter also referred to as “second threshold”), whereas when the luminance difference Df2B falls below the second threshold.
  • the parameters need not be corrected. This is because when the luminance difference Df2B is lower than the second threshold, it is unlikely that the exposure control has been performed so that the luminance of the endoscopic image Im1B becomes excessively low.
  • the parameter may be corrected or the parameter may not be corrected.
  • the exposure control unit 112B corrects the parameter when the number of pixels of the peak B3B exceeds the predetermined number of pixels, and corrects the parameter when the number of pixels of the peak B3B does not exceed the predetermined number of pixels. It does not have to be. This is because when the number of pixels of the peak B3B does not exceed the predetermined number of pixels, it is unlikely that the exposure control has been performed so that the luminance of the endoscopic image Im1B becomes excessively low. When the number of pixels of peak B3B is equal to the predetermined number of pixels, the parameter may be corrected or the parameter may not be corrected.
  • FIG. 18 is a flowchart illustrating an example of an operation in the case of detecting three peaks (peak B1B, peak B2B, and peak B3B) from the low luminance side.
  • the example of the operation shown in FIG. 18 is only an example of the operations of the peak detection unit 111B and the exposure control unit 112B. Therefore, the operations of the peak detection unit 111B and the exposure control unit 112B are not limited to the operation example shown in FIG.
  • S11B to S15B shown in FIG. 18 are executed in the same manner as S11B to S15B shown in FIG. Subsequent to S15B, the peak detector 111B detects the second peak (the third peak (peak B3B) on the higher luminance side than the peak B2B) from the distribution of the number of pixels for each luminance (S21B). When the second luminance difference (luminance difference Df2B) between the third peak (peak B3B) and the second peak (peak B2B) is lower than the second threshold (“No” in S22B), the control unit 112B End the operation.
  • the first peak (peak B1B) in order from the low luminance side and the pixel number distribution for each luminance of the endoscope image Im1B based on the imaging by the image sensor 232B and
  • An image processing apparatus comprising: a peak detection unit 111B that detects a second peak (peak B2B); and an exposure control unit 112B that performs exposure control based on a luminance difference Df1B between the first peak and the second peak. 100B is provided. According to this configuration, it is possible to more appropriately adjust the luminance of the endoscopic image Im1B by reducing the possibility that the observation region Rs1B becomes excessively bright.
  • An image processing apparatus comprising: (2) The exposure control unit acquires a first correction value of a parameter for controlling exposure based on the first luminance difference, corrects the parameter based on the first correction value, The exposure control is performed based on the parameters of The image processing apparatus according to (1). (3) The exposure control unit corrects the parameter by adding the first correction value to the parameter; The image processing apparatus according to (2).
  • the exposure control unit acquires the first correction value corresponding to the first luminance difference from a table; The image processing apparatus according to (2) or (3). (5) The exposure control unit obtains the first correction value by calculation based on the first luminance difference; The image processing apparatus according to (2) or (3). (6) The exposure control unit calculates the first correction value from the first luminance difference, assuming that the first correction value linearly changes with respect to the first luminance difference. The image processing apparatus according to (5). (7) The exposure control unit performs the exposure control when the first luminance difference exceeds a threshold; The image processing apparatus according to any one of (1) to (6).
  • the exposure control unit performs the exposure control when the number of pixels of the first peak exceeds a predetermined number of pixels;
  • the image processing apparatus according to any one of (1) to (7).
  • the peak detection unit detects a third peak on a higher luminance side than the second peak,
  • the exposure control unit performs the exposure control based on the first luminance difference and the second luminance difference of the second peak and the third peak;
  • the image processing apparatus according to any one of (2) to (6).
  • the exposure control unit acquires a second correction value of the parameter based on the second luminance difference, corrects the parameter based on the first correction value and the second correction value, Performing the exposure control based on the corrected parameters,
  • the image processing apparatus according to (9).
  • the exposure control unit corrects the parameter by adding the first correction value and the second correction value to the parameter;
  • the image processing apparatus according to (10).
  • the parameter includes at least one of an electronic shutter speed of the image sensor and a gain multiplied by an analog signal captured by the image sensor.
  • the image processing apparatus according to any one of (2) to (6).
  • the parameter includes the brightness of the light source, The image processing apparatus according to any one of (2) to (6).
  • Computer A peak detector for detecting the first peak and the second peak in order from the low luminance side, from the distribution of the number of pixels for each luminance of the endoscopic image based on imaging by the image sensor;
  • An exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak;
  • a program for causing an image processing apparatus to function.
  • a light source that emits light
  • An image sensor that receives the reflected light of the light emitted by the light source unit and captures an endoscopic image; From the distribution of the number of pixels for each luminance of the endoscopic image, a peak detection unit for detecting the first peak and the second peak in order from the low luminance side; An exposure control unit that performs exposure control based on a first luminance difference between the first peak and the second peak;
  • An image processing system having an image processing apparatus.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】内視鏡画像の輝度をより適切に調整することが可能な技術が提供されることが望まれる。 【解決手段】イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える、画像処理装置が提供される。

Description

画像処理装置、画像処理方法、プログラムおよび画像処理システム
 本開示は、情報処理装置、情報処理方法、プログラムおよび画像処理システムに関する。
 近年、イメージセンサによる撮像に基づく内視鏡画像を処理する画像処理装置が普及している(例えば、特許文献1参照)。一方、体内よりも高輝度の物体(例えば、鉗子やガーゼなど)が被写体として写ってしまった場合には、内視鏡画像が部分的に明るくなってしまう現象が起こり得る。特に、内視鏡画像は、光源部とイメージセンサとが近いといった状況、光源部と被写体とが近いといった状況において撮像されるのが一般的であるため、かかる現象が起こり易い。以下では、内視鏡画像のうちこのような高輝度の物体の写り込みによって部分的に明るくなってしまった領域を、単に「白領域」とも言う。
特開2013-42998号公報
 ここで、内視鏡画像に白領域が生じてしまったことが原因となり、内視鏡画像の輝度が過剰に低くなるように露光制御が行われてしまう場合がある。そのため、観察領域が過剰に暗くなってしまう可能性がある。そこで、内視鏡画像の輝度をより適切に調整することが可能な技術が提供されることが望まれる。
 本開示によれば、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える、画像処理装置が提供される。
 本開示によれば、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出することと、
 プロセッサにより、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行うことと、を含む、画像処理方法が提供される。
 本開示によれば、コンピュータを、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える画像処理装置として機能させるためのプログラムが提供される。
 本開示によれば、光を発する光源部と、前記光源部により発せられた前記光の反射光を受光して内視鏡画像を撮像するイメージセンサと、を有し、前記内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える、画像処理装置を有する、画像処理システムが提供される。
 以上説明したように本開示によれば、内視鏡画像の輝度をより適切に調整することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る画像処理システムの構成例を示す図である。 露光制御の具体例について説明するための図である。 露光制御の具体例について説明するための図である。 自動露光制御部の詳細な機能構成例を示すブロック図である。 内視鏡画像の例を示す図である。 内視鏡画像の輝度ごとの画素数分布の例を示す図である。 高輝度側から二つのピークを検出する場合における動作の例を示すフローチャートである。 内視鏡画像の輝度ごとの画素数分布の他の例を示す図である。 高輝度側から三つのピークを検出する場合における動作の例を示すフローチャートである。 本開示の実施形態に係る画像処理システムの構成例を示す図である。 露光制御の具体例について説明するための図である。 露光制御の具体例について説明するための図である。 自動露光制御部の詳細な機能構成例を示すブロック図である。 内視鏡画像の例を示す図である。 内視鏡画像の輝度ごとの画素数分布の例を示す図である。 低輝度側から二つのピークを検出する場合における動作の例を示すフローチャートである。 内視鏡画像の輝度ごとの画素数分布の他の例を示す図である。 低輝度側から三つのピークを検出する場合における動作の例を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施形態
  1.1.システム構成例
  1.2.機能構成例
  1.3.自動露光制御部の機能詳細
 2.むすび
 <1.本開示の実施形態>
 [1.1.システム構成例]
 まず、図面を参照しながら本開示の実施形態に係る画像処理システムの構成例について説明する。図1は、本開示の実施形態に係る画像処理システムの構成例を示す図である。図1に示すように、画像処理システム1Aは、画像処理装置100Aと、挿入部200Aと、光源部300Aと、表示部400Aと、操作部500Aとを有する。
 光源部300Aは、白色光源310Aと、集光レンズ320Aとを備える。白色光源310Aは、白色光を発する。なお、本明細書においては、白色光を用いる例を主に説明するが、光の色は特に限定されない。したがって、白色光源310Aの代わりに白色以外の可視光を発する光源が用いられてもよい。集光レンズ320Aは、白色光源310Aによって発せられた光を後述するライトガイド210Aに集光する。
 挿入部200Aは、体内に挿入されるスコープに相当し得る。具体的には、挿入部200Aは、硬性鏡であってもよいし、軟性鏡であってもよい。挿入部200Aは、ライトガイド210Aと、照明レンズ220Aと、撮像部230Aと、メモリ240Aとを備える。撮像部230Aは、対物レンズ231Aと、イメージセンサ(撮像素子)232Aと、A/D(アナログ/デジタル)変換部233Aとを備える。
 ライトガイド210Aは、光源部300Aによって集光された光を挿入部200Aの先端まで導く。照明レンズ220Aは、ライトガイド210により先端まで導かれた光を拡散させて観察対象(被写体SuA)に照射する。対物レンズ231Aは、観察対象(被写体Su)から戻る反射光をイメージセンサ232Aに結像する。イメージセンサ232Aは、反射光を受光して撮像したアナログ信号(内視鏡画像)を、A/D変換部233Aに出力する。
 なお、イメージセンサ232Aは、例えば、原色ベイヤ配列を有している。かかる場合には、イメージセンサ232Aにより得られる内視鏡画像は、原色ベイヤ画像である。原色ベイヤ画像は、各画素がRGBいずれかの信号を有した画像であり、そのRGBの画素が市松状に配列された画像である。しかし、イメージセンサ232Aは、原色ベイヤ配列に限定されない。すなわち、内視鏡画像は、原色ベイヤ画像に限定されない。例えば、内視鏡画像は、補色や面順次といった原色ベイヤ以外の内視鏡撮像方式より取得される画像であってもよい。
 A/D変換部233Aは、後述する制御部130から出力される制御信号に基づいて、イメージセンサ232Aから出力されるアナログ信号(内視鏡画像)をデジタル信号に変換し、このデジタル信号(内視鏡画像)を画像処理装置100Aに出力する。メモリ240Aは、図示しない演算装置によって実行されることによって画像処理装置100Aの機能を実現するためのプログラムを記憶している。
 なお、以下の説明においては、挿入部200Aを適宜スコープと表記する場合がある。内視鏡診断においては、診断部位に応じた種類のスコープが用いられ得る。各スコープには、対象とする診断部位や、ズーム機能などの機能を特定するための識別番号が付与されており、本明細書においては、その識別番号をスコープIDと表記する場合がある。メモリ240Aは、スコープIDを記憶している。
 画像処理装置100Aは、自動露光制御部110Aと、画像処理部120Aと、制御部130Aとを備える。撮像部230Aにより取得される内視鏡画像は、自動露光制御部110Aと、画像処理部120Aとに出力される。自動露光制御部110Aは、白色光源310Aおよびイメージセンサ232Aに接続されており、白色光源310Aおよびイメージセンサ232Aを制御する。画像処理部120Aは、表示部400Aに接続されている。制御部130Aは、撮像部230Aと、画像処理部120Aと、表示部400Aと、操作部500Aとに双方向に接続されており、これらの構成要素を制御する。
 自動露光制御部110Aは、撮像部230Aにより取得される内視鏡画像の輝度が観察に適した値(以下、「適正値」とも言う。)となるように、自動的にイメージセンサ232Aの露光制御を行う。自動露光制御部110Aの詳細については後述する。画像処理部120Aは、撮像部230Aにより撮像された内視鏡画像に対して画像処理を行う。画像処理部120Aは、例えば、階調変換処理やノイズ低減処理を行う。画像処理部120Aは、画像処理後の画像を表示部400Aに対して出力する。
 制御部130Aは、撮像部230Aと、画像処理部120Aと、表示部400Aと、操作部500Aとに接続されており、これらを制御する制御信号を出力する。表示部400Aは、画像処理部120Aにより出力される内視鏡画像を、内視鏡モニタなどの画像表示装置に出力する。操作部500Aは、ユーザからの操作を受け付けるためのインターフェースである。例えば、操作部500Aは、電源のオン/オフを行うための電源スイッチや、撮像を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含む。
 以上、本開示の実施形態に係る画像処理システム1Aの構成例について説明した。
 [1.2.露光制御の例]
 続いて、自動露光制御部110Aによる露光制御の具体例について説明する。図2および図3は、露光制御の具体例について説明するための図である。上記したように、イメージセンサ232Aによって撮像されたアナログ信号は、A/D変換部233Aによってデジタル信号(内視鏡画像)に変換される。図2および図3には、イメージセンサ232Aからの出力値が縦軸に示されている。また、各出力値に対応するイメージセンサ232Aの像面照度が横軸に示されている。なお、イメージセンサ232Aからの出力値は、各画素に対応する出力値の平均値であってよい。
 また、図2Aを参照すると、イメージセンサ232Aからの出力値の適正値が「U0A」として示されており、適正値U0Aに対応するイメージセンサ232Aの像面照度が「L0A」として示されている。図2に示すように、例えば、イメージセンサ232Aからの出力値U1Aが適正値U0Aよりも大きい場合を想定する。かかる場合には、自動露光制御部110Aは、U1A-U0A=dU1Aだけイメージセンサ232Aからの出力値が小さくなるように露光制御を行う。
 一方、図3を参照すると、図2と同様に、イメージセンサ232からの出力値の適正値が「U0A」として示されており、適正値U0Aに対応するイメージセンサ232Aの像面照度が「L0A」として示されている。図3に示すように、例えば、イメージセンサ232Aからの出力値U2Aが適正値U0Aよりも小さい場合を想定する。かかる場合には、自動露光制御部110Aは、U0A-U2A=dU2Aだけイメージセンサ232Aからの出力値が大きくなるように露光制御を行う。
 例えば、露光制御は、露光を制御するためのパラメータを調整することによってなされ得る。露光を制御するためのパラメータとしては、様々なパラメータが想定される。例えば、露光を制御するためのパラメータは、イメージセンサ232Aの電子シャッタ速度およびイメージセンサ232Aによって撮像されたアナログ信号に対して乗じられるゲインのうちの少なくともいずれか一つを含んでよい。あるいは、露光を制御するためのパラメータは、白色光源310Aの明るさを含んでもよい。
 例えば、図2に示したdU1Aだけイメージセンサ232Aからの出力値を小さくするような露光制御は、電子シャッタ速度をdU1Aに対応する量だけ大きくすることによって実行されてもよいし、イメージセンサ232Aによって撮像されたアナログ信号に対して乗じられるゲインをdU1Aに対応する量だけ小さくすることによって実行されてもよい。あるいは、イメージセンサ232Aからの出力値を小さくするような露光制御は、白色光源310Aの明るさをdU1Aに対応する量だけ弱くすることによって実行されてもよい。
 一方、図3に示したdU2Aだけイメージセンサ232Aからの出力値を大きくするような露光制御は、電子シャッタ速度をdU2Aに対応する量だけ小さくすることによって実行されてもよいし、イメージセンサ232Aによって撮像されたアナログ信号に対して乗じられるゲインをdU2Aに対応する量だけ大きくすることによって実行されてもよい。あるいは、イメージセンサ232Aからの出力値を大きくするような露光制御は、白色光源310Aの明るさをdU2Aに対応する量だけ強くすることによって実行されてもよい。
 以上、自動露光制御部110Aによる露光制御の具体例について説明した。
 [1.3.自動露光制御部の機能詳細]
 続いて、自動露光制御部110Aの詳細な機能について説明する。図4は、自動露光制御部110Aの詳細な機能構成例を示すブロック図である。図4に示すように、自動露光制御部110Aは、ピーク検出部111Aと、露光制御部112Aとを備える。以下においては、これらのピーク検出部111Aおよび露光制御部112Aそれぞれの詳細な機能について説明する。まず、ピーク検出部111Aは、撮像部230Aから内視鏡画像を取得する。
 図5は、内視鏡画像の例を示す図である。図5に示すように、内視鏡画像Im1Aにおいては、格子状に各画素が配列されている。ここで、上述したように、体内よりも高輝度の物体(例えば、鉗子やガーゼなど)が被写体として写ってしまった場合には、内視鏡画像Im1Aが部分的に明るくなってしまう現象が起こり得る。特に、内視鏡画像Im1Aは、光源部300Aとイメージセンサ232Aとが近いといった状況、光源部300Aと被写体とが近いといった状況において撮像されるのが一般的であるため、かかる現象が起こり易い。そのため、白領域Rw1Aが存在する。各画素の色の濃さは、各画素の輝度の高さを表している。
 ここで、内視鏡画像Im1Aに白領域Rw1Aが生じてしまったことが原因となり、自動露光制御部110Aによって内視鏡画像Im1Aの輝度が過剰に低くなるように露光制御が行われてしまう場合がある。そのため、観察領域Rs1Aが過剰に暗くなってしまう可能性がある。そこで、以下においては、観察領域Rs1Aが過剰に暗くなってしまう可能性を低減することによって、内視鏡画像Im1Aの輝度をより適切に調整することが可能な技術について説明する。
 具体的に、本開示の実施形態においては、内視鏡画像の輝度ごとの画素数分布を利用する。図6は、内視鏡画像の輝度ごとの画素数分布の例を示す図である。図6を参照すると、内視鏡画像の輝度が横軸に示されており、輝度ごとの画素数が縦軸に示されている。また、高輝度側から第1のピーク(以下、「ピークB1A」とも言う。)および第2のピーク(以下、「ピークB2A」とも言う。)が順に並んでいる。ピークB1AおよびピークB2Aそれぞれにおける画素数は、「N1A」および「N2A」として示されている。
 まず、ピーク検出部111Aは、内視鏡画像の輝度ごとの画素数分布から、高輝度側から順にピークB1AおよびピークB2Aを検出する。そして、ピークB1Aが白領域Rw1Aに属し、かつ、ピークB2Aが観察領域Rs1Aに属する場合には、ピークB1AおよびピークB2Aの輝度差(第1の輝度差)Df1Aに応じて白領域Rw1Aの暗さが変化することが想定される。そこで、露光制御部112は、ピークB1AおよびピークB2Aの輝度差Df1Aに基づいて、露光制御を行うのがよい。そうすれば、観察領域Rs1Aが過剰に暗くなってしまう可能性を低減することによって、内視鏡画像Im1Aの輝度をより適切に調整することが可能となる。
 例えば、露光制御部112Aは、輝度差Df1Aに基づいて、パラメータの補正値(以下、「第1の補正値」とも言う。)を取得し、第1の補正値に基づいてパラメータを補正し、補正後のパラメータに基づいて露光制御を行うとよい。露光制御部112Aは、パラメータに第1の補正値を加算することによりパラメータを補正すればよい。図6には、補正後のパラメータに基づいて露光制御が行われた結果として、ピークB2AがピークB0Aの位置に移動した例が示されている(ピークB2Aの位置が「Cm1A」だけ移動した例が示されている)。
 第1の補正値を取得する手法は特に限定されない。例えば、露光制御部112Aは、輝度差Df1Aに対応する第1の補正値をテーブルから取得してもよいし、輝度差Df1Aに基づいて計算により第1の補正値を取得してもよい。輝度差Df1Aに基づいて計算により第1の補正値を取得する手法も特に限定されない。例えば、露光制御部112Aは、輝度差Df1Aに対して第1の補正値が線形的に変化するとして、輝度差Df1Aから第1の補正値を算出してもよい。
 また、露光制御部112Aは、輝度差Df1Aが閾値(以下、「第1の閾値」とも言う。)を上回る場合に、パラメータを補正する一方、輝度差Df1Aが第1の閾値を下回る場合には、パラメータを補正しなくてもよい。輝度差Df1Aが第1の閾値を下回る場合には、内視鏡画像Im1Aの輝度が過剰に低くなるように露光制御が行われてしまっている可能性が低いからである。なお、輝度差Df1Aが第1の閾値と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 なお、露光制御部112Aは、ピークB1Aの画素数が所定の画素数を超える場合に、パラメータを補正する一方、ピークB1Aの画素数が所定の画素数を超えない場合には、パラメータを補正しなくてもよい。ピークB1Aの画素数が所定の画素数を超えない場合には、内視鏡画像Im1Aの輝度が過剰に低くなるように露光制御が行われてしまっている可能性が低いからである。なお、ピークB1Aの画素数が所定の画素数と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 続いて、以上に説明したピーク検出部111Aおよび露光制御部112Aの動作の例について説明する。図7は、低輝度側から二つのピーク(ピークB1AおよびピークB2A)を検出する場合における動作の例を示すフローチャートである。なお、図7に示した動作の例は、ピーク検出部111Aおよび露光制御部112Aの動作の一例に過ぎない。したがって、ピーク検出部111Aおよび露光制御部112Aの動作は、図7に示した動作の例に限定されない。
 図7に示すように、まず、ピーク検出部111Aは、内視鏡画像における輝度ごとの画素数分布を生成する(S11A)。そして、ピーク検出部111は、輝度ごとの画素数分布から高輝度側から順に第1のピーク(ピークB1A)および第2のピーク(ピークB2A)を検出する(S12A)。続いて、露光制御部112Aは、第1のピーク(ピークB1A)および第2のピーク(ピークB2A)の第1の輝度差(輝度差Df1A)が第1の閾値を下回る場合には(S13Aにおいて「No」)、動作を終了する。
 一方、露光制御部112Aは、第1のピーク(ピークB1A)および第2のピーク(ピークB2A)の第1の輝度差(輝度差Df1A)が第1の閾値を上回る場合には(S13Aにおいて「Yes」)、露光を制御するためのパラメータの第1の補正値を取得し(S14A)、第1の補正値をパラメータに加算して(S15A)、動作を終了する。第1の補正値が加算された後のパラメータに基づいて露光制御がなされれば、観察領域Rs1Aが過剰に暗くなってしまう可能性が低減され、内視鏡画像Im1Aの輝度をより適切に調整することが可能になる。
 以上においては、内視鏡画像Im1Aに白領域Rw1Aが生じる場合について説明した。
 ここで、イメージセンサ232Aへの光を透過するレンズのフードなどによる遮光によって、内視鏡画像Im1Aが部分的に暗くなってしまう現象が起こり得る。以下では、内視鏡画像Im1Aのうちこのような遮光によって暗くなってしまう領域を、単に「黒領域」とも言う。また、内視鏡画像Im1Aにこのような黒領域が生じる現象を「ケラレ」とも言う。
 ここで、内視鏡画像Im1Aに黒領域Rb1Aが生じてしまったことが原因となり、自動露光制御部110Aによって内視鏡画像Im1Aの輝度が過剰に高くなるように露光制御が行われてしまう場合がある。そのため、観察領域Rs1Aが過剰に明るくなってしまう可能性がある。そこで、以下においては、観察領域Rs1Aが過剰に明るくなってしまう可能性を低減することによって、内視鏡画像Im1Aの輝度をより適切に調整することが可能な技術について説明する。
 図8は、内視鏡画像の輝度ごとの画素数分布の他の例を示す図である。図8を参照すると、内視鏡画像の輝度が横軸に示されており、輝度ごとの画素数が縦軸に示されている。また、高輝度側から第1のピーク(ピークB1A)および第2のピーク(ピークB2A)に続いて、第3のピーク(以下、「ピークB3A」とも言う。)が順に並んでいる。ピークB1A、ピークB2AおよびピークB3Aそれぞれにおける画素数は、「N1A」、「N2A」および「N3A」として示されている。
 まず、ピーク検出部111Aは、内視鏡画像の輝度ごとの画素数分布から、ピークB2Aよりも低輝度側にピークB3Aを検出する。そして、ピークB3Aが黒領域Rb1Aに属し、かつ、ピークB2Aが観察領域Rs1Aに属する場合には、ピークB3AおよびピークB2Aの輝度差(第2の輝度差)Df2Aに応じて黒領域Rb1Aの明るさが変化することが想定される。そこで、露光制御部112Aは、輝度差Df1AとピークB3AおよびピークB2Aの輝度差(第2の輝度差)Df2Aとに基づいて、露光制御を行うのがよい。そうすれば、観察領域Rs1Aが過剰に明るくなってしまう可能性を低減することによって、内視鏡画像Im1Aの輝度をより適切に調整することが可能となる。
 例えば、露光制御部112Aは、輝度差Df2Aに基づいて、パラメータの補正値(以下、「第2の補正値」とも言う。)を取得し、第1の補正値および第2の補正値に基づいてパラメータを補正し、補正後のパラメータに基づいて露光制御を行うとよい。露光制御部112Aは、パラメータに第1の補正値および第2の補正値を加算することによりパラメータを補正すればよい。図8には、補正後のパラメータに基づいて露光制御が行われた結果として、ピークB2AがピークB0Aの位置に移動した例が示されている(ピークB2Aの位置が「Cm1A」と「Cm2A」との合計「Cm0A」だけ移動した例が示されている)。
 第2の補正値を取得する手法は特に限定されない。例えば、露光制御部112Aは、輝度差Df2Aに対応する第2の補正値をテーブルから取得してもよいし、輝度差Df2Aに基づいて計算により第2の補正値を取得してもよい。輝度差Df2Aに基づいて計算により第2の補正値を取得する手法も特に限定されない。例えば、露光制御部112Aは、輝度差Df2Aに対して第2の補正値が線形的に変化するとして、輝度差Df2Aから第2の補正値を算出してもよい。
 また、露光制御部112Aは、輝度差Df2Aが閾値(以下、「第2の閾値」とも言う。)を上回る場合に、パラメータを補正する一方、輝度差Df2Aが第2の閾値を下回る場合には、パラメータを補正しなくてもよい。輝度差Df2Aが第2の閾値を下回る場合には、内視鏡画像Im1Aの輝度が過剰に高くなるように露光制御が行われてしまっている可能性が低いからである。なお、輝度差Df2Aが第2の閾値と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 また、露光制御部112Aは、ピークB3Aの画素数が所定の画素数を超える場合に、パラメータを補正する一方、ピークB3Aの画素数が所定の画素数を超えない場合には、パラメータを補正しなくてもよい。ピークB3Aの画素数が所定の画素数を超えない場合には、内視鏡画像Im1Aの輝度が過剰に高くなるように露光制御が行われてしまっている可能性が低いからである。なお、ピークB3Aの画素数が所定の画素数と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 続いて、以上に説明したピーク検出部111Aおよび露光制御部112Aの動作の例について説明する。図9は、低輝度側から三つのピーク(ピークB1A、ピークB2AおよびピークB3A)を検出する場合における動作の例を示すフローチャートである。なお、図9に示した動作の例は、ピーク検出部111Aおよび露光制御部112Aの動作の一例に過ぎない。したがって、ピーク検出部111Aおよび露光制御部112Aの動作は、図9に示した動作の例に限定されない。
 図9に示したS11A~S15Aは、図7に示したS11A~S15Aと同様に実行される。S15Aに引き続いて、ピーク検出部111Aは、輝度ごとの画素数分布から第2のピーク(ピークB2Aよりも低輝度側に第3のピーク(ピークB3A)を検出する(S21A)。続いて、露光制御部112Aは、第3のピーク(ピークB3A)および第2のピーク(ピークB2A)の第2の輝度差(輝度差Df2A)が第2の閾値を下回る場合には(S22Aにおいて「No」)、動作を終了する。
 一方、露光制御部112Aは、第3のピーク(ピークB3A)および第2のピーク(ピークB2A)の第2の輝度差(輝度差Df2A)が第2の閾値を上回る場合には(S22Aにおいて「Yes」)、露光を制御するためのパラメータの第2の補正値を取得し(S23A)、第2の補正値をパラメータに加算して(S24A)、動作を終了する。第2の補正値が加算された後のパラメータに基づいて露光制御がなされれば、観察領域Rs1Aが過剰に明るくなってしまう可能性が低減され、内視鏡画像Im1Aの輝度をより適切に調整することが可能になる。
 以上においては、内視鏡画像Im1Aに黒領域Rb1Aが生じる場合について説明した。また、自動露光制御部110Aの詳細な機能について説明した。
 <2.むすび>
 以上説明したように、本開示の実施形態によれば、イメージセンサ232Aによる撮像に基づく内視鏡画像Im1Aの輝度ごとの画素数分布から、高輝度側から順に第1のピーク(ピークB1A)および第2のピーク(ピークB2A)を検出するピーク検出部111Aと、第1のピークおよび第2のピークの輝度差Df1Aに基づいて、露光制御を行う露光制御部112Aと、を備える、画像処理装置100Aが提供される。かかる構成によれば、観察領域Rs1Aが過剰に暗くなってしまう可能性を低減することによって、内視鏡画像Im1Aの輝度をより適切に調整することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える、画像処理装置。
(2)
 前記露光制御部は、前記第1の輝度差に基づいて、露光を制御するためのパラメータの第1の補正値を取得し、前記第1の補正値に基づいて前記パラメータを補正することにより、前記露光制御を行う、
 前記(1)に記載の画像処理装置。
(3)
 前記露光制御部は、前記パラメータに前記第1の補正値を加算することにより前記パラメータを補正する、
 前記(2)に記載の画像処理装置。
(4)
 前記露光制御部は、前記第1の輝度差に対応する前記第1の補正値をテーブルから取得する、
 前記(2)または(3)に記載の画像処理装置。
(5)
 前記露光制御部は、前記第1の輝度差に基づいて計算により前記第1の補正値を取得する、
 前記(2)または(3)に記載の画像処理装置。
(6)
 前記露光制御部は、前記第1の輝度差に対して前記第1の補正値が線形的に変化するとして、前記第1の輝度差から前記第1の補正値を算出する、
 前記(5)に記載の画像処理装置。
(7)
 前記露光制御部は、前記第1の輝度差が閾値を上回る場合に、前記露光制御を行う、
 前記(1)~(6)のいずれか一項に記載の画像処理装置。
(8)
 前記露光制御部は、前記第1のピークの画素数が所定の画素数を超える場合に、前記露光制御を行う、
 前記(1)~(7)のいずれか一項に記載の画像処理装置。
(9)
 前記ピーク検出部は、前記第2のピークよりも低輝度側に第3のピークを検出し、
 前記露光制御部は、前記第1の輝度差と前記第2のピークおよび前記第3のピークの第2の輝度差とに基づいて、前記露光制御を行う、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(10)
 前記露光制御部は、前記第2の輝度差に基づいて、前記パラメータの第2の補正値を取得し、前記第1の補正値および前記第2の補正値に基づいて前記パラメータを補正することにより、前記露光制御を行う、
 前記(9)に記載の画像処理装置。
(11)
 前記露光制御部は、前記パラメータに前記第1の補正値および前記第2の補正値を加算することにより前記パラメータを補正する、
 前記(10)に記載の画像処理装置。
(12)
 前記パラメータは、前記イメージセンサの電子シャッタ速度、前記イメージセンサによって撮像されたアナログ信号に対して乗じられるゲインのうちの少なくともいずれか一つを含む、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(13)
 前記パラメータは、光源の明るさを含む、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(14)
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出することと、
 プロセッサにより、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行うことと、
 を含む、画像処理方法。
(15)
 コンピュータを、
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える画像処理装置として機能させるためのプログラム。
(16)
 光を発する光源部と、
 前記光源部により発せられた前記光の反射光を受光して内視鏡画像を撮像するイメージセンサと、を有し、
 前記内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える、画像処理装置を有する、画像処理システム。
 続いて、他の実施形態について説明する。説明は以下の順序で行うものとする。
 3.背景
 4.本開示の実施形態
  4.1.システム構成例
  4.2.機能構成例
  4.3.自動露光制御部の機能詳細
 5.むすび
 <3.背景>
 近年、イメージセンサによる撮像に基づく内視鏡画像を処理する画像処理装置が普及している(例えば、特開2013-42998号公報参照)。一方、イメージセンサへの光を透過するレンズのフードなどによる遮光によって、内視鏡画像が部分的に暗くなってしまう現象が起こり得る。以下では、内視鏡画像のうちこのような遮光によって暗くなってしまう領域を、単に「黒領域」とも言う。また、内視鏡画像にこのような黒領域が生じる現象を「ケラレ」とも言う。
 ここで、内視鏡画像に黒領域が生じてしまったことが原因となり、内視鏡画像の輝度が過剰に高くなるように露光制御が行われてしまう場合がある。そのため、黒領域以外の領域(以下、「観察領域」とも言う。)が過剰に明るくなってしまう可能性がある。そこで、内視鏡画像の輝度をより適切に調整することが可能な技術が提供されることが望まれる。
 本開示によれば、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える、画像処理装置が提供される。
 本開示によれば、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出することと、
 プロセッサにより、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行うことと、を含む、画像処理方法が提供される。
 本開示によれば、コンピュータを、イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える画像処理装置として機能させるためのプログラムが提供される。
 本開示によれば、光を発する光源部と、前記光源部により発せられた前記光の反射光を受光して内視鏡画像を撮像するイメージセンサと、を有し、前記内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、を備える、画像処理装置を有する、画像処理システムが提供される。
 以上説明したように本開示によれば、内視鏡画像の輝度をより適切に調整することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
 <4.本開示の実施形態>
 [4.1.システム構成例]
 まず、図面を参照しながら本開示の実施形態に係る画像処理システムの構成例について説明する。図10は、本開示の実施形態に係る画像処理システムの構成例を示す図である。図10に示すように、画像処理システム1Bは、画像処理装置100Bと、挿入部200Bと、光源部300Bと、表示部400Bと、操作部500Bとを有する。
 光源部300Bは、白色光源310Bと、集光レンズ320Bとを備える。白色光源310Bは、白色光を発する。なお、本明細書においては、白色光を用いる例を主に説明するが、光の色は特に限定されない。したがって、白色光源310Bの代わりに白色以外の可視光を発する光源が用いられてもよい。集光レンズ320Bは、白色光源310Bによって発せられた光を後述するライトガイド210Bに集光する。
 挿入部200Bは、体内に挿入されるスコープに相当し得る。具体的には、挿入部200Bは、硬性鏡であってもよいし、軟性鏡であってもよい。挿入部200Bは、ライトガイド210Bと、照明レンズ220Bと、撮像部230Bと、メモリ240Bとを備える。撮像部230Bは、対物レンズ231Bと、イメージセンサ(撮像素子)232Bと、A/D(アナログ/デジタル)変換部233Bとを備える。
 ライトガイド210Bは、光源部300Bによって集光された光を挿入部200Bの先端まで導く。照明レンズ220Bは、ライトガイド210Bにより先端まで導かれた光を拡散させて観察対象(被写体SuB)に照射する。対物レンズ231Bは、観察対象(被写体SuB)から戻る反射光をイメージセンサ232Bに結像する。イメージセンサ232Bは、反射光を受光して撮像したアナログ信号(内視鏡画像)を、A/D変換部233Bに出力する。
 なお、イメージセンサ232Bは、例えば、原色ベイヤ配列を有している。かかる場合には、イメージセンサ232Bにより得られる内視鏡画像は、原色ベイヤ画像である。原色ベイヤ画像は、各画素がRGBいずれかの信号を有した画像であり、そのRGBの画素が市松状に配列された画像である。しかし、イメージセンサ232Bは、原色ベイヤ配列に限定されない。すなわち、内視鏡画像は、原色ベイヤ画像に限定されない。例えば、内視鏡画像は、補色や面順次といった原色ベイヤ以外の内視鏡撮像方式より取得される画像であってもよい。
 A/D変換部233Bは、後述する制御部130Bから出力される制御信号に基づいて、イメージセンサ232Bから出力されるアナログ信号(内視鏡画像)をデジタル信号に変換し、このデジタル信号(内視鏡画像)を画像処理装置100Bに出力する。メモリ240Bは、図示しない演算装置によって実行されることによって画像処理装置100Bの機能を実現するためのプログラムを記憶している。
 なお、以下の説明においては、挿入部200Bを適宜スコープと表記する場合がある。内視鏡診断においては、診断部位に応じた種類のスコープが用いられ得る。各スコープには、対象とする診断部位や、ズーム機能などの機能を特定するための識別番号が付与されており、本明細書においては、その識別番号をスコープIDと表記する場合がある。メモリ240Bは、スコープIDを記憶している。
 画像処理装置100Bは、自動露光制御部110Bと、画像処理部120Bと、制御部130Bとを備える。撮像部230Bにより取得される内視鏡画像は、自動露光制御部110Bと、画像処理部120Bとに出力される。自動露光制御部110Bは、白色光源310Bおよびイメージセンサ232Bに接続されており、白色光源310Bおよびイメージセンサ232Bを制御する。画像処理部120Bは、表示部400Bに接続されている。制御部130Bは、撮像部230Bと、画像処理部120Bと、表示部400Bと、操作部500Bとに双方向に接続されており、これらの構成要素を制御する。
 自動露光制御部110Bは、撮像部230Bにより取得される内視鏡画像の輝度が観察に適した値(以下、「適正値」とも言う。)となるように、自動的にイメージセンサ232Bの露光制御を行う。自動露光制御部110Bの詳細については後述する。画像処理部120Bは、撮像部230Bにより撮像された内視鏡画像に対して画像処理を行う。画像処理部120Bは、例えば、階調変換処理やノイズ低減処理を行う。画像処理部120Bは、画像処理後の画像を表示部400Bに対して出力する。
 制御部130Bは、撮像部230Bと、画像処理部120Bと、表示部400Bと、操作部500Bとに接続されており、これらを制御する制御信号を出力する。表示部400Bは、画像処理部120Bにより出力される内視鏡画像を、内視鏡モニタなどの画像表示装置に出力する。操作部500Bは、ユーザからの操作を受け付けるためのインターフェースである。例えば、操作部500Bは、電源のオン/オフを行うための電源スイッチや、撮像を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含む。
 以上、本開示の実施形態に係る画像処理システム1Bの構成例について説明した。
 [4.2.露光制御の例]
 続いて、自動露光制御部110Bによる露光制御の具体例について説明する。図11および図12は、露光制御の具体例について説明するための図である。上記したように、イメージセンサ232Bによって撮像されたアナログ信号は、A/D変換部233Bによってデジタル信号(内視鏡画像)に変換される。図11および図12には、イメージセンサ232Bからの出力値が縦軸に示されている。また、各出力値に対応するイメージセンサ232Bの像面照度が横軸に示されている。なお、イメージセンサ232Bからの出力値は、各画素に対応する出力値の平均値であってよい。
 また、図11を参照すると、イメージセンサ232Bからの出力値の適正値が「U0B」として示されており、適正値U0Bに対応するイメージセンサ232Bの像面照度が「L0B」として示されている。図11に示すように、例えば、イメージセンサ232Bからの出力値U1Bが適正値U0Bよりも大きい場合を想定する。かかる場合には、自動露光制御部110Bは、U1B-U0B=dU1Bだけイメージセンサ232Bからの出力値が小さくなるように露光制御を行う。
 一方、図12を参照すると、図11と同様に、イメージセンサ232Bからの出力値の適正値が「U0B」として示されており、適正値U0Bに対応するイメージセンサ232Bの像面照度が「L0B」として示されている。図12に示すように、例えば、イメージセンサ232Bからの出力値U2Bが適正値U0Bよりも小さい場合を想定する。かかる場合には、自動露光制御部110Bは、U0B-U2B=dU2Bだけイメージセンサ232Bからの出力値が大きくなるように露光制御を行う。
 例えば、露光制御は、露光を制御するためのパラメータを調整することによってなされ得る。露光を制御するためのパラメータとしては、様々なパラメータが想定される。例えば、露光を制御するためのパラメータは、イメージセンサ232Bの電子シャッタ速度およびイメージセンサ232Bによって撮像されたアナログ信号に対して乗じられるゲインのうちの少なくともいずれか一つを含んでよい。あるいは、露光を制御するためのパラメータは、白色光源310Bの明るさを含んでもよい。
 例えば、図11に示したdU1Bだけイメージセンサ232Bからの出力値を小さくするような露光制御は、電子シャッタ速度をdU1Bに対応する量だけ大きくすることによって実行されてもよいし、イメージセンサ232Bによって撮像されたアナログ信号に対して乗じられるゲインをdU1Bに対応する量だけ小さくすることによって実行されてもよい。あるいは、イメージセンサ232Bからの出力値を小さくするような露光制御は、白色光源310Bの明るさをdU1Bに対応する量だけ弱くすることによって実行されてもよい。
 一方、図12に示したdU2Bだけイメージセンサ232Bからの出力値を大きくするような露光制御は、電子シャッタ速度をdU2Bに対応する量だけ小さくすることによって実行されてもよいし、イメージセンサ232Bによって撮像されたアナログ信号に対して乗じられるゲインをdU2Bに対応する量だけ大きくすることによって実行されてもよい。あるいは、イメージセンサ232Bからの出力値を大きくするような露光制御は、白色光源310Bの明るさをdU2Bに対応する量だけ強くすることによって実行されてもよい。
 以上、自動露光制御部110Bによる露光制御の具体例について説明した。
 [4.3.自動露光制御部の機能詳細]
 続いて、自動露光制御部110の詳細な機能について説明する。図13は、自動露光制御部110Bの詳細な機能構成例を示すブロック図である。図13に示すように、自動露光制御部110Bは、ピーク検出部111Bと、露光制御部112Bとを備える。以下においては、これらのピーク検出部111Bおよび露光制御部112Bそれぞれの詳細な機能について説明する。まず、ピーク検出部111Bは、撮像部230Bから内視鏡画像を取得する。
 図14は、内視鏡画像の例を示す図である。図14に示すように、内視鏡画像Im1Bにおいては、格子状に各画素が配列されている。ここで、上述したように、イメージセンサ232Bへの光を透過するレンズのフードなどによる遮光によって、内視鏡画像Im1Bが部分的に暗くなってしまう現象が起こり得る。そのため、内視鏡画像Im1Bには、観察領域Rs1Bの他に黒領域Rb1Bが存在する。ラインHmBは、黒領域Rb1Bと観察領域Rs1Bとの境界線を示している。各画素の色の濃さは、各画素の輝度の高さを表している。
 ここで、内視鏡画像Im1Bに黒領域Rb1Bが生じてしまったことが原因となり、自動露光制御部110Bによって内視鏡画像Im1Bの輝度が過剰に高くなるように露光制御が行われてしまう場合がある。そのため、観察領域Rs1Bが過剰に明るくなってしまう可能性がある。そこで、以下においては、観察領域Rs1Bが過剰に明るくなってしまう可能性を低減することによって、内視鏡画像Im1Bの輝度をより適切に調整することが可能な技術について説明する。
 具体的に、本開示の実施形態においては、内視鏡画像の輝度ごとの画素数分布を利用する。図15は、内視鏡画像の輝度ごとの画素数分布の例を示す図である。図15を参照すると、内視鏡画像の輝度が横軸に示されており、輝度ごとの画素数が縦軸に示されている。また、低輝度側から第1のピーク(以下、「ピークB1B」とも言う。)および第2のピーク(以下、「ピークB2B」とも言う。)が順に並んでいる。ピークB1BおよびピークB2Bそれぞれにおける画素数は、「N1B」および「N2B」として示されている。
 まず、ピーク検出部111Bは、内視鏡画像の輝度ごとの画素数分布から、低輝度側から順にピークB1BおよびピークB2Bを検出する。そして、ピークB1Bが黒領域Rb1Bに属し、かつ、ピークB2Bが観察領域Rs1Bに属する場合には、ピークB1BおよびピークB2Bの輝度差(第1の輝度差)Df1Bに応じて黒領域Rb1Bの暗さが変化することが想定される。そこで、露光制御部112Bは、ピークB1BおよびピークB2Bの輝度差Df1Bに基づいて、露光制御を行うのがよい。そうすれば、観察領域Rs1Bが過剰に明るくなってしまう可能性を低減することによって、内視鏡画像Im1Bの輝度をより適切に調整することが可能となる。
 例えば、露光制御部112Bは、輝度差Df1Bに基づいて、パラメータの補正値(以下、「第1の補正値」とも言う。)を取得し、第1の補正値に基づいてパラメータを補正し、補正後のパラメータに基づいて露光制御を行うとよい。露光制御部112Bは、パラメータに第1の補正値を加算することによりパラメータを補正すればよい。図15には、補正後のパラメータに基づいて露光制御が行われた結果として、ピークB2BがピークB0Bの位置に移動した例が示されている(ピークB2Bの位置が「Cm1B」だけ移動した例が示されている)。
 第1の補正値を取得する手法は特に限定されない。例えば、露光制御部112Bは、輝度差Df1Bに対応する第1の補正値をテーブルから取得してもよいし、輝度差Df1Bに基づいて計算により第1の補正値を取得してもよい。輝度差Df1Bに基づいて計算により第1の補正値を取得する手法も特に限定されない。例えば、露光制御部112Bは、輝度差Df1Bに対して第1の補正値が線形的に変化するとして、輝度差Df1Bから第1の補正値を算出してもよい。
 また、露光制御部112Bは、輝度差Df1Bが閾値(以下、「第1の閾値」とも言う。)を上回る場合に、パラメータを補正する一方、輝度差Df1Bが第1の閾値を下回る場合には、パラメータを補正しなくてもよい。輝度差Df1Bが第1の閾値を下回る場合には、内視鏡画像Im1Bの輝度が過剰に高くなるように露光制御が行われてしまっている可能性が低いからである。なお、輝度差Df1Bが第1の閾値と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 なお、露光制御部112Bは、ピークB1Bの画素数が所定の画素数を超える場合に、パラメータを補正する一方、ピークB1Bの画素数が所定の画素数を超えない場合には、パラメータを補正しなくてもよい。ピークB1Bの画素数が所定の画素数を超えない場合には、内視鏡画像Im1Bの輝度が過剰に高くなるように露光制御が行われてしまっている可能性が低いからである。なお、ピークB1Bの画素数が所定の画素数と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 続いて、以上に説明したピーク検出部111Bおよび露光制御部112Bの動作の例について説明する。図16は、低輝度側から二つのピーク(ピークB1BおよびピークB2B)を検出する場合における動作の例を示すフローチャートである。なお、図16に示した動作の例は、ピーク検出部111Bおよび露光制御部112Bの動作の一例に過ぎない。したがって、ピーク検出部111Bおよび露光制御部112Bの動作は、図16に示した動作の例に限定されない。
 図16に示すように、まず、ピーク検出部111Bは、内視鏡画像における輝度ごとの画素数分布を生成する(S11B)。そして、ピーク検出部111Bは、輝度ごとの画素数分布から低輝度側から順に第1のピーク(ピークB1B)および第2のピーク(ピークB2B)を検出する(S12B)。続いて、露光制御部112Bは、第1のピーク(ピークB1B)および第2のピーク(ピークB2B)の第1の輝度差(輝度差Df1B)が第1の閾値を下回る場合には(S13Bにおいて「No」)、動作を終了する。
 一方、露光制御部112Bは、第1のピーク(ピークB1B)および第2のピーク(ピークB2B)の第1の輝度差(輝度差Df1B)が第1の閾値を上回る場合には(S13Bにおいて「Yes」)、露光を制御するためのパラメータの第1の補正値を取得し(S14B)、第1の補正値をパラメータに加算して(S15B)、動作を終了する。第1の補正値が加算された後のパラメータに基づいて露光制御がなされれば、観察領域Rs1Bが過剰に明るくなってしまう可能性が低減され、内視鏡画像Im1Bの輝度をより適切に調整することが可能になる。
 以上においては、内視鏡画像Im1Bに黒領域Rb1Bが生じる場合について説明した。
 ここで、体内よりも高輝度の物体(例えば、鉗子やガーゼなど)が被写体として写ってしまった場合には、内視鏡画像Im1Bが部分的に明るくなってしまう現象も起こり得る。特に、内視鏡画像Im1Bは、光源部300Bとイメージセンサ232Bとが近いといった状況、光源部300Bと被写体とが近いといった状況において撮像されるのが一般的であるため、かかる現象が起こり易い。そのため、内視鏡画像Im1Bには、部分的に明るくなってしまう領域も存在する。以下では、内視鏡画像のうちこのような高輝度の物体の写り込みによって部分的に明るくなってしまった領域を、単に「白領域」とも言う。
 ここで、内視鏡画像Im1Bに白領域Rw1Bが生じてしまったことが原因となり、自動露光制御部110Bによって内視鏡画像Im1Bの輝度が過剰に低くなるように露光制御が行われてしまう場合がある。そのため、観察領域Rs1Bが過剰に暗くなってしまう可能性がある。そこで、以下においては、観察領域Rs1Bが過剰に暗くなってしまう可能性を低減することによって、内視鏡画像Im1Bの輝度をより適切に調整することが可能な技術について説明する。
 図17は、内視鏡画像の輝度ごとの画素数分布の他の例を示す図である。図17を参照すると、内視鏡画像の輝度が横軸に示されており、輝度ごとの画素数が縦軸に示されている。また、低輝度側から第1のピーク(ピークB1B)および第2のピーク(ピークB2B)に続いて、第3のピーク(以下、「ピークB3B」とも言う。)が順に並んでいる。ピークB1B、ピークB2BおよびピークB3Bそれぞれにおける画素数は、「N1B」、「N2B」および「N3B」として示されている。
 まず、ピーク検出部111Bは、内視鏡画像の輝度ごとの画素数分布から、ピークB2Bよりも高輝度側にピークB3Bを検出する。そして、ピークB3Bが白領域Rw1Bに属し、かつ、ピークB2Bが観察領域Rs1Bに属する場合には、ピークB3BおよびピークB2Bの輝度差(第2の輝度差)Df2Bに応じて白領域Rw1Bの明るさが変化することが想定される。そこで、露光制御部112Bは、輝度差Df1BとピークB3BおよびピークB2Bの輝度差(第2の輝度差)Df2Bとに基づいて、露光制御を行うのがよい。そうすれば、観察領域Rs1Bが過剰に暗くなってしまう可能性を低減することによって、内視鏡画像Im1Bの輝度をより適切に調整することが可能となる。
 例えば、露光制御部112Bは、輝度差Df2Bに基づいて、パラメータの補正値(以下、「第2の補正値」とも言う。)を取得し、第1の補正値および第2の補正値に基づいてパラメータを補正し、補正後のパラメータに基づいて露光制御を行うとよい。露光制御部112Bは、パラメータに第1の補正値および第2の補正値を加算することによりパラメータを補正すればよい。図17には、補正後のパラメータに基づいて露光制御が行われた結果として、ピークB2BがピークB0Bの位置に移動した例が示されている(ピークB2Bの位置が「Cm1B」と「Cm2B」との合計「Cm0B」だけ移動した例が示されている)。
 第2の補正値を取得する手法は特に限定されない。例えば、露光制御部112Bは、輝度差Df2Bに対応する第2の補正値をテーブルから取得してもよいし、輝度差Df2Bに基づいて計算により第2の補正値を取得してもよい。輝度差Df2Bに基づいて計算により第2の補正値を取得する手法も特に限定されない。例えば、露光制御部112Bは、輝度差Df2Bに対して第2の補正値が線形的に変化するとして、輝度差Df2Bから第2の補正値を算出してもよい。
 また、露光制御部112Bは、輝度差Df2Bが閾値(以下、「第2の閾値」とも言う。)を上回る場合に、パラメータを補正する一方、輝度差Df2Bが第2の閾値を下回る場合には、パラメータを補正しなくてもよい。輝度差Df2Bが第2の閾値を下回る場合には、内視鏡画像Im1Bの輝度が過剰に低くなるように露光制御が行われてしまっている可能性が低いからである。なお、輝度差Df2Bが第2の閾値と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 また、露光制御部112Bは、ピークB3Bの画素数が所定の画素数を超える場合に、パラメータを補正する一方、ピークB3Bの画素数が所定の画素数を超えない場合には、パラメータを補正しなくてもよい。ピークB3Bの画素数が所定の画素数を超えない場合には、内視鏡画像Im1Bの輝度が過剰に低くなるように露光制御が行われてしまっている可能性が低いからである。なお、ピークB3Bの画素数が所定の画素数と等しい場合には、パラメータを補正してもよいし、パラメータを補正しなくてもよい。
 続いて、以上に説明したピーク検出部111Bおよび露光制御部112Bの動作の例について説明する。図18は、低輝度側から三つのピーク(ピークB1B、ピークB2BおよびピークB3B)を検出する場合における動作の例を示すフローチャートである。なお、図18に示した動作の例は、ピーク検出部111Bおよび露光制御部112Bの動作の一例に過ぎない。したがって、ピーク検出部111Bおよび露光制御部112Bの動作は、図18に示した動作の例に限定されない。
 図18に示したS11B~S15Bは、図16に示したS11B~S15Bと同様に実行される。S15Bに引き続いて、ピーク検出部111Bは、輝度ごとの画素数分布から第2のピーク(ピークB2Bよりも高輝度側に第3のピーク(ピークB3B)を検出する(S21B)。続いて、露光制御部112Bは、第3のピーク(ピークB3B)および第2のピーク(ピークB2B)の第2の輝度差(輝度差Df2B)が第2の閾値を下回る場合には(S22Bにおいて「No」)、動作を終了する。
 一方、露光制御部112Bは、第3のピーク(ピークB3B)および第2のピーク(ピークB2B)の第2の輝度差(輝度差Df2B)が第2の閾値を上回る場合には(S22Bにおいて「Yes」)、露光を制御するためのパラメータの第2の補正値を取得し(S23B)、第2の補正値をパラメータに加算して(S24B)、動作を終了する。第2の補正値が加算された後のパラメータに基づいて露光制御がなされれば、観察領域Rs1Bが過剰に暗くなってしまう可能性が低減され、内視鏡画像Im1Bの輝度をより適切に調整することが可能になる。
 以上においては、内視鏡画像Im1Bに白領域Rw1Bが生じる場合について説明した。また、自動露光制御部110Bの詳細な機能について説明した。
 <5.むすび>
 以上説明したように、本開示の実施形態によれば、イメージセンサ232Bによる撮像に基づく内視鏡画像Im1Bの輝度ごとの画素数分布から、低輝度側から順に第1のピーク(ピークB1B)および第2のピーク(ピークB2B)を検出するピーク検出部111Bと、第1のピークおよび第2のピークの輝度差Df1Bに基づいて、露光制御を行う露光制御部112Bと、を備える、画像処理装置100Bが提供される。かかる構成によれば、観察領域Rs1Bが過剰に明るくなってしまう可能性を低減することによって、内視鏡画像Im1Bの輝度をより適切に調整することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える、画像処理装置。
(2)
 前記露光制御部は、前記第1の輝度差に基づいて、露光を制御するためのパラメータの第1の補正値を取得し、前記第1の補正値に基づいて前記パラメータを補正し、補正後のパラメータに基づいて前記露光制御を行う、
 前記(1)に記載の画像処理装置。
(3)
 前記露光制御部は、前記パラメータに前記第1の補正値を加算することにより前記パラメータを補正する、
 前記(2)に記載の画像処理装置。
(4)
 前記露光制御部は、前記第1の輝度差に対応する前記第1の補正値をテーブルから取得する、
 前記(2)または(3)に記載の画像処理装置。
(5)
 前記露光制御部は、前記第1の輝度差に基づいて計算により前記第1の補正値を取得する、
 前記(2)または(3)に記載の画像処理装置。
(6)
 前記露光制御部は、前記第1の輝度差に対して前記第1の補正値が線形的に変化するとして、前記第1の輝度差から前記第1の補正値を算出する、
 前記(5)に記載の画像処理装置。
(7)
 前記露光制御部は、前記第1の輝度差が閾値を上回る場合に、前記露光制御を行う、
 前記(1)~(6)のいずれか一項に記載の画像処理装置。
(8)
 前記露光制御部は、前記第1のピークの画素数が所定の画素数を超える場合に、前記露光制御を行う、
 前記(1)~(7)のいずれか一項に記載の画像処理装置。
(9)
 前記ピーク検出部は、前記第2のピークよりも高輝度側に第3のピークを検出し、
 前記露光制御部は、前記第1の輝度差と前記第2のピークおよび前記第3のピークの第2の輝度差とに基づいて、前記露光制御を行う、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(10)
 前記露光制御部は、前記第2の輝度差に基づいて、前記パラメータの第2の補正値を取得し、前記第1の補正値および前記第2の補正値に基づいて前記パラメータを補正し、補正後のパラメータに基づいて前記露光制御を行う、
 前記(9)に記載の画像処理装置。
(11)
 前記露光制御部は、前記パラメータに前記第1の補正値および前記第2の補正値を加算することにより前記パラメータを補正する、
 前記(10)に記載の画像処理装置。
(12)
 前記パラメータは、前記イメージセンサの電子シャッタ速度および前記イメージセンサによって撮像されたアナログ信号に対して乗じられるゲインのうちの少なくともいずれか一つを含む、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(13)
 前記パラメータは、光源の明るさを含む、
 前記(2)~(6)のいずれか一項に記載の画像処理装置。
(14)
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出することと、
 プロセッサにより、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行うことと、
 を含む、画像処理方法。
(15)
 コンピュータを、
 イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える画像処理装置として機能させるためのプログラム。
(16)
 光を発する光源部と、
 前記光源部により発せられた前記光の反射光を受光して内視鏡画像を撮像するイメージセンサと、を有し、
 前記内視鏡画像の輝度ごとの画素数分布から、低輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
 前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
 を備える、画像処理装置を有する、画像処理システム。
 1A   画像処理システム
 100A 画像処理装置
 110A 自動露光制御部
 111A ピーク検出部
 112A 露光制御部
 120A 画像処理部
 130A 制御部
 200A 挿入部
 210A ライトガイド
 220A 照明レンズ
 230A 撮像部
 231A 対物レンズ
 232A イメージセンサ
 233A A/D変換部
 240A メモリ
 300A 光源部
 310A 白色光源
 320A 集光レンズ
 400A 表示部
 500A 操作部
 B0A  ピーク
 B1A  ピーク(第1のピーク)
 B2A  ピーク(第2のピーク)
 B3A  ピーク(第3のピーク)
 Df1A 輝度差
 Df2A 輝度差
 Im1A 内視鏡画像
 Rb1A 黒領域
 Rs1A 観察領域
 Rw1A 白領域
 SuA  被写体
 1B   画像処理システム
 100B 画像処理装置
 110B 自動露光制御部
 111B ピーク検出部
 112B 露光制御部
 120B 画像処理部
 130B 制御部
 200B 挿入部
 210B ライトガイド
 220B 照明レンズ
 230B 撮像部
 231B 対物レンズ
 232B イメージセンサ
 233B A/D変換部
 240B メモリ
 300B 光源部
 310B 白色光源
 320B 集光レンズ
 400B 表示部
 500B 操作部
 B0B  ピーク
 B1B  ピーク(第1のピーク)
 B2B  ピーク(第2のピーク)
 B3B  ピーク(第3のピーク)
 Df1B 輝度差
 Df2B 輝度差
 Im1B 内視鏡画像
 Rb1B 黒領域
 Rs1B 観察領域
 Rw1B 白領域
 SuB  被写体

Claims (16)

  1.  イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
     前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
     を備える、画像処理装置。
  2.  前記露光制御部は、前記第1の輝度差に基づいて、露光を制御するためのパラメータの第1の補正値を取得し、前記第1の補正値に基づいて前記パラメータを補正することにより、前記露光制御を行う、
     請求項1に記載の画像処理装置。
  3.  前記露光制御部は、前記パラメータに前記第1の補正値を加算することにより前記パラメータを補正する、
     請求項2に記載の画像処理装置。
  4.  前記露光制御部は、前記第1の輝度差に対応する前記第1の補正値をテーブルから取得する、
     請求項2に記載の画像処理装置。
  5.  前記露光制御部は、前記第1の輝度差に基づいて計算により前記第1の補正値を取得する、
     請求項2に記載の画像処理装置。
  6.  前記露光制御部は、前記第1の輝度差に対して前記第1の補正値が線形的に変化するとして、前記第1の輝度差から前記第1の補正値を算出する、
     請求項5に記載の画像処理装置。
  7.  前記露光制御部は、前記第1の輝度差が閾値を上回る場合に、前記露光制御を行う、
     請求項1に記載の画像処理装置。
  8.  前記露光制御部は、前記第1のピークの画素数が所定の画素数を超える場合に、前記露光制御を行う、
     請求項1に記載の画像処理装置。
  9.  前記ピーク検出部は、前記第2のピークよりも低輝度側に第3のピークを検出し、
     前記露光制御部は、前記第1の輝度差と前記第2のピークおよび前記第3のピークの第2の輝度差とに基づいて、前記露光制御を行う、
     請求項2に記載の画像処理装置。
  10.  前記露光制御部は、前記第2の輝度差に基づいて、前記パラメータの第2の補正値を取得し、前記第1の補正値および前記第2の補正値に基づいて前記パラメータを補正することにより、前記露光制御を行う、
     請求項9に記載の画像処理装置。
  11.  前記露光制御部は、前記パラメータに前記第1の補正値および前記第2の補正値を加算することにより前記パラメータを補正する、
     請求項10に記載の画像処理装置。
  12.  前記パラメータは、前記イメージセンサの電子シャッタ速度、前記イメージセンサによって撮像されたアナログ信号に対して乗じられるゲインのうちの少なくともいずれか一つを含む、
     請求項2に記載の画像処理装置。
  13.  前記パラメータは、光源の明るさを含む、
     請求項2に記載の画像処理装置。
  14.  イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出することと、
     プロセッサにより、前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行うことと、
     を含む、画像処理方法。
  15.  コンピュータを、
     イメージセンサによる撮像に基づく内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
     前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
     を備える画像処理装置として機能させるためのプログラム。
  16.  光を発する光源部と、
     前記光源部により発せられた前記光の反射光を受光して内視鏡画像を撮像するイメージセンサと、を有し、
     前記内視鏡画像の輝度ごとの画素数分布から、高輝度側から順に第1のピークおよび第2のピークを検出するピーク検出部と、
     前記第1のピークおよび前記第2のピークの第1の輝度差に基づいて、露光制御を行う露光制御部と、
     を備える、画像処理装置を有する、画像処理システム。
PCT/JP2015/082271 2015-02-12 2015-11-17 画像処理装置、画像処理方法、プログラムおよび画像処理システム WO2016129160A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/541,269 US10306151B2 (en) 2015-02-12 2015-11-17 Image processing device, image processing method, program and image processing system
JP2016574626A JP6620762B2 (ja) 2015-02-12 2015-11-17 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-025135 2015-02-12
JP2015025135 2015-02-12
JP2015-025134 2015-02-12
JP2015025134 2015-02-12

Publications (1)

Publication Number Publication Date
WO2016129160A1 true WO2016129160A1 (ja) 2016-08-18

Family

ID=56615176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082271 WO2016129160A1 (ja) 2015-02-12 2015-11-17 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Country Status (3)

Country Link
US (1) US10306151B2 (ja)
JP (1) JP6620762B2 (ja)
WO (1) WO2016129160A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230066A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 医療用システム、医療用装置および制御方法
WO2022172733A1 (ja) 2021-02-12 2022-08-18 ソニーグループ株式会社 医療用観察装置、観察装置、観察方法及びアダプタ

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018157918A (ja) * 2017-03-22 2018-10-11 ソニー株式会社 手術用制御装置、制御方法、手術システム、およびプログラム
WO2020179832A1 (ja) * 2019-03-05 2020-09-10 パナソニックIpマネジメント株式会社 撮像装置
WO2021166221A1 (ja) * 2020-02-21 2021-08-26 日本電気株式会社 生体認証装置、生体認証方法、及び、そのプログラムが格納されたコンピュータ可読媒体
JP2021153229A (ja) * 2020-03-24 2021-09-30 キヤノン株式会社 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
CN112565621B (zh) * 2020-12-01 2022-11-08 浙江华诺康科技有限公司 内窥镜光源亮度和曝光调节方法、装置和可读存储介质
US11730352B2 (en) 2021-01-13 2023-08-22 Hong Kong Applied Science and Technology Research Institute Company Limited Auto-exposure method for wireless capsule endoscope
JP7677865B2 (ja) * 2021-10-11 2025-05-15 富士フイルム株式会社 内視鏡システム及びその作動方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05164976A (ja) * 1991-12-11 1993-06-29 Toshiba Corp 電子内視鏡装置
JP2011076198A (ja) * 2009-09-29 2011-04-14 Mitsubishi Electric Corp 画像処理装置、画像処理用プログラムおよび画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5347272B2 (ja) * 2008-01-18 2013-11-20 日本電気株式会社 スポット定量装置、スポット定量方法及びプログラム
JP5435307B2 (ja) * 2011-06-16 2014-03-05 アイシン精機株式会社 車載カメラ装置
EP2869023B1 (en) * 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
JP5847210B2 (ja) * 2014-01-28 2016-01-20 株式会社Pfu 画像処理装置、画像処理方法及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05164976A (ja) * 1991-12-11 1993-06-29 Toshiba Corp 電子内視鏡装置
JP2011076198A (ja) * 2009-09-29 2011-04-14 Mitsubishi Electric Corp 画像処理装置、画像処理用プログラムおよび画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230066A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 医療用システム、医療用装置および制御方法
JPWO2018230066A1 (ja) * 2017-06-12 2020-04-16 ソニー株式会社 医療用システム、医療用装置および制御方法
JP7088185B2 (ja) 2017-06-12 2022-06-21 ソニーグループ株式会社 医療用システム、医療用装置および制御方法
US11463629B2 (en) 2017-06-12 2022-10-04 Sony Corporation Medical system, medical apparatus, and control method
WO2022172733A1 (ja) 2021-02-12 2022-08-18 ソニーグループ株式会社 医療用観察装置、観察装置、観察方法及びアダプタ

Also Published As

Publication number Publication date
US20170366724A1 (en) 2017-12-21
US10306151B2 (en) 2019-05-28
JP6620762B2 (ja) 2019-12-18
JPWO2016129160A1 (ja) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6620762B2 (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
JP7484939B2 (ja) 内視鏡システム、制御装置の作動方法及び制御装置
JP7556380B2 (ja) 情報処理装置、作動方法、プログラム、内視鏡システム
JP6143096B2 (ja) 眼底画像処理装置およびプログラム、並びに眼底画像撮影装置
US9770163B2 (en) Method and apparatus for controlling light output intensity and protection from high intensity light
WO2013027455A1 (ja) 自動露光制御装置、制御装置、内視鏡装置及び自動露光制御方法
JP5742970B2 (ja) 放射線撮影装置
JP5698476B2 (ja) 内視鏡システム、内視鏡システムの作動方法及び撮像装置
WO2009066364A1 (ja) 撮像装置、撮像方法および撮像プログラム
JP2012125293A (ja) 制御装置、内視鏡装置及びフォーカス制御方法
JP2011139368A5 (ja)
JP2010145966A (ja) オートフォーカスシステム
JP2009188463A5 (ja)
JP5038027B2 (ja) 画像処理装置およびこれを備えた内視鏡装置
JP6873740B2 (ja) 内視鏡装置及びエッジ検出方法
EP1892952A3 (en) Electronic camera
JP4694336B2 (ja) 電子内視鏡装置
JP2012085790A (ja) 内視鏡装置
JP2003265449A (ja) X線画像診断装置
CN114679524A (zh) 一种快速检测和修复内窥镜下高能量可见光的快速方法
JP7600987B2 (ja) 内視鏡手術システム、画像処理装置、および画像処理方法
JP4217501B2 (ja) 自動焦点調節装置
US20220155557A1 (en) Medical observation system
US20240380985A1 (en) Systems and methods for dynamic light control
JP2006279116A5 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15882034

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016574626

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15541269

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15882034

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载