+

ES2863368T3 - Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico - Google Patents

Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico Download PDF

Info

Publication number
ES2863368T3
ES2863368T3 ES19192425T ES19192425T ES2863368T3 ES 2863368 T3 ES2863368 T3 ES 2863368T3 ES 19192425 T ES19192425 T ES 19192425T ES 19192425 T ES19192425 T ES 19192425T ES 2863368 T3 ES2863368 T3 ES 2863368T3
Authority
ES
Spain
Prior art keywords
image
luminance
luminance component
ratio
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19192425T
Other languages
English (en)
Inventor
Huichao Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2863368T3 publication Critical patent/ES2863368T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6005Corrections within particular colour systems with luminance or chrominance signals, e.g. LC1C2, HSL or YUV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • H04N9/78Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase for separating the brightness signal or the chrominance signal from the colour television signal, e.g. using comb filter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

Un método de procesamiento de imágenes, que comprende: acceder (101a, 103b, 203, 303, 403, 503, 603), a componentes de luminancia de puntos de píxel respectivos en una imagen, y generar una distribución de luminancia de la imagen de acuerdo con los componentes de luminancia; generar (102a, 104b, 404, 504, 604), una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen; y ajustar (103a, 105b, 206, 308, 405, 505, 605), los componentes de luminancia de los puntos de píxel respectivos de la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada; el método de procesamiento de imágenes caracterizado porque comprende además: realizar (406, 506, 606), el reconocimiento de bordes de la primera imagen procesada; determinar (407, 507, 607), un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen de acuerdo con un resultado de reconocimiento de bordes; realizar (408, 508, 608), un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y determinar (409, 509, 609), un primer coeficiente de ganancia de la imagen de alta frecuencia, realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia, y realizar una fusión de imagen de la imagen de baja frecuencia y una imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.

Description

DESCRIPCIÓN
Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico
Campo técnico
Las modalidades de la presente divulgación se refieren al campo técnico del procesamiento de imágenes, particularmente a un método de procesamiento de imágenes, un medio de almacenamiento y un aparato electrónico. Antecedentes
Con el rápido desarrollo de los aparatos electrónicos, los aparatos electrónicos, tales como teléfonos móviles y tabletas, todos tienen funciones de captura de imágenes, y los usuarios tienen requisitos cada vez más altos para la calidad de las imágenes capturadas por los aparatos electrónicos.
En la actualidad, después de que se captura una imagen, la imagen generalmente se ilumina, de modo que una región relativamente oscura en la imagen obtenida podría volverse más brillante y podrían visualizarse detalles que apenas se distinguen a simple vista, mejorando así la definición de la imagen completa. Sin embargo, en la forma de brillo de la imagen anterior, los valores RGB de cada punto de píxel en la imagen generalmente se mejoran, lo que conducirá a los siguientes problemas: el color de la imagen se mejora indebidamente para estar cerca del gris y el color de la región más brillante, después de ser mejorado, se distorsiona para volverse borroso. La distorsión de la imagen provoca la pérdida de detalles en la región distorsionada y, en general, la región distorsionada de la imagen puede ser la región de interés del usuario, por ejemplo, una región del rostro humano en la imagen.
En la solicitud de patente de los Estados Unidos con número de publicación US2017139572A1, se proporciona un método de transferencia de estilo de tono y color de imagen. Se proporciona una función de transferencia de luminancia para calcular la curva de mapeo de tonos para hacer coincidir aproximadamente un histograma de la luminancia de la imagen de entrada con un histograma de la luminancia de la imagen de estilo. Sin embargo, el documento US2017139572A1 no explica cómo mejorar la imagen después de la transferencia de estilo de color y tono.
Un artículo, Optimal Histogram Matching by Monotone Gray Level Transformaron, de Shi-Kuo, divulga el problema de Coincidencia Óptima de Histogramas por transformación monótona de nivel de gris, que siempre asigna todos los puntos de imagen de un nivel de gris dado i a otro nivel de gris T(i) tal que si i > j, entonces T(i) > T(j). El objetivo es encontrar una imagen digital transformada de una imagen dada de manera que se minimice la suma de errores absolutos entre el histograma de nivel de gris de la imagen transformada y el de una imagen de referencia. Esto equivale a colocar k1 objetos ordenados linealmente de diferentes tamaños uno por uno en k2 cajas ordenadas linealmente de tamaños variados, de modo que se minimice el error acumulado de espacio infra-empacado o sobre­ empacado en las cajas; la función de colocación es monótona, lo que asegura una solución de tiempo polinomial a este problema. Se presenta un algoritmo de búsqueda de árbol para la coincidencia óptima de histogramas que tiene una complejidad de tiempo O(k1 * k2). Si se elimina la propiedad monótona, el problema se vuelve NP-completo, incluso si está restringido a k2=2.
En la solicitud de patente de los Estados Unidos con número de publicación US2014133778A1, se proporciona un método para mejorar la imagen. Sin embargo, en el documento US2014133778A1, la imagen se mejora al obtener una imagen de alta frecuencia al filtrar el procesamiento de la imagen mediante el uso de un filtro diseñado de acuerdo con la ecuación y mejorar aún más la imagen de alta frecuencia. La ecuación usada para el procesamiento de filtrado de la imagen puede provocar la pérdida de información detallada o información de contorno en la imagen porque el contenido de la imagen capturado por el aparato electrónico al disparar diferentes objetos a disparar difiere en gran medida.
Un artículo, Brightness Preserving Histogram Equalization with Maximum Entropy; A Variational Perspective, de Chao Wang y Zhongfu Ye, divulga que la ecualización de histograma (HE) es una técnica de mejora de imagen simple y efectiva, sin embargo, tiende a cambiar el brillo medio de la imagen al nivel medio del rango permitido, y por lo tanto, no es muy sencillo para los productos electrónicos de consumo, donde preservar el brillo original es fundamental para evitar molestos artefactos. Este artículo propone una nueva extensión de la ecualización del histograma, en realidad la especificación del histograma, para superar inconvenientes como HE. Maximizar la entropía es la idea esencial de HE para hacer el histograma lo más plano posible. A continuación, la esencia del algoritmo propuesto, denominado Ecualización del Histograma para Preservar el Brillo con la Máxima Entropía (BPHEME), intenta encontrar, mediante el enfoque variacional, el histograma objetivo que maximiza la entropía, bajo las restricciones de que el brillo medio es fijo, luego transforma el histograma original en el objetivo usando la especificación del histograma. En comparación con los métodos existentes, que incluyen HE, Ecualización de bihistograma que preserva el brillo (BBHE), Ecualización de histograma de sub-imagen dualista de igual área (DSIHE) y Ecualización de error de brillo medio mínimo (MMBEBHE), los resultados experimentales muestran que BPHEME no puede solo mejoran la imagen de manera efectiva, pero también conservan bastante bien el brillo original, de modo que es posible utilizarlo en productos electrónicos de consumo.
Resumen de la divulgación
El método y dispositivo de procesamiento de imágenes, el medio de almacenamiento y el aparato electrónico proporcionados por las modalidades de la presente divulgación consiguen mejorar la luminancia de la imagen sobre la base de que no se distorsiona el color de la imagen.
En un primer aspecto, una modalidad de la presente divulgación proporciona un método de procesamiento de imágenes, el método puede incluir: atravesar componentes de luminancia de puntos de píxel respectivos en una imagen y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen; y ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada. El método de procesamiento de imágenes incluye además: realizar el reconocimiento de bordes de la primera imagen procesada; determinar, un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen de acuerdo con un resultado de reconocimiento de bordes; realizar, un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y determinar, un primer coeficiente de ganancia de la imagen de alta frecuencia, realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia y realizar una fusión de imagen de la imagen de baja frecuencia y una imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
En un segundo aspecto, una modalidad de la presente divulgación proporciona un dispositivo de procesamiento de imágenes, que incluye: un módulo de adquisición de imágenes configurado para adquirir una imagen en un modo de color de separación de crominancia-luminancia; un módulo de reconocimiento de escena configurado para realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; un módulo de generación de distribución de luminancia configurado para atravesar componentes de luminancia de puntos de píxel respectivos en la imagen y para generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; un módulo de generación de relación de mapeo de luminancia configurado para generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen y un primer módulo de generación de imagen procesada configurado para ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada. El dispositivo de procesamiento de imágenes incluye además: un módulo de reconocimiento de bordes, configurado para: realizar el reconocimiento de bordes de una primera imagen procesada después de generar la primera imagen procesada; un módulo de determinación del núcleo de filtrado configurado para determinar un núcleo de filtrado que realiza el procesamiento de filtrado de la imagen de acuerdo con el resultado del reconocimiento de bordes; un módulo de procesamiento de filtrado configurado para realizar un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado, para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y un módulo de mejora de imagen de alta frecuencia configurado para determinar un primer coeficiente de ganancia de la imagen de alta frecuencia y para realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia; y un segundo módulo de generación de imágenes procesadas configurado para realizar la fusión de imágenes de la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
En un tercer aspecto, una modalidad de la presente divulgación proporciona un medio de almacenamiento legible por ordenador no transitorio que tiene un programa informático almacenado en el mismo, cuando el programa informático es ejecutado por un procesador, puede implementarse un método de procesamiento de imágenes. El método puede incluir: atravesar componentes de luminancia de puntos de píxel respectivos en una imagen, y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; comparar una relación de puntos de píxel de cada componente de luminancia en la distribución de luminancia de la imagen con una relación de píxel de un componente de luminancia correspondiente en una distribución de luminancia estándar; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen; y cuando la relación de puntos de píxel de un componente de luminancia en la distribución de luminancia de la imagen es menor que la relación de puntos de píxel de un componente de luminancia correspondiente en la distribución de luminancia estándar, mapear al menos uno de los componentes de luminancia subsiguientes en el componente de luminancia hasta la relación de puntos de píxel de un componente de luminancia en la distribución de luminancia de la imagen es igual a la relación de puntos de píxel del componente de luminancia correspondiente en la distribución de luminancia estándar para generar una primera imagen procesada. El método puede incluir además: realizar, el reconocimiento de bordes de la primera imagen procesada; determinar, un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen de acuerdo con un resultado de reconocimiento de bordes; realizar un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y determinar, un primer coeficiente de ganancia de la imagen de alta frecuencia, realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia y realizar una fusión de imagen de la imagen de baja frecuencia y una imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
En un cuarto aspecto, una modalidad de la presente divulgación proporciona un aparato electrónico, que incluye: una cámara configurada para adquirir una imagen en un modo de color de separación de crominancia-luminancia, una memoria, un procesador y un programa informático almacenado en la memoria y operable por el procesador, donde el procesador, cuando ejecuta el programa informático, puede implementar un método de procesamiento de imágenes que incluye: realizar el reconocimiento de escena de una imagen para determinar una escena de la imagen; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen; y ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada, de modo que la distribución de luminancia de la imagen sea la misma que la distribución de luminancia estándar. El procesador, cuando ejecuta el programa informático, puede implementar además un método de procesamiento de imágenes que incluye: realizar, reconocimiento de bordes de la primera imagen procesada; determinar, un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen de acuerdo con un resultado de reconocimiento de bordes; realizar, un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y determinar, un primer coeficiente de ganancia de la imagen de alta frecuencia, realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia y realizar una fusión de imagen de la imagen de baja frecuencia y una imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
El método de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación selecciona adaptativamente la distribución de luminancia estándar correspondiente a una escena a través de la escena de la imagen, genera una relación de mapeo de luminancia de acuerdo con la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen, ajusta los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada, lo que permite lograr un efecto óptimo para imágenes de diferentes escenas y mejorar la aplicabilidad de la forma de procesamiento de imágenes. Mientras tanto, dado que el método procesa componentes de luminancia independientes, sin involucrar ningún ajuste de los componentes de color, se garantiza que el color de la imagen permanece como está en el proceso de procesamiento de imagen anterior, sin afectar ni cambiar el color, y el color de la imagen garantizado es claro sin distorsión.
El método de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación selecciona adaptativamente la distribución de luminancia estándar correspondiente a una escena a través de la escena de la imagen, genera una relación de mapeo de luminancia de acuerdo con la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen, ajusta los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada, lo que permite lograr un efecto óptimo para imágenes de diferentes escenas y mejorar la aplicabilidad de la forma de procesamiento de imágenes. Mientras tanto, dado que el método procesa componentes de luminancia independientes, sin involucrar ningún ajuste de los componentes de color, se garantiza que el color de la imagen permanece como está en el proceso de procesamiento de imagen anterior, sin afectar ni cambiar el color, y el color de la imagen garantizado es claro sin distorsión. Al realizar el reconocimiento de bordes de la imagen, se determina un núcleo de filtrado aplicable a la imagen, de modo que el contenido de la imagen se conserva en el proceso de filtrado, evitando así la pérdida de información detallada o información de contorno en la imagen.
Breve descripción de los dibujos
La Figura 1a es un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 1b es un diagrama de un mapa de distribución de luminancia de imagen de acuerdo con una modalidad de la presente divulgación.
La Figura 1c es un diagrama de curva de una relación de mapeo de luminancia de acuerdo con una modalidad de la presente divulgación.
La Figura 1d es un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con otra modalidad de la presente divulgación.
La Figura 2 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 3 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 4 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 5 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 6 es un diagrama de bloques estructural de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 7 es un diagrama estructural de un dispositivo de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación.
La Figura 8 es un diagrama estructural de un aparato electrónico de acuerdo con una modalidad de la presente divulgación.
La Figura 9 es un diagrama estructural de otro aparato electrónico de acuerdo con una modalidad de la presente divulgación.
Descripción detallada
Las soluciones técnicas de la presente divulgación se describirán adicionalmente a continuación junto con los dibujos adjuntos a través de modalidades específicas. Podría entenderse que, las modalidades específicas descritas en el presente documento se usan simplemente para interpretar la presente divulgación en lugar de limitar la presente divulgación. Además, debe observarse que, por conveniencia de la descripción, en los dibujos solo se muestran algunas pero no todas las estructuras relacionadas con la presente divulgación.
Antes de discutir las modalidades ilustrativas con más detalle, se debe señalar que algunas modalidades ilustrativas se describen como un proceso o método representado como un diagrama de flujo. Aunque el diagrama de flujo describe varios pasos como procesamiento secuencial, muchos de los pasos pueden implementarse en paralelo, al mismo tiempo o simultáneamente. Además, la secuencia de los pasos puede reorganizarse. El procesamiento puede terminarse cuando se completan las operaciones, pero también pueden incluirse pasos adicionales no incluidos en los dibujos. El procesamiento puede corresponder a métodos, funciones, procedimientos, subrutinas, subprogramas y similares.
La Figura 1 es un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. El método puede realizarse mediante un dispositivo de procesamiento de imágenes. El dispositivo puede implementarse mediante software y/o hardware y generalmente puede integrarse en un aparato electrónico. El método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 1a.
Bloque 101a: los componentes de luminancia de los puntos de píxel respectivos en una imagen pueden atravesarse, y la distribución de luminancia de la imagen puede generarse de acuerdo con un resultado de atravesar los componentes de luminancia.
A modo de ejemplo, el aparato electrónico en la modalidad de la presente divulgación puede incluir un aparato inteligente equipado con un dispositivo de captura de imágenes, por ejemplo, un teléfono móvil, una tableta o similar. El color generalmente se describe mediante tres atributos relativamente independientes. Tres variables independientes actúan juntas para formar naturalmente una coordenada espacial, que es un modo de color. El modo de color puede dividirse en un modo de color primario y un modo de color de separación crominancia-luminancia. Por ejemplo, el modo de color primario incluye, pero no se limita a, un modo de color RGB, y el modo de color de separación crominancia-luminancia incluye, pero no se limita a, un modo de color YUV y un modo de color Lab. En el modo de color YUV, el componente Y representa la luminancia; el componente U representa la crominancia; y el componente V representa la concentración, donde el componente U y el componente V juntos representan el color de la imagen. En el modo de color Lab, el componente L representa la luminancia y el a y b juntos representan el color. En una imagen en el modo de color de separación crominancia-luminancia, el componente de luminancia y el componente de color pueden extraerse por separado, de modo que la imagen puede procesarse en términos de luminancia y color. A modo de ejemplo, durante el procesamiento de los componentes de luminancia, no se ejercerá ningún impacto sobre los componentes de color de la imagen.
Cabe señalar que pueden convertirse el modo de color RGB, el modo de color YUV y el modo de color Lab. Con un teléfono móvil como ejemplo, cuando una imagen es capturada por un aparato de captura de imágenes en el teléfono móvil, un método para generar la imagen en el modo de color YUV puede incluir: convertir, basándose en los datos originales adquiridos por un sensor de imagen, el dato original en una imagen en modo de color RGB; generar una imagen en modo de color YUV de acuerdo con la imagen en modo de color RGB. El aparato de captura de imágenes puede ser, por ejemplo, una cámara. La cámara puede incluir un sensor de imagen de dispositivo de carga acoplada (CCD) o un sensor de imagen de semiconductor de óxido metálico complementario (CMOS). Basado en el sensor de imagen CCD o el sensor de imagen CMOS, una señal de fuente de luz capturada se convierte en datos originales RAW de una señal digital, se convierte en datos de imagen en el modo de color RGB basado en los datos originales RAW y luego se convierte en imagen de datos en modo de color YUV. En el aparato de captura de imágenes del teléfono móvil, puede formarse una imagen en formato JPG a partir de una imagen en modo de color YUV.
Cabe señalar que, el color en los datos de la imagen en el modo de color RGB formado por la conversión de datos originales RAW no es un color real de la imagen, y es imposible realizar ningún procesamiento de los datos de la imagen en el modo de color RGB formado en el presente documento; mientras que el color formado en los datos de la imagen en el modo de color YUV es un color real de la imagen, y es posible realizar el procesamiento de los datos de la imagen en el modo de color YUV. Durante el procesamiento de imágenes de uso común, se acostumbra procesar datos RGB, y el procesamiento somete los datos originales capturados por el sensor de imagen a la siguiente conversión de modo de color: datos originales RAW - imagen en modo de color RGB - imagen en modo de color YUV - imagen en modo de color RGB, donde la imagen en modo de color RGB se somete a una operación de procesamiento para obtener una imagen procesada en modo de color RGB que luego se convierte en una imagen en modo de color YUV, lo que hace posible la salida y obtención de una imagen en formato JPG. En consecuencia, cuando se procesan imágenes en otros modos de color, es necesario convertir la imagen en modo de color YUV y convertir la imagen procesada en una imagen en modo de color YUV, obteniendo así una imagen en formato JPG. En esta modalidad, la imagen adquirida en el modo de color de separación crominancia-luminancia puede ser una imagen en el modo de color YUV o una imagen en el modo de color Lab. Cuando el método de procesamiento de imágenes de la presente divulgación se aplica a un teléfono móvil, la imagen adquirida en el modo de color de separación crominancia-luminancia es una imagen en el modo de color YUV. Es posible realizar el procesamiento cuando un dispositivo de captura de imagen ha capturado la imagen en el modo de color YUV, sin involucrar la necesidad de una conversión de imagen redundante, economizando así el proceso de conversión de imagen y mejorando la eficiencia del procesamiento de imagen.
En esta modalidad, la imagen en el modo de color de separación crominancia-luminancia puede ser una imagen tomada por la cámara de acuerdo con una instrucción de disparo, o puede ser información de imagen capturada por la cámara y visualizada en la pantalla del aparato electrónico para que el usuario navegue antes que la instrucción de disparo sea ejecutada.
A modo de ejemplo, se atraviesa un componente de luminancia de cada punto de píxel de la imagen. Por ejemplo, en la imagen en el modo de color YUV, se extrae el componente Y de cada punto de píxel de la imagen y los puntos de píxel correspondientes a los respectivos componentes de luminancia se colocan en estadísticas. Opcionalmente, los datos de la imagen en el modo de color YUV se almacenan en formato plano. En otras palabras, tres componentes de Y, U y V se almacenan respectivamente en diferentes matrices; y cuando se atraviesan los componentes de luminancia de los puntos de píxel respectivos en la imagen, se lee la matriz para almacenar el componente Y, lo que hace posible adquirir los componentes de luminancia de los puntos de píxel respectivos en la imagen.
La distribución de luminancia puede visualizarse en forma de histograma, curva de distribución de luminancia o gráfico integral. Opcionalmente, el Bloque 101a puede ser: atravesar componentes de luminancia de puntos de píxel respectivos en la imagen y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia. A modo de ejemplo, se hace referencia a la Figura 1b, que es un diagrama de un mapa de distribución de luminancia de imagen proporcionado por una modalidad de la presente divulgación. En la Figura 1b, un eje horizontal se refiere a los respectivos componentes de luminancia de la imagen en un rango de 0-255, y un eje vertical se refiere al número de puntos de píxel correspondientes de cada uno de los componentes de luminancia. La distribución de luminancia puede reflejar la luminancia de color de la imagen. Cuando una proporción de puntos de píxel con componentes de luminancia de 1-128 es relativamente grande, se muestra que la luminancia general de la imagen tiende a ser oscura. Cuando una proporción de puntos de píxel con componentes de luminancia de 128-155 es relativamente grande, se muestra que la luminancia general de la imagen tiende a ser brillante.
Bloque 102a: Puede generarse una relación de mapeo de luminancia basada en la distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen.
En esta modalidad, la distribución de luminancia estándar se establece para cada escena de imagen, que se usa como base para ajustar los componentes de luminancia de la imagen en una misma escena. La distribución de luminancia estándar incluye una relación estándar del número de puntos de píxel correspondientes de cada uno de los componentes de luminancia de 0-255 al número de puntos de píxel de la imagen completa. Cuando la distribución de luminancia de la imagen satisface la distribución de luminancia estándar preestablecida, la imagen satisface los requisitos de luminancia del usuario para la imagen. Cuando existe una diferencia entre la distribución de luminancia de la imagen y la distribución de luminancia estándar preestablecida, los componentes de luminancia de los puntos de píxel de la imagen pueden ajustarse de manera que la distribución de luminancia de la imagen después del ajuste sea consistente con la distribución de luminancia estándar preestablecida o cae dentro de un margen de error admisible en comparación con el mismo. En esta modalidad, se incluye una relación de correspondencia entre los componentes de luminancia originales de la imagen y los componentes de luminancia mapeados en la relación de mapeo de luminancia, y puede usarse para ajustar los componentes de luminancia de los puntos de píxel en la imagen en componentes de luminancia mapeados, y la distribución de luminancia de la imagen después del ajuste satisface la distribución de luminancia estándar preestablecida. A modo de ejemplo, como se muestra en la Figura 1c, la Figura 1c es un diagrama de curva de una relación de mapeo de luminancia proporcionada por una modalidad de la presente divulgación. La relación de mapeo de luminancia puede visualizarse en forma de una curva o una tabla de consulta (LUT), que no está limitada en la presente modalidad. La Figura 1c es solo un ejemplo de visualización de curva de la relación de mapeo de luminancia. En la Figura 1c, el eje horizontal correspondiente a la curva se refiere a los componentes de luminancia originales de la imagen, y el eje vertical correspondiente a la curva se refiere a los componentes de luminancia ajustados.
En la presente modalidad, la escena de la imagen puede ser reconocida automáticamente por un aparato electrónico, o puede ser ingresada por el usuario a través de una operación de control táctil o un comando de voz. Cuando existe un resultado de reconocimiento de escena del aparato electrónico y una escena de imagen introducida por el usuario al mismo tiempo, la operación subsiguiente se realiza preferiblemente basándose en la escena de imagen introducida por el usuario, para generar una relación de mapeo de luminancia.
Bloque 103a: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
En la presente modalidad, la distribución de luminancia estándar correspondiente se identifica de forma adaptativa de acuerdo con la escena de la imagen, y se determina una relación de mapeo de luminancia aplicable a la imagen, iluminando así las imágenes diferenciales en múltiples escenas. En comparación con estar basada en la misma distribución de luminancia estándar, la modalidad, basada en la diferencia en las escenas de la imagen, realiza diferentes grados de mapeo de luminancia de la imagen para formar imágenes procesadas diferenciales, mejorando así el efecto de la imagen procesada. Específicamente, se atraviesa cada punto de píxel de la imagen; se adquiere un componente de luminancia de cada punto de píxel; un componente de luminancia mapeado correspondiente del componente de luminancia se determina basándose en la relación de mapeo de luminancia; y el componente de luminancia de cada punto de píxel se ajusta en un componente de luminancia mapeado, para realizar el ajuste de luminancia de la imagen y de ese modo obtener una primera imagen procesada.
El método de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación selecciona adaptativamente la distribución de luminancia estándar correspondiente a la escena a través de la escena de la imagen, genera una relación de mapeo de luminancia de acuerdo con la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen, y ajusta los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada, lo que permite lograr un efecto óptimo para imágenes en diferentes escenas y mejorar la aplicabilidad de la forma de procesamiento de imágenes. Al mismo tiempo, dado que el método procesa componentes de luminancia independientes, sin involucrar ningún ajuste de los componentes de color, se garantiza que el color de la imagen permanece como está en el proceso de procesamiento de imagen anterior, sin afectar o cambiar el color durante el proceso de procesamiento, y el color de la imagen garantizado es claro sin distorsión. La Figura 1d es un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con otra modalidad de la presente divulgación. El método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 1d. Bloque 101b: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 102b: El reconocimiento de escena de la imagen puede realizarse para determinar una escena de la imagen. A modo de ejemplo, la escena de la imagen puede incluir, entre otros, una escena de retrato, una escena nocturna, una escena de puesta de sol, una escena de luz diurna, una escena de contraluz y una escena de contraluz nocturna, etc. Es posible realizar un reconocimiento de escena de la imagen de acuerdo con factores como un objeto incluido en la imagen y una relación brillo-oscuridad de la imagen. Por ejemplo, es posible realizar un reconocimiento de la imagen basado en un modelo de aprendizaje profundo que puede ser una red neuronal convolucional. Un modelo de aprendizaje profundo que tiene una función de reconocimiento de escenas está preestablecido en el aparato electrónico. El modelo de aprendizaje profundo puede entrenarse en base a una forma de aprendizaje supervisado. Por ejemplo, se captura una gran cantidad de imágenes y se marca una escena real de cada imagen como muestra de entrenamiento; y se introduce una imagen de muestra en un modelo de aprendizaje profundo no entrenado para obtener una escena de salida. Cuando la escena de salida del modelo de aprendizaje profundo es inconsistente con la escena real, los parámetros de red como el peso y el valor de compensación en el modelo de aprendizaje profundo se ajustan inversamente de acuerdo con una diferencia entre la escena de salida y la escena real, y el proceso de entrenamiento anterior se ejecuta cíclicamente hasta que la precisión en la escena de salida del modelo de aprendizaje profundo alcanza una precisión preestablecida, por lo que se completa el entrenamiento del modelo de aprendizaje profundo.
Bloque 103b: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse, y puede generarse la distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 104b: Puede generarse una relación de mapeo de luminancia basada en la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen.
Bloque 105b: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
La Figura 2 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. El método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 2. Bloque 201: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 202: Puede realizarse el reconocimiento de escena de la imagen para determinar una escena de la imagen. Bloque 203: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse y la distribución de luminancia de la imagen puede generarse de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 204: Los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo correspondientes pueden determinarse de acuerdo con una primera relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia estándar y una segunda relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia de la imagen, y puede establecerse una relación de mapeo entre los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo, para generar la relación de mapeo.
Bloque 205: La relación de mapeo de luminancia puede corregirse de acuerdo con la escena de la imagen.
Bloque 206: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia corregida para generar una primera imagen procesada.
En el Bloque 204, para cualquiera de los componentes de luminancia, cuando la primera relación de puntos de píxel del componente de luminancia en la distribución de luminancia estándar es diferente de la segunda relación de puntos de píxel del componente de luminancia correspondiente en la imagen, el componente de luminancia en la imagen necesita ser ajustado. La primera relación de puntos de píxel indica una relación de un número de puntos de píxel en la distribución de luminancia estándar correspondiente a un componente de luminancia a un número total de puntos de píxel en la distribución de luminancia estándar. La segunda relación de puntos de píxel indica una relación de un número de puntos de píxel en la distribución de luminancia de la imagen correspondiente a un componente de luminancia a un número total de puntos de píxel en la distribución de luminancia de la imagen.
En algunas modalidades, cuando la primera relación de puntos de píxel de un componente de luminancia es mayor que la segunda relación de puntos de píxel de un componente de luminancia, al menos un componente de luminancia subsiguiente del componente de luminancia se mapea en el componente de luminancia, hasta que la segunda relación de puntos de píxel del componente de luminancia es igual a la primera relación de puntos de píxel del componente de luminancia; y cuando la primera relación de puntos de píxel de un componente de luminancia es menor que la segunda relación de puntos de píxel del componente de luminancia, al menos una parte del componente de luminancia de la imagen se mapea a otros componentes de luminancia, hasta que la segunda relación de puntos de píxel del componente de luminancia sea igual a la primera relación de puntos de píxel del componente de luminancia.
En otras modalidades, cuando la primera relación de puntos de píxel de un componente de luminancia es mayor que la segunda relación de puntos de píxel de un componente de luminancia, al menos un componente de luminancia subsiguiente de un componente de luminancia se mapea en el componente de luminancia único, hasta que la diferencia entre la segunda relación de puntos de píxel del componente de luminancia y la primera relación de puntos de píxel de un componente de luminancia está dentro de un rango de error admisible; y cuando la primera relación de puntos de píxel de un componente de luminancia es menor que la segunda relación de puntos de píxel de un componente de luminancia, al menos parte del componente de luminancia de la imagen se mapea en otros componentes de luminancia, hasta que la diferencia entre la segunda relación de puntos de píxel del componente de luminancia y la primera relación de puntos de píxel del componente de luminancia esté dentro de un rango de error permitido.
Específicamente, cuando la primera relación de puntos de píxel del primer componente de luminancia en la distribución de luminancia estándar es mayor que la segunda relación de puntos de píxel del primer componente de luminancia en la imagen, es necesario mapear otros componentes de luminancia en el primer componente de luminancia para aumentar la segunda proporción de puntos de píxel del primer componente de luminancia en la imagen. Los otros componentes de luminancia deben ajustarse; el primer componente de luminancia puede ser un componente de luminancia objetivo; y se establece una relación de mapeo entre los otros componentes de luminancia y el componente de luminancia objetivo. A modo de ejemplo, los otros componentes de luminancia son componentes de luminancia en un intervalo adyacente al primer componente de luminancia. Una relación de puntos de píxel correspondiente de los otros componentes de luminancia que se deben ajustar puede ser la misma que la diferencia entre la primera relación de puntos de píxel y la segunda relación de puntos de píxel, o está dentro de un rango de error admisible en comparación con la diferencia entre la primera relación de puntos de píxel y la segunda relación de puntos de píxel. Del mismo modo, cuando la primera relación de puntos de píxel del segundo componente de luminancia en la distribución de luminancia estándar es menor que la segunda relación de puntos de píxel del segundo componente de luminancia en la imagen que se va a procesar, es necesario mapear al menos parte del segundo componente de luminancia en otro componente de luminancia para reducir la segunda relación de puntos de píxel del segundo componente de luminancia en la imagen que se va a procesar.
Alternativamente, los respectivos componentes de luminancia se analizan y procesan en secuencia de acuerdo con las magnitudes de valor de los componentes de luminancia, por ejemplo, en una secuencia ascendente de componentes de luminancia de 0 a 255, o en una secuencia descendente de componentes de luminancia de 255 a 0. A modo de ejemplo, con el componente de luminancia 0 como ejemplo, se introduce una manera de generar una relación de mapeo de luminancia. Cuando la primera relación de puntos de píxel del componente de luminancia que es 0 en la distribución de luminancia estándar es 10 % mayor que la segunda relación de puntos de píxel del componente de luminancia es 0 en la imagen que se va a procesar, que es del 5 %, puede determinarse una diferencia de relación, que es de un 5 % entre la primera relación de puntos de píxel y la segunda relación de puntos de píxel.
Una relación de puntos de píxel de un componente de luminancia subsiguiente puede ser parte del componente de luminancia que se requiere ajustar. Si el punto de píxel del componente de luminancia subsiguiente es mucho menor que la diferencia (5 %), que está dentro de un rango de error permitido, otro componente de luminancia subsiguiente puede formar parte del componente de luminancia que debe ajustarse, hasta que la suma de la relación de los componentes de luminancia que deben ajustarse sea igual a la diferencia o esté dentro del rango de error permitido. Por ejemplo, si la relación de puntos de píxel del componente de luminancia que es 1 es 5 %, todo el componente de luminancia que es 1 es mapeado al componente de luminancia que es 0, y no es necesario mapear otros componentes de luminancia a 0.
Si la relación de puntos de píxel del componente de luminancia que es 1 es del 3 %, todo el componente de luminancia que es 1 es mapeado al componente de luminancia que es 0. Si el rango de error admisible es inferior al 2 %, el componente de luminancia que es 2 puede mapearse adicionalmente a 0; y si el rango de error permitido es inferior al 2 %, no es necesario mapear otros componentes de luminancia a 0.
Si la relación de puntos de píxel del componente de luminancia que es 2 es inferior al 2 %, por ejemplo 1 %, todo el componente de luminancia que es 2 puede mapearse a 0, y una determinación de si el componente de luminancia que es 3 se mapea a 0 puede hacerse además de la misma manera que se describe anteriormente.
Si la relación de puntos de píxel del componente de luminancia que es 2 es mayor que 2 %, por ejemplo, 7 %, el 2 % del componente de luminancia que es 2 puede mapearse a 0, no es necesario mapear ningún otro componente de luminancia a 0.
Si la proporción de píxel del componente de luminancia que es 1 en la distribución de luminancia estándar es del 5 %, no obstante, todo el componente de luminancia que es 1 en la imagen se mapea a 0, es decir, la proporción de puntos de píxel del componente de luminancia que es 1 en la imagen es 0, el componente de luminancia de subsecuencia que es 2 puede mapearse en el componente de luminancia que es 1. Y el resto puede hacerse de la misma forma.
En otro ejemplo, si la relación de puntos de píxel de los componentes de luminancia en un intervalo de 1-5 es idéntica o similar a la diferencia de relación mencionada anteriormente, los componentes de luminancia en el intervalo de 1-5 se determinan como componentes de luminancia que deben ajustarse, el componente de luminancia que es 0 se toma como componente de luminancia objetivo; y se establece una relación de mapeo entre ellos, es decir, los componentes de luminancia que son 1-5 se mapean en el componente de luminancia que es 0 en la relación de mapeo de luminancia. De la misma forma se establece una relación de mapeo de luminancia.
Cabe señalar que los componentes de luminancia de una imagen adquirida por el aparato electrónico pueden estar en un rango de 0 a 255, o pueden estar en cualquier subrango de 0-255, por ejemplo, los componentes de luminancia pueden variar de 30 a 200. En otras palabras, el número de puntos de píxel de los componentes de luminancia en los rangos de 0-30 y 200-255 en la imagen es 0. Al establecer una relación de mapeo de luminancia, el rango de 30-200 de los componentes de luminancia puede mapearse en un rango de 0-255 para realizar la extensión del rango de los componentes de luminancia de la imagen adquirida, de modo que la región brillante sea más brillante y la región oscura sea más oscura, lo que aumenta el color y mejora la definición de la imagen.
En el Bloque 205, las imágenes en diferentes escenas pueden tener diferentes énfasis. Por ejemplo, en una escena de retrato, una región de rostro humano es una región resaltada de la imagen; en una escena de puesta de sol, la capa de nubes con un tono cálido es una región resaltada de la imagen; y en un modo de luz de fondo, un objeto de luz de fondo es lo más destacado de la imagen. En esta modalidad, se determina una región resaltada de la imagen de acuerdo con una escena de la imagen, y se corrigen los componentes de luminancia de la región resaltada de la imagen en la relación de mapeo de luminancia. A modo de ejemplo, para una imagen que incluye un rostro humano, se ajusta el componente de luminancia mapeado de los componentes de luminancia correspondientes de la región del rostro humano. En el presente documento, el aparato electrónico está preconfigurado con formas de corrección de las relaciones de mapeo de luminancia en diferentes escenas; y la relación de mapeo de luminancia se corrige de forma adaptativa de acuerdo con la escena de la imagen, de modo que la relación de mapeo de luminancia corregida sea más adecuada para la imagen en la escena.
El método de procesamiento de imágenes proporcionado por la modalidad de la presente divulgación determina una relación de mapeo de los componentes de luminancia a través de la relación de puntos de píxel de los componentes de luminancia correspondientes en la distribución de luminancia estándar y la distribución de luminancia de la imagen a procesar, para establecer una relación de mapeo de luminancia. Después de determinar los componentes de luminancia de los puntos de píxel respectivos en la imagen, es posible determinar rápidamente un componente de luminancia objetivo mapeado en una manera de acceder a la relación de mapeo de luminancia, lo que mejora la eficiencia del procesamiento de la imagen, reduce el tiempo de procesamiento de la imagen y asegura una mejor experiencia del usuario con respecto a realizar el mapeo de funciones de cada punto de píxel.
En algunas modalidades, el Bloque 204 puede ser además: los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo correspondientes pueden determinarse de acuerdo con una tercera relación de puntos de píxel correspondiente a un intervalo de componentes de luminancia en la distribución de luminancia estándar y una cuarta relación de puntos de píxel correspondiente a un intervalo de componente de luminancia en la distribución de luminancia de la imagen, y puede establecerse una relación de mapeo entre los componentes de luminancia que se requiere ajustar y los componentes de luminancia objetivo.
En algunas modalidades, cuando la primera relación de puntos de píxel de un intervalo de componentes de luminancia es mayor que la segunda relación de puntos de píxel del intervalo de componentes de luminancia, al menos un intervalo de componentes de luminancia subsiguiente del intervalo de componentes de luminancia se mapea en el intervalo de componentes de luminancia, hasta que la segunda relación de puntos de píxel del intervalo de componentes de luminancia es igual a la primera relación de puntos de píxel del intervalo de componentes de luminancia; y cuando la primera relación de puntos de píxel de un intervalo de componentes de luminancia es menor que la segunda relación de puntos de píxel del intervalo de componentes de luminancia, al menos una parte del intervalo de componentes de luminancia de la imagen se mapea a otros intervalos de componentes de luminancia, hasta que la segunda relación de puntos de píxel del intervalo de componentes de luminancia sea igual a la primera relación de puntos de píxel del intervalo de componentes de luminancia.
En otras modalidades, cuando la primera relación de puntos de píxel de un intervalo de componentes de luminancia es mayor que la segunda relación de puntos de píxel del intervalo de componentes de luminancia, al menos un intervalo de componentes de luminancia subsiguiente del intervalo de componentes de luminancia se mapea en el intervalo de componentes de luminancia, hasta que la diferencia entre la segunda relación de puntos de píxel del intervalo de componentes de luminancia y la primera relación de puntos de píxel del intervalo de componentes de luminancia esté dentro de un intervalo de error permitido; y cuando la primera relación de puntos de píxel de un intervalo de componentes de luminancia es menor que la segunda relación de puntos de píxel del intervalo de componentes de luminancia, al menos una parte del intervalo de componentes de luminancia de la imagen se mapea en otros intervalos de componentes de luminancia, hasta que la diferencia entre la segunda relación de puntos de píxel del intervalo de componentes de luminancia y la primera relación de puntos de píxel del intervalo de componentes de luminancia esté dentro de un rango de error permitido.
En esta modalidad, el rango de componentes de luminancia de 0-255 se divide en una pluralidad de intervalos de componentes de luminancia, y los componentes de luminancia se analizan y procesan con intervalos de componentes de luminancia como unidades para establecer una relación de mapeo de luminancia. El principio de establecer la relación de mapeo de luminancia en el presente documento es el mismo que el principio de establecer la relación de mapeo de luminancia en la modalidad anterior, y no se repite en el presente documento.
A modo de ejemplo, con un intervalo de componente de luminancia de 0-10 como ejemplo, se introduce una manera de generar una relación de mapeo de luminancia. Cuando la tercera relación de puntos de píxel del intervalo de componentes de luminancia que es de 0-10 en la distribución de luminancia estándar es mayor que la cuarta relación de puntos de píxel del intervalo de componentes de luminancia que es de 0-10 en la imagen que se va a procesar, puede determinarse una diferencia de relación entre la tercera relación de puntos de píxel y la cuarta relación de puntos de píxel. Si la relación de puntos de píxel de los componentes de luminancia en el intervalo de 10­ 15 es idéntica o similar a la diferencia de relación anterior, los componentes de luminancia en el intervalo de 0-15 se determinan como componentes de luminancia que deben ajustarse; el intervalo de componente de luminancia que es 0-10 se toma como componente de luminancia objetivo; y se establece una relación de mapeo entre ellos. A modo de ejemplo, las respectivas componentes de luminancia en el intervalo de componente de luminancia de 0-15 se multiplican cada una por 2/3 para obtener componentes de luminancia objetivo. Por ejemplo, se establece una relación de mapeo entre un componente de luminancia 15 y un componente de luminancia objetivo 10; se establece una relación de mapeo entre un componente de luminancia 12 y un componente de luminancia objetivo 8; se establece una relación de mapeo entre un componente de luminancia 11 y un componente de luminancia objetivo 7, que se calcula por redondeo; se establece una relación de mapeo entre un componente de luminancia 9 y un componente de luminancia objetivo 6... y similares. De manera correspondiente, las relaciones de mapeo se determinan en secuencia para los respectivos intervalos de componente de luminancia en el rango de componente de luminancia de 0-255 para establecer una relación de mapeo de luminancia. La forma detallada de mapeo es similar a la del mapeo de componentes de luminancia uno por uno, que no se menciona en el presente documento. En ese sentido, cuanto mayor sea el intervalo de componente de luminancia, más rápida puede ser la velocidad de establecimiento de la relación de mapeo de luminancia, y será peor la precisión en la relación de mapeo de luminancia. En consecuencia, cuanto más pequeño es el intervalo de componente de luminancia, más lenta puede ser la velocidad de establecimiento de la relación de mapeo de luminancia, y puede ser mayor la precisión en la relación de mapeo de luminancia. La división de los intervalos de componentes de luminancia puede determinarse midiendo la velocidad de establecimiento y la precisión de la relación de mapeo de luminancia.
La Figura 3 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. Esta modalidad es una solución opcional de la modalidad anterior. En consecuencia, el método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 3.
Bloque 301: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 302: Puede realizarse el reconocimiento de escena de la imagen para determinar una escena de la imagen. Bloque 303: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse y puede generarse la distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 304: Puede determinarse un rango de componentes de luminancia de la imagen de acuerdo con el resultado de atravesar los componentes de luminancia de los puntos de píxel respectivos en la imagen.
Bloque 305: A partir de la distribución de luminancia estándar puede extraerse una distribución de luminancia objetivo correspondiente al rango de componentes de luminancia de la imagen.
Bloque 306: La relación de mapeo de luminancia puede generarse de acuerdo con la distribución de luminancia objetivo y la distribución de luminancia de la imagen.
Bloque 307: La relación de mapeo de luminancia puede corregirse de acuerdo con la escena de la imagen.
Bloque 308: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia corregida para generar una primera imagen procesada.
En el Bloque 305, un valor máximo y un valor mínimo de los componentes de luminancia en la imagen se determinan de acuerdo con el resultado de atravesar los componentes de luminancia de los puntos de píxel respectivos en la imagen. Puede aprenderse además que el rango de componentes de luminancia de la imagen es un rango entre el valor mínimo y el valor máximo. Por ejemplo, si el valor máximo de los componentes de luminancia es 200 y el valor mínimo es 50, los componentes de luminancia de la imagen oscilan entre 50 y 200. Si el rango del componente de luminancia de la imagen adquirida por el aparato electrónico es un subrango de un rango de luminancia de 0 a 255, la distribución de luminancia estándar se somete a extracción de acuerdo con el valor máximo y el valor mínimo de los componentes de luminancia en la imagen para obtener una porción entre el valor máximo y el valor mínimo en la distribución de luminancia estándar como distribución de luminancia objetivo. Por ejemplo, cuando el rango de componentes de luminancia de la imagen es de 50 a 200, una parte en la que los componentes de luminancia son de 50 a 200 en la distribución de luminancia estándar se extrae como distribución de luminancia objetivo.
En el Bloque 306, el principio de generar la relación de mapeo de luminancia basada en la distribución de luminancia objetivo y la distribución de luminancia de la imagen es el mismo que el principio de generar la relación de mapeo de luminancia de acuerdo con la distribución de luminancia estándar preestablecida y la distribución de luminancia de la imagen, y se omite en el presente documento. Allí, el análisis puede realizarse con un componente de luminancia como una unidad o con un intervalo de componente de luminancia como una unidad, para establecer una relación de mapeo de luminancia.
El método de procesamiento de imágenes proporcionado por la modalidad de la presente divulgación determina un rango de componentes de luminancia de la imagen de acuerdo con el resultado de atravesar los componentes de luminancia de los puntos de píxel en la imagen, extrae la distribución de luminancia objetivo correspondiente al rango de componente de luminancia de la imagen de la distribución de luminancia estándar preestablecida, genera la relación de mapeo de luminancia de acuerdo con la distribución de luminancia de destino y la distribución de luminancia de la imagen, y ajusta los componentes de luminancia de la imagen para generar una imagen procesada. Dentro del rango de componentes de luminancia de la imagen, la luminancia de la imagen se ajusta a un estado estándar y se ajusta razonablemente, mejorando así la calidad de la imagen.
La Figura 4 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. Esta modalidad es una solución opcional de la modalidad anterior. En consecuencia, el método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 4.
Bloque 401: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 402: Puede realizarse el reconocimiento de escena de la imagen para determinar una escena de la imagen. Bloque 403: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse y la distribución de luminancia de la imagen puede generarse de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 404: Puede generarse una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen.
Bloque 405: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
Bloque 406: Puede realizarse el reconocimiento de bordes de la primera imagen procesada.
Bloque 407: Un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen puede determinarse de acuerdo con un resultado de reconocimiento de bordes.
Bloque 408: Puede realizarse un procesamiento de filtrado de la primera imagen procesada basado en el núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada.
Bloque 409: Puede determinarse un primer coeficiente de ganancia de la imagen de alta frecuencia, y puede realizarse un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia, y puede realizarse una fusión de imagen de la imagen de baja frecuencia y una imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.
En el Bloque 406, el reconocimiento de bordes puede realizarse en la imagen para extraer una línea de límite entre el objeto y el fondo de la imagen. Los puntos de contorno en la imagen pueden detectarse primero aproximadamente y luego los puntos de contorno detectados se conectan a través de una regla de enlace; y mientras tanto, los puntos de límite omitidos también se detectan y conectan, con los límites falsos eliminados. El propósito del reconocimiento de bordes es descubrir información sobre la forma y el reflejo o la transmitancia en la imagen. A modo de ejemplo, los valores de píxel adyacentes o valores de luminancia de los puntos de píxel de la imagen pueden detectarse fila por fila y columna por columna para determinar puntos de píxel cuyos valores de píxel o valor de luminancia cambian enormemente, como puntos de píxel de borde que están conectados para formar un borde. A modo de ejemplo, realizar el reconocimiento de bordes de la imagen también puede ser calcular la imagen en base a lo siguiente, pero no limitado a un operador de bordes de Roberts, un operador de detección de bordes de Sobel o un operador de bordes de Laplacan.
En el Bloque 407, el resultado del reconocimiento de borde puede ser la salida de información de borde en la imagen o generar valores característicos que caracterizan la información de borde en base a la información de borde reconocida. El núcleo de filtrado es un núcleo operador de un filtro que realiza el procesamiento de filtrado de la imagen. El filtrado de núcleos con diferentes tamaños tiene diferentes efectos de filtrado. Por ejemplo, un filtro con un núcleo de filtrado más pequeño, al realizar el procesamiento de filtrado, puede conservar pequeños detalles en la imagen, mientras que un filtro con un núcleo de filtrado más grande, al realizar el procesamiento de filtrado, puede conservar un contorno grande en la imagen. A modo de ejemplo, el núcleo de filtrado puede ser, pero no limitado a, 3^3, 5x5, 7x7 o 9x9, etc.
En esta modalidad, los contenidos de la imagen capturados por el aparato electrónico cuando se disparan diferentes objetos a disparar difieren en gran medida. Al realizar el reconocimiento de bordes de la imagen, se determina un núcleo de filtrado aplicable a la imagen, de modo que los contenidos de la imagen se conservan en el proceso de filtrado, evitando así la pérdida de información detallada o información de contorno en la imagen. Alternativamente, la determinación del núcleo de filtrado que realiza el procesamiento de filtrado de la imagen de acuerdo con el resultado del reconocimiento de la escena puede realizarse como sigue: puede determinarse un coeficiente de borde en la imagen de acuerdo con el resultado del reconocimiento de la escena; y el tamaño del núcleo de filtrado que realiza el procesamiento de filtrado de la imagen puede determinarse de acuerdo con el coeficiente de borde, donde el tamaño del núcleo de filtrado puede correlacionarse positivamente con el coeficiente de borde. El coeficiente de borde de la imagen puede ser un valor característico usado para caracterizar la información de borde. A modo de ejemplo, cuanto mayor es el coeficiente de borde, más información de borde puede incluir la imagen. Mientras que cuanto menor es el coeficiente de borde, menos información de borde puede incluir la imagen. Para preservar la información en la imagen, el tamaño del núcleo de filtrado se correlaciona positivamente con el coeficiente de borde, es decir, cuanto mayor sea el coeficiente de borde de la imagen, se aplicará el núcleo de filtrado más grande a la imagen. Por ejemplo, cuando la imagen incluye un escritorio blanco y botones negros y manchas en el escritorio, puede aprenderse que la imagen es relativamente plana y contiene menos información de borde, y un coeficiente de borde derivado del reconocimiento de borde de la imagen es más pequeño y, en consecuencia, el núcleo de filtrado aplicable a la imagen es más pequeño, por ejemplo, podría ser un núcleo de filtrado 333. Cuando la imagen incluye una pluralidad de mesas, sillas, gabinetes y una pluralidad de objetos en la mesa, puede aprenderse que la imagen es más complicada y contiene más información de borde, y un coeficiente de borde derivado del reconocimiento de borde de la imagen es más grande y, en consecuencia, el núcleo de filtrado aplicable a la imagen es más grande, por ejemplo, podría ser un núcleo de filtrado 9*9.
Opcionalmente, de acuerdo con el resultado del reconocimiento de borde de la imagen, se determina una posición de la información de borde en la imagen; la imagen está sujeta a división regional; la región donde está presente la información de borde se somete a un procesamiento de filtrado por medio de un núcleo de filtrado más grande; la región de fondo de la imagen se somete a un procesamiento de filtrado por medio de un núcleo de filtrado más pequeño; y la imagen se somete a un procesamiento de filtrado basado en un núcleo de filtrado dinámico, conservando así la información del contorno y la información detallada de la imagen, para evitar la pérdida de la información de la imagen.
En el Bloque 408, un filtro para filtrar la imagen es un filtro pasa bajo y, en consecuencia, la imagen se somete a un procesamiento de filtrado pasa bajo. Específicamente, la imagen se somete a un procesamiento de filtrado pasa bajo basado en el filtro pasa bajo, para obtener una imagen de baja frecuencia correspondiente a la imagen original; y restando la imagen de baja frecuencia de la imagen original, es posible obtener una imagen de alta frecuencia correspondiente a la imagen original. Específicamente, calcular el valor de la diferencia de píxel de los puntos de píxel correspondientes de la imagen original y la imagen de baja frecuencia para obtener una imagen de alta frecuencia correspondiente a la imagen original.
En el Bloque 409, la imagen de alta frecuencia puede incluir información de contenido en la imagen original y está sujeta a un procesamiento de mejora, de modo que el contraste entre la imagen de alta frecuencia mejorada y la imagen de baja frecuencia podría mejorarse. El rango dinámico de la imagen se ajusta aún más para resaltar el objeto en la imagen y mejorar la definición de la imagen. A modo de ejemplo, la manera de realizar el procesamiento de mejora en la imagen de alta frecuencia puede ser: se establece un coeficiente de mejora de los puntos de píxel en la imagen de alta frecuencia; los coeficientes de mejora se multiplican por los valores de píxel o los valores de luminancia de los puntos de píxel, respectivamente; y la imagen de alta frecuencia mejorada y la imagen de baja frecuencia se someten a fusión de imágenes para obtener una imagen procesada. Los coeficientes de mejora para realizar el procesamiento de mejora de la imagen de alta frecuencia pueden ser un valor fijo, es decir, los coeficientes de mejora de los puntos de píxel respectivos son idénticos. Alternativamente, los coeficientes de mejora para realizar el procesamiento de mejora de la imagen de alta frecuencia también pueden calcularse de acuerdo con cada punto de píxel y diferir de acuerdo con las diferencias en los puntos de píxel respectivos. De manera correspondiente, cuando la imagen de alta frecuencia se somete a un procesamiento de mejora, el valor de píxel o valor de luminancia de cada punto de píxel se multiplica por un coeficiente de mejora correspondiente para obtener una imagen mejorada de alta calidad.
El método de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación realiza secuencialmente procesamiento de amplificación de color y procesamiento de mejora de contraste en la imagen capturada por la cámara, y procesa componentes de luminancia independientes sin involucrar componentes de color. En otras palabras, sobre la base de no dañar el color, el método ajusta un rango dinámico y un modo virtual del color para mejorar la luminancia de la imagen y la definición de detalle de la imagen.
La Figura 5 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. Esta modalidad es una solución opcional de la modalidad anterior. En consecuencia, el método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 5.
Bloque 501: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 502: El reconocimiento de escena de la imagen puede realizarse para determinar una escena de la imagen.
Bloque 503: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse y puede generarse una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 504: Puede generarse una relación de mapeo de luminancia basada en la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen.
Bloque 505: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
Bloque 506: Puede realizarse el reconocimiento de bordes de la primera imagen procesada.
Bloque 507: Un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen puede determinarse de acuerdo con un resultado de reconocimiento de bordes.
Bloque 508: Puede realizarse un procesamiento de filtrado de la primera imagen procesada basado en el núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada.
Bloque 509: Puede determinarse un primer coeficiente de ganancia de la imagen de alta frecuencia y puede realizarse un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
Bloque 510: Determinar un segundo coeficiente de ganancia de la imagen de baja frecuencia y realizar el procesamiento de mejora de la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia. Bloque 511: Realizar la fusión de imágenes de la imagen mejorada de baja frecuencia y la imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.
En el Bloque 508, los componentes de luminancia de la primera imagen procesada pueden someterse a un procesamiento de filtrado pasa bajo. Por ejemplo, en el modo de color YUV, solo el componente Y se somete a un procesamiento de filtrado para obtener una imagen de alta frecuencia y una imagen de baja frecuencia asociada con el componente Y; y el procesamiento de mejora subsiguiente implica el ajuste y la transformación del componente Y, que no afecta en absoluto a la relación entre el componente U y el componente V. Como tal, se garantiza que el color de la imagen no se distorsiona durante el procesamiento y se mejora el contraste de la imagen sin dañar el color.
En el Bloque 509, en la imagen de alta frecuencia, puede calcularse una variación local de una región de ventana con un punto de píxel de referencia como centro basándose en una ventana de un tamaño preestablecido; puede determinarse un valor de ganancia del punto de píxel de referencia de acuerdo con una desviación estándar local correspondiente a la varianza local de la región de la ventana. El valor de ganancia de cada uno de los puntos de píxel puede determinarse de la misma forma descrita anteriormente. El primer coeficiente de ganancia de la imagen de alta frecuencia puede determinarse de acuerdo con los valores de ganancia de todos los puntos de píxel. El punto de píxel de referencia es cualquiera (i, j) de los puntos de píxel de la imagen y su componente de luminancia es x (i, j), donde i son las coordenadas horizontales de los puntos de píxel de referencia en la imagen, y j son las coordenadas verticales de los puntos de píxel de referencia en la imagen. El tamaño de la ventana puede ser (2n 1)(2n 1), n es un número entero mayor o igual que 0. El tamaño de la ventana anterior es solo un ejemplo. En otros ejemplos, la ventana anterior puede tener la forma de un rectángulo, es decir,
Figure imgf000014_0001
La varianza local de la región de la ventana puede calcularse mediante la siguiente fórmula:
Figure imgf000014_0002
en donde,
Figure imgf000014_0003
En la fórmula anterior, mx (i,j) es un valor promedio local de la región de la ventana; x(k,l) es un componente de luminancia del punto de píxel en la ventana, y k y 1 son números enteros mayores o iguales que 0.
En esto, Ox (i,j) es una desviación estándar local de la región de la ventana con el punto de píxel de referencia como centro. En algunas modalidades, el valor de ganancia del punto de píxel de referencia es inversamente proporcional a la desviación estándar local, por ejemplo, el valor de ganancia del punto de píxel de referencia puede ser D/Ox (ij). En algunas modalidades, el valor de ganancia del punto de píxel de referencia es mayor que uno para lograr la mejora de los componentes de luminancia de los puntos de píxel en la imagen de alta frecuencia, donde D es una constante.
En esta modalidad, de la manera anterior, se determina el valor de ganancia de cada punto de píxel en la imagen de alta frecuencia y se determina además el primer coeficiente de ganancia de la imagen de alta frecuencia.
En algunas modalidades, después de que se determina el primer coeficiente de ganancia, el método puede incluir además: corregir el primer coeficiente de ganancia de acuerdo con el resultado del reconocimiento de escena de la imagen. A modo de ejemplo, el resultado del reconocimiento de escena de la imagen puede determinar una relación de información de alta frecuencia e información de baja frecuencia en la imagen. Cuando la relación entre la información de alta frecuencia y la información de baja frecuencia es relativamente grande, se muestra que la imagen de alta frecuencia contiene un gran número de puntos de píxel para mejorar. Cuando la imagen de alta frecuencia se mejora de acuerdo con el primer coeficiente de ganancia, el ruido de la imagen se amplifica fácilmente para generar un exceso de imagen, lo que afecta la calidad de la imagen. En esta modalidad, cuando la relación de la información de alta frecuencia y la información de baja frecuencia es relativamente grande, el primer coeficiente de ganancia se corrige y se reduce adaptativamente, realizando así el ajuste dinámico del primer coeficiente de ganancia de acuerdo con el resultado de reconocimiento de escena de la imagen y lograr el efecto de no mejorar el ruido.
En el Bloque 510, la manera de determinar el segundo coeficiente de ganancia de la imagen de baja frecuencia es idéntica a la manera de determinar el primer coeficiente de ganancia de la imagen de alta frecuencia, y los detalles no se describen en el presente documento.
En esta modalidad, el primer coeficiente de ganancia y el segundo coeficiente de ganancia se calculan respectivamente para la imagen de alta frecuencia y la imagen de baja frecuencia obtenidas realizando un procesamiento de filtrado de los componentes de luminancia de la primera imagen procesada en el modo de color de separación crominancia-luminancia. La imagen de alta frecuencia se somete a un procesamiento de mejora de acuerdo con el primer coeficiente de ganancia, y la imagen de baja frecuencia se somete a un procesamiento de mejora de acuerdo con el segundo coeficiente de ganancia. La imagen mejorada de baja frecuencia y la imagen mejorada de alta frecuencia se someten a fusión de imágenes para obtener una imagen procesada. Mientras tanto, se mejora el contraste en la imagen de alta frecuencia y la imagen pasa bajo, evitando así la pérdida de detalles durante el procesamiento de la imagen y mejorando la definición de la imagen sobre la base de que no haya distorsión en la imagen.
La Figura 6 es un diagrama de flujo de otro método de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. Esta modalidad es una solución opcional de la modalidad anterior. En consecuencia, el método puede incluir acciones u operaciones en los bloques ilustrados en la Figura 6.
Bloque 601: Puede adquirirse una imagen en el modo de color de separación crominancia-luminancia.
Bloque 602: Puede realizarse el reconocimiento de escena de la imagen para determinar una escena de la imagen. Bloque 603: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden atravesarse y puede generarse una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia.
Bloque 604: Puede generarse una relación de mapeo de luminancia basada en la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen.
Bloque 605: Los componentes de luminancia de los puntos de píxel respectivos en la imagen pueden ajustarse de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
Bloque 606: Puede realizarse el reconocimiento de bordes de la primera imagen procesada.
Bloque 607: Un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen puede determinarse de acuerdo con un resultado de reconocimiento de bordes.
Bloque 608: Puede realizarse un procesamiento de filtrado de la primera imagen procesada basado en el núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada.
Bloque 609: Puede determinarse un primer coeficiente de ganancia de la imagen de alta frecuencia y puede realizarse un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
Bloque 610: Una región plana y una región no plana en la imagen de baja frecuencia pueden identificarse de acuerdo con la información de luminancia de cada punto de píxel en la imagen de baja frecuencia, y la imagen de baja frecuencia puede dividirse de acuerdo con la región plana y la región no plana.
Bloque 611: Puede determinarse un segundo coeficiente de ganancia de la imagen de baja frecuencia, y puede realizarse la mejora de la imagen de la región dividida no plana de acuerdo con el segundo coeficiente de ganancia. Bloque 612: Puede realizarse la fusión de imágenes de la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
En el Bloque 610, identificar una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de los puntos de píxel respectivos en la imagen de baja frecuencia puede incluir: realizar el procesamiento de particiones de la imagen de baja frecuencia para obtener una pluralidad de regiones de imagen y determinar un valor de diferencia de píxel de las regiones de imagen; determinar que las regiones de la imagen pertenecen a una región plana cuando el valor de diferencia de píxel de las regiones de la imagen es menor o igual a un valor predeterminado; y determinar que las regiones de la imagen pertenecen a una región no plana cuando el valor de diferencia de píxel de las regiones de la imagen es mayor que el valor predeterminado.
Para cualquiera de las regiones de la imagen, el valor de la diferencia de píxel en la región de la imagen puede calcularse mediante la siguiente fórmula:
Figure imgf000016_0001
donde A es un valor de diferencia de píxel de la región de imagen; p es un número total de puntos de píxel en la región de la imagen; gb(b = 1, 2,... p) es un componente de luminancia de cada píxel en la región de la imagen; g es un valor medio de luminancia local de la región de la imagen; y tanto p como b son números enteros positivos mayores que 0.
El valor de diferencia de píxel representa una condición de diferencia de la información de luminancia de los puntos de píxel respectivos en la región de la imagen. Por ejemplo, un valor de diferencia de píxel mayor indica que la información de luminancia de los puntos de píxel respectivos en la región de la imagen difiere en gran medida, y un valor de diferencia de píxel más pequeño indica que la información de luminancia de los puntos de píxel respectivos en la región de la imagen tiene una mayor similitud. Las regiones de imagen cuyos valores de diferencia de píxel son menores o iguales al valor preestablecido se empalman para formar una región plana, y las regiones de imagen cuyos valores de diferencia de píxel son mayores que el valor preestablecido, se empalman para formar una región no plana. Opcionalmente, el valor preestablecido para determinar la región plana y la región no plana está relacionado con un valor de diferencia local promedio Á de la imagen de baja frecuencia. Específicamente, de acuerdo con el número de regiones de imagen y el valor de diferencia de píxel Á de las respectivas regiones de imagen, es posible determinar el valor de diferencia local promedio Á en la imagen de baja frecuencia e introducir un coeficiente A. El valor preestablecido puede ser AÁ. En otras palabras, cuando el valor de diferencia de píxel de las regiones de la imagen es A < AÁ las regiones de la imagen pertenecen a una región plana; y cuando el valor de la diferencia de píxel es A > AÁ, las regiones de la imagen pertenecen a una región no plana.
A modo de ejemplo, para una imagen que incluye botones negros y manchas en el escritorio blanco, la imagen de alta frecuencia obtenida mediante el procesamiento de filtrado puede incluir botones negros, y la imagen de baja frecuencia incluye el escritorio blanco y manchas en el escritorio. En la imagen de baja frecuencia, una parte donde están presentes las manchas punteadas es una región no plana; y la región de fondo del escritorio blanco es una región plana. En la modalidad anterior, puede aprenderse que el valor de ganancia del punto de píxel es inversamente proporcional a la desviación estándar local. En la región plana, la desviación estándar local es bastante pequeña, por lo que el valor de ganancia del punto de píxel es relativamente grande, lo que da como resultado una amplificación de ruido.
En el Bloque 611, la región plana y la región no plana en la imagen de baja frecuencia se identifican y dividen; solo la región no plana se somete a un procesamiento de mejora; y el componente de luminancia de la región plana no se ajusta, evitando así la amplificación del ruido de la región plana cuando se realiza el procesamiento de mejora de la imagen.
El método de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación mapea adaptativamente los componentes de luminancia de la imagen basándose en la distribución de luminancia estándar de la escena de la imagen, y amplifica virtualmente el color de la imagen para obtener una primera imagen procesada. El método incluye además someter la primera imagen procesada a un procesamiento de filtrado pasa bajo y realizar un procesamiento de mejora de la imagen de alta frecuencia obtenida, y realizar un procesamiento de mejora de la región no plana de la imagen de baja frecuencia para realizar la mejora de los detalles de la imagen, manteniendo la región plana de la imagen de baja frecuencia para controlar el ruido, evitando así la amplificación del ruido mientras aumenta el contraste de la imagen.
La Figura 7 es un diagrama de bloques estructural de un dispositivo de procesamiento de imágenes de acuerdo con una modalidad de la presente divulgación. El dispositivo, que puede implementarse mediante software y/o hardware, generalmente está integrado en un aparato electrónico. Es posible procesar una imagen capturada por la cámara realizando el método de procesamiento de imágenes del aparato electrónico. Como se muestra en la Figura 7, el dispositivo puede incluir: un módulo 701 de adquisición de imágenes, un módulo 702 de reconocimiento de escenas, un módulo 703 de generación de distribución de luminancia, un módulo 704 de generación de relaciones de mapeo de luminancia y un primer módulo 705 de generación de imágenes procesadas.
El módulo de adquisición de imágenes 701 puede configurarse para adquirir una imagen en un modo de color de separación de crominancia-luminancia.
El módulo de reconocimiento de escenas 702 puede configurarse para realizar el reconocimiento de escenas de la imagen para determinar una escena de la imagen.
El módulo de generación de distribución de luminancia 703 puede configurarse para atravesar componentes de luminancia de puntos de píxel respectivos en la imagen y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia.
El módulo 704 de generación de relación de mapeo de luminancia puede configurarse para generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen.
El primer módulo 705 de generación de imágenes procesadas puede configurarse para ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
El dispositivo de procesamiento de imágenes proporcionado en la modalidad de la presente divulgación puede lograr un efecto óptimo para imágenes de diferentes escenas, mejorando así la aplicabilidad de la forma de procesamiento de imágenes. Dado que el dispositivo procesa componentes de luminancia independientes, sin involucrar ningún ajuste de los componentes de color, se garantiza que el color de la imagen permanece como está en el proceso de procesamiento de imagen anterior, sin afectar ni cambiar el color en el proceso de procesamiento, y el color de la imagen garantizado es claro sin distorsión.
Basado en la modalidad anterior, el módulo de generación de relación de mapeo de luminancia 704 puede configurarse de acuerdo con una primera relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia estándar y una segunda relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia de la imagen, determinar los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo correspondientes, y establecer una relación de mapeo entre los componentes de luminancia necesarios para ajustar y los componentes de luminancia objetivo; o de acuerdo con una tercera relación de puntos de pixeles correspondiente a un intervalo de componente de luminancia en la distribución de luminancia estándar y una cuarta relación de puntos de píxel correspondiente a un intervalo de componente de luminancia en la distribución de luminancia de la imagen, determinar los componentes de luminancia que deben ajustarse y los correspondientes componentes de luminancia objetivo, y establecer una relación de mapeo entre los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo.
Basándose en las modalidades anteriores, el módulo 704 de generación de relación de mapeo de luminancia puede configurarse para determinar un rango de componentes de luminancia de la imagen de acuerdo con el resultado de atravesar los componentes de luminancia de los puntos de píxel respectivos en la imagen; extraer una distribución de luminancia objetivo correspondiente al rango de componentes de luminancia de la imagen de la distribución de luminancia estándar preestablecida; y generar la relación de mapeo de luminancia de acuerdo con la distribución de luminancia objetivo y la distribución de luminancia de la imagen.
Sobre la base de las modalidades anteriores, el dispositivo puede incluir además un módulo de corrección de la relación de mapeo de luminancia configurado para corregir la relación de mapeo de luminancia de acuerdo con la escena de la imagen después de generar la relación de mapeo de luminancia.
Basándose en las modalidades anteriores, el dispositivo puede incluir además: un módulo de reconocimiento de bordes, configurado para: realizar el reconocimiento de bordes de una primera imagen procesada después de generar la primera imagen procesada; un módulo de determinación del núcleo de filtrado configurado para determinar un núcleo de filtrado que realiza el procesamiento de filtrado de la imagen de acuerdo con el resultado del reconocimiento de bordes; un módulo de procesamiento de filtrado configurado para realizar un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado, para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y un módulo de mejora de imagen de alta frecuencia configurado para determinar un primer coeficiente de ganancia de la imagen de alta frecuencia y para realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia; y un segundo módulo de generación de imágenes procesadas configurado para realizar la fusión de imágenes de la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
Basado en las modalidades anteriores, el dispositivo puede incluir además un módulo de mejora de imagen de baja frecuencia configurado para determinar un segundo coeficiente de ganancia de la imagen de baja frecuencia y realizar un procesamiento de mejora de la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia.
De forma correspondiente, el segundo módulo de generación de imágenes procesadas puede configurarse para realizar la fusión de imágenes de la imagen mejorada de baja frecuencia y la imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.
Basado en las modalidades anteriores, el módulo de mejora de imagen de alta frecuencia puede incluir una primera unidad de cálculo de varianza local configurada para calcular, en base a una ventana de un tamaño preestablecido, una varianza local de una región de ventana con un punto de píxel de referencia como centro para la imagen de alta frecuencia; una primera unidad de determinación del valor de ganancia configurada para determinar un valor de ganancia del punto de píxel de referencia de acuerdo con una desviación estándar local correspondiente a la variación local de la región de la ventana; y una primera unidad de determinación del coeficiente de ganancia configurada para determinar un primer coeficiente de ganancia de la imagen de alta frecuencia de acuerdo con los valores de ganancia de todos los puntos de píxel de referencia en la imagen de alta frecuencia.
Basado en las modalidades anteriores, el módulo de mejora de imagen de baja frecuencia puede incluir además: una segunda unidad de cálculo de varianza local configurada para calcular, calcular, en base a una ventana de un tamaño preestablecido, una varianza local de una región de ventana con un punto de píxel de referencia como centro de la imagen de baja frecuencia; una segunda unidad de determinación del valor de ganancia configurada para determinar un valor de ganancia del punto de píxel de referencia de acuerdo con una desviación estándar local correspondiente a la variación local de la región de la ventana; y una segunda unidad de determinación del coeficiente de ganancia configurada para determinar un segundo coeficiente de ganancia de la imagen de alta frecuencia de acuerdo con los valores de ganancia de todos los puntos de píxel de referencia en la imagen de alta frecuencia.
Basado en las modalidades anteriores, el módulo de mejora de imagen de baja frecuencia puede incluir: una unidad de reconocimiento de imagen configurada para identificar una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de cada punto de píxel en la imagen de baja frecuencia; una unidad de división de la imagen configurada para dividir la imagen de baja frecuencia de acuerdo con la región plana y la región no plana; y una unidad de mejora de la imagen configurada para realizar la mejora de la imagen de la región no plana dividida de acuerdo con el segundo coeficiente de ganancia.
De forma correspondiente, el segundo módulo de generación de imágenes procesadas puede configurarse para realizar la fusión de imágenes de la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
Basándose en las modalidades anteriores, el modo de color de separación crominancia-luminancia puede incluir un modo de color YUV y un modo de color LAB.
Basado en las modalidades anteriores, el dispositivo puede incluir además un módulo de generación de imágenes en modo de color YUV configurado para convertir, en base a una señal original adquirida por un sensor de imagen, la señal original en una imagen en modo de color RGB, y para generar una imagen en modo de color YUV de acuerdo con la imagen en modo de color RGB.
Una modalidad de la presente divulgación puede proporcionar además un medio de almacenamiento que incluya instrucciones ejecutables por ordenador. Las instrucciones ejecutables por ordenador, cuando las ejecuta un procesador de computadora, pueden configurarse para ejecutar un método de procesamiento de imágenes. El método puede incluir: adquirir una imagen en un modo de color de separación crominancia-luminancia; realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; atravesar componentes de luminancia de los respectivos puntos de píxel en la imagen, y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen; y ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
En otras modalidades, las instrucciones ejecutables por ordenador, cuando las ejecuta un procesador de computadora, pueden configurarse para ejecutar un método de procesamiento de imágenes. El método puede incluir: adquirir una imagen en un modo de color de separación crominancia-luminancia; realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; atravesar componentes de luminancia de los respectivos puntos de píxel en la imagen, y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; comparar una relación de puntos de píxel de cada componente de luminancia en la distribución de luminancia de la imagen con una relación de píxel de un componente de luminancia correspondiente en una distribución de luminancia estándar; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen; y cuando la relación de puntos de píxel de un componente de luminancia en la distribución de luminancia de la imagen es menor que la relación de puntos de píxel de un componente de luminancia correspondiente en la distribución de luminancia estándar, mapear al menos uno de los componentes de luminancia subsiguientes en el componente de luminancia hasta la relación de puntos de píxel del componente de luminancia en la distribución de luminancia de la imagen es igual a la relación de puntos de píxel del componente de luminancia correspondiente en la distribución de luminancia estándar.
El medio de almacenamiento puede referirse a varios tipos de dispositivos de memoria o dispositivos de almacenamiento. El término "medio de almacenamiento" puede estar destinado a incluir: un medio de montaje, como un CD-ROM, un disquete o un dispositivo de cinta; una memoria de sistema informático o una memoria de acceso aleatorio, como DRAM, DDRRa M, SRAM, EDORAM, Rambus RAM, etc.; una memoria no volátil, como una memoria flash, un medio magnético (como un disco duro o un almacenamiento óptico); registro u otro tipo similar de elementos de memoria, etc. El medio de almacenamiento también puede incluir otros tipos de memoria o una combinación de los mismos. Además, el medio de almacenamiento puede estar ubicado en un primer sistema informático en el que se ejecuta el programa, o puede estar ubicado en un segundo sistema informático diferente que está conectado al primer sistema informático a través de una red, por ejemplo, Internet. El segundo sistema informático puede proporcionar instrucciones de programa para que lo ejecute la primera computadora. El término "medio de almacenamiento" puede incluir dos o más medios de almacenamiento que pueden residir en diferentes ubicaciones (por ejemplo, en diferentes sistemas informáticos conectados a través de una red). El medio de almacenamiento puede almacenar instrucciones de programa (por ejemplo, incorporadas como programa informático) ejecutadas por uno o más procesadores.
Por supuesto, las instrucciones ejecutables por ordenador del medio de almacenamiento que contienen instrucciones ejecutables por ordenador proporcionadas por la modalidad de la presente divulgación pueden no estar limitadas a las operaciones de procesamiento de imágenes como se describe anteriormente, y también pueden incluir operaciones relevantes para implementar el método de procesamiento de imágenes proporcionado por cualquier modalidad de la presente divulgación.
Una modalidad de la presente divulgación puede proporcionar un aparato electrónico en el que puede integrarse el dispositivo de procesamiento de imágenes proporcionado por una modalidad de la presente divulgación. La Figura 8 es un diagrama estructural de un aparato electrónico de acuerdo con una modalidad de la presente divulgación. El aparato electrónico 800 puede incluir una memoria 801, un procesador 802 y un programa informático almacenado en la memoria 801 y operable por el procesador 802. El procesador 802, cuando ejecuta el programa informático, implementa el método de procesamiento de imágenes como se describe en la modalidad de la presente divulgación. Por ejemplo, el método puede incluir: adquirir una imagen en un modo de color de separación crominancialuminancia; realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen; y ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada, de modo que la distribución de luminancia de la imagen sea la misma que la distribución de luminancia estándar.
El aparato electrónico proporcionado por la modalidad de la presente divulgación puede lograr un efecto óptimo para imágenes de diferentes escenas, mejorando así la aplicabilidad de la forma de procesamiento de imágenes. Dado que el aparato procesa componentes de luminancia independientes, sin involucrar ningún ajuste de los componentes de color, se garantiza que el color de la imagen permanece como está en el proceso de procesamiento de imagen anterior, sin afectar o cambiar el color en el proceso de procesamiento, y el color de la imagen garantizada es claro sin distorsión.
La Figura 9 es un diagrama estructural de otro aparato electrónico de acuerdo con una modalidad de la presente divulgación. El aparato electrónico puede incluir: una carcasa (no se muestra), una memoria 901, una unidad central de procesamiento (CPU) 902 (también denominada procesador, en lo sucesivo denominada CPU), una placa de circuito (no se muestra) y una fuente de alimentación del circuito (no se muestra). La placa de circuito puede disponerse dentro del espacio encerrado por la carcasa; la CPU 902 y la memoria 901 pueden estar dispuestas en la placa de circuito; el circuito de potencia puede configurarse para suministrar potencia a cada circuito o medio del aparato electrónico; la memoria 901 puede configurarse para almacenar códigos de programa ejecutables; y la CPU 902 puede ejecutar un programa informático correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 901 para implementar las siguientes acciones: adquirir una imagen en el modo de separación cromática de crominancia-luminancia; realizar el reconocimiento de escena de la imagen para determinar una escena de la imagen; atravesar componentes de luminancia de puntos de píxel respectivos en la imagen y generar una distribución de luminancia de la imagen de acuerdo con un resultado de atravesar los componentes de luminancia; generar una relación de mapeo de luminancia basada en la distribución de luminancia estándar correspondiente a la escena de la imagen y la distribución de luminancia de la imagen; y ajustar los componentes de luminancia de los puntos de píxel respectivos en la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada.
El aparato electrónico puede incluir además: una interfaz periférica 903, un circuito de RF (Radiofrecuencia) 905, un circuito de audio 906, un altavoz 911, un chip de administración de energía 908, un subsistema de entrada/salida (E/S) 909, otra entrada/aparato de control 910, una pantalla táctil 912, otra entrada/ aparato de control 910 y un puerto externo 904. Estos componentes pueden comunicarse a través de uno o más buses de comunicación o líneas de señal 907.
Debe entenderse que el aparato electrónico 900 que se muestra en la figura es simplemente un ejemplo del aparato electrónico, y el aparato electrónico 900 puede tener componentes más o menos que se muestran en la figura. Pueden combinarse dos o más componentes, o pueden estar implicadas diferentes configuraciones de componentes. Los varios componentes que se muestran en la figura pueden implementarse en un hardware que incluye uno o más circuitos integrados específicos y/o de procesamiento de señales, software, o una combinación de hardware y software.
El aparato electrónico para la operación de procesamiento de imágenes proporcionado por la presente modalidad se describe en detalle a continuación. El aparato electrónico toma un teléfono móvil como ejemplo.
Puede accederse a la memoria 901 mediante la CPU 902, la interfaz periférica 903, etc. La memoria 901 puede incluir una memoria de acceso aleatorio de alta velocidad, y también puede incluir una memoria no volátil, como uno o más medios de almacenamiento en disco magnético, medios de memoria flash u otros medios de almacenamiento de estado sólido volátil.
La interfaz periférica 903 puede conectar los periféricos de entrada y salida del aparato a la CPU 902 y la memoria 901.
El subsistema de E/S 909 puede conectar los periféricos de entrada y salida del aparato, tales como la pantalla táctil 912 y otro aparato de entrada/control 910, a la interfaz periférica 903. El subsistema de E/S 909 puede incluir un controlador de pantalla 9091 y uno o más controladores de entrada 9092 para controlar el otro aparato de entrada/control 910. Allí, uno o más controladores de entrada 9092 reciben señales eléctricas de otro aparato de entrada/control 910 o transmiten señales eléctricas al otro aparato de entrada/control 910. El otro aparato de entrada/control 910 puede incluir botones físicos (botones de presión, botones de balancín, etc.), dial, interruptor deslizante, joystick, rueda de clic. Vale la pena señalar que el controlador de entrada 9092 puede conectarse a cualquiera de los siguientes: un teclado, un puerto de infrarrojos, una interfaz USB y un dispositivo señalador, por ejemplo, un ratón.
La pantalla táctil 912, que es una interfaz de entrada y una interfaz de salida entre el aparato electrónico del usuario y el usuario, puede visualizar una salida visual al usuario. La salida visual puede incluir gráficos, textos, iconos, videos y similares.
El controlador de pantalla 9091 en el subsistema de E/S 909 puede recibir señales eléctricas desde la pantalla táctil 912 o transmitir señales eléctricas a la pantalla táctil 912. La pantalla táctil 912 puede detectar el contacto en la pantalla táctil, y el controlador de pantalla 9091 puede convertir el contacto detectado en interacción con un objeto de interfaz de usuario visualizado en la pantalla táctil 912, es decir, realiza la interacción persona-computadora. El objeto de la interfaz de usuario que se visualiza en la pantalla táctil 912 puede ser un ícono para ejecutar un juego, un ícono para conectarse a una red correspondiente y similares. Vale la pena señalar que el aparato también puede incluir un ratón ligero, que es una superficie sensible al tacto que no muestra salida visual, o una extensión de la superficie sensible al tacto formada por la pantalla táctil.
El circuito de RF 905 puede configurarse principalmente para establecer comunicación entre el teléfono móvil y la red inalámbrica (es decir, el lado de la red) para realizar la recepción y transmisión de datos del teléfono móvil y la red inalámbrica, por ejemplo, recibir y enviar mensajes instantáneos, correos electrónicos y similares. Específicamente, el circuito de RF 905 puede recibir y transmitir una señal de RF, que también se denomina señal electromagnética. El circuito de RF 905 puede convertir la señal eléctrica en una señal electromagnética o convertir una señal electromagnética en una señal eléctrica y comunicarse con la red de comunicación y otros dispositivos a través de la señal electromagnética. El circuito de RF 905 puede incluir circuitos conocidos para ejecutar estas funciones, que incluyen, pero no se limitan a un sistema de antena, un transceptor de RF, uno o más amplificadores, un sintonizador, uno o más osciladores, un procesador de señales digitales, un chip CODEC (Codificador-Decodificador), un módulo de identificación de abonado (SIM), etc.
El circuito de audio 906 puede configurarse principalmente para recibir datos de audio desde la interfaz periférica 903, convertir los datos de audio en una señal eléctrica y transmitir la señal eléctrica al altavoz 911.
El altavoz 911 puede configurarse para restaurar una señal de voz que se recibe desde la red inalámbrica por el teléfono móvil a través del circuito de RF 905 en un sonido y reproducir el sonido para el usuario.
El chip de administración de energía 908 puede configurarse para realizar la alimentación y la administración de energía del hardware conectado a la CPU 902, el subsistema de E/S y las interfaces periféricas.
El dispositivo de procesamiento de imágenes, el medio de almacenamiento y el aparato electrónico proporcionados por las modalidades anteriores pueden realizar un método de procesamiento de imágenes proporcionado por cualquier modalidad de la presente divulgación y tener módulos funcionales correspondientes para ejecutar el método y los efectos beneficiosos. Para detalles técnicos que no se describen en detalle en las modalidades anteriores, puede hacerse referencia al método de procesamiento de imágenes proporcionado por cualquier modalidad de la presente divulgación.
Cabe señalar que lo anterior son solo modalidades preferidas de la presente divulgación y principios técnicos aplicados. Los expertos en la técnica entenderán que la presente divulgación no se limita a las modalidades específicas descritas en el presente documento, y los expertos en la técnica pueden realizar diversos cambios, modificaciones y sustituciones obvias sin apartarse del alcance de la presente divulgación. Por lo tanto, aunque la presente divulgación se ha descrito en detalle a través de las modalidades anteriores, la presente divulgación no solo se limita a las realizaciones anteriores, y también puede incluir otras realizaciones funcionalmente equivalentes sin apartarse del concepto de la presente divulgación. El alcance de la presente divulgación se determina por el alcance de las reivindicaciones adjuntas.

Claims (1)

  1. REIVINDICACIONES
    Un método de procesamiento de imágenes, que comprende:
    acceder (101a, 103b, 203, 303, 403, 503, 603), a componentes de luminancia de puntos de píxel respectivos en una imagen, y generar una distribución de luminancia de la imagen de acuerdo con los componentes de luminancia;
    generar (102a, 104b, 404, 504, 604), una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen; y
    ajustar (103a, 105b, 206, 308, 405, 505, 605), los componentes de luminancia de los puntos de píxel respectivos de la imagen de acuerdo con la relación de mapeo de luminancia para generar una primera imagen procesada;
    el método de procesamiento de imágenes caracterizado porque comprende además:
    realizar (406, 506, 606), el reconocimiento de bordes de la primera imagen procesada;
    determinar (407, 507, 607), un núcleo de filtrado que realiza un procesamiento de filtrado de la imagen de acuerdo con un resultado de reconocimiento de bordes;
    realizar (408, 508, 608), un procesamiento de filtrado de la primera imagen procesada en base al núcleo de filtrado para obtener una imagen de baja frecuencia correspondiente a la primera imagen procesada y una imagen de alta frecuencia correspondiente a la primera imagen procesada; y
    determinar (409, 509, 609), un primer coeficiente de ganancia de la imagen de alta frecuencia, realizar un procesamiento de mejora de la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia, y realizar una fusión de imagen de la imagen de baja frecuencia y una imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.
    El método de acuerdo con la reivindicación 1, en donde antes de generar una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen, el método comprende además:
    realizar (102b, 202, 302, 402, 502, 602), el reconocimiento de escena de la imagen para determinar la escena de la imagen, en donde la imagen está en un modo de color de separación de crominancia-luminancia.
    El método de acuerdo con la reivindicación 1, en donde la generación de una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen comprende:
    determinar (204), los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo correspondientes de acuerdo con una primera relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia estándar y una segunda relación de puntos de píxel correspondiente a cada componente de luminancia en la distribución de luminancia de la imagen, y establecer una relación de mapeo entre los componentes de luminancia necesarios a ajustar y los componentes de luminancia objetivo; o
    determinar los componentes de luminancia que deben ajustarse y los componentes de luminancia objetivo correspondientes de acuerdo con una tercera relación de puntos de píxel correspondiente a un intervalo de componentes de luminancia en la distribución de luminancia estándar y una cuarta relación de puntos de píxel correspondiente a un intervalo de componentes de luminancia en la distribución de luminancia de la imagen, y establecer una relación de mapeo entre los componentes de luminancia necesarios para ajustar y los componentes de luminancia objetivo;
    en donde la primera relación de puntos de píxel indica una relación de un número de puntos de píxel en la distribución de luminancia estándar correspondiente a un componente de luminancia a un número total de puntos de píxel en la distribución de luminancia estándar; y la segunda relación de puntos de píxel indica una relación de un número de puntos de píxel en la distribución de luminancia de la imagen correspondiente a un componente de luminancia a un número total de puntos de píxel en la distribución de luminancia de la imagen.
    El método de acuerdo con la reivindicación 3, en donde al establecer una relación de mapeo entre los componentes de luminancia requeridos para ajustarse y los componentes de luminancia objetivo, cuando la primera relación de puntos de píxel de un componente de luminancia es mayor que la segunda relación de puntos de píxel de un componente de luminancia, el componente de luminancia de al menos parte de los puntos de píxel correspondientes a un componente de luminancia subsiguiente de un componente de luminancia se mapea en un componente de luminancia, para hacer que la segunda relación de puntos de píxel del componente de luminancia de la distribución de luminancia de la imagen sea igual a la primera relación de puntos de píxel del componente de luminancia estándar de la distribución de luminancia estándar; y
    cuando la primera relación de puntos de píxel de un componente de luminancia es menor que la segunda relación de puntos de píxel de un componente de luminancia, el componente de luminancia de al menos una parte de los puntos de píxel correspondientes al componente de luminancia de la imagen se mapea a otros componentes de luminancia, para hacer que la segunda relación de puntos de píxel del componente de luminancia sea igual a la primera relación de puntos de píxel del componente de luminancia.
    5. El método de acuerdo con la reivindicación 3, en donde al establecer una relación de mapeo entre los componentes de luminancia requeridos para ajustarse y los componentes de luminancia objetivo,
    cuando la primera relación de puntos de píxel de un componente de luminancia es mayor que la segunda relación de puntos de píxel del componente de luminancia, el componente de luminancia de al menos parte de los puntos de píxel correspondientes a un componente de luminancia subsiguiente de un componente de luminancia se mapea en el componente de luminancia, para que la diferencia entre la segunda relación de puntos de píxel del componente de luminancia de la distribución de luminancia de la imagen y la primera relación de puntos de píxel del componente de luminancia estándar de la distribución de luminancia estándar esté dentro de un rango de error admisible; y
    cuando la primera relación de puntos de píxel de un componente de luminancia es menor que la segunda relación de puntos de píxel de un componente de luminancia, el componente de luminancia de al menos una parte de los puntos de píxel correspondientes al componente de luminancia de la imagen se mapea a otros componentes de luminancia, para que la diferencia entre la segunda relación de puntos de píxel del componente de luminancia de la distribución de luminancia de la imagen y la primera relación de puntos de píxel del componente de luminancia esté dentro de un rango de error admisible.
    6. El método de acuerdo con la reivindicación 3, en donde al establecer una relación de mapeo entre los componentes de luminancia requeridos para ajustarse y los componentes de luminancia objetivo,
    cuando la tercera relación de puntos de píxel de un intervalo de componente de luminancia es mayor que la cuarta relación de puntos de píxel del intervalo de componente de luminancia, el componente de luminancia de al menos una parte de los puntos de píxel correspondiente a un intervalo de componente de luminancia subsiguiente del intervalo de componente de luminancia se mapea en el intervalo de un componente de luminancia, para hacer que la cuarta relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia de la imagen sea igual a la tercera relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia estándar; y
    cuando tercera relación de puntos de píxel de un intervalo de componente de luminancia es menor que la cuarta relación de puntos de píxel del intervalo de componente de luminancia, el componente de luminancia de al menos una parte de los puntos de píxel correspondientes al intervalo de componente de luminancia de la imagen se mapea en otros intervalos de componentes de luminancia, para hacer que la cuarta relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia de la imagen sea igual a la tercera relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia estándar.
    7. El método de acuerdo con la reivindicación 3, en donde al establecer una relación de mapeo entre los componentes de luminancia requeridos para ajustarse y los componentes de luminancia objetivo,
    cuando la tercera relación de puntos de píxel de un intervalo de componente de luminancia es mayor que la cuarta relación de puntos de píxel del intervalo de un componente de luminancia, el componente de luminancia de al menos parte de los puntos de píxel correspondiente a un intervalo de componente de luminancia subsiguiente del intervalo de un componente de luminancia se mapea en el intervalo de un componente de luminancia, para que la diferencia entre la cuarta relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia de la imagen y la tercera relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia estándar esté dentro de un rango de error permisible; y
    cuando la tercera relación de puntos de píxel de un intervalo de componente de luminancia es menor que la cuarta relación de puntos de píxel del intervalo de componente de luminancia, el componente de luminancia de al menos una parte de los puntos de píxel correspondientes al intervalo de componente de luminancia de la imagen se mapea en otros intervalos de componentes de luminancia, para que la diferencia entre la relación de puntos del cuarto píxel del intervalo de un componente de luminancia de la distribución de luminancia de la imagen y la tercera relación de puntos de píxel del intervalo de un componente de luminancia de la distribución de luminancia estándar esté dentro de un error admisible.
    8. El método de acuerdo con cualquiera de las reivindicaciones 1 a 7, en donde la generación de una relación de mapeo de luminancia basada en una distribución de luminancia estándar correspondiente a una escena de la imagen y la distribución de luminancia de la imagen comprende:
    determinar (304), un rango de componentes de luminancia de la imagen de acuerdo con los componentes de luminancia de los puntos de píxel respectivos de la imagen;
    extraer (305), de la distribución de luminancia estándar, una distribución de luminancia objetivo correspondiente al rango de componentes de luminancia de la imagen cuando el rango de componentes de luminancia de la imagen es un subrango de un rango de componentes de luminancia en la distribución de luminancia estándar; y
    generar (306), la relación de mapeo de luminancia de acuerdo con la distribución de luminancia objetivo y la distribución de luminancia de la imagen.
    9. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 8, en donde después de generar una relación de mapeo de luminancia, el método comprende además:
    corregir (205, 307), la relación de mapeo de luminancia de acuerdo con la escena de la imagen, en donde la corrección de la relación de mapeo de luminancia de acuerdo con la escena de la imagen comprende: determinar una región resaltada de la imagen de acuerdo con la escena de la imagen, en donde en una escena de retrato, una región de rostro humano es la región resaltada de la imagen; en una escena de puesta de sol, una capa de nubes con un tono cálido es la región resaltada de la imagen; y en un modo de luz de fondo, un objeto de luz de fondo es lo más resaltado de la imagen; y corregir los componentes de luminancia objetivo de la región resaltada de la imagen.
    10. El método de acuerdo con cualquiera de las reivindicaciones de la 1 a la 9, en donde
    la determinación (407, 507, 607), del núcleo de filtrado que realiza el procesamiento de filtrado de la imagen de acuerdo con el resultado del reconocimiento de bordes comprende:
    determinar un coeficiente de borde de la imagen de acuerdo con el resultado del reconocimiento de la escena; y
    determinar un tamaño del núcleo de filtrado que realiza el procesamiento de filtrado de la imagen de acuerdo con el coeficiente de borde, donde el tamaño del núcleo de filtrado se correlaciona positivamente con el coeficiente de borde.
    11. El método de acuerdo con la reivindicación 10, que comprende, además:
    determinar (510), un segundo coeficiente de ganancia de la imagen de baja frecuencia y realizar un procesamiento de mejora de la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia;
    en donde la realización de la fusión de imágenes de la imagen de baja frecuencia y una imagen de alta frecuencia mejorada para obtener una segunda imagen procesada comprende:
    realizar (511), una fusión de imágenes de una imagen mejorada de baja frecuencia y la imagen mejorada de alta frecuencia para obtener una segunda imagen procesada.
    12. El método de acuerdo con la reivindicación 11, en donde la determinación de un primer coeficiente de ganancia de la imagen de alta frecuencia y la determinación de un segundo coeficiente de ganancia de la imagen de baja frecuencia comprende:
    determinar el primer coeficiente de ganancia de la imagen de alta frecuencia de acuerdo con los valores de ganancia de todos los puntos de píxel en la imagen de alta frecuencia, y determinar el segundo coeficiente de ganancia de la imagen de baja frecuencia de acuerdo con los valores de ganancia de todos los puntos de píxel en la imagen de baja frecuencia;
    en donde cada valor de ganancia está determinado por:
    calcular, en base a una ventana de un tamaño preestablecido, una variación local de una región de ventana con un punto de píxel como centro para la imagen de alta frecuencia y la imagen de baja frecuencia, respectivamente; y
    determinar el valor de ganancia del punto de píxel de acuerdo con una desviación estándar local correspondiente a la varianza local de la región de la ventana.
    13. El método de acuerdo con la reivindicación 12, en donde realizar un procesamiento de mejora de la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia comprende:
    identificar (610), una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de cada punto de píxel en la imagen de baja frecuencia;
    dividir (611), la imagen de baja frecuencia de acuerdo con la región plana y la región no plana; y realizar una mejora de la imagen de la región dividida no plana de acuerdo con el segundo coeficiente de ganancia;
    en donde la realización de la fusión de imágenes de una imagen mejorada de baja frecuencia y la imagen mejorada de alta frecuencia para obtener una segunda imagen procesada comprende:
    realizar (612), una fusión de imágenes de la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener una segunda imagen procesada.
    14. Un medio de almacenamiento no transitorio legible por ordenador que almacena instrucciones que, cuando son ejecutadas por un procesador, hace que el procesador realice un método para el procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 13.
    15. Un aparato electrónico (800), que comprende: una cámara configurada para adquirir una imagen en un modo de color de separación de crominancia-luminancia, una memoria (801), un procesador (802) y un programa informático almacenado en la memoria (801) y operable por el procesador (802), en donde cuando se ejecuta el programa informático, se hace que el procesador (802) realice un método para el procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 13.
ES19192425T 2018-08-20 2019-08-20 Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico Active ES2863368T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810950224.7A CN109272459B (zh) 2018-08-20 2018-08-20 图像处理方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
ES2863368T3 true ES2863368T3 (es) 2021-10-11

Family

ID=65153658

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19192425T Active ES2863368T3 (es) 2018-08-20 2019-08-20 Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico

Country Status (5)

Country Link
US (1) US11138701B2 (es)
EP (1) EP3614333B1 (es)
CN (1) CN109272459B (es)
ES (1) ES2863368T3 (es)
WO (1) WO2020038365A1 (es)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108900819B (zh) 2018-08-20 2020-09-15 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN109272459B (zh) 2018-08-20 2020-12-01 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN112153240B (zh) * 2019-06-27 2021-11-09 深圳Tcl数字技术有限公司 一种调整图像画质方法、装置及可读存储介质
CN110312106B (zh) * 2019-07-30 2021-05-18 广汽蔚来新能源汽车科技有限公司 图像的显示方法、装置、计算机设备和存储介质
CN110599410B (zh) * 2019-08-07 2022-06-10 北京达佳互联信息技术有限公司 图像处理的方法、装置、终端及存储介质
CN112785533B (zh) * 2019-11-07 2023-06-16 RealMe重庆移动通信有限公司 图像融合方法、图像融合装置、电子设备与存储介质
CN110807750B (zh) * 2019-11-14 2022-11-18 海信视像科技股份有限公司 图像处理方法和设备
US20230044097A1 (en) * 2019-11-15 2023-02-09 Sony Group Corporation Information processing device and information processing method
CN110996174B (zh) * 2019-12-19 2022-04-05 深圳市迅雷网络技术有限公司 一种视频画质增强方法及其相关设备
KR102757063B1 (ko) * 2020-02-24 2025-01-22 삼성전자주식회사 컬러 스테인 분석 방법 및 상기 방법을 이용하는 전자 장치
CN111524104B (zh) * 2020-04-13 2023-03-24 华侨大学 基于多尺度轮廓波特征的全参考光场图像质量评价方法
CN111553440B (zh) * 2020-05-09 2023-05-26 创新奇智(南京)科技有限公司 样本图像生成方法、装置和设备
CN111681189B (zh) * 2020-06-17 2023-11-17 深圳开立生物医疗科技股份有限公司 提升图像亮度均匀性的方法、装置、设备及存储介质
CN111938622B (zh) * 2020-07-16 2022-08-30 启航汽车有限公司 心率检测方法、装置及系统、可读存储介质
CN114004749B (zh) * 2020-07-28 2025-03-28 北京金山云网络技术有限公司 图像色彩增强方法、装置、设备及存储介质
CN114205487A (zh) * 2020-08-28 2022-03-18 超威半导体公司 内容自适应镜头阴影校正方法和装置
CN112070848B (zh) * 2020-09-18 2024-06-21 厦门美图宜肤科技有限公司 图像色素分离方法、装置、电子设备和可读存储介质
CN112419187B (zh) * 2020-11-23 2023-08-25 杭州海康威视数字技术股份有限公司 一种图像处理方法、装置及设备
CN112750143B (zh) * 2020-12-02 2024-04-26 上海海洋大学 一种基于极值法的茎柔鱼形态特征提取方法
CN112614064B (zh) * 2020-12-18 2023-04-25 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN112884688B (zh) * 2021-02-03 2024-03-29 浙江大华技术股份有限公司 一种图像融合方法、装置、设备及介质
CN113344803B (zh) * 2021-05-08 2024-03-19 浙江大华技术股份有限公司 图像调节方法、装置、电子装置和存储介质
CN113436068B (zh) * 2021-06-10 2022-12-02 浙江大华技术股份有限公司 一种图像拼接方法、装置、电子设备及存储介质
CN113628196B (zh) * 2021-08-16 2025-02-18 广东小天才科技有限公司 一种图像内容的提取方法、装置、终端和存储介质
CN113808038B (zh) * 2021-09-08 2024-09-17 瑞芯微电子股份有限公司 图像处理方法、介质及电子设备
CN113763302A (zh) * 2021-09-30 2021-12-07 青岛海尔科技有限公司 图像检测结果的确定方法及装置
CN116128776A (zh) * 2021-11-12 2023-05-16 北京小米移动软件有限公司 图像处理方法、装置及存储介质
CN114187204B (zh) * 2021-12-14 2024-12-03 成都微光集电科技有限公司 黑边优化的图像处理方法及其装置、设备和存储介质
CN114445768A (zh) * 2021-12-30 2022-05-06 深圳云天励飞技术股份有限公司 目标识别方法、装置、电子设备及存储介质
CN114627022A (zh) * 2022-03-18 2022-06-14 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN114936981B (zh) * 2022-06-10 2023-07-07 重庆尚优科技有限公司 一种基于云平台的场所扫码登记系统
CN115100083B (zh) * 2022-08-25 2022-11-04 江苏游隼微电子有限公司 一种车载影像的图像亮度自适应调节方法
KR20240114171A (ko) * 2023-01-16 2024-07-23 삼성전자주식회사 전자 장치 및 그 영상 처리 방법
CN117408657B (zh) * 2023-10-27 2024-05-17 杭州静嘉科技有限公司 一种基于人工智能的人力资源服务系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ514714A (en) 1999-04-13 2003-11-28 Athentech Tech Inc Virtual true color light amplification
JP4466261B2 (ja) 2004-07-30 2010-05-26 カシオ計算機株式会社 撮像装置、明るさ補正方法及びプログラム
DE602005003628T2 (de) 2004-10-20 2008-12-11 Fujifilm Corp. Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
CN102214357A (zh) * 2011-06-22 2011-10-12 王洪剑 一种图像增强方法及系统
CN102231264B (zh) * 2011-06-28 2013-03-06 王洪剑 动态对比度增强装置和方法
JP5975215B2 (ja) * 2012-11-14 2016-08-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム、画像調整装置及び画像調整プログラム
CN103079038B (zh) * 2013-01-07 2016-06-29 华为终端有限公司 图像锐化处理方法、装置和拍摄终端
CN104580925A (zh) * 2014-12-31 2015-04-29 安科智慧城市技术(中国)有限公司 一种控制图像亮度的方法、装置及摄像机
CN107113367B (zh) 2015-01-09 2019-08-06 皇家飞利浦有限公司 具有颜色恒定性的亮度改变图像处理
US9857953B2 (en) * 2015-11-17 2018-01-02 Adobe Systems Incorporated Image color and tone style transfer
CN107068042B (zh) 2017-01-18 2019-10-18 西安诺瓦星云科技股份有限公司 图像处理方法
CN109272459B (zh) 2018-08-20 2020-12-01 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN109146814B (zh) * 2018-08-20 2021-02-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108900819B (zh) * 2018-08-20 2020-09-15 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN109727215B (zh) 2018-12-28 2023-05-26 Oppo广东移动通信有限公司 图像处理方法、装置、终端设备及存储介质

Also Published As

Publication number Publication date
CN109272459A (zh) 2019-01-25
US11138701B2 (en) 2021-10-05
US20200058111A1 (en) 2020-02-20
EP3614333B1 (en) 2021-02-17
WO2020038365A1 (en) 2020-02-27
CN109272459B (zh) 2020-12-01
EP3614333A1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
ES2863368T3 (es) Método de procesamiento de imágenes, medio de almacenamiento y aparato electrónico
CN109146814B (zh) 图像处理方法、装置、存储介质及电子设备
CN109741281B (zh) 图像处理方法、装置、存储介质及终端
WO2019137038A1 (zh) 注视点确定方法、对比度调节方法及对比度调节装置、虚拟现实设备及存储介质
CN109727215B (zh) 图像处理方法、装置、终端设备及存储介质
CN109727216B (zh) 图像处理方法、装置、终端设备及存储介质
CN109697738B (zh) 图像处理方法、装置、终端设备及存储介质
CN108830186B (zh) 文本图像的内容提取方法、装置、设备及存储介质
CN110489580B (zh) 图像处理方法、装置、显示屏组件以及电子设备
TW201629848A (zh) 指紋重疊區域面積的計算方法及電子裝置
EP3644599A1 (en) Video processing method and apparatus, electronic device, and storage medium
CN109618098A (zh) 一种人像面部调整方法、装置、存储介质及终端
US11457160B2 (en) Electronic device and method for adjusting color of image data by using infrared sensor
CN109784252A (zh) 图像处理方法、装置、存储介质及电子设备
CN110084204A (zh) 基于目标对象姿态的图像处理方法、装置和电子设备
CN110706283B (zh) 用于视线追踪的标定方法、装置、移动终端及存储介质
JP2017130794A (ja) 情報処理装置、評価用チャート、評価システム、および性能評価方法
US11416974B2 (en) Image processing method and electronic device supporting the same
CN104919490A (zh) 用于图像处理的结构描述符
CN111080665B (zh) 图像边框识别方法、装置、设备和计算机存储介质
KR102605451B1 (ko) 이미지 내에 포함된 복수의 외부 객체들 각각에 대응하는 복수의 서비스들을 제공하는 전자 장치 및 방법
WO2024055531A1 (zh) 照度计数值识别方法、电子设备及存储介质
KR102706932B1 (ko) 이미지의 생성 방법 및 그 전자 장치
KR102671722B1 (ko) 필터를 제공하는 방법 및 이를 지원하는 전자 장치
CN108734121A (zh) 拍照美化方法、装置、存储介质及终端设备
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载