+

MX2008013753A - Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica. - Google Patents

Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica.

Info

Publication number
MX2008013753A
MX2008013753A MX2008013753A MX2008013753A MX2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A
Authority
MX
Mexico
Prior art keywords
time
audio
auditory
gain
event
Prior art date
Application number
MX2008013753A
Other languages
English (en)
Inventor
Brett Graham Crockett
Alan Jeffrey Seefeldt
Original Assignee
Dolby Lab Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Lab Licensing Corp filed Critical Dolby Lab Licensing Corp
Publication of MX2008013753A publication Critical patent/MX2008013753A/es

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3089Control of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G1/00Details of arrangements for controlling amplification
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • H03G7/007Volume compression or expansion in amplifiers of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G9/00Combinations of two or more types of control, e.g. gain control and tone control
    • H03G9/005Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Control Of Amplification And Gain Control (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Circuits Of Receivers In General (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Document Processing Apparatus (AREA)

Abstract

En un aspecto descrito, las modificaciones de ganancia dinámica son aplicadas a una señal de audio, por lo menos parcialmente, en respuesta a los eventos auditivos y/o el grado de cambio en las características de señal asociadas con los límites de evento auditivo. En otro aspecto, una señal de audio es dividida en eventos auditivos mediante la comparación de la diferencia en intensidad acústica específica entre los bloques sucesivos de tiempo de la señal de audio. La figura más representativa de la invención es la número 3.

Description

CONTROL DE GANANCIA DE AUDIO QUE UTILIZA DETECCION DE EVENTO AUDITIVO BASADO EN INTENSIDAD ACUSTICA ESPECIFICA Campo Técnico La presente invención se refiere a métodos y aparatos de control de alcance de dinámica de audio en los cuales un dispositivo de procesamiento de audio analiza una señal de audio y cambia el intervalo del nivel, ganancia o dinámica del audio y todos o algunos parámetros del procesamiento de ganancia dinámica de audio son generados como una función de los eventos auditivos. La invención también se refiere a programas de computadora para la práctica de estos métodos o el control de estos aparatos. La presente invención también se refiere a métodos y aparatos que utilizan la detección basada en la intensidad acústica específica de eventos auditivos. La invención también se refiere a programas de computadora para la práctica de estos métodos o el control de estos aparatos.
Técnica Anterior Procesamiento de Dinámica de Audio Las técnicas de control de ganancia automática (AGC) y de control de intervalo de dinámica (DRC) son bien conocidas y son un elemento común de muchas vías de señal de audio. En un sentido abstracto, ambas técnicas miden el nivel de una señal de audio en algún modo y entonces, modifican la ganancia de la señal en una cantidad que está en función del nivel medido. En un sistema lineal de procesamiento de dinámica 1:1, el audio de entrada no es procesado y la señal de audio de salida normalmente se combina con la señal de audio de entrada. Además, si alguien tuviera un sistema de procesamiento de dinámica de audio que midiera en forma automática las características de la señal de entrada y utilizara esta medición para controlar la señal de salida, si la señal de entrada se elevara en un nivel de 6 dB y la señal de salida fuera procesada, de manera que sólo se eleve en un nivel de 3 dB, entonces, la señal de salida tendría que haber sido comprimida en una relación de 2:1 con respecto a la señal de entrada. La Publicación Internacional No. WO 2006/047600 Al ( "Calculating and Adjusting the Perceived Loudness and/o the Perceived Spectral Balance of an Audio Signal" de Alan Jeffrey Seefeldt) proporciona un panorama general detallado de los cinco tipos básicos de procesamiento de dinámica del audio: compresión, límite, control automático de ganancia (AGC) , expansión y desconexión cíclica. Eventos Auditivos y Detección de Evento Auditivo La división de los sonidos en unidades o segmentos percibidos como separados y distintos es en algunas ocasiones referida como un "análisis de evento auditivo" o "análisis de escena auditiva" (ASA) y los segmentos son referidos en algunas ocasiones como "eventos auditivos" o "eventos de audio" . Una discusión extensiva del análisis de escena auditiva es señalado por Albert S. Bregman en su libro Auditory Scene Analysis-The Perceptual Organization of Sound, Massachusetts Institute of Technology, 1991, Cuarta impresión, 2001, segunda edición económica MIT Press) . Además, la Patente de los Estados Unidos No. 6, 002,776 de Bhadkamkar et al, del 14 de Diciembre de 1999 cita las publicaciones con fecha anterior a 1976 como "trabajo de la técnica anterior relacionado con la separación del sonido a través del análisis de escena auditiva" . Sin embargo, la patente de Bhadkamkar et al, desaprueba el uso práctico del análisis de escena auditiva, concluyendo que "las [t] écnicas que involucran el análisis de escena auditiva, aunque interesantes a partir del punto de vista científico como modelos de procesamiento auditivo humano, en realidad están demasiado lejos de la demanda computacional y especializada para que sean consideradas técnicas prácticas para la separación de sonido hasta que sea realizado un progreso fundamental" . Una forma útil para identificar los eventos auditivos es señalada por Crockett and Crocket et al, en varias solicitudes de patente y cartas enlistadas más adelante de acuerdo con el título "Incorporación como Referencia". De acuerdo con estos documentos, una señal de audio es dividida en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, mediante la detección de cambios en la composición espectral (la amplitud como una función de la frecuencia) con respecto al tiempo. Esto podría ser realizado por ejemplo, calculando el contenido espectral de los bloques sucesivos de tiempo de la señal de audio, calculando la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio e identificando el límite de evento auditivo como el límite entre los bloques sucesivos de tiempo cuando la diferencia en el contenido espectral entre estos bloques sucesivos de tiempo exceda un umbral. En forma alterna, los cambios de amplitud con respecto al tiempo podrían ser calculados en lugar o además de los cambios en la composición espectral con respecto al tiempo. En su implementación menos demandante en forma computacional , el proceso divide el audio en segmentos de tiempo mediante el análisis de la totalidad de la banda de frecuencia (el audio de ancho de banda completo) o de manera sustancial, la totalidad de la banda de frecuencia (en implementaciones prácticas, el filtrado límite de banda en los extremos del espectro es frecuentemente empleado) y proporcionando la ponderación más grande a los componentes de la señal de audio con la mayor intensidad acústica. Este procedimiento toma ventaja de un fenómeno psicoacústico en el cual en escalas más pequeñas de tiempo (20 milisegundos (ms) y menos) el oído podría tender a enfocarse en un evento auditivo único en un momento dado. Esto implica que mientras que múltiples eventos podrían estar sucediendo al mismo tiempo, un componente tiende a ser más prominente, de manera perceptual, y podría ser procesado en forma individual como si fuera el único evento que se está realizando. Al tomar ventaja de este efecto, también se permite que la detección de evento auditivo escale con la complejidad del audio que está siendo procesado. Por ejemplo, si la señal de audio de entrada que está siendo procesada fuera un instrumento único, los eventos de audio que son identificados probablemente serán notas individuales que están siendo tocadas. En forma similar para una señal de voz de entrada, los componentes individuales de la conversación, por ejemplo, las vocales y las consonantes, probablemente serán identificados como elementos individuales de audio. A medida que se incrementa la complejidad del audio, esta música con un ritmo de tambor o múltiples instrumentos y voz, la detección de evento auditivo identificaría el elemento de audio "más prominente" (es decir, el de mayor intensidad acústica) en cualquier momento dado. En el costo de una complejidad computacional más grande, el proceso también podría tomar en consideración cambios en la composición espectral con respecto al tiempo en subbandas de frecuencia discreta (fijas o determinadas en forma dinámica, o ambas subbandas fijas y determinadas en forma dinámica) más que el ancho de banda completo. Este procedimiento alternativo toma en cuenta más de un flujo de audio en diferentes subbandas de frecuencia más que suponer que sólo un flujo de audio es perceptible en un momento particular . La detección de evento auditivo podría ser implementada al dividir una forma de onda de audio de dominio de tiempo en intervalos o bloques de tiempo y posteriormente, al convertir los datos en cada bloque en el dominio de frecuencia, utilizando ya sea un banco de filtros o una transformación de frecuencia de tiempo, tal como una FFT. La amplitud del contenido espectral de cada bloque podría ser normalizada con el fin de eliminar o reducir el efecto de los cambios de amplitud. Cada representación resultante del dominio de frecuencia proporciona una indicación del contenido espectral del audio en el bloque particular. El contenido espectral de los bloques sucesivos es comparado y los cambios más grandes que un umbral podrían ser tomados para indicar el inicio temporal o la finalización temporal de un evento auditivo. De preferencia, los datos del dominio de frecuencia son normalizados, como se describe más adelante. El grado en el cual los datos de dominio de frecuencia necesitan ser normalizados, proporciona una indicación de amplitud. Por lo tanto, si el cambio en este grado excediera un umbral predeterminado en el que podría tomarse para indicar un evento auditivo. Los puntos de inicio y finalización del evento que se originan a partir de los cambios espectrales y de los cambios de amplitud podrían ser ORed juntos, de modo que sean identificados los límites de evento que se originan a partir de cualquier tipo de cambio. Aunque las técnicas descritas en las solicitudes y cartas de Crockett and Crockett et al son particularmente útiles en conexión con aspectos de la presente invención, otras técnicas para la identificación de los eventos auditivos y los límites de evento podrían ser empleadas en los aspectos de la presente invención.
Descripción de la Invención El procesamiento convencional de la dinámica de la técnica anterior del audio involucra la multiplicación del audio por una señal de control de variación de tiempo que ajusta la ganancia del audio produciendo el resultado deseado. El término "ganancia" es un factor de escala que escala la amplitud de audio. Esta señal de control podría ser generada en una base continua o a partir de bloques de datos de audio, aunque es generalmente derivada mediante alguna forma de medición del audio que está siendo procesado, y su velocidad de cambios determinada por un filtro de suavización, en algunas ocasiones con características fijas y en algunas ocasiones con características que podrían variar con la dinámica del audio. Por ejemplo, los tiempos de respuesta podrían ser ajustados de acuerdo con los cambios en la magnitud o la potencia del audio. Los métodos de la técnica anterior tales como el control automático de ganancia (AGC) y la compresión dinámica de intervalo (DRC) no evalúan ninguna forma basada en la psicoacústica en la que los intervalos de tiempo durante los cuales cambian la ganancia, podrían ser percibidos como perjudiciales y cuando puedan ser aplicados sin transmitir artefactos audibles, es decir, los efectos del procesamiento de dinámica pueden introducir cambios perceptibles no deseados en el audio. El análisis de escena auditiva identifica en forma perceptual los eventos auditivos discretos, con cada evento que sucede entre dos límites consecutivos de evento auditivo. Los deterioros audibles que son provocados por el cambio de ganancia pueden ser reducidos en gran medida garantizando que dentro de un evento auditivo la ganancia sea más cercanamente constante y confinando mucho del cambio a la proximidad de un límite de evento. En el contexto de los compresores o expansores, la respuesta al incremento en el nivel del audio (a menudo llamado el ataque) podría ser rápido, comparable o más corto que la duración mínima de los eventos auditivos, aunque la respuesta a una disminución (la liberación o recuperación) podría ser más lenta, de modo que los sonidos que deberían aparecer constantes o que declinen en forma gradual, podrían ser perturbados en forma auditiva. Bajo esas circunstancias, sería muy benéfico retrasar la recuperación de ganancia hasta el siguiente límite o la disminución de la velocidad del cambio de la ganancia durante un evento. Para aplicaciones de control automático de ganancia, en donde el nivel medio a largo plazo o la intensidad acústica del audio es normalizada y los tiempos de ataque y liberación podrían ser largos si se compara con la duración mínima de un evento auditivo, sería benéfico durante los eventos retrasar los cambios o disminuir las velocidades de cambio en la ganancia hasta el siguiente límite de evento tanto para incrementar como para disminuir las ganancias. De acuerdo con un aspecto de la presente invención, un sistema de procesamiento de audio recibe una señal de audio y analiza y altera la ganancia y/o las características de intervalo dinámico del audio. La modificación del intervalo dinámico del audio es frecuentemente controlado por parámetros de un sistema de procesamiento de dinámica (el tiempo de ataque y liberación, la relación de compresión, etc.) que tienen efectos significantes sobre los artefactos perceptuales introducidos por el procesamiento de dinámica. Los cambios en las características de señal con respecto al tiempo en la señal de audio son detectados e identificados como límites de evento auditivo, de manera que un segmento de audio entre límites consecutivos constituye un evento auditivo en la señal de audio. Las características de los eventos auditivos de interés podrían incluir características de los eventos, tales como la intensidad o duración perceptual . Algunos de uno o más de los parámetros de procesamiento de dinámica son generados, por lo menos parcialmente, en respuesta a los eventos auditivos y/o el grado de cambio en las características de la señal asociadas con los límites de evento auditivo. Normalmente, un evento auditivo es un segmento de audio que tiende a ser percibido como separado y distinto. Una medición que se utiliza de las características de señal incluye la medición del contenido espectral del audio, por ejemplo, como es descrito en los documentos citados de Crockett and Crockett et al . Todos o algunos de uno o más parámetros de procesamiento de dinámica podrían ser generados, por lo menos parcialmente, en respuesta a la presencia o ausencia y las características de uno o más eventos auditivos. Un límite de evento auditivo podría ser identificado como un cambio en las características de señal con respecto al tiempo que excede un umbral. En forma alterna, todos o algunos de uno o más de los parámetros podrían ser generados, por lo menos parcialmente, en respuesta a una medición continua del grado de cambio en las características de señal asociadas con los límites de evento auditivo. Aunque en principio los aspectos de la invención podrían ser implementados en los dominios analógico y/o digital, es probable que las implementaciones prácticas sean implementadas en el dominio digital en el cual cada una de las señales de audio es representada por muestras individuales o muestras dentro de bloques de datos. En este caso, las características de señal podrían ser el contenido espectral del audio dentro de un bloque, la detección de los cambios en las características de señal con respecto al tiempo podría ser la detección de los cambios en el contenido espectral del audio de bloque a bloque, y cada uno de los límites temporales de inicio y finalización del evento auditivo coincide con el límite de un bloque de datos. Debe observarse que para el caso más tradicional de realización de los cambios de ganancia dinámica en una base de muestra por muestra, que el análisis de escena auditiva descrito podría ser realizado en una base de bloque y la información resultante del evento auditivo es utilizada para efectuar los cambios de ganancia dinámica que son aplicados muestra por muestra . Al controlar los parámetros clave de procesamiento de dinámica de audio utilizando los resultados del análisis de escena auditiva, podría conseguirse una reducción dramática de los artefactos audibles introducidos por el procesamiento de dinámica. La presente invención presenta dos formas para realizar el análisis de escena auditiva. La primera efectúa el análisis espectral e identifica la ubicación de los eventos perceptibles de audio que son utilizados para controlar los parámetros de ganancia dinámica al identificar los cambios en el contenido espectral . La segunda forma cambia el audio en un dominio perceptual de intensidad acústica (que podría proporcionar una mayor información relevante en forma psicoacústica que la primera forma) e identifica la ubicación de los eventos auditivos que son subsecuentemente utilizados para controlar los parámetros de ganancia dinámica. Debe observarse que la segunda forma requiere que el procesamiento de audio se dé cuenta de los niveles absolutos de reproducción acústica, lo cual no podría ser posible en algunas implementaciones . La presentación de ambos métodos de análisis de escena auditiva permite las implementaciones de la modificación de ganancia dinámica controlada por ASA utilizando procesos o dispositivos que podrían o no ser calibrados para tomar en cuenta niveles absolutos de reproducción. Los aspectos de la presente invención son descritos en la presente en un entorno de procesamiento de dinámica de audio que incluye aspectos y otras invenciones. Estas otras invenciones son descritas en varias Solicitudes de Patente Internacional y de los Estados Unidos y Pendientes de Dolby Laboratories Licensing Corporation, el propietario de la presente solicitud, las aplicaciones son identificadas en este documento.
Breve Descripción de las Figuras La Figura 1 es un diagrama de flujo que muestra un ejemplo de las etapas de procesamiento para realizar el análisis de escena auditiva. La Figura 2 muestra un ejemplo del procesamiento de bloque, formación de ventana y realización de la DFT en el audio mientras se efectúa el análisis de escena auditiva. La Figura 3 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento paralelo en el cual el audio es utilizado para identificar los eventos auditivos y para reconocer las características de los eventos auditivos, de manera que los eventos y sus características sean utilizados para modificar los parámetros de procesamiento de dinámica. La Figura 4 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento en el cual el audio sólo es utilizado para identificar los eventos auditivos y las características de evento son determinadas a partir de la detección de evento auditivo, de manera que los eventos y sus características sean utilizados para modificar los parámetros de procesamiento de dinámica. La Figura 5 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento en el cual el audio sólo es utilizado para identificar los eventos auditivos y las características de evento son determinadas a partir de la detección de evento auditivo y de manera que, sólo las características de los eventos auditivos sean utilizadas para modificar los parámetros de procesamiento de dinámica. La Figura 6 muestra un conjunto de respuestas idealizadas de la característica del filtro auditivo que se aproximan a la banda crítica de la escala ERB. La escala horizontal es la frecuencia en Hertzios y la escala vertical es el nivel en decibeles. La Figura 7 muestra los mismos contornos de intensidad acústica de ISO 226. La escala horizontal es la frecuencia en Hertzios (en una escala de base logarítmica de 10) y la escala vertical es el nivel de presión de sonido en decibeles . Las Figuras 8a-c muestran características idealizadas de entrada/ salida y las características de ganancia de entrada de un compresor de intervalo dinámico de audio .
Las Figuras 9a-f muestran un ejemplo del uso de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) tradicional en el cual el control de ganancia es derivado a partir de la potencia de la Media Cuadrática (RMS) de la señal. Las Figuras 10a- f muestran un ejemplo del uso de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) tradicional en el cual el control de ganancia es derivado a partir de la potencia de la Media Cuadrática (RMS) de la señal para una señal alterna que se utiliza en la Figura 9. La Figura 11 representa un conjunto adecuado de curvas idealizadas AGC y DRC para la aplicación de AGC seguido por DRC en un sistema de procesamiento de dinámica de dominio de intensidad acústica. El objetivo de la combinación es hacer que todo el audio procesado tenga aproximadamente la misma intensidad acústica percibida mientras que todavía mantiene al menos alguna de la dinámica del audio original.
El Mejor Modo para Realizar la Invención Análisis de Escena Auditiva (Método Original de Dominio sin Intensidad Acústica) De acuerdo con una modalidad de un aspecto de la presente invención, el análisis de escena auditiva podría ser compuesto de cuatro etapas generales de procesamiento como se muestra en una porción de la Figura 1. La primera etapa 1-1 ("Realizar Análisis Espectral") toma una señal de audio de dominio de tiempo, después la divide en bloques y calcula el perfil espectral o contenido espectral para cada uno de los bloques. El análisis espectral transforma la señal de audio en el dominio de frecuencia a corto plazo. Esto podría ser realizado utilizando cualquier banco de filtros, ya sea en base a las transformadas o bancos de filtros de paso de banda, y en un espacio de frecuencia lineal u oblicua (tal como la escala o banda crítica de Bark, que mejor se aproxima a las características del oído humano) . Con cualquier banco de filtros existe un intercambio entre el tiempo y la frecuencia. Una resolución más grande de tiempo y por lo tanto, intervalos más cortos de tiempo, conduce a una resolución más baja de frecuencia. Una resolución más grande de frecuencia y por lo tanto, subbandas más angostas, conduce a intervalos más largos de tiempo. La primera etapa, que se ilustra de manera conceptual en la Figura 1, calcula el contenido espectral de segmentos sucesivos de tiempo de la señal de audio. En una modalidad práctica, el tamaño de bloque ASA podría ser a partir de cualquier número de muestras de la señal de audio de entrada, aunque 512 muestras proporcionan un buen intercambio de resolución de tiempo y frecuencia. En la segunda etapa 1-2, las diferencias en el contenido espectral de bloque a bloque son determinadas ("realiza las mediciones de diferencia de perfil espectral"). De esta manera, la segunda etapa calcula la diferencia en el contenido espectral entre segmentos sucesivos de tiempo de la señal de audio. Como se discutió con anterioridad, un indicador poderoso del comienzo o finalización del evento auditivo percibido se cree que es un cambio en el contenido espectral. En la tercera etapa 1-3 ("identifica la ubicación de los límites de evento auditivo"), cuando la diferencia espectral entre un bloque de perfil espectral y el siguiente es más grande que un umbral, el límite del bloque es tomado para que sea un límite de evento auditivo. El segmento de audio entre los límites consecutivos constituye un evento auditivo. De esta manera, la tercera etapa establece un límite de evento auditivo entre los segmentos sucesivos de tiempo cuando la diferencia en el contenido de perfil espectral entre estos segmentos sucesivos de tiempo excede un umbral, de esta manera, se define en los eventos auditivos. En esta modalidad, los límites de evento auditivo definen los eventos auditivos que tienen una longitud que es un múltiplo integral de los bloques de perfil espectral con una longitud mínima de un bloque de perfil espectral (512 muestras en este ejemplo) . En principio, los límites de evento no necesitan ser restringidos de este modo.
Como una alternativa a las modalidades prácticas discutidas en la presente, el tamaño de bloque de entrada podría variar, por ejemplo, de modo que sea esencialmente el tamaño de un evento auditivo. En seguida de la identificación de los límites de evento, las características clave del evento auditivo son identificadas como se muestra en la etapa 1-4. Ya sea los segmentos de superposición o sin superposición del audio podrían ser formados en ventanas y utilizados para calcular los perfiles espectrales del audio de entrada. La superposición origina una resolución más fina en cuanto a la ubicación de los eventos auditivos y también, hace menos probable la pérdida de un evento, tal como un transitorio corto. Sin embargo, la superposición también incrementa la complejidad computacional . De esta manera, la superposición podría ser omitida. La Figura 2, muestra una representación conceptual de N bloques de muestra sin superposición que son colocados en ventanas y transformados en el dominio de frecuencia por la Transformada Discreta de Fourier (DFT) . Cada bloque podría ser formado en ventanas y transformado en el dominio de frecuencia, tal como mediante la utilización de la DFT, de preferencia, implementado como la Transformada Rápida de Fourier (FFT) para la velocidad. Las siguientes variables podrían ser utilizadas para calcular el perfil espectral del. bloque de entrada: M = número de muestras de ventana en un bloque que se utiliza para calcular el perfil espectral P = número de muestras de superposición de computación espectral. En general, cualquiera de los números enteros podría ser utilizado para las variables anteriores. No obstante, la implementación sería más eficiente si M fuera colocada igual a la potencia de 2 , de modo que las FFTs estándares podrían ser utilizadas para los cálculos del perfil espectral. En una modalidad práctica del proceso de análisis de escena auditiva, los parámetros enlistados podrían ser establecidos para : = 512 muestras (u 11.6 ms a 44.1 kHz) P = 0 muestras (sin superposición) . Los valores enlistados con anterioridad fueron determinados de manera experimental y se encontraron, de manera general, que identifican con exactitud suficiente de la ubicación y duración de los eventos auditivos. Sin embargo, el establecimiento del valor de P en 256 muestras (50% de superposición) más que cero muestras (sin superposición) ha sido encontrado que es útil para identificar algunos eventos difíciles de encontrar. Mientras que muchos tipos distintos de ventanas podrían ser utilizados para minimizar los artefactos espectrales debido a la formación de ventanas, la ventana utilizada en los cálculos de perfil espectral es un punto-M de Hannxng, Kaiser-Bessel u otra ventana adecuada, de preferencia, no rectangular. Los valores indicados con anterioridad y el tipo de ventana de Hanning fueron seleccionados después de un análisis experimental extensivo puesto que han mostrado el suministro de resultados excelentes a través de un intervalo amplio de material de audio. La formación de ventana no rectangular es preferida para el procesamiento de señales de audio, de manera predominante, con un bajo contenido de frecuencia. La formación de ventana rectangular produce artefactos espectrales que podrían provocar la detección incorrecta de eventos. A diferencia de ciertas aplicaciones de codificador/decodificador (codee) en donde un proceso completo de superposición/adición debe proporcionar un nivel constante, esta restricción no se aplica aquí y la ventana podría ser elegida por características tales como su resolución de tiempo/frecuencia y rechazo de banda de paro. En la etapa 1-1 (Figura 1) , el espectro de cada bloque de muestra-M podría ser calculado mediante la formación de ventana de los datos con el punto-M de Hanning, Kaiser-Bessel u otra ventana adecuada, convirtiéndola al dominio de frecuencia utilizando el punto-M de la Transformada Rápida de Fourier, y calculando la magnitud de los coeficientes complejos FFT. Los datos resultantes o normalizados, de manera que la magnitud más grande sea establecida en la unidad, y la serie normalizada de M números es convertida al dominio logarítmico. Los datos también podrían ser normalizados a través de algún otro valor métrico tal como el valor medio de magnitud o el valor medio de potencia de los datos. La serie no necesita ser convertida al dominio logarítmico, sino que la conversión simplifica el cálculo de la medición de diferencia en la etapa 1-2. Además, el dominio logarítmico coincide de manera más cercana con la naturaleza del sistema auditivo humano. Los valores resultantes de dominio logarítmico tienen un intervalo de menos infinito a cero. En una modalidad práctica, el límite inferior podría ser impuesto en base al intervalo de valores; el límite podría ser fijado por ejemplo, en -60 dB, o puede ser dependiente de la frecuencia para reflejar el grado de audición más bajo de los sonidos silenciosos en frecuencias bajas y muy altas. (Se observa que sería posible reducir el tamaño de la serie a M/2 porque la FFT representa frecuencias negativas, así como también, frecuencias positivas). La etapa 1-2 calcula la medición de la diferencia entre el espectro de bloques adyacentes. Para cada bloque, cada uno de los coeficientes espectrales M(log) de la etapa 1-1 es restado del coeficiente correspondiente para el bloque precedente, y la magnitud de la diferencia calculada (el signo es ignorado) . Entonces, estas M diferencias son sumadas con un número. Esta medición de diferencia también podría ser expresada como una diferencia promedio por coeficiente espectral al dividir la medición de diferencia entre el número de coeficientes espectrales utilizados en la suma (en este caso, M coeficientes) . La etapa 1-3 identifica las ubicaciones de los límites de evento auditivo mediante la aplicación de un umbral a la serie de medidas de diferencia de la etapa 1-2 con un valor de umbral. Cuando una medición de diferencia excede un umbral, el cambio en el espectro es considerado suficiente para señalar un nuevo evento y el número de bloques del cambio es registrado como un límite de evento. Para los valores de M y P dados con anterioridad y para los valores de dominio logarítmico (en la etapa 1-1) expresados en unidades de dB, el umbral podría ser establecido igual a 2500 si la totalidad de la FFT de magnitud (que incluye la parte de espejo) fuera comparada o sería de 1250 si fuera comparada la mitad de la FFT (como se observó con anterioridad, la FFT representa frecuencias negativas, así como también frecuencias positivas, para la magnitud de la FFT, una es la imagen espejo de la otra) . Este valor fue elegido de manera experimental y proporciona una buena detección del límite de evento auditivo. Este valor del parámetro podría ser cambiado para reducir (incrementar el umbral) o aumentar (disminuir el umbral) de la detección de eventos .
El proceso de la Figura 1 podría ser presentado, de manera más general, por los arreglos equivalentes de las Figuras 3 , 4 y 5. En la Figura 3 , una señal de audio es aplicada en paralelo a una función o etapa 3-1 "Identifica Eventos Auditivos" que divide la señal de audio en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto en una función opcional o etapa 3-2 "Identifica las Características de los Eventos Auditivos" . El proceso de la Figura 1 podría ser empleado para dividir la señal de audio en eventos auditivos y sus características podrían ser identificadas o podría ser empleado algún otro proceso conveniente. La información del evento auditivo, que podría ser la identificación de los límites de evento auditivo, determinada por la función o etapa 3-1 es entonces utilizada para modificar los parámetros de procesamiento de dinámica de audio (tales como ataque, liberación, relación, etc.), como es deseado por una función o etapa 3-3 "Modifica Parámetros de Dinámica". La función o etapa 3-3 opcional "Identifica Características" también podría caracterizar algunos o la totalidad de los eventos auditivos a través de una o más características. Estas características podrían incluir la identificación de la subbanda dominante del evento auditivo, como se describe en conexión con el proceso de la Figura 1. Las características también podrían incluir una o más características de audio, que incluyen por ejemplo, la medición de la potencia del evento auditivo, la medición de la amplitud del evento auditivo, la medición de la planeidad espectral del evento auditivo y si el evento auditivo es de silencio, de manera sustancial, u otras características que ayuden a modificar los parámetros de dinámica, de manera que los artefactos audibles negativos del procesamiento sean reducidos o eliminados. Las características también podrían incluir otras características tales como si el evento auditivo comprendiera un transitorio. Las alternativas para el arreglo de la Figura 3 son mostradas en las Figuras 4 y 5. En la Figura 4 , la señal de entrada de audio no es directamente aplicada a la función o etapa 4-3 "Identifica Características", sino que recibe la información de la función o etapa 4-1 "Identifica Eventos Auditivos". El arreglo de la Figura 1 es un ejemplo específico de este arreglo. En la Figura 5, las funciones o etapas 5-1, 5-2 y 5-3 son situadas en series. Los detalles de esta modalidad práctica no son críticos. Podrían ser empleadas otras formas de cálculo del contenido espectral de los segmentos sucesivos de tiempo de la señal de audio, de cálculo de las diferencias entre los segmentos sucesivos de tiempo, y de establecimiento de los límites de evento auditivo en los respectivos límites entre los segmentos sucesivos de tiempo cuando la diferencia en el contenido espectral de perfil entre estos segmentos sucesivos de tiempo exceda un umbral. Análisis de Escena Auditiva (Nuevo Método de Dominio de Intensidad Acústica) La solicitud internacional de acuerdo con el Tratado de Cooperación de Patentes S.N. PCT/US2005/038579 , presentada el 25 de Octubre del 2005 publicada como Número de Publicación Internacional WO 2006/047600 Al y titulada "Calculating and Adjusting the Perceived Loudness and/o the Perceived Spectral Balance of an Audio Signal" de Alan Jeffrey Seefeldt, describe entre otras cosas, una medición objetivo de la intensidad acústica percibida en base a un modelo psicoacústico . Con lo cual, la solicitud es incorporada como referencia en su totalidad. Como se describe en la solicitud, a partir de una señal de audio, x[n] , una señal de excitación E[b,t] es calculada, la cual aproxima la distribución de energía a lo largo de la membrana basilar del oído interior en la banda crítica b durante el bloque de tiempo t. Esta excitación podría ser calculada a partir de la Transformada Discreta de Fourier de tiempo corto (STDFT) de la señal de audio como sigue: O) en donde X[k,t] representa la STDFT de x[n] en el bloque de tiempo t y la bandeja k. Se observa que en la Ecuación 1, t representa el tiempo en unidades discretas de bloques de transformada que es opuesto a la medición continua, tal como en segundos. T[k] representa la respuesta de frecuencia de un filtro que simula la transmisión de audio a través del oído exterior e intermedio, y Cb[k] representa la respuesta de frecuencia de la membrana basilar en la ubicación que corresponde con la banda crítica b. La Figura 6 representa un conjunto adecuado de respuestas de filtro de banda crítica en la cual 40 bandas se encuentran uniformemente separadas a lo largo de la escala de Ancho de Banda Rectangular Equivalente (ERB) , como es definido por Moore y Glasberg . Cada forma de filtro es descrita por la función exponencial redondeada y las bandas son distribuidas utilizando una separación de 1 ERB. Finalmente, la constante de tiempo de suavizamiento Xb en la Ecuación 1 podría ser elegida, de manera ventajosa, proporcionada al tiempo de integración de la percepción humana de intensidad acústica dentro de la banda b. Utilizando los mismos contornos de intensidad acústica, tales como aquellos representados en la Figura 7, la excitación en cada banda es transformada en un nivel de excitación que podría generar la misma intensidad acústica percibida a 1 kHz . La intensidad acústica específica, una medición de la intensidad acústica perceptual distribuida a través de la frecuencia y el tiempo, es entonces calculada a partir de la excitación transformada ElkHz[b,t], a través de una falta de linealidad compresiva. Una función adecuada para calcular la intensidad acústica específica N[b, t] es dada por: (2) en donde TQiknz es el umbral en silencio a 1 kHz y las constantes ß y a son elegidas para coincidir o combinar el crecimiento de los datos de intensidad acústica que son colectados a partir de los experimentos de escucha. En forma abstracta, esta transformación de la excitación a la intensidad acústica específica podría ser presentada por la función ?{ }, de manera que: N[b9t] = V{Elbtt]} Finalmente, la intensidad acústica total, L[t] representada en unidades de sonido, es calculada sumando la intensidad acústica específica a través de las bandas: £[í] = ?W>, b (3) La intensidad acústica específica N[b, t] es un significado de representación espectral para simular el modo en el cual el humano percibe el audio como una función de la frecuencia y el tiempo. Esta captura las variaciones en sensibilidad en distintas frecuencias, variaciones en sensibilidad de nivel y variaciones en la resolución de frecuencia. Como tal, esta es una representación espectral que es bien combinada con la detección de los eventos auditivos. A través de una comparación compleja más computacional , la diferencia de N[b,t] a través de las bandas entre los bloques sucesivos de tiempo podría en muchos casos originar una detección perceptual más precisa de los eventos auditivos en comparación con el uso directo de los espectros sucesivos FFT descritos con anterioridad. En la solicitud de patente, son descritas varias aplicaciones para modificar el audio en base al modelo de intensidad acústica psicoacústica . Entre estas se encuentran varios algoritmos de procesamiento de dinámica tales como AGC y DRC. Estos algoritmos descritos podrían beneficiarse del uso de los eventos auditivos para controlar varios parámetros asociados. Debido a que la intensidad acústica específica ya es calculada, ésta se encuentra fácilmente disponible para el propósito de detectar los eventos. Los detalles de una modalidad preferida son discutidos más adelante. Control de Parámetro de Procesamiento de Dinámica de Audio con Eventos Auditivos A continuación, dos ejemplos de modalidades de la invención son presentados. El primer ejemplo describe el uso de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) en el cual el control de ganancia es derivado de la potencia Media Cuadrática (RMS) de la señal. La segunda modalidad describe el uso de los eventos auditivos para controlar ciertos aspectos de una combinación más sofisticada de AGC y DRC implementada dentro del contexto del modelo de intensidad acústica psicoacústica descrito con anterioridad. Estas dos modalidades significan que sirven como ejemplos sólo de la invención, y debe entenderse que el uso de los eventos auditivos para controlar los parámetros del algoritmo de procesamiento de dinámica no es restringido a las modalidades específicas descritas más adelante. Control de Intervalo Dinámico La implementación digital descrita de un DRC divide una señal de audio x[n] en bloques de mitad de superposición de ventanas, y para cada bloque una ganancia de modificación es basada en la medición de la potencia local de la señal y es calculada la curva seleccionada de compresión. La ganancia es suavizada a través de los bloques, y posteriormente, es multiplicada con cada bloque. Los bloques modificados son finalmente agregados por superposición para generar la señal modificada de audio y[n] . Debe observarse, que mientras el análisis de escena auditiva y la implementación digital de DRC como se describió en la presente, divide la señal de audio de dominio de tiempo en bloques para realizar el análisis y procesamiento, el procesamiento DRC necesita ser efectuado utilizando la segmentación del bloque. Por ejemplo, el análisis de escena auditiva podría ser realizado utilizando la segmentación de bloque y el análisis espectral como se describió con anterioridad y las ubicaciones y características resultantes del evento auditivo podrían ser empleadas a fin de proporcionar la información de control a la implementación digital de una implementación tradicional DRC que normalmente opera en una base de muestra a muestra. No obstante, aquí la misma estructura de bloque utilizada para el análisis de escena auditiva es empleada para la DRC a fin de simplificar la descripción de su combinación. Procediendo con la descripción de una implementación DRC basada en bloque, los bloques de superposición de la señal de audio podrían ser representados como: MtnJx[n+/Af/2] Para 0 < n < M - l (4) en donde M es la longitud del bloque y el tamaño de salto es M/2, w[n] es la ventana, n es el índice de muestra dentro del bloque, y t es el índice de bloque (se observa que aquí, t es utilizado en el mismo modo que con STDFT en la Ecuación 1; representa el tiempo en unidades discretas de bloques más que como por ejemplo, segundos) . En forma ideal, la ventana w[n] disminuye hasta cero en ambos extremos y se suma a la unidad cuando es superpuesta la mitad con sí misma; la ventana de seno comúnmente utilizada cumple, por ejemplo, con estos criterios. Para cada bloque, se podría entonces calcular la potencia RMS para generar una medición de potencia P[t] en dB por bloque : (5) Como se mencionó con anterioridad, se podría suavizar esta medición de potencia con un ataque rápido y liberación lenta antes del procesamiento con una curva de compresión, aunque como una alternativa, la potencia instantánea P[t] es procesada y la ganancia resultante es suavizada. Este procedimiento alterno tiene la ventaja que una simple curva de compresión con puntos agudos de cambio de dirección podría ser utilizada, aunque las ganancias resultantes todavía son suaves a medida que la potencia se desplaza a través del punto de cambio de dirección. La representación de una curva de compresión como se muestra en la Figura 8c como una función F del nivel de señal que genera una ganancia, la ganancia de bloque G[t] es dada por: (6) Suponiendo que la curva de compresión aplique una atenuación más grande a medida que se incrementa el nivel de la señal, la ganancia estará disminuyendo cuando la señal se encuentre en el "modo de ataque" y estará aumentando cuando se encuentre en el "modo de liberación". Por lo tanto, la ganancia suavizada G[t] podría ser calculada de acuerdo con: G[í] = a[í · Gt-1]+(1-a[t^G[t] (7a) en donde (7b) y e/taire ^"^" ^attaoti C7c) Finalmente, la ganancia suavizada G[t] , que se encuentra en dB, es aplicada a cada bloque de la señal, y los bloques modificados son agregados por superposición a fin de producir el audio modificado: yin + tM/21 = (lO°w 20)«[ i,r]+(l0^-,,/¾)) »+M/2,/ - 1] > 0<n<Aá (8) Se observa que debido a que los bloques han sido multiplicados con una ventana de disminución, como se muestra en la Ecuación 4, la síntesis de adición por superposición mostrada con anterioridad, suavizada efectivamente las ganancias a través de las muestras de la señal procesada y[n] . De esta manera, la señal de control de ganancia recibe el suavizamiento además del que se muestra en la Ecuación 7a. En una implementación más tradicional de DRC que opera muestra por muestra, más que bloque por bloque, el suavizamiento de ganancia más sofisticado que un simple filtro de un polo mostrado en la Ecuación 7a podría ser necesario con el fin de evitar la distorsión audible en la señal procesada. Asimismo, el uso del procesamiento basado en bloque introduce un retraso inherente de M/2 muestras en el sistema, y con la condición que el tiempo de declinación asociado con attack se encuentre cercano a este retraso, la señal x[n] no necesita ser retrasada adicionalmente antes de la aplicación de las ganancias con el propósito de evitar el exceso de modulación. Las Figuras 9a- 9c representan el resultado de la aplicación del procesamiento descrito DRC a una señal de audio. Para esta implementación particular, una longitud de bloque de =512 es utilizada en una relación de muestreo de 44.1 kHz . Una curva de compresión similar a la mostrada en la Figura 8b es utilizada: por encima de -20dB con relación a la escala completa digital, la señal es atenuada con una relación de 5:1, y por debajo de -30dB la señal es amplificada con una relación de 5:1. La ganancia es suavizada con un coeficiente de ataque aattack que corresponde con el tiempo de declinación a la mitad de 10ms y un coeficiente de liberación orelease que corresponde con el tiempo de declinación a la mitad de 500ms. La señal de audio original que se representa en la Figura 9c consiste de seis cuerdas consecutivas de piano, con la cuerda final situada alrededor de la muestra 1.75xl05, declinando hacia el silencio. Examinando una gráfica de la ganancia G[t] en la Figura 9b, debe observarse que la ganancia permanece cercana a OdB mientras que las seis cuerdas son tocadas. Esto es debido a que la energía de la señal permanece durante la mayor parte del tiempo, entre -30 y -2 OdB, la región dentro de la cual la curva DRC no requiere de modificación. Sin embargo, después de golpear la última cuerda, la energía de señal cae por debajo de -30dB y la ganancia comienza a elevarse, de manera eventual más allá de 15dB a medida que la cuerda declina. La Figura 9c representa la señal de audio resultante que es modificada, y puede observarse que la cola de la cuerda final es aumentada de manera significante. En forma audible, este aumento del sonido de declinación de bajo nivel natural de la cuerda crea un resultado extremadamente no natural . El objetivo de la presente invención es evitar problemas de este tipo que son asociados con un procesador tradicional de dinámica.
Las Figuras 10a- 10c representan los resultados de aplicación del mismo sistema exacto DRC a una señal de audio diferente. En este caso, la primera mitad de la señal consiste de una pieza de música de paso o compás ascendente en un nivel alto, y posteriormente, en una muestra aproximadamente de lOxlO4, la señal cambia a una segunda pieza de música de compás ascendente, aunque en un nivel significativamente más bajo. Examinando la ganancia en la Figura 6b, se observa que la señal es atenuada aproximadamente en lOdB durante la primera mitad, y posteriormente, la ganancia regresa a OdB durante la segunda mitad cuando se está tocando la pieza más suave. En este caso, la ganancia se comporta como se desee. A una persona le gustaría que la segunda pieza sea ampliada con relación a la primera, y la ganancia tiene que incrementarse con rapidez después de la transición hacia la segunda pieza para que no sea obstructiva en forma audible. Se observa un comportamiento de ganancia que es similar al de la primera señal discutida, aunque aquí, el comportamiento es el deseable. Por lo tanto, a una persona le gustaría arreglar el primer caso sin afectar el segundo. El uso de eventos auditivos para controlar el tiempo de liberación de este sistema DRC proporciona esta solución. En la primera señal que fue examinada en la Figura 9, la amplificación de la primera declinación de la última cuerda parece no natural debido a que la cuerda y su declinación son percibidas como un evento auditivo único cuya integridad se espera que sea mantenida. No obstante, en el segundo caso sucede en muchos eventos auditivos mientras que la ganancia se incrementa, lo que significa que para cualquier evento individual, es transmitido un cambio pequeño. Por lo tanto, el cambio total de ganancia no puede ser objetable. Por lo tanto, se puede discutir que el cambio de ganancia sólo tiene que ser permitido en la proximidad casi temporal de un límite de evento auditivo. Se puede aplicar este principio a la ganancia mientras que se encuentre en cualquiera de los modos de ataque o liberación, aunque para la mayoría de implementaciones prácticas de una DRC, la ganancia se mueve tan rápidamente en el modo de ataque en comparación con la resolución temporal humana de la percepción de evento que ningún control es necesario. Por lo tanto, pueden utilizarse eventos para controlar el suavizamiento de la ganancia DRC sólo cuando se encuentre en el modo de liberación. A continuación, se describe un comportamiento adecuado del control de liberación. En términos cuantitativos, si fuera detectado un evento, la ganancia sería suavizada con la constante de liberación de tiempo como es especificado con anterioridad en la ecuación 7a. A medida que el tiempo evoluciona a través del evento detectado, y si no fueran detectados eventos subsiguientes, la constante de liberación de tiempo se incrementaría en forma continua, de modo que eventualmente la ganancia suavizada sería "congelada" en el lugar. Si fuera detectado otro evento, entonces, la constante de suavización de tiempo sería restablecida al valor original y el proceso se repetiría. Con el fin de modular el tiempo de liberación, se podría generar primero una señal de control en base a los límites detectados de evento. Como se discutió con anterioridad, los límites de evento podrían ser detectados buscando cambios en los espectros sucesivos de la señal de audio. En esta implementación particular, la DFT de cada bloque de superposición x[n, t] podría ser calculada para generar la STDFT de la señal de audio x[n] : (¾ A continuación, la diferencia entre los espectros normalizados de magnitud logarítmica de los bloques sucesivos podría ser calculada de acuerdo con: (10a) en donde (10b) Aquí, el máximo de \X[k,t] | a través de las bandejas k es utilizado para la normalización, aunque podrían emplearse otros factores de normalización; por ejemplo, el promedio de \x[k,t] | a través de las bandejas. Si la diferencia D[t] excediera un umbral Dmin, entonces el evento sería considerado que ha ocurrido. Además, podría asignarse una intensidad a este evento, que se sitúa entre cero y uno, en base del tamaño de D[t] en comparación con el umbral máximo Dmax. La señal intensa resultante del evento auditivo A[t] podría ser calculada como: Al asignar una intensidad al evento auditivo proporcional a la cantidad del cambio espectral asociado con este evento, es conseguido un control más grande con respecto al procesamiento de dinámica en comparación con la decisión del evento binario. Los inventores han encontrado que cambios más grandes de ganancia son aceptables durante eventos más intensos, y la señal en la Ecuación 11 permite este control variable .
La señal A[t] es una señal impulsiva con un impulso que sucede en la ubicación de un límite de evento. Con el propósito de controlar el tiempo de liberación, podría suavizarse la señal A[t] , de modo que decline en forma suave hasta cero después de la detección de un límite de evento. La señal suavizada de control de evento A[t] podría ser calculada a partir de A[t] de acuerdo con: [a8»??[* -1] de otro modo (12) Aquí, aevent controla el tiempo de declinación de la señal de control de evento. Las Figuras 9d y lOd representan la señal de control de evento A[t] para las dos correspondientes señales de audio, con la mitad de declinación de tiempo del establecimiento más suave en 250ms. En el primer caso, se observa que un límite de evento es detectado para cada una de las seis cuerdas del piano, y que la señal de control de evento declina en forma suave hacia cero después de cada evento. Para la segunda señal, son detectados muchos eventos muy cerca entre sí en el tiempo, y por lo tanto, la señal de control de evento nunca declina por completo hasta cero. A continuación, podría usarse la señal de control de evento A[t] para variar la constante de tiempo de liberación utilizada para suavizar la ganancia. Cuando la señal de control sea igual a uno, el coeficiente de suavizamiento a[t] de la Ecuación 7a es igual a areiease, del mismo modo que con anterioridad, y cuando la señal de control es igual a cero, el coeficiente es igual a uno, de modo que sea evitado el cambio de la ganancia suavizada. El coeficiente de suavizamiento es interpolado entre estos dos extremos utilizando la señal de control de acuerdo con: (13) Al interpolar el coeficiente de suavizamiento en forma continua como una función de la señal de control de evento, el tiempo de liberación es reajustado a un valor proporcionado a la intensidad de evento en el curso de un evento y posteriormente, se incrementa en forma suave hasta el infinito después de la ocurrencia de un evento. La velocidad de este incremento es impuesta por el coeficiente 3-event utilizado para generar la señal de control de evento suavizada . Las Figuras 9e y lOe muestran el efecto de suavizamiento de la ganancia con el coeficiente controlado por evento de la Ecuación 13 que es opuesto al coeficiente controlado sin evento de la Ecuación 7b. En el primer caso, la señal de control de evento cae a cero después de la última cuerda de piano, con lo cual se evita que la ganancia se mueva hacia arriba. Como resultado, el audio modificado correspondiente en la Figura 9f no experimenta un aumento no natural de la declinación de la cuerda. En el segundo caso, la señal de control de evento nunca se aproxima a cero, y por lo tanto, la señal de ganancia suavizada es impedida muy poco a través de la aplicación del control de evento. La trayectoria de la ganancia suavizada es casi idéntica a la ganancia controlada sin evento en la Figura 10b. Este es exactamente el efecto deseado. Intensidad Acústica Basada en AGC y DRC Como una alternativa a las técnicas tradicionales de procesamiento de dinámica, en donde las modificaciones de señal son una función directa de mediciones simples de señal tales como la potencia de pico o RMS, la solicitud de patente internacional S.N. PCT/US2005/038579 describe el uso del Modelo de intensidad acústica basado en la psicoacústica descrito con anterioridad como una estructura dentro de la cual se realiza el procesamiento de dinámica. Varias ventajas son citadas. En primer lugar, las mediciones y modificaciones son especificadas en unidades de sonido, la cual es una medición más exacta de la percepción de intensidad acústica que las mediciones más básicas como la potencia de pico o RMS. En segundo lugar, el audio podría ser modificado, de manera que el equilibrio espectral percibido del audio original sea mantenido a medida que es cambiada la intensidad acústica total. De este modo, los cambios en la intensidad acústica total se vuelven menos aparentes, en forma perceptual, en comparación con un procesador de dinámica que utiliza una ganancia de banda ancha, por ejemplo, para modificar el audio. Finalmente, el modelo psicoacústico es de múltiples bandas, de manera inherente, y por lo tanto, el sistema es configurado con facilidad para realizar el procesamiento de dinámica de múltiples bandas con el fin de aliviar los problemas de bombeo espectral cruzado bien conocidos que son asociados con el procesador de dinámica de banda ancha. Aunque la realización del procesamiento de dinámica en este dominio de intensidad acústica ya mantiene varias ventajas con respecto al procesamiento de dinámica más tradicional, la técnica podría ser adicionalmente mejorada a través del uso de eventos auditivos para controlar varios parámetros. Se considera el segmento de audio que contiene cuerdas de piano como se representa en 27a y el DRC asociado que se muestra en las Figuras 10b y 10c. Podría realizarse un DRC similar en el dominio de la intensidad acústica, y en este caso, cuando la intensidad acústica de la declinación de la cuerda final de piano sea aumentada, el aumento o ampliación sería menos aparente debido a que el equilibrio espectral de la nota de declinación sería mantenido a medida que es aplicado el aumento o ampliación. Sin embargo, una mejor solución es no aumentar la declinación en lo absoluto, y por lo tanto, podría ser ventajosa la aplicación del mismo principio de control de los tiempos de ataque y liberación con eventos auditivos en el dominio de intensidad acústica como se describió con anterioridad para el DRC tradicional . El sistema de procesamiento de dinámica de dominio de intensidad acústica que ahora es descrito, consiste de AGC seguido por DRC. El objetivo o meta de esta combinación es hacer que todo el audio procesado tenga aproximadamente la misma intensidad acústica percibida mientras que todavía mantiene al menos algunas de la dinámica del audio original . La Figura 11 representa un conjunto adecuado de curvas AGC y DRC para esta aplicación. Se observa que la entrada y la salida de ambas curvas son representadas en unidades de sonido debido a que el procesamiento es efectuado en el dominio de intensidad acústica. La curva AGC compite en llevar el audio de salida más cerca a algún nivel objetivo, y como se mencionó con anterioridad, lo hace con constantes de tiempo relativamente lentas. Podría pensarse que AGC que realiza la intensidad acústica a largo plazo del audio es igual al objetivo, aunque en una base a corto plazo, la intensidad acústica podría fluctuar de manera significativa alrededor de este objetivo. Por lo tanto, podría emplearse DRC de actuación más rápida para limitar estas fluctuaciones hasta algún alcance considerado aceptable para la aplicación particular. La Figura 11 muestra una curva DRC en donde el objetivo AGC cae dentro de la "banda nula" del DRC, la porción de la curva que se requiere para que no exista modificación. Con esta combinación de las curvas, el AGC pone la intensidad acústica a largo plazo del audio dentro de la banda nula de la curva DRC, de modo que necesitan ser aplicadas modificaciones mínimas DRC de actuación rápida. Si la intensidad acústica de plazo corto todavía fluctuara fuera de la banda nula, entonces, el DRC actuaría para mover la intensidad acústica del audio hacia esta banda nula. Como una nota general final, podría aplicarse el AGC de actuación lenta, de manera que todas las bandas del Modelo de intensidad acústica reciban la misma cantidad de modificación de intensidad acústica, con lo cual se mantiene el equilibrio espectral percibido, y podría aplicarse el DRC de actuación rápida en un modo que permita que la modificación de intensidad acústica varíe a través de las bandas con el propósito de aliviar el bombeo espectral cruzado que de otro modo pudiera originarse a partir de la modificación de intensidad acústica independiente de banda de actuación rápida . Los eventos auditivos podrían ser utilizados para controlar los tiempos de ataque y liberación, tanto de AGC como de DRC. En el caso de AGC, ambos de los tiempos de ataque y liberación son grandes en comparación con la resolución temporal de la percepción de evento, y por lo tanto, el control de evento podría ser empleado de manera ventajosa, en ambos casos, con el DRC, el tiempo de ataque es relativamente corto y por lo tanto, el control de evento sólo podría ser necesario para el tiempo de liberación del mismo modo que con el DRC tradicional descrito con anterioridad. Como se discutió con anterioridad, podría utilizarse el espectro de intensidad acústica específica asociado con el modelo empleado de intensidad acústica para los propósitos de detección de evento. Una señal de diferencia D[t] , similar a la de las Ecuaciones 10a y 10b podría ser calculada a partir de la intensidad acústica específica N[j , t] , definida en la Ecuación 2 como sigue: (14a) en donde (14b) Aquí, el máximo de |2V[j ,t] | a través de las bandas de frecuencia b es utilizado para la normalización, aunque podrían emplearse otros factores de normalización; por ejemplo, el promedio de |N[i_>, fc] | a través de las bandas de frecuencia. Si la diferencia D[t] excediera un umbral Dmin, entonces, se considera que el evento ha sucedido. Entonces, la señal de diferencia podría ser procesada en el mismo modo mostrado en las Ecuaciones 11 y 12 para generar una señal de control aun más suave A[t] utilizada para regular los tiempos de ataque y liberación. La curva AGC representada en la Figura 11 podría ser representada como una función que toma como su entrada la medición de intensidad acústica y genera la intensidad acústica salida deseada: (15a) La curva DRC podría ser representada en forma similar: (15b) .
Para el AGC, la intensidad acústica de entrada es una medición de la intensidad acústica a largo plazo del audio . Podría calcularse esta medición mediante la suavización de la intensidad acústica instantánea L[t], definida en la Ecuación 3, utilizando constantes de tiempo relativamente grandes (en el orden de varios segundos) . Se ha mostrado que para juzgar la intensidad acústica a largo plazo del segmento de audio, los humanos ponderan las porciones de mayor intensidad de manera más pesada que las más suaves, y podría utilizarse un tiempo más rápido de ataque que de liberación en la suavización para simular este efecto. Con la incorporación del control de evento para ambos tiempos de ataque y liberación, la intensidad acústica a largo plazo utilizada para determinar la modificación AGC, podría entonces ser calculada de acuerdo con: (16a) en aonae : (16b) Además, podría calcularse el espectro asociado de intensidad acústica específica a largo plazo que posteriormente será utilizado para el DRC de múltiples bandas : NAOC A -1]+0-aAac lWN[b,t] (16c) En la práctica, podrían elegirse los coeficientes de suavizamiento, de manera que el tiempo de ataque sea aproximadamente la mitad del tiempo de liberación. Dada la medición de intensidad acústica a largo plazo, entonces podría calcularse la escala de modificación de intensidad acústica asociada con el AGC como la relación de la intensidad acústica de salida con la intensidad acústica de entrada (17) La modificación DRC ahora podría ser calculada a partir de la intensidad acústica después de la aplicación de la escala AGC. Más que suavizar una medición de la intensidad acústica antes de la aplicación de la curva DRC, podría aplicarse en forma alterna la curva DRC a la intensidad acústica instantánea y después, suavizar de manera subsiguiente la modificación resultante. Esto es similar a la técnica descrita con anterioridad para suavizar la ganancia del DRC tradicional. Además, el DRC podría aplicarse en un modo de múltiples bandas, lo que significa que la modificación DRC es una función de la intensidad acústica específica N[b, fc] , en cada banda b, más que la intensidad acústica total L[t] . Sin embargo, con el fin de mantener el equilibrio espectral promedio del audio original, podría aplicarse DRC en cada banda, de manera que las modificaciones resultantes tengan el mismo efecto promedio que se originaría a partir de la aplicación de DRC a la intensidad acústica total . Esto podría ser conseguido mediante la escala de cada banda entre la relación de la intensidad acústica total a largo plazo (después de la aplicación de la escala AGC) con la intensidad acústica específica de largo plazo, y la utilización de este valor como el argumento para la función DRC. Entonces, el resultado puede volver a ser escalado por el inverso de la relación para producir la intensidad acústica específica de salida. De esta manera, la escala DRC en cada banda podría ser calculada de acuerdo con: Las modificaciones AGC y DCR podrían entonces ser combinadas para formar una escala total de intensidad acústica por banda: Srorib,'] (19) Esta escala total podría entonces ser suavizada a través del tiempo de manera independiente para cada banda con un modo rápido de ataque y modo lento de liberación y el control de evento aplicado sólo al modo de liberación. En forma ideal, el suavizamiento es realizado en base al logaritmo de la escala análoga en las ganancias del DCR tradicional que está siendo suavizado en su representación de decibel, aunque esto no es esencial. Para garantizar que la escala suavizada total se mueva en sincronía con la intensidad acústica específica en cada banda, los modos de ataque y liberación podrían ser determinados a través de suavizamiento simultáneo de la intensidad acústica específica por sí misma: (20b) . en donde (20c) Finalmente, podría calcularse la intensidad acústica específica objetivo en base a la escala suavizada que es aplicada a la intensidad acústica específica original i^r] = -WM]-V[ ] (21) y después, se resuelven las ganancias G[b,t] que cuando se aplicó al resultado original de excitación en la intensidad acústica específica es igual al objetivo: (22) Las ganancias podría ser aplicadas a cada banda del banco de filtros utilizado para calcular la excitación, y entonces, el audio modificado podría ser generado mediante la inversión del banco de filtros para producir una señal de audio modificada de dominio de tiempo. Control Adicional de Parámetro Mientras que la discusión anterior se ha enfocado en el control de los parámetros de ataque y liberación AGC y DRC por medio del análisis de escena auditiva y el audio que está siendo procesado, otros parámetros importantes también podrían beneficiarse al ser controlados por medio de los resultados ASA. Por ejemplo, la señal de control de evento A[t] de la Ecuación 12 podría ser utilizada para variar el valor del parámetro de relación DRC que es utilizado para ajustar en forma dinámica la ganancia del audio. El parámetro de relación, en forma similar a los parámetros de tiempo de ataque y liberación, podría construir de manera significativa a los artefactos perceptuales introducidos por los ajustes de ganancia dinámica. Implementación La invención podría ser implementada en hardware o software, o una combinación de ambos (por ejemplo, en series lógicas programables) . A menos que sea especificado de otro modo, los algoritmos incluidos como parte de la invención no están inherentemente relacionados con ninguna computadora particular u otro aparato. En particular, podrían emplearse varias máquinas de uso general con programas escritos de acuerdo con las enseñanzas en este documento, o podría ser más conveniente la construcción de aparatos más especializados (por ejemplo, circuitos integrados) para realizar las etapas requeridas de método. De esta manera, la invención podría ser implementada en uno o más programas de computadora que se ejecuten en uno o más sistemas programables de computadora, cada uno de los cuales comprende al menos un procesador, al menos un sistema de almacenamiento de datos (que incluye una memoria volátil y no volátil y/o elementos de almacenamiento) , al menos un dispositivo o puerto de entrada, y por lo menos un dispositivo o puerto de salida. El código de programa es aplicado a los datos de entrada para realizar las funciones descritas en la presente y para generar la información de salida. La información de salida es aplicada a uno o más dispositivos de salida en un modo conocido. Cada programa podría ser implementado en cualquier lenguaje deseado de computadora (que incluye lenguajes de programación de máquina, ensamble, o de alto nivel de procedimiento, lógico u orientado por objeto) para comunicarse con un sistema de computadora. En cualquier caso, el lenguaje podría ser un lenguaje compilado o interpretado. De preferencia, cada programa de computadora es almacenado o descargado en un medio o dispositivo de almacenamiento (por ejemplo, una memoria o medios de estado sólido, o medios magnéticos u ópticos) que pueda ser leído por una computadora programable de uso general o especial, para la configuración y operación de la computadora cuando los medios o dispositivo de almacenamiento sean leídos por el sistema de computadora a fin de realizar los procedimientos descritos en la presente. El sistema inventivo también podría ser considerado que es implementado como un medio de almacenamiento susceptible de ser leído por computadora, el cual es configurado con un programa de computadora, en donde el medio de almacenamiento configurado de este modo, provoca que el sistema de computadora opere en un modo específico y predefinido a fin de realizar las funciones descritas en este documento . Se ha descrito un número de modalidades de la invención. Sin embargo, se entenderá que podrían realizarse varias modificaciones sin apartarse del espíritu y alcance de la invención. Por ejemplo, algunas de las etapas descritas en la presente podrían ser de orden independiente, y de esta manera, podrían realizarse en un orden diferente del orden descrito. Debe entenderse que la implementación de otras variaciones y modificaciones de la invención y sus distintos aspectos serán aparentes para aquellas personas expertas en la técnica y que la invención no es limitada por estas modalidades específicas descritas. Por lo tanto, se contempla cubrir por medio de la presente invención cualquiera y todas las modificaciones, variaciones o equivalentes que caen dentro del verdadero espíritu y alcance de los principios subyacentes básicos que se describen y se reivindican en este documento .
Incorporación como Referencia Las siguientes patentes, solicitudes y publicaciones de patente son incorporadas como referencia, cada una en su totalidad. Procesamiento de Dinámica de Audio Audio Engineer's Reference Book, editado por Michael Talbot-Smith, 2a edición. Limiters and Compressors, Alan Tutton, 2-1492-165. Focal Press, Reed Educational and Professional Publishing, Ltd., 1999. Detección y Utilización de Eventos Auditivos La Patente de los Estados Unidos S.N. 10/474,387, "High Quality Time-Scaling and Pitch-Scaling of Audio Signáis" de Brett Graham Crockett et al, publicada el 24 de Junio del 2004 como US 2004/0122662 Al. La Patente de los Estados Unidos S.N. 101478,398, "Method for Time Aligning Audio Signáis Using Characterizations Based on Auditory Events" de Brett G.
Crockett et al. publicada el 29 de Julio del 2004 como US 2004/0148159 Al. La Patente de los Estados Unidos S.N. 10/478,538, "Segmenting Audio Signáis Into Auditory Events" de Brett G. Crockett, publicada el 26 de Agosto del 2004 como US 2004/0165730 Al. Los aspectos de la presente invención proporcionan una forma para detectar eventos auditivos además de aquellos descritos en la solicitud de Crockett.
La Patente de los Estados Unidos S.N. 10/478.397, "Comparing Audio Using Characterizations Based on Auditory Events" de Brett G. Crockett et al, publicada el 02 de Septiembre del 2004 como US 2004/0172240 Al. Solicitud Internacional de acuerdo con el Tratado de Patentes S.N. PCT/US05/24630 presentada el 13 de Julio del 2005, titulada "Method for Combining Audio Signáis Using Auditory Scene Analysis," de Michael John Smithers, publicada el 09 de Marzo del 2006 como WO 2006/026161. Solicitud Internacional de acuerdo con el Tratado de Patentes S.N. PCT/US 2004/016964, presentada el 27 de Mayo del 2004, titulada "Method, Apparatus and Computer Program for Calculating and Adjusting the Perceived Loudness of an Audio Signal" de Alan Jeffiey Seefeldt et al., publicada el 23 de Diciembre del 2004 como WO 20041111994 A2. Solicitud Internacional de acuerdo con el Tratado de Patentes S.N. PCT/US2005/038579 , presentada el 25 de Octubre del 2005, titulada "Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal" de Alan Jeffiey Seefeldt y publicada como Número de Publicación Internacional WO 2006/047600. "A Method for Characterizing and Identifying Audio Based on Auditory Scene Analysis," de Brett Crockett y Michael Smithers, Audio Engineering Society Convention Paper 6416.1 18va Convención, Barcelona, 28-31 de Mayo del 2005.

Claims (13)

  1. REIVINDICACIONES 1. Un método de modificación de un parámetro de un procesador de dinámica de audio, caracterizado porque comprende detectar los cambios en las características espectrales con respecto al tiempo en una señal de audio, identificar como límites de evento auditivo cambios más grandes que un umbral en las características espectrales con respecto al tiempo en la señal de audio, en donde un segmento de audio entre límites consecutivos constituye un evento auditivo, generar una señal de control de modificación de parámetro en base a los límites identificados de evento, y modificar el parámetro del procesador de dinámica de audio como una función de la señal de control.
  2. 2. El método de conformidad con la reivindicación 1, caracterizado porque el parámetro es uno del tiempo de ataque, el tiempo de liberación y la relación.
  3. 3. El método de conformidad con la reivindicación 1, caracterizado porque el parámetro modificado es una constante de tiempo de suavizamiento de ganancia
  4. 4. El método de conformidad con la reivindicación 3, caracterizado porque la constante de tiempo de suavizamiento de ganancia es una constante de tiempo de ataque de suavizamiento de ganancia.
  5. 5. El método de conformidad con la reivindicación 3, caracterizado porque la constante de tiempo de suavizamiento de ganancia es una constante de tiempo de liberación de suavizamiento de ganancia.
  6. 6. El método de conformidad con cualquiera de las reivindicaciones 1-5, caracterizado porque la señal de control de modificación de parámetro está basada en la ubicación de los límites identificados de evento auditivo y el grado de cambio en las características espectrales asociadas con cada uno de los límites de evento auditivo.
  7. 7. El método de conformidad con la reivindicación 6, caracterizado porque la generación de un parámetro de modificación de señal de control comprende proporcionar un impulso en cada uno de los límites de evento auditivo, cada impulso tiene una amplitud proporcional al grado de los cambios en las características espectrales, y suavizar el tiempo de cada impulso, de manera que su amplitud decline en forma suave hacia cero.
  8. 8. El método de conformidad con cualquiera de las reivindicaciones 1-7, caracterizado porque los cambios en las características espectrales con respecto al tiempo son detectados mediante la comparación de las diferencias en la intensidad acústica específica.
  9. 9. El método de conformidad con la reivindicación 8, caracterizado porque la señal de audio es representada por una secuencia discreta de tiempo x[n] que ha sido muestreada a partir de una fuente de audio en una frecuencia de muestreo f3 y los cambios en las características espectrales con respecto al tiempo son calculadas mediante la comparación de la diferencia en la intensidad acústica específica N[b, t] a través de las bandas de frecuencia b entre los bloques sucesivos de tiempo t.
  10. 10. El método de conformidad con la reivindicación 9, caracterizado porque la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio es calculada de acuerdo con en donde
  11. 11. El método de conformidad con la reivindicación 9, caracterizado porque la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio es calculada de acuerdo con en donde N Tb n NORÍtí ''] avg {"[M} b
  12. 12. El aparato, caracterizado porque comprende medios adaptados para realizar el método de conformidad con cualquiera de las reivindicaciones 1-11.
  13. 13. El programa de computadora almacenado en un medio susceptible de ser leído por computadora, caracterizado porque provoca que la computadora realice el método de conformidad con cualquiera de las reivindicaciones 1-11.
MX2008013753A 2006-04-27 2007-03-30 Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica. MX2008013753A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US79580806P 2006-04-27 2006-04-27
PCT/US2007/008313 WO2007127023A1 (en) 2006-04-27 2007-03-30 Audio gain control using specific-loudness-based auditory event detection

Publications (1)

Publication Number Publication Date
MX2008013753A true MX2008013753A (es) 2009-03-06

Family

ID=38445597

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2008013753A MX2008013753A (es) 2006-04-27 2007-03-30 Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica.

Country Status (21)

Country Link
US (26) US8144881B2 (es)
EP (1) EP2011234B1 (es)
JP (2) JP5129806B2 (es)
KR (2) KR101041665B1 (es)
CN (2) CN101432965B (es)
AT (1) ATE493794T1 (es)
AU (2) AU2007243586B2 (es)
BR (1) BRPI0711063B1 (es)
CA (1) CA2648237C (es)
DE (1) DE602007011594D1 (es)
DK (1) DK2011234T3 (es)
ES (1) ES2359799T3 (es)
IL (1) IL194430A (es)
MX (1) MX2008013753A (es)
MY (1) MY141426A (es)
NO (13) NO345590B1 (es)
PL (1) PL2011234T3 (es)
RU (1) RU2417514C2 (es)
TW (1) TWI455481B (es)
UA (1) UA93243C2 (es)
WO (1) WO2007127023A1 (es)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315398B2 (en) 2007-12-21 2012-11-20 Dts Llc System for adjusting perceived loudness of audio signals
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
CN108281148A (zh) * 2016-12-30 2018-07-13 宏碁股份有限公司 语音信号处理装置及语音信号处理方法

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
CN101819771B (zh) 2003-05-28 2012-04-11 杜比实验室特许公司 用于计算和调节音频信号的感觉响度的方法和设备
CA2992125C (en) 2004-03-01 2018-09-25 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
BRPI0518278B1 (pt) 2004-10-26 2018-04-24 Dolby Laboratories Licensing Corporation Método e aparelho para controlar uma característica de sonoridade particular de um sinal de áudio
US8199933B2 (en) 2004-10-26 2012-06-12 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
MX2007015118A (es) 2005-06-03 2008-02-14 Dolby Lab Licensing Corp Aparato y metodo para codificacion de senales de audio con instrucciones de decodificacion.
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
US8504181B2 (en) 2006-04-04 2013-08-06 Dolby Laboratories Licensing Corporation Audio signal loudness measurement and modification in the MDCT domain
JP5129806B2 (ja) 2006-04-27 2013-01-30 ドルビー ラボラトリーズ ライセンシング コーポレイション 特定ラウドネスに基づく聴覚イベント検出を使用する音声ゲイン制御
US8849433B2 (en) 2006-10-20 2014-09-30 Dolby Laboratories Licensing Corporation Audio dynamics processing using a reset
US8521314B2 (en) 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
US11217237B2 (en) 2008-04-14 2022-01-04 Staton Techiya, Llc Method and device for voice operated control
DE602008004252D1 (de) 2007-06-08 2011-02-10 Dolby Lab Licensing Corp Hybridableitung von surround-sound-audiokanälen durch steuerbares kombinieren von umgebungs- und matrixdekodierten signalkomponenten
CN101790758B (zh) 2007-07-13 2013-01-09 杜比实验室特许公司 用于控制音频信号的信号处理的设备和方法
EP2250643B1 (en) 2008-03-10 2019-05-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for manipulating an audio signal having a transient event
CN102007535B (zh) * 2008-04-18 2013-01-16 杜比实验室特许公司 对环绕体验具有最小影响的用于保持多通道音频中的语音可听度的方法和设备
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
WO2010033384A1 (en) 2008-09-19 2010-03-25 Dolby Laboratories Licensing Corporation Upstream quality enhancement signal processing for resource constrained client devices
JP5273688B2 (ja) 2008-09-19 2013-08-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 小型セル無線ネットワーク内のクライアントデバイスのための上流の信号処理
US9129291B2 (en) 2008-09-22 2015-09-08 Personics Holdings, Llc Personalized sound management and method
JP5236006B2 (ja) * 2008-10-17 2013-07-17 シャープ株式会社 音声信号調整装置及び音声信号調整方法
BRPI0921297A2 (pt) * 2008-11-14 2016-03-08 That Corp controle de volume dinâmico e proteção de processamento multiespacial
CN102265513B (zh) 2008-12-24 2014-12-31 杜比实验室特许公司 频域中的音频信号响度确定和修改
WO2010099237A2 (en) * 2009-02-25 2010-09-02 Conexant Systems, Inc. Speaker distortion reduction system and method
US8422699B2 (en) * 2009-04-17 2013-04-16 Linear Acoustic, Inc. Loudness consistency at program boundaries
WO2010127024A1 (en) 2009-04-30 2010-11-04 Dolby Laboratories Licensing Corporation Controlling the loudness of an audio signal in response to spectral localization
WO2010126709A1 (en) 2009-04-30 2010-11-04 Dolby Laboratories Licensing Corporation Low complexity auditory event boundary detection
TWI503816B (zh) 2009-05-06 2015-10-11 Dolby Lab Licensing Corp 調整音訊信號響度並使其具有感知頻譜平衡保持效果之技術
US9055374B2 (en) * 2009-06-24 2015-06-09 Arizona Board Of Regents For And On Behalf Of Arizona State University Method and system for determining an auditory pattern of an audio segment
US8249275B1 (en) * 2009-06-26 2012-08-21 Cirrus Logic, Inc. Modulated gain audio control and zipper noise suppression techniques using modulated gain
US8554348B2 (en) * 2009-07-20 2013-10-08 Apple Inc. Transient detection using a digital audio workstation
CN102498514B (zh) * 2009-08-04 2014-06-18 诺基亚公司 用于音频信号分类的方法和装置
US20120278087A1 (en) * 2009-10-07 2012-11-01 Nec Corporation Multiband compressor and method of adjusting the same
EP2367286B1 (en) 2010-03-12 2013-02-20 Harman Becker Automotive Systems GmbH Automatic correction of loudness level in audio signals
CN105847830B (zh) 2010-11-23 2019-07-12 Lg电子株式会社 由编码装置和解码装置执行的间预测方法
US8855322B2 (en) * 2011-01-12 2014-10-07 Qualcomm Incorporated Loudness maximization with constrained loudspeaker excursion
JP5707219B2 (ja) * 2011-05-13 2015-04-22 富士通テン株式会社 音響制御装置
WO2012161717A1 (en) * 2011-05-26 2012-11-29 Advanced Bionics Ag Systems and methods for improving representation by an auditory prosthesis system of audio signals having intermediate sound levels
DE102011085036A1 (de) * 2011-10-21 2013-04-25 Siemens Medical Instruments Pte. Ltd. Verfahren zum Ermitteln einer Kompressionskennlinie
TWI575962B (zh) * 2012-02-24 2017-03-21 杜比國際公司 部份複數處理之重疊濾波器組中的低延遲實數至複數轉換
JP5827442B2 (ja) * 2012-04-12 2015-12-02 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号におけるラウドネス変化をレベリングするシステム及び方法
JP5527827B2 (ja) * 2012-04-17 2014-06-25 Necエンジニアリング株式会社 ラウドネス調整装置、ラウドネス調整方法、及びプログラム
US9685921B2 (en) 2012-07-12 2017-06-20 Dts, Inc. Loudness control with noise detection and loudness drop detection
US20140025230A1 (en) 2012-07-17 2014-01-23 Elwha LLC, a limited liability company of the State of Delaware Unmanned device interaction methods and systems
US20140025233A1 (en) 2012-07-17 2014-01-23 Elwha Llc Unmanned device utilization methods and systems
US9991861B2 (en) * 2012-08-10 2018-06-05 Bellevue Investments Gmbh & Co. Kgaa System and method for controlled dynamics adaptation for musical content
US9349384B2 (en) 2012-09-19 2016-05-24 Dolby Laboratories Licensing Corporation Method and system for object-dependent adjustment of levels of audio objects
EP2946469B1 (en) 2013-01-21 2017-03-15 Dolby Laboratories Licensing Corporation System and method for optimizing loudness and dynamic range across different playback devices
WO2014151813A1 (en) 2013-03-15 2014-09-25 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
CN104079247B (zh) 2013-03-26 2018-02-09 杜比实验室特许公司 均衡器控制器和控制方法以及音频再现设备
CN107093991B (zh) 2013-03-26 2020-10-09 杜比实验室特许公司 基于目标响度的响度归一化方法和设备
CN104078050A (zh) * 2013-03-26 2014-10-01 杜比实验室特许公司 用于音频分类和音频处理的设备和方法
JP6216553B2 (ja) * 2013-06-27 2017-10-18 クラリオン株式会社 伝搬遅延補正装置及び伝搬遅延補正方法
US10095468B2 (en) 2013-09-12 2018-10-09 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
CN110675884B (zh) * 2013-09-12 2023-08-08 杜比实验室特许公司 用于下混合音频内容的响度调整
US9608588B2 (en) * 2014-01-22 2017-03-28 Apple Inc. Dynamic range control with large look-ahead
US10063207B2 (en) * 2014-02-27 2018-08-28 Dts, Inc. Object-based audio loudness management
WO2015130509A1 (en) 2014-02-28 2015-09-03 Dolby Laboratories Licensing Corporation Perceptual continuity using change blindness in conferencing
CN105142067B (zh) 2014-05-26 2020-01-07 杜比实验室特许公司 音频信号响度控制
US10013992B2 (en) 2014-07-11 2018-07-03 Arizona Board Of Regents On Behalf Of Arizona State University Fast computation of excitation pattern, auditory pattern and loudness
WO2016011288A1 (en) 2014-07-16 2016-01-21 Eariq, Inc. System and method for calibration and reproduction of audio signals based on auditory feedback
CN113257274B (zh) 2014-10-01 2024-09-13 杜比国际公司 高效drc配置文件传输
CN119252269A (zh) 2014-10-10 2025-01-03 杜比实验室特许公司 基于发送无关的表示的节目响度
JP6228100B2 (ja) * 2014-11-17 2017-11-08 Necプラットフォームズ株式会社 ラウドネス調整装置、ラウドネス調整方法及びラウドネス調整用プログラム
US9875756B2 (en) * 2014-12-16 2018-01-23 Psyx Research, Inc. System and method for artifact masking
US10623854B2 (en) * 2015-03-25 2020-04-14 Dolby Laboratories Licensing Corporation Sub-band mixing of multiple microphones
EP3286757B1 (en) * 2015-04-24 2019-10-23 Cyber Resonance Corporation Methods and systems for performing signal analysis to identify content types
US10109288B2 (en) * 2015-05-27 2018-10-23 Apple Inc. Dynamic range and peak control in audio using nonlinear filters
GB2581032B (en) 2015-06-22 2020-11-04 Time Machine Capital Ltd System and method for onset detection in a digital signal
US9837086B2 (en) 2015-07-31 2017-12-05 Apple Inc. Encoded audio extended metadata-based dynamic range control
CA3050698C (en) 2015-08-28 2021-09-14 Juan Esteban Velasquez Catalysts for the dehydration of hydroxypropionic acid and its derivatives
US9590580B1 (en) 2015-09-13 2017-03-07 Guoguang Electric Company Limited Loudness-based audio-signal compensation
US10341770B2 (en) * 2015-09-30 2019-07-02 Apple Inc. Encoded audio metadata-based loudness equalization and dynamic equalization during DRC
CN105404654A (zh) * 2015-10-30 2016-03-16 魅族科技(中国)有限公司 一种音频文件播放方法及装置
US10306392B2 (en) 2015-11-03 2019-05-28 Dolby Laboratories Licensing Corporation Content-adaptive surround sound virtualization
US9756281B2 (en) 2016-02-05 2017-09-05 Gopro, Inc. Apparatus and method for audio based video synchronization
US10923132B2 (en) 2016-02-19 2021-02-16 Dolby Laboratories Licensing Corporation Diffusivity based sound processing method and apparatus
WO2017142916A1 (en) * 2016-02-19 2017-08-24 Dolby Laboratories Licensing Corporation Diffusivity based sound processing method and apparatus
CN105845151B (zh) * 2016-05-30 2019-05-31 百度在线网络技术(北京)有限公司 应用于语音识别前端的音频增益调整方法和装置
US10657983B2 (en) * 2016-06-15 2020-05-19 Intel Corporation Automatic gain control for speech recognition
US9697849B1 (en) 2016-07-25 2017-07-04 Gopro, Inc. Systems and methods for audio based synchronization using energy vectors
US9640159B1 (en) * 2016-08-25 2017-05-02 Gopro, Inc. Systems and methods for audio based synchronization using sound harmonics
US9653095B1 (en) 2016-08-30 2017-05-16 Gopro, Inc. Systems and methods for determining a repeatogram in a music composition using audio features
GB201615538D0 (en) * 2016-09-13 2016-10-26 Nokia Technologies Oy A method , apparatus and computer program for processing audio signals
US9916822B1 (en) 2016-10-07 2018-03-13 Gopro, Inc. Systems and methods for audio remixing using repeated segments
TWI590239B (zh) * 2016-12-09 2017-07-01 宏碁股份有限公司 語音信號處理裝置及語音信號處理方法
US10374564B2 (en) 2017-04-20 2019-08-06 Dts, Inc. Loudness control with noise detection and loudness drop detection
US10491179B2 (en) 2017-09-25 2019-11-26 Nuvoton Technology Corporation Asymmetric multi-channel audio dynamic range processing
US11450339B2 (en) * 2017-10-06 2022-09-20 Sony Europe B.V. Audio file envelope based on RMS power in sequences of sub-windows
US11011180B2 (en) 2018-06-29 2021-05-18 Guoguang Electric Company Limited Audio signal dynamic range compression
CN112470219B (zh) 2018-07-25 2024-08-02 杜比实验室特许公司 压缩机目标曲线以避免增强噪声
KR102816912B1 (ko) * 2018-09-07 2025-06-05 그레이스노트, 인코포레이티드 오디오 분류를 통한 동적 볼륨 조절을 위한 방법 및 장치
US11775250B2 (en) 2018-09-07 2023-10-03 Gracenote, Inc. Methods and apparatus for dynamic volume adjustment via audio classification
JP7031543B2 (ja) * 2018-09-21 2022-03-08 株式会社Jvcケンウッド 処理装置、処理方法、再生方法、及びプログラム
JP7019099B2 (ja) 2018-09-28 2022-02-14 ドルビー ラボラトリーズ ライセンシング コーポレイション シーン切り換え解析器にガイドされる歪み可聴性モデルに基づく動的閾値を有する歪み低減マルチバンド・コンプレッサー
US11223340B2 (en) 2018-10-24 2022-01-11 Gracenote, Inc. Methods and apparatus to adjust audio playback settings
US11347470B2 (en) 2018-11-16 2022-05-31 Roku, Inc. Detection of media playback loudness level and corresponding adjustment to audio during media replacement event
CN109889170B (zh) * 2019-02-25 2021-06-04 珠海格力电器股份有限公司 音频信号的控制方法和装置
JP7275711B2 (ja) * 2019-03-20 2023-05-18 ヤマハ株式会社 オーディオ信号の処理方法
US11133787B2 (en) 2019-06-25 2021-09-28 The Nielsen Company (Us), Llc Methods and apparatus to determine automated gain control parameters for an automated gain control protocol
US11019301B2 (en) 2019-06-25 2021-05-25 The Nielsen Company (Us), Llc Methods and apparatus to perform an automated gain control protocol with an amplifier based on historical data corresponding to contextual data
WO2021183916A1 (en) * 2020-03-13 2021-09-16 Immersion Networks, Inc. Loudness equalization system
US12217494B2 (en) 2020-04-10 2025-02-04 Gracenote, Inc. Keyframe extractor
EP3961624B1 (de) * 2020-08-28 2024-09-25 Sivantos Pte. Ltd. Verfahren zum betrieb einer hörvorrichtung in abhängigkeit eines sprachsignals
US12198711B2 (en) * 2020-11-23 2025-01-14 Cyber Resonance Corporation Methods and systems for processing recorded audio content to enhance speech

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2808475A (en) 1954-10-05 1957-10-01 Bell Telephone Labor Inc Loudness indicator
DE1736966U (de) 1956-09-28 1956-12-27 Heinz Schulze Luftschraube fuer spiel- und modell-flugzeuge.
SU720691A1 (ru) * 1978-04-27 1980-03-05 Предприятие П/Я Р-6609 Устройство дл автоматического регулировани усилени
US4281218A (en) 1979-10-26 1981-07-28 Bell Telephone Laboratories, Incorporated Speech-nonspeech detector-classifier
US4624009A (en) 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
DE3314570A1 (de) 1983-04-22 1984-10-25 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und anordnung zur einstellung der verstaerkung
US4739514A (en) 1986-12-22 1988-04-19 Bose Corporation Automatic dynamic equalizing
US4887299A (en) 1987-11-12 1989-12-12 Nicolet Instrument Corporation Adaptive, programmable signal processing hearing aid
US4882762A (en) * 1988-02-23 1989-11-21 Resound Corporation Multi-band programmable compression system
KR940003351B1 (ko) * 1988-03-31 1994-04-20 주식회사 금성사 조도에 따른 자동이득 제어증폭기 이득 제어회로
US4953112A (en) * 1988-05-10 1990-08-28 Minnesota Mining And Manufacturing Company Method and apparatus for determining acoustic parameters of an auditory prosthesis using software model
US5027410A (en) 1988-11-10 1991-06-25 Wisconsin Alumni Research Foundation Adaptive, programmable signal processing and filtering for hearing aids
JPH02118322U (es) 1989-03-08 1990-09-21
US5097510A (en) 1989-11-07 1992-03-17 Gs Systems, Inc. Artificial intelligence pattern-recognition-based noise reduction system for speech processing
US5369711A (en) 1990-08-31 1994-11-29 Bellsouth Corporation Automatic gain control for a headset
CA2077662C (en) 1991-01-08 2001-04-17 Mark Franklin Davis Encoder/decoder for multidimensional sound fields
US5632005A (en) 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
DE69214882T2 (de) 1991-06-06 1997-03-20 Matsushita Electric Ind Co Ltd Gerät zur Unterscheidung von Musik und Sprache
US5278912A (en) 1991-06-28 1994-01-11 Resound Corporation Multiband programmable compression system
US5175769A (en) 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
KR940003351Y1 (ko) 1991-10-17 1994-05-23 삼성전관 주식회사 편광판 부착장치
US5363147A (en) 1992-06-01 1994-11-08 North American Philips Corporation Automatic volume leveler
KR940003351A (ko) 1992-07-15 1994-02-21 강진구 온 스크린 그래픽 표시 제어 장치 및 방법
GB2272615A (en) * 1992-11-17 1994-05-18 Rudolf Bisping Controlling signal-to-noise ratio in noisy recordings
DE4335739A1 (de) 1992-11-17 1994-05-19 Rudolf Prof Dr Bisping Verfahren zur Steuerung des Signal-/Rausch-Abstandes bei rauschbehafteten Tonaufnahmen
US5457769A (en) 1993-03-30 1995-10-10 Earmark, Inc. Method and apparatus for detecting the presence of human voice signals in audio signals
US5706352A (en) 1993-04-07 1998-01-06 K/S Himpp Adaptive gain and filtering circuit for a sound reproduction system
US5434922A (en) 1993-04-08 1995-07-18 Miller; Thomas E. Method and apparatus for dynamic sound optimization
BE1007355A3 (nl) 1993-07-26 1995-05-23 Philips Electronics Nv Spraaksignaaldiscriminatieschakeling alsmede een audio-inrichting voorzien van een dergelijke schakeling.
IN184794B (es) 1993-09-14 2000-09-30 British Telecomm
JP2986345B2 (ja) 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
TW247390B (en) 1994-04-29 1995-05-11 Audio Products Int Corp Apparatus and method for adjusting levels between channels of a sound system
US5463695A (en) * 1994-06-20 1995-10-31 Aphex Systems, Ltd. Peak accelerated compressor
US5500902A (en) 1994-07-08 1996-03-19 Stockham, Jr.; Thomas G. Hearing aid device incorporating signal processing techniques
GB9419388D0 (en) 1994-09-26 1994-11-09 Canon Kk Speech analysis
US5548538A (en) 1994-12-07 1996-08-20 Wiltron Company Internal automatic calibrator for vector network analyzers
US5682463A (en) 1995-02-06 1997-10-28 Lucent Technologies Inc. Perceptual audio compression based on loudness uncertainty
CA2167748A1 (en) 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
DK0661905T3 (da) 1995-03-13 2003-04-07 Phonak Ag Fremgangsmåde til tilpasnning af et høreapparat, anordning hertil og høreapparat
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
US6041295A (en) 1995-04-10 2000-03-21 Corporate Computer Systems Comparing CODEC input/output to adjust psycho-acoustic parameters
US6301555B2 (en) 1995-04-10 2001-10-09 Corporate Computer Systems Adjustable psycho-acoustic parameters
US5601617A (en) 1995-04-26 1997-02-11 Advanced Bionics Corporation Multichannel cochlear prosthesis with flexible control of stimulus waveforms
JPH08328599A (ja) 1995-06-01 1996-12-13 Mitsubishi Electric Corp Mpegオーディオ復号器
US5663727A (en) 1995-06-23 1997-09-02 Hearing Innovations Incorporated Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same
US5712954A (en) 1995-08-23 1998-01-27 Rockwell International Corp. System and method for monitoring audio power level of agent speech in a telephonic switch
US6002776A (en) 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
US5907622A (en) 1995-09-21 1999-05-25 Dougherty; A. Michael Automatic noise compensation system for audio reproduction equipment
WO1997027578A1 (en) * 1996-01-26 1997-07-31 Motorola Inc. Very low bit rate time domain speech analyzer for voice messaging
US6108431A (en) 1996-05-01 2000-08-22 Phonak Ag Loudness limiter
US6327366B1 (en) 1996-05-01 2001-12-04 Phonak Ag Method for the adjustment of a hearing device, apparatus to do it and a hearing device
US6430533B1 (en) 1996-05-03 2002-08-06 Lsi Logic Corporation Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation
JPH09312540A (ja) 1996-05-23 1997-12-02 Pioneer Electron Corp ラウドネスボリュームコントロール装置
JP3765622B2 (ja) 1996-07-09 2006-04-12 ユナイテッド・モジュール・コーポレーション オーディオ符号化復号化システム
EP0820212B1 (de) 1996-07-19 2010-04-21 Bernafon AG Lautheitsgesteuerte Verarbeitung akustischer Signale
JPH1074097A (ja) 1996-07-26 1998-03-17 Ind Technol Res Inst オーディオ信号のパラメータを変更する方法及び装置
JP2953397B2 (ja) 1996-09-13 1999-09-27 日本電気株式会社 ディジタル補聴器の聴覚補償処理方法及びディジタル補聴器
US6049766A (en) 1996-11-07 2000-04-11 Creative Technology Ltd. Time-domain time/pitch scaling of speech or audio signals with transient handling
JP2991982B2 (ja) 1996-11-29 1999-12-20 日本イーライリリー株式会社 注射練習器具
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
US5862228A (en) 1997-02-21 1999-01-19 Dolby Laboratories Licensing Corporation Audio matrix encoding
US6125343A (en) 1997-05-29 2000-09-26 3Com Corporation System and method for selecting a loudest speaker by comparing average frame gains
US6272360B1 (en) 1997-07-03 2001-08-07 Pan Communications, Inc. Remotely installed transmitter and a hands-free two-way voice terminal device using same
US6185309B1 (en) * 1997-07-11 2001-02-06 The Regents Of The University Of California Method and apparatus for blind separation of mixed and convolved sources
KR100261904B1 (ko) 1997-08-29 2000-07-15 윤종용 헤드폰 사운드 출력장치
US6088461A (en) 1997-09-26 2000-07-11 Crystal Semiconductor Corporation Dynamic volume control system
US6330672B1 (en) 1997-12-03 2001-12-11 At&T Corp. Method and apparatus for watermarking digital bitstreams
US6233554B1 (en) 1997-12-12 2001-05-15 Qualcomm Incorporated Audio CODEC with AGC controlled by a VOCODER
US6298139B1 (en) 1997-12-31 2001-10-02 Transcrypt International, Inc. Apparatus and method for maintaining a constant speech envelope using variable coefficient automatic gain control
US6182033B1 (en) 1998-01-09 2001-01-30 At&T Corp. Modular approach to speech enhancement with an application to speech coding
US6353671B1 (en) 1998-02-05 2002-03-05 Bioinstco Corp. Signal processing circuit and method for increasing speech intelligibility
US6311155B1 (en) 2000-02-04 2001-10-30 Hearing Enhancement Company Llc Use of voice-to-remaining audio (VRA) in consumer applications
US6498855B1 (en) 1998-04-17 2002-12-24 International Business Machines Corporation Method and system for selectively and variably attenuating audio data
JP2002518912A (ja) 1998-06-08 2002-06-25 コックレア リミティド 聴覚装置
EP0980064A1 (de) 1998-06-26 2000-02-16 Ascom AG Verfahren zur Durchführung einer maschinengestützten Beurteilung der Uebertragungsqualität von Audiosignalen
GB2340351B (en) 1998-07-29 2004-06-09 British Broadcasting Corp Data transmission
US6351731B1 (en) 1998-08-21 2002-02-26 Polycom, Inc. Adaptive filter featuring spectral gain smoothing and variable noise multiplier for noise reduction, and method therefor
US6823303B1 (en) 1998-08-24 2004-11-23 Conexant Systems, Inc. Speech encoder using voice activity detection in coding noise
US6411927B1 (en) 1998-09-04 2002-06-25 Matsushita Electric Corporation Of America Robust preprocessing signal equalization system and method for normalizing to a target environment
FI113935B (fi) 1998-09-25 2004-06-30 Nokia Corp Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä
US6266644B1 (en) 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
DE19848491A1 (de) 1998-10-21 2000-04-27 Bosch Gmbh Robert Rundfunkempfänger zum Empfang von Radio-Daten und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals in einem Rundfunkempfänger
US6314396B1 (en) 1998-11-06 2001-11-06 International Business Machines Corporation Automatic gain control in a speech recognition system
GB9824776D0 (en) 1998-11-11 1999-01-06 Kemp Michael J Audio dynamic control effects synthesiser
EP1172020B1 (en) 1999-02-05 2006-09-06 Hearworks Pty Ltd. Adaptive dynamic range optimisation sound processor
EP1089242B1 (en) 1999-04-09 2006-11-08 Texas Instruments Incorporated Supply of digital audio and video products
WO2000065872A1 (en) 1999-04-26 2000-11-02 Dspfactory Ltd. Loudness normalization control for a digital hearing aid
US6263371B1 (en) 1999-06-10 2001-07-17 Cacheflow, Inc. Method and apparatus for seaming of streaming content
US6442278B1 (en) 1999-06-15 2002-08-27 Hearing Enhancement Company, Llc Voice-to-remaining audio (VRA) interactive center channel downmix
AR024353A1 (es) 1999-06-15 2002-10-02 He Chunhong Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente
US20020172376A1 (en) * 1999-11-29 2002-11-21 Bizjak Karl M. Output processing system and method
FR2802329B1 (fr) 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
US6351733B1 (en) 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
DE10018666A1 (de) 2000-04-14 2001-10-18 Harman Audio Electronic Sys Vorrichtung und Verfahren zum geräuschabhängigen Anpassen eines akustischen Nutzsignals
US6651040B1 (en) 2000-05-31 2003-11-18 International Business Machines Corporation Method for dynamic adjustment of audio input gain in a speech system
US6889186B1 (en) 2000-06-01 2005-05-03 Avaya Technology Corp. Method and apparatus for improving the intelligibility of digitally compressed speech
CA2418722C (en) 2000-08-16 2012-02-07 Dolby Laboratories Licensing Corporation Modulating one or more parameters of an audio or video perceptual coding system in response to supplemental information
AUPQ952700A0 (en) 2000-08-21 2000-09-14 University Of Melbourne, The Sound-processing strategy for cochlear implants
JP3448586B2 (ja) 2000-08-29 2003-09-22 独立行政法人産業技術総合研究所 聴覚障害を考慮した音の測定方法およびシステム
US20040013272A1 (en) * 2001-09-07 2004-01-22 Reams Robert W System and method for processing audio data
US6625433B1 (en) 2000-09-29 2003-09-23 Agere Systems Inc. Constant compression automatic gain control circuit
US6947888B1 (en) * 2000-10-17 2005-09-20 Qualcomm Incorporated Method and apparatus for high performance low bit-rate coding of unvoiced speech
US6807525B1 (en) 2000-10-31 2004-10-19 Telogy Networks, Inc. SID frame detection with human auditory perception compensation
DK1206104T3 (da) 2000-11-09 2006-10-30 Koninkl Kpn Nv Måling af en samtalekvalitet af en telefonforbindelse i et telekommunikationsnetværk
US7457422B2 (en) 2000-11-29 2008-11-25 Ford Global Technologies, Llc Method and implementation for detecting and characterizing audible transients in noise
US7180939B2 (en) 2001-01-10 2007-02-20 The Trustees Of Columbia University In The City Of New York Active filter circuit with dynamically modifiable internal gain
FR2820573B1 (fr) 2001-02-02 2003-03-28 France Telecom Methode et dispositif de traitement d'une pluralite de flux binaires audio
WO2004019656A2 (en) 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
EP1233509A1 (en) * 2001-02-14 2002-08-21 Thomson Licensing S.A. Digital audio processor
DE10107385A1 (de) 2001-02-16 2002-09-05 Harman Audio Electronic Sys Vorrichtung zum geräuschabhängigen Einstellen der Lautstärken
US6915264B2 (en) 2001-02-22 2005-07-05 Lucent Technologies Inc. Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding
DE50102419D1 (de) 2001-04-10 2004-07-01 Phonak Ag Verfahren zur anpassung eines hörgerätes an ein individuum
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
WO2002084645A2 (en) * 2001-04-13 2002-10-24 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
EP1251715B2 (en) 2001-04-18 2010-12-01 Sound Design Technologies Ltd. Multi-channel hearing instrument with inter-channel communication
US20020173864A1 (en) * 2001-05-17 2002-11-21 Crystal Voice Communications, Inc Automatic volume control for voice over internet
EP1393298B1 (en) * 2001-05-25 2010-06-09 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
MXPA03010750A (es) * 2001-05-25 2004-07-01 Dolby Lab Licensing Corp Metodo para la alineacion temporal de senales de audio usando caracterizaciones basadas en eventos auditivos.
US7177803B2 (en) 2001-10-22 2007-02-13 Motorola, Inc. Method and apparatus for enhancing loudness of an audio signal
US20040037421A1 (en) 2001-12-17 2004-02-26 Truman Michael Mead Parital encryption of assembled bitstreams
US7068723B2 (en) 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
KR100978018B1 (ko) 2002-04-22 2010-08-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 공간 오디오의 파라메터적 표현
US7155385B2 (en) 2002-05-16 2006-12-26 Comerica Bank, As Administrative Agent Automatic gain control for adjusting gain during non-speech portions
US20030223597A1 (en) 2002-05-29 2003-12-04 Sunil Puria Adapative noise compensation for dynamic signal enhancement
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
JP4257079B2 (ja) 2002-07-19 2009-04-22 パイオニア株式会社 周波数特性調整装置および周波数特性調整方法
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7454331B2 (en) 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US20060069550A1 (en) 2003-02-06 2006-03-30 Dolby Laboratories Licensing Corporation Continuous backup audio
DE10308483A1 (de) 2003-02-26 2004-09-09 Siemens Audiologische Technik Gmbh Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät
US7551745B2 (en) 2003-04-24 2009-06-23 Dolby Laboratories Licensing Corporation Volume and compression control in movie theaters
JP2004356894A (ja) 2003-05-28 2004-12-16 Mitsubishi Electric Corp 音質調整装置
CN101819771B (zh) 2003-05-28 2012-04-11 杜比实验室特许公司 用于计算和调节音频信号的感觉响度的方法和设备
JP4226395B2 (ja) 2003-06-16 2009-02-18 アルパイン株式会社 音声補正装置
US8918316B2 (en) 2003-07-29 2014-12-23 Alcatel Lucent Content identification system
CN101061744B (zh) 2004-01-13 2011-05-18 皇家飞利浦电子股份有限公司 音频信号的增强
CA2992125C (en) 2004-03-01 2018-09-25 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
GB2413906A (en) 2004-04-21 2005-11-09 Imagination Tech Ltd Radio volume control system
US7574010B2 (en) 2004-05-28 2009-08-11 Research In Motion Limited System and method for adjusting an audio signal
DE602004013425T2 (de) 2004-05-28 2009-06-04 Research In Motion Ltd., Waterloo System und Verfahren zur Einstellung eines Audiosignals
JP4168976B2 (ja) 2004-05-28 2008-10-22 ソニー株式会社 オーディオ信号符号化装置及び方法
WO2006003536A1 (en) * 2004-06-30 2006-01-12 Koninklijke Philips Electronics N.V. Method of and system for automatically adjusting the loudness of an audio signal
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
WO2007120453A1 (en) 2006-04-04 2007-10-25 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
BRPI0518278B1 (pt) 2004-10-26 2018-04-24 Dolby Laboratories Licensing Corporation Método e aparelho para controlar uma característica de sonoridade particular de um sinal de áudio
EP1829028A1 (en) 2004-12-04 2007-09-05 Dynamic Hearing Pty Ltd Method and apparatus for adaptive sound processing parameters
US20060126865A1 (en) 2004-12-13 2006-06-15 Blamey Peter J Method and apparatus for adaptive sound processing parameters
US8265295B2 (en) 2005-03-11 2012-09-11 Rane Corporation Method and apparatus for identifying feedback in a circuit
TWI397903B (zh) 2005-04-13 2013-06-01 Dolby Lab Licensing Corp 編碼音訊之節約音量測量技術
TW200638335A (en) 2005-04-13 2006-11-01 Dolby Lab Licensing Corp Audio metadata verification
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
US8504181B2 (en) 2006-04-04 2013-08-06 Dolby Laboratories Licensing Corporation Audio signal loudness measurement and modification in the MDCT domain
JP5129806B2 (ja) * 2006-04-27 2013-01-30 ドルビー ラボラトリーズ ライセンシング コーポレイション 特定ラウドネスに基づく聴覚イベント検出を使用する音声ゲイン制御
US8750538B2 (en) 2006-05-05 2014-06-10 Creative Technology Ltd Method for enhancing audio signals
US8849433B2 (en) 2006-10-20 2014-09-30 Dolby Laboratories Licensing Corporation Audio dynamics processing using a reset
US8521314B2 (en) 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
CN101573866B (zh) 2007-01-03 2012-07-04 杜比实验室特许公司 响度补偿音量控制方法和装置
US8724634B2 (en) 2007-03-15 2014-05-13 Interdigital Technology Corporation Methods and apparatus for reordering data in an evolved high speed packet access system
US8560320B2 (en) 2007-03-19 2013-10-15 Dolby Laboratories Licensing Corporation Speech enhancement employing a perceptual model
WO2008156774A1 (en) 2007-06-19 2008-12-24 Dolby Laboratories Licensing Corporation Loudness measurement with spectral modifications
US8054948B1 (en) 2007-06-28 2011-11-08 Sprint Communications Company L.P. Audio experience for a communications device user
EP2232700B1 (en) 2007-12-21 2014-08-13 Dts Llc System for adjusting perceived loudness of audio signals
JP4823352B2 (ja) 2009-12-24 2011-11-24 株式会社東芝 情報処理装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315398B2 (en) 2007-12-21 2012-11-20 Dts Llc System for adjusting perceived loudness of audio signals
US9264836B2 (en) 2007-12-21 2016-02-16 Dts Llc System for adjusting perceived loudness of audio signals
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
US9820044B2 (en) 2009-08-11 2017-11-14 Dts Llc System for increasing perceived loudness of speakers
US10299040B2 (en) 2009-08-11 2019-05-21 Dts, Inc. System for increasing perceived loudness of speakers
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
US9559656B2 (en) 2012-04-12 2017-01-31 Dts Llc System for adjusting loudness of audio signals in real time
CN108281148A (zh) * 2016-12-30 2018-07-13 宏碁股份有限公司 语音信号处理装置及语音信号处理方法
CN108281148B (zh) * 2016-12-30 2020-12-22 宏碁股份有限公司 语音信号处理装置及语音信号处理方法

Also Published As

Publication number Publication date
US12301190B2 (en) 2025-05-13
NO20180272A1 (no) 2008-11-17
CN101432965A (zh) 2009-05-13
NO20161295A1 (no) 2008-11-17
US20170179909A1 (en) 2017-06-22
CN102684628B (zh) 2014-11-26
US12218642B2 (en) 2025-02-04
NO20190002A1 (no) 2008-11-17
NO20190022A1 (no) 2008-11-17
US20170179906A1 (en) 2017-06-22
CA2648237A1 (en) 2007-11-08
KR101200615B1 (ko) 2012-11-12
NO20190018A1 (no) 2008-11-17
KR20110022058A (ko) 2011-03-04
NO342160B1 (no) 2018-04-09
NO20161439A1 (no) 2008-11-17
US20120321096A1 (en) 2012-12-20
NO342157B1 (no) 2018-04-09
AU2011201348B2 (en) 2013-04-18
ATE493794T1 (de) 2011-01-15
BRPI0711063B1 (pt) 2023-09-26
RU2008146747A (ru) 2010-06-10
US20170179900A1 (en) 2017-06-22
US9787268B2 (en) 2017-10-10
NO20190025A1 (no) 2008-11-17
US10523169B2 (en) 2019-12-31
US9768749B2 (en) 2017-09-19
HK1176177A1 (en) 2013-07-19
US20170179905A1 (en) 2017-06-22
US20130243222A1 (en) 2013-09-19
WO2007127023A1 (en) 2007-11-08
ES2359799T3 (es) 2011-05-27
US20120155659A1 (en) 2012-06-21
NO344013B1 (no) 2019-08-12
TW200803161A (en) 2008-01-01
NO339346B1 (no) 2016-11-28
JP2011151811A (ja) 2011-08-04
NO344363B1 (no) 2019-11-18
US20190222186A1 (en) 2019-07-18
US20090220109A1 (en) 2009-09-03
US11711060B2 (en) 2023-07-25
BRPI0711063A2 (pt) 2011-08-23
EP2011234A1 (en) 2009-01-07
NO20190024A1 (no) 2008-11-17
NO20180266A1 (no) 2008-11-17
US20170179907A1 (en) 2017-06-22
JP2009535897A (ja) 2009-10-01
JP5255663B2 (ja) 2013-08-07
US20240313731A1 (en) 2024-09-19
US9780751B2 (en) 2017-10-03
US20240313730A1 (en) 2024-09-19
US20200144979A1 (en) 2020-05-07
PL2011234T3 (pl) 2011-05-31
CN101432965B (zh) 2012-07-04
IL194430A0 (en) 2009-08-03
AU2007243586A1 (en) 2007-11-08
US20170179908A1 (en) 2017-06-22
US20210126606A1 (en) 2021-04-29
US9136810B2 (en) 2015-09-15
US11362631B2 (en) 2022-06-14
US20170179904A1 (en) 2017-06-22
CN102684628A (zh) 2012-09-19
US20170179903A1 (en) 2017-06-22
US9787269B2 (en) 2017-10-10
NO344655B1 (no) 2020-02-24
NO345590B1 (no) 2021-05-03
US10103700B2 (en) 2018-10-16
NO344364B1 (no) 2019-11-18
US10833644B2 (en) 2020-11-10
US20180069517A1 (en) 2018-03-08
NO344362B1 (no) 2019-11-18
US20170179901A1 (en) 2017-06-22
NO20191310A1 (no) 2008-11-17
NO344658B1 (no) 2020-03-02
US12301189B2 (en) 2025-05-13
US20240313729A1 (en) 2024-09-19
US12283931B2 (en) 2025-04-22
DE602007011594D1 (de) 2011-02-10
CA2648237C (en) 2013-02-05
AU2007243586B2 (en) 2010-12-23
US9768750B2 (en) 2017-09-19
JP5129806B2 (ja) 2013-01-30
KR20090005225A (ko) 2009-01-12
US8144881B2 (en) 2012-03-27
UA93243C2 (ru) 2011-01-25
NO342164B1 (no) 2018-04-09
US9866191B2 (en) 2018-01-09
DK2011234T3 (da) 2011-03-14
NO343877B1 (no) 2019-06-24
EP2011234B1 (en) 2010-12-29
US11962279B2 (en) 2024-04-16
US9685924B2 (en) 2017-06-20
RU2417514C2 (ru) 2011-04-27
US20170179902A1 (en) 2017-06-22
US10284159B2 (en) 2019-05-07
US20160359465A1 (en) 2016-12-08
US9698744B1 (en) 2017-07-04
US9742372B2 (en) 2017-08-22
MY141426A (en) 2010-04-30
US20190013786A1 (en) 2019-01-10
US20240186972A1 (en) 2024-06-06
NO20161296A1 (no) 2008-11-17
IL194430A (en) 2013-05-30
HK1126902A1 (en) 2009-09-11
US9762196B2 (en) 2017-09-12
US20230318555A1 (en) 2023-10-05
NO344361B1 (no) 2019-11-18
AU2011201348A1 (en) 2011-04-14
KR101041665B1 (ko) 2011-06-15
NO20180271A1 (no) 2008-11-17
NO20084336L (no) 2008-11-17
US20220394380A1 (en) 2022-12-08
US9450551B2 (en) 2016-09-20
TWI455481B (zh) 2014-10-01
US8428270B2 (en) 2013-04-23
US9774309B2 (en) 2017-09-26

Similar Documents

Publication Publication Date Title
US12301189B2 (en) Audio control using auditory event detection
HK1126902B (en) Audio gain control using specific-loudness-based auditory event detection

Legal Events

Date Code Title Description
FG Grant or registration
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载