MX2008013753A - Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica. - Google Patents
Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica.Info
- Publication number
- MX2008013753A MX2008013753A MX2008013753A MX2008013753A MX2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A MX 2008013753 A MX2008013753 A MX 2008013753A
- Authority
- MX
- Mexico
- Prior art keywords
- time
- audio
- auditory
- gain
- event
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title description 19
- 230000005236 sound signal Effects 0.000 abstract description 47
- 230000004048 modification Effects 0.000 abstract description 22
- 238000012986 modification Methods 0.000 abstract description 22
- 230000008859 change Effects 0.000 abstract description 21
- 230000004044 response Effects 0.000 abstract description 11
- 230000003595 spectral effect Effects 0.000 description 50
- 238000012545 processing Methods 0.000 description 48
- 238000000034 method Methods 0.000 description 38
- 238000005259 measurement Methods 0.000 description 30
- 238000004458 analytical method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 23
- 238000009499 grossing Methods 0.000 description 18
- 230000007423 decrease Effects 0.000 description 12
- 230000007774 longterm Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 9
- 230000005284 excitation Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000010183 spectrum analysis Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010348 incorporation Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 210000000721 basilar membrane Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000005086 pumping Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 235000014676 Phragmites communis Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3005—Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3089—Control of digital or coded signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G1/00—Details of arrangements for controlling amplification
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
- H03G7/007—Volume compression or expansion in amplifiers of digital or coded signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G9/00—Combinations of two or more types of control, e.g. gain control and tone control
- H03G9/005—Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/03—Synergistic effects of band splitting and sub-band processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Control Of Amplification And Gain Control (AREA)
- Circuit For Audible Band Transducer (AREA)
- Circuits Of Receivers In General (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Document Processing Apparatus (AREA)
Abstract
En un aspecto descrito, las modificaciones de ganancia dinámica son aplicadas a una señal de audio, por lo menos parcialmente, en respuesta a los eventos auditivos y/o el grado de cambio en las características de señal asociadas con los límites de evento auditivo. En otro aspecto, una señal de audio es dividida en eventos auditivos mediante la comparación de la diferencia en intensidad acústica específica entre los bloques sucesivos de tiempo de la señal de audio. La figura más representativa de la invención es la número 3.
Description
CONTROL DE GANANCIA DE AUDIO QUE UTILIZA DETECCION DE EVENTO
AUDITIVO BASADO EN INTENSIDAD ACUSTICA ESPECIFICA
Campo Técnico La presente invención se refiere a métodos y aparatos de control de alcance de dinámica de audio en los cuales un dispositivo de procesamiento de audio analiza una señal de audio y cambia el intervalo del nivel, ganancia o dinámica del audio y todos o algunos parámetros del procesamiento de ganancia dinámica de audio son generados como una función de los eventos auditivos. La invención también se refiere a programas de computadora para la práctica de estos métodos o el control de estos aparatos. La presente invención también se refiere a métodos y aparatos que utilizan la detección basada en la intensidad acústica específica de eventos auditivos. La invención también se refiere a programas de computadora para la práctica de estos métodos o el control de estos aparatos.
Técnica Anterior Procesamiento de Dinámica de Audio Las técnicas de control de ganancia automática (AGC) y de control de intervalo de dinámica (DRC) son bien conocidas y son un elemento común de muchas vías de señal de audio. En un sentido abstracto, ambas técnicas miden el nivel
de una señal de audio en algún modo y entonces, modifican la ganancia de la señal en una cantidad que está en función del nivel medido. En un sistema lineal de procesamiento de dinámica 1:1, el audio de entrada no es procesado y la señal de audio de salida normalmente se combina con la señal de audio de entrada. Además, si alguien tuviera un sistema de procesamiento de dinámica de audio que midiera en forma automática las características de la señal de entrada y utilizara esta medición para controlar la señal de salida, si la señal de entrada se elevara en un nivel de 6 dB y la señal de salida fuera procesada, de manera que sólo se eleve en un nivel de 3 dB, entonces, la señal de salida tendría que haber sido comprimida en una relación de 2:1 con respecto a la señal de entrada. La Publicación Internacional No. WO 2006/047600 Al ( "Calculating and Adjusting the Perceived Loudness and/o the Perceived Spectral Balance of an Audio Signal" de Alan Jeffrey Seefeldt) proporciona un panorama general detallado de los cinco tipos básicos de procesamiento de dinámica del audio: compresión, límite, control automático de ganancia (AGC) , expansión y desconexión cíclica. Eventos Auditivos y Detección de Evento Auditivo La división de los sonidos en unidades o segmentos percibidos como separados y distintos es en algunas ocasiones referida como un "análisis de evento auditivo" o "análisis de escena auditiva" (ASA) y los segmentos son referidos en
algunas ocasiones como "eventos auditivos" o "eventos de audio" . Una discusión extensiva del análisis de escena auditiva es señalado por Albert S. Bregman en su libro Auditory Scene Analysis-The Perceptual Organization of Sound, Massachusetts Institute of Technology, 1991, Cuarta impresión, 2001, segunda edición económica MIT Press) . Además, la Patente de los Estados Unidos No. 6, 002,776 de Bhadkamkar et al, del 14 de Diciembre de 1999 cita las publicaciones con fecha anterior a 1976 como "trabajo de la técnica anterior relacionado con la separación del sonido a través del análisis de escena auditiva" . Sin embargo, la patente de Bhadkamkar et al, desaprueba el uso práctico del análisis de escena auditiva, concluyendo que "las [t] écnicas que involucran el análisis de escena auditiva, aunque interesantes a partir del punto de vista científico como modelos de procesamiento auditivo humano, en realidad están demasiado lejos de la demanda computacional y especializada para que sean consideradas técnicas prácticas para la separación de sonido hasta que sea realizado un progreso fundamental" . Una forma útil para identificar los eventos auditivos es señalada por Crockett and Crocket et al, en varias solicitudes de patente y cartas enlistadas más adelante de acuerdo con el título "Incorporación como Referencia". De acuerdo con estos documentos, una señal de
audio es dividida en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, mediante la detección de cambios en la composición espectral (la amplitud como una función de la frecuencia) con respecto al tiempo. Esto podría ser realizado por ejemplo, calculando el contenido espectral de los bloques sucesivos de tiempo de la señal de audio, calculando la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio e identificando el límite de evento auditivo como el límite entre los bloques sucesivos de tiempo cuando la diferencia en el contenido espectral entre estos bloques sucesivos de tiempo exceda un umbral. En forma alterna, los cambios de amplitud con respecto al tiempo podrían ser calculados en lugar o además de los cambios en la composición espectral con respecto al tiempo. En su implementación menos demandante en forma computacional , el proceso divide el audio en segmentos de tiempo mediante el análisis de la totalidad de la banda de frecuencia (el audio de ancho de banda completo) o de manera sustancial, la totalidad de la banda de frecuencia (en implementaciones prácticas, el filtrado límite de banda en los extremos del espectro es frecuentemente empleado) y proporcionando la ponderación más grande a los componentes de la señal de audio con la mayor intensidad acústica. Este procedimiento toma ventaja de un fenómeno psicoacústico en el
cual en escalas más pequeñas de tiempo (20 milisegundos (ms) y menos) el oído podría tender a enfocarse en un evento auditivo único en un momento dado. Esto implica que mientras que múltiples eventos podrían estar sucediendo al mismo tiempo, un componente tiende a ser más prominente, de manera perceptual, y podría ser procesado en forma individual como si fuera el único evento que se está realizando. Al tomar ventaja de este efecto, también se permite que la detección de evento auditivo escale con la complejidad del audio que está siendo procesado. Por ejemplo, si la señal de audio de entrada que está siendo procesada fuera un instrumento único, los eventos de audio que son identificados probablemente serán notas individuales que están siendo tocadas. En forma similar para una señal de voz de entrada, los componentes individuales de la conversación, por ejemplo, las vocales y las consonantes, probablemente serán identificados como elementos individuales de audio. A medida que se incrementa la complejidad del audio, esta música con un ritmo de tambor o múltiples instrumentos y voz, la detección de evento auditivo identificaría el elemento de audio "más prominente" (es decir, el de mayor intensidad acústica) en cualquier momento dado. En el costo de una complejidad computacional más grande, el proceso también podría tomar en consideración cambios en la composición espectral con respecto al tiempo en
subbandas de frecuencia discreta (fijas o determinadas en forma dinámica, o ambas subbandas fijas y determinadas en forma dinámica) más que el ancho de banda completo. Este procedimiento alternativo toma en cuenta más de un flujo de audio en diferentes subbandas de frecuencia más que suponer que sólo un flujo de audio es perceptible en un momento particular . La detección de evento auditivo podría ser implementada al dividir una forma de onda de audio de dominio de tiempo en intervalos o bloques de tiempo y posteriormente, al convertir los datos en cada bloque en el dominio de frecuencia, utilizando ya sea un banco de filtros o una transformación de frecuencia de tiempo, tal como una FFT. La amplitud del contenido espectral de cada bloque podría ser normalizada con el fin de eliminar o reducir el efecto de los cambios de amplitud. Cada representación resultante del dominio de frecuencia proporciona una indicación del contenido espectral del audio en el bloque particular. El contenido espectral de los bloques sucesivos es comparado y los cambios más grandes que un umbral podrían ser tomados para indicar el inicio temporal o la finalización temporal de un evento auditivo. De preferencia, los datos del dominio de frecuencia son normalizados, como se describe más adelante. El grado en el cual los datos de dominio de frecuencia necesitan ser
normalizados, proporciona una indicación de amplitud. Por lo tanto, si el cambio en este grado excediera un umbral predeterminado en el que podría tomarse para indicar un evento auditivo. Los puntos de inicio y finalización del evento que se originan a partir de los cambios espectrales y de los cambios de amplitud podrían ser ORed juntos, de modo que sean identificados los límites de evento que se originan a partir de cualquier tipo de cambio. Aunque las técnicas descritas en las solicitudes y cartas de Crockett and Crockett et al son particularmente útiles en conexión con aspectos de la presente invención, otras técnicas para la identificación de los eventos auditivos y los límites de evento podrían ser empleadas en los aspectos de la presente invención.
Descripción de la Invención El procesamiento convencional de la dinámica de la técnica anterior del audio involucra la multiplicación del audio por una señal de control de variación de tiempo que ajusta la ganancia del audio produciendo el resultado deseado. El término "ganancia" es un factor de escala que escala la amplitud de audio. Esta señal de control podría ser generada en una base continua o a partir de bloques de datos de audio, aunque es generalmente derivada mediante alguna forma de medición del audio que está siendo procesado, y su
velocidad de cambios determinada por un filtro de suavización, en algunas ocasiones con características fijas y en algunas ocasiones con características que podrían variar con la dinámica del audio. Por ejemplo, los tiempos de respuesta podrían ser ajustados de acuerdo con los cambios en la magnitud o la potencia del audio. Los métodos de la técnica anterior tales como el control automático de ganancia (AGC) y la compresión dinámica de intervalo (DRC) no evalúan ninguna forma basada en la psicoacústica en la que los intervalos de tiempo durante los cuales cambian la ganancia, podrían ser percibidos como perjudiciales y cuando puedan ser aplicados sin transmitir artefactos audibles, es decir, los efectos del procesamiento de dinámica pueden introducir cambios perceptibles no deseados en el audio. El análisis de escena auditiva identifica en forma perceptual los eventos auditivos discretos, con cada evento que sucede entre dos límites consecutivos de evento auditivo. Los deterioros audibles que son provocados por el cambio de ganancia pueden ser reducidos en gran medida garantizando que dentro de un evento auditivo la ganancia sea más cercanamente constante y confinando mucho del cambio a la proximidad de un límite de evento. En el contexto de los compresores o expansores, la respuesta al incremento en el nivel del audio (a menudo llamado el ataque) podría ser rápido, comparable o más corto que la duración mínima de los eventos auditivos,
aunque la respuesta a una disminución (la liberación o recuperación) podría ser más lenta, de modo que los sonidos que deberían aparecer constantes o que declinen en forma gradual, podrían ser perturbados en forma auditiva. Bajo esas circunstancias, sería muy benéfico retrasar la recuperación de ganancia hasta el siguiente límite o la disminución de la velocidad del cambio de la ganancia durante un evento. Para aplicaciones de control automático de ganancia, en donde el nivel medio a largo plazo o la intensidad acústica del audio es normalizada y los tiempos de ataque y liberación podrían ser largos si se compara con la duración mínima de un evento auditivo, sería benéfico durante los eventos retrasar los cambios o disminuir las velocidades de cambio en la ganancia hasta el siguiente límite de evento tanto para incrementar como para disminuir las ganancias. De acuerdo con un aspecto de la presente invención, un sistema de procesamiento de audio recibe una señal de audio y analiza y altera la ganancia y/o las características de intervalo dinámico del audio. La modificación del intervalo dinámico del audio es frecuentemente controlado por parámetros de un sistema de procesamiento de dinámica (el tiempo de ataque y liberación, la relación de compresión, etc.) que tienen efectos significantes sobre los artefactos perceptuales introducidos por el procesamiento de dinámica. Los cambios en las características de señal con respecto al
tiempo en la señal de audio son detectados e identificados como límites de evento auditivo, de manera que un segmento de audio entre límites consecutivos constituye un evento auditivo en la señal de audio. Las características de los eventos auditivos de interés podrían incluir características de los eventos, tales como la intensidad o duración perceptual . Algunos de uno o más de los parámetros de procesamiento de dinámica son generados, por lo menos parcialmente, en respuesta a los eventos auditivos y/o el grado de cambio en las características de la señal asociadas con los límites de evento auditivo. Normalmente, un evento auditivo es un segmento de audio que tiende a ser percibido como separado y distinto. Una medición que se utiliza de las características de señal incluye la medición del contenido espectral del audio, por ejemplo, como es descrito en los documentos citados de Crockett and Crockett et al . Todos o algunos de uno o más parámetros de procesamiento de dinámica podrían ser generados, por lo menos parcialmente, en respuesta a la presencia o ausencia y las características de uno o más eventos auditivos. Un límite de evento auditivo podría ser identificado como un cambio en las características de señal con respecto al tiempo que excede un umbral. En forma alterna, todos o algunos de uno o más de los parámetros podrían ser generados, por lo menos parcialmente, en
respuesta a una medición continua del grado de cambio en las características de señal asociadas con los límites de evento auditivo. Aunque en principio los aspectos de la invención podrían ser implementados en los dominios analógico y/o digital, es probable que las implementaciones prácticas sean implementadas en el dominio digital en el cual cada una de las señales de audio es representada por muestras individuales o muestras dentro de bloques de datos. En este caso, las características de señal podrían ser el contenido espectral del audio dentro de un bloque, la detección de los cambios en las características de señal con respecto al tiempo podría ser la detección de los cambios en el contenido espectral del audio de bloque a bloque, y cada uno de los límites temporales de inicio y finalización del evento auditivo coincide con el límite de un bloque de datos. Debe observarse que para el caso más tradicional de realización de los cambios de ganancia dinámica en una base de muestra por muestra, que el análisis de escena auditiva descrito podría ser realizado en una base de bloque y la información resultante del evento auditivo es utilizada para efectuar los cambios de ganancia dinámica que son aplicados muestra por muestra . Al controlar los parámetros clave de procesamiento de dinámica de audio utilizando los resultados del análisis de escena auditiva, podría conseguirse una reducción
dramática de los artefactos audibles introducidos por el procesamiento de dinámica. La presente invención presenta dos formas para realizar el análisis de escena auditiva. La primera efectúa el análisis espectral e identifica la ubicación de los eventos perceptibles de audio que son utilizados para controlar los parámetros de ganancia dinámica al identificar los cambios en el contenido espectral . La segunda forma cambia el audio en un dominio perceptual de intensidad acústica (que podría proporcionar una mayor información relevante en forma psicoacústica que la primera forma) e identifica la ubicación de los eventos auditivos que son subsecuentemente utilizados para controlar los parámetros de ganancia dinámica. Debe observarse que la segunda forma requiere que el procesamiento de audio se dé cuenta de los niveles absolutos de reproducción acústica, lo cual no podría ser posible en algunas implementaciones . La presentación de ambos métodos de análisis de escena auditiva permite las implementaciones de la modificación de ganancia dinámica controlada por ASA utilizando procesos o dispositivos que podrían o no ser calibrados para tomar en cuenta niveles absolutos de reproducción. Los aspectos de la presente invención son descritos en la presente en un entorno de procesamiento de dinámica de audio que incluye aspectos y otras invenciones. Estas otras
invenciones son descritas en varias Solicitudes de Patente Internacional y de los Estados Unidos y Pendientes de Dolby Laboratories Licensing Corporation, el propietario de la presente solicitud, las aplicaciones son identificadas en este documento.
Breve Descripción de las Figuras La Figura 1 es un diagrama de flujo que muestra un ejemplo de las etapas de procesamiento para realizar el análisis de escena auditiva. La Figura 2 muestra un ejemplo del procesamiento de bloque, formación de ventana y realización de la DFT en el audio mientras se efectúa el análisis de escena auditiva. La Figura 3 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento paralelo en el cual el audio es utilizado para identificar los eventos auditivos y para reconocer las características de los eventos auditivos, de manera que los eventos y sus características sean utilizados para modificar los parámetros de procesamiento de dinámica. La Figura 4 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento en el cual el audio sólo es utilizado para identificar los eventos auditivos y las características de evento son determinadas a partir de la detección de evento
auditivo, de manera que los eventos y sus características sean utilizados para modificar los parámetros de procesamiento de dinámica. La Figura 5 es de la naturaleza de un diagrama de flujo o diagrama de bloque funcional, que muestra el procesamiento en el cual el audio sólo es utilizado para identificar los eventos auditivos y las características de evento son determinadas a partir de la detección de evento auditivo y de manera que, sólo las características de los eventos auditivos sean utilizadas para modificar los parámetros de procesamiento de dinámica. La Figura 6 muestra un conjunto de respuestas idealizadas de la característica del filtro auditivo que se aproximan a la banda crítica de la escala ERB. La escala horizontal es la frecuencia en Hertzios y la escala vertical es el nivel en decibeles. La Figura 7 muestra los mismos contornos de intensidad acústica de ISO 226. La escala horizontal es la frecuencia en Hertzios (en una escala de base logarítmica de 10) y la escala vertical es el nivel de presión de sonido en decibeles . Las Figuras 8a-c muestran características idealizadas de entrada/ salida y las características de ganancia de entrada de un compresor de intervalo dinámico de audio .
Las Figuras 9a-f muestran un ejemplo del uso de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) tradicional en el cual el control de ganancia es derivado a partir de la potencia de la Media Cuadrática (RMS) de la señal. Las Figuras 10a- f muestran un ejemplo del uso de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) tradicional en el cual el control de ganancia es derivado a partir de la potencia de la Media Cuadrática (RMS) de la señal para una señal alterna que se utiliza en la Figura 9. La Figura 11 representa un conjunto adecuado de curvas idealizadas AGC y DRC para la aplicación de AGC seguido por DRC en un sistema de procesamiento de dinámica de dominio de intensidad acústica. El objetivo de la combinación es hacer que todo el audio procesado tenga aproximadamente la misma intensidad acústica percibida mientras que todavía mantiene al menos alguna de la dinámica del audio original.
El Mejor Modo para Realizar la Invención Análisis de Escena Auditiva (Método Original de Dominio sin Intensidad Acústica) De acuerdo con una modalidad de un aspecto de la
presente invención, el análisis de escena auditiva podría ser compuesto de cuatro etapas generales de procesamiento como se muestra en una porción de la Figura 1. La primera etapa 1-1 ("Realizar Análisis Espectral") toma una señal de audio de dominio de tiempo, después la divide en bloques y calcula el perfil espectral o contenido espectral para cada uno de los bloques. El análisis espectral transforma la señal de audio en el dominio de frecuencia a corto plazo. Esto podría ser realizado utilizando cualquier banco de filtros, ya sea en base a las transformadas o bancos de filtros de paso de banda, y en un espacio de frecuencia lineal u oblicua (tal como la escala o banda crítica de Bark, que mejor se aproxima a las características del oído humano) . Con cualquier banco de filtros existe un intercambio entre el tiempo y la frecuencia. Una resolución más grande de tiempo y por lo tanto, intervalos más cortos de tiempo, conduce a una resolución más baja de frecuencia. Una resolución más grande de frecuencia y por lo tanto, subbandas más angostas, conduce a intervalos más largos de tiempo. La primera etapa, que se ilustra de manera conceptual en la Figura 1, calcula el contenido espectral de segmentos sucesivos de tiempo de la señal de audio. En una modalidad práctica, el tamaño de bloque ASA podría ser a partir de cualquier número de muestras de la señal de audio de entrada, aunque 512 muestras proporcionan un buen
intercambio de resolución de tiempo y frecuencia. En la segunda etapa 1-2, las diferencias en el contenido espectral de bloque a bloque son determinadas ("realiza las mediciones de diferencia de perfil espectral"). De esta manera, la segunda etapa calcula la diferencia en el contenido espectral entre segmentos sucesivos de tiempo de la señal de audio. Como se discutió con anterioridad, un indicador poderoso del comienzo o finalización del evento auditivo percibido se cree que es un cambio en el contenido espectral. En la tercera etapa 1-3 ("identifica la ubicación de los límites de evento auditivo"), cuando la diferencia espectral entre un bloque de perfil espectral y el siguiente es más grande que un umbral, el límite del bloque es tomado para que sea un límite de evento auditivo. El segmento de audio entre los límites consecutivos constituye un evento auditivo. De esta manera, la tercera etapa establece un límite de evento auditivo entre los segmentos sucesivos de tiempo cuando la diferencia en el contenido de perfil espectral entre estos segmentos sucesivos de tiempo excede un umbral, de esta manera, se define en los eventos auditivos. En esta modalidad, los límites de evento auditivo definen los eventos auditivos que tienen una longitud que es un múltiplo integral de los bloques de perfil espectral con una longitud mínima de un bloque de perfil espectral (512 muestras en este ejemplo) . En principio, los límites de evento no necesitan ser restringidos de este modo.
Como una alternativa a las modalidades prácticas discutidas en la presente, el tamaño de bloque de entrada podría variar, por ejemplo, de modo que sea esencialmente el tamaño de un evento auditivo. En seguida de la identificación de los límites de evento, las características clave del evento auditivo son identificadas como se muestra en la etapa 1-4. Ya sea los segmentos de superposición o sin superposición del audio podrían ser formados en ventanas y utilizados para calcular los perfiles espectrales del audio de entrada. La superposición origina una resolución más fina en cuanto a la ubicación de los eventos auditivos y también, hace menos probable la pérdida de un evento, tal como un transitorio corto. Sin embargo, la superposición también incrementa la complejidad computacional . De esta manera, la superposición podría ser omitida. La Figura 2, muestra una representación conceptual de N bloques de muestra sin superposición que son colocados en ventanas y transformados en el dominio de frecuencia por la Transformada Discreta de Fourier (DFT) . Cada bloque podría ser formado en ventanas y transformado en el dominio de frecuencia, tal como mediante la utilización de la DFT, de preferencia, implementado como la Transformada Rápida de Fourier (FFT) para la velocidad. Las siguientes variables podrían ser utilizadas para calcular el perfil espectral del. bloque de entrada:
M = número de muestras de ventana en un bloque que se utiliza para calcular el perfil espectral P = número de muestras de superposición de computación espectral. En general, cualquiera de los números enteros podría ser utilizado para las variables anteriores. No obstante, la implementación sería más eficiente si M fuera colocada igual a la potencia de 2 , de modo que las FFTs estándares podrían ser utilizadas para los cálculos del perfil espectral. En una modalidad práctica del proceso de análisis de escena auditiva, los parámetros enlistados podrían ser establecidos para : = 512 muestras (u 11.6 ms a 44.1 kHz) P = 0 muestras (sin superposición) . Los valores enlistados con anterioridad fueron determinados de manera experimental y se encontraron, de manera general, que identifican con exactitud suficiente de la ubicación y duración de los eventos auditivos. Sin embargo, el establecimiento del valor de P en 256 muestras (50% de superposición) más que cero muestras (sin superposición) ha sido encontrado que es útil para identificar algunos eventos difíciles de encontrar. Mientras que muchos tipos distintos de ventanas podrían ser utilizados para minimizar los artefactos espectrales debido a la formación de ventanas, la ventana utilizada en los cálculos
de perfil espectral es un punto-M de Hannxng, Kaiser-Bessel u otra ventana adecuada, de preferencia, no rectangular. Los valores indicados con anterioridad y el tipo de ventana de Hanning fueron seleccionados después de un análisis experimental extensivo puesto que han mostrado el suministro de resultados excelentes a través de un intervalo amplio de material de audio. La formación de ventana no rectangular es preferida para el procesamiento de señales de audio, de manera predominante, con un bajo contenido de frecuencia. La formación de ventana rectangular produce artefactos espectrales que podrían provocar la detección incorrecta de eventos. A diferencia de ciertas aplicaciones de codificador/decodificador (codee) en donde un proceso completo de superposición/adición debe proporcionar un nivel constante, esta restricción no se aplica aquí y la ventana podría ser elegida por características tales como su resolución de tiempo/frecuencia y rechazo de banda de paro. En la etapa 1-1 (Figura 1) , el espectro de cada bloque de muestra-M podría ser calculado mediante la formación de ventana de los datos con el punto-M de Hanning, Kaiser-Bessel u otra ventana adecuada, convirtiéndola al dominio de frecuencia utilizando el punto-M de la Transformada Rápida de Fourier, y calculando la magnitud de los coeficientes complejos FFT. Los datos resultantes o normalizados, de manera que la magnitud más grande sea
establecida en la unidad, y la serie normalizada de M números es convertida al dominio logarítmico. Los datos también podrían ser normalizados a través de algún otro valor métrico tal como el valor medio de magnitud o el valor medio de potencia de los datos. La serie no necesita ser convertida al dominio logarítmico, sino que la conversión simplifica el cálculo de la medición de diferencia en la etapa 1-2. Además, el dominio logarítmico coincide de manera más cercana con la naturaleza del sistema auditivo humano. Los valores resultantes de dominio logarítmico tienen un intervalo de menos infinito a cero. En una modalidad práctica, el límite inferior podría ser impuesto en base al intervalo de valores; el límite podría ser fijado por ejemplo, en -60 dB, o puede ser dependiente de la frecuencia para reflejar el grado de audición más bajo de los sonidos silenciosos en frecuencias bajas y muy altas. (Se observa que sería posible reducir el tamaño de la serie a M/2 porque la FFT representa frecuencias negativas, así como también, frecuencias positivas). La etapa 1-2 calcula la medición de la diferencia entre el espectro de bloques adyacentes. Para cada bloque, cada uno de los coeficientes espectrales M(log) de la etapa 1-1 es restado del coeficiente correspondiente para el bloque precedente, y la magnitud de la diferencia calculada (el signo es ignorado) . Entonces, estas M diferencias son sumadas con un número. Esta medición de diferencia también podría ser
expresada como una diferencia promedio por coeficiente espectral al dividir la medición de diferencia entre el número de coeficientes espectrales utilizados en la suma (en este caso, M coeficientes) . La etapa 1-3 identifica las ubicaciones de los límites de evento auditivo mediante la aplicación de un umbral a la serie de medidas de diferencia de la etapa 1-2 con un valor de umbral. Cuando una medición de diferencia excede un umbral, el cambio en el espectro es considerado suficiente para señalar un nuevo evento y el número de bloques del cambio es registrado como un límite de evento. Para los valores de M y P dados con anterioridad y para los valores de dominio logarítmico (en la etapa 1-1) expresados en unidades de dB, el umbral podría ser establecido igual a 2500 si la totalidad de la FFT de magnitud (que incluye la parte de espejo) fuera comparada o sería de 1250 si fuera comparada la mitad de la FFT (como se observó con anterioridad, la FFT representa frecuencias negativas, así como también frecuencias positivas, para la magnitud de la FFT, una es la imagen espejo de la otra) . Este valor fue elegido de manera experimental y proporciona una buena detección del límite de evento auditivo. Este valor del parámetro podría ser cambiado para reducir (incrementar el umbral) o aumentar (disminuir el umbral) de la detección de eventos .
El proceso de la Figura 1 podría ser presentado, de manera más general, por los arreglos equivalentes de las Figuras 3 , 4 y 5. En la Figura 3 , una señal de audio es aplicada en paralelo a una función o etapa 3-1 "Identifica Eventos Auditivos" que divide la señal de audio en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto en una función opcional o etapa 3-2 "Identifica las Características de los Eventos Auditivos" . El proceso de la Figura 1 podría ser empleado para dividir la señal de audio en eventos auditivos y sus características podrían ser identificadas o podría ser empleado algún otro proceso conveniente. La información del evento auditivo, que podría ser la identificación de los límites de evento auditivo, determinada por la función o etapa 3-1 es entonces utilizada para modificar los parámetros de procesamiento de dinámica de audio (tales como ataque, liberación, relación, etc.), como es deseado por una función o etapa 3-3 "Modifica Parámetros de Dinámica". La función o etapa 3-3 opcional "Identifica Características" también podría caracterizar algunos o la totalidad de los eventos auditivos a través de una o más características. Estas características podrían incluir la identificación de la subbanda dominante del evento auditivo, como se describe en conexión con el proceso de la Figura 1. Las características también podrían incluir una o más características de audio, que incluyen por ejemplo, la
medición de la potencia del evento auditivo, la medición de la amplitud del evento auditivo, la medición de la planeidad espectral del evento auditivo y si el evento auditivo es de silencio, de manera sustancial, u otras características que ayuden a modificar los parámetros de dinámica, de manera que los artefactos audibles negativos del procesamiento sean reducidos o eliminados. Las características también podrían incluir otras características tales como si el evento auditivo comprendiera un transitorio. Las alternativas para el arreglo de la Figura 3 son mostradas en las Figuras 4 y 5. En la Figura 4 , la señal de entrada de audio no es directamente aplicada a la función o etapa 4-3 "Identifica Características", sino que recibe la información de la función o etapa 4-1 "Identifica Eventos Auditivos". El arreglo de la Figura 1 es un ejemplo específico de este arreglo. En la Figura 5, las funciones o etapas 5-1, 5-2 y 5-3 son situadas en series. Los detalles de esta modalidad práctica no son críticos. Podrían ser empleadas otras formas de cálculo del contenido espectral de los segmentos sucesivos de tiempo de la señal de audio, de cálculo de las diferencias entre los segmentos sucesivos de tiempo, y de establecimiento de los límites de evento auditivo en los respectivos límites entre los segmentos sucesivos de tiempo cuando la diferencia en el contenido espectral de perfil entre estos segmentos sucesivos
de tiempo exceda un umbral. Análisis de Escena Auditiva (Nuevo Método de Dominio de Intensidad Acústica) La solicitud internacional de acuerdo con el Tratado de Cooperación de Patentes S.N. PCT/US2005/038579 , presentada el 25 de Octubre del 2005 publicada como Número de Publicación Internacional WO 2006/047600 Al y titulada "Calculating and Adjusting the Perceived Loudness and/o the Perceived Spectral Balance of an Audio Signal" de Alan Jeffrey Seefeldt, describe entre otras cosas, una medición objetivo de la intensidad acústica percibida en base a un modelo psicoacústico . Con lo cual, la solicitud es incorporada como referencia en su totalidad. Como se describe en la solicitud, a partir de una señal de audio, x[n] , una señal de excitación E[b,t] es calculada, la cual aproxima la distribución de energía a lo largo de la membrana basilar del oído interior en la banda crítica b durante el bloque de tiempo t. Esta excitación podría ser calculada a partir de la Transformada Discreta de Fourier de tiempo corto (STDFT) de la señal de audio como sigue:
O)
en donde X[k,t] representa la STDFT de x[n] en el bloque de tiempo t y la bandeja k. Se observa que en la
Ecuación 1, t representa el tiempo en unidades discretas de bloques de transformada que es opuesto a la medición continua, tal como en segundos. T[k] representa la respuesta de frecuencia de un filtro que simula la transmisión de audio a través del oído exterior e intermedio, y Cb[k] representa la respuesta de frecuencia de la membrana basilar en la ubicación que corresponde con la banda crítica b. La Figura 6 representa un conjunto adecuado de respuestas de filtro de banda crítica en la cual 40 bandas se encuentran uniformemente separadas a lo largo de la escala de Ancho de Banda Rectangular Equivalente (ERB) , como es definido por Moore y Glasberg . Cada forma de filtro es descrita por la función exponencial redondeada y las bandas son distribuidas utilizando una separación de 1 ERB. Finalmente, la constante de tiempo de suavizamiento Xb en la Ecuación 1 podría ser elegida, de manera ventajosa, proporcionada al tiempo de integración de la percepción humana de intensidad acústica dentro de la banda b. Utilizando los mismos contornos de intensidad acústica, tales como aquellos representados en la Figura 7, la excitación en cada banda es transformada en un nivel de excitación que podría generar la misma intensidad acústica percibida a 1 kHz . La intensidad acústica específica, una medición de la intensidad acústica perceptual distribuida a través de la frecuencia y el tiempo, es entonces calculada a
partir de la excitación transformada ElkHz[b,t], a través de una falta de linealidad compresiva. Una función adecuada para calcular la intensidad acústica específica N[b, t] es dada por:
(2)
en donde TQiknz es el umbral en silencio a 1 kHz y las constantes ß y a son elegidas para coincidir o combinar el crecimiento de los datos de intensidad acústica que son colectados a partir de los experimentos de escucha. En forma abstracta, esta transformación de la excitación a la intensidad acústica específica podría ser presentada por la función ?{ }, de manera que:
N[b9t] = V{Elbtt]}
Finalmente, la intensidad acústica total, L[t] representada en unidades de sonido, es calculada sumando la intensidad acústica específica a través de las bandas:
£[í] = ?W>, b (3) La intensidad acústica específica N[b, t] es un significado de representación espectral para simular el modo en el cual el humano percibe el audio como una función de la
frecuencia y el tiempo. Esta captura las variaciones en sensibilidad en distintas frecuencias, variaciones en sensibilidad de nivel y variaciones en la resolución de frecuencia. Como tal, esta es una representación espectral que es bien combinada con la detección de los eventos auditivos. A través de una comparación compleja más computacional , la diferencia de N[b,t] a través de las bandas entre los bloques sucesivos de tiempo podría en muchos casos originar una detección perceptual más precisa de los eventos auditivos en comparación con el uso directo de los espectros sucesivos FFT descritos con anterioridad. En la solicitud de patente, son descritas varias aplicaciones para modificar el audio en base al modelo de intensidad acústica psicoacústica . Entre estas se encuentran varios algoritmos de procesamiento de dinámica tales como AGC y DRC. Estos algoritmos descritos podrían beneficiarse del uso de los eventos auditivos para controlar varios parámetros asociados. Debido a que la intensidad acústica específica ya es calculada, ésta se encuentra fácilmente disponible para el propósito de detectar los eventos. Los detalles de una modalidad preferida son discutidos más adelante. Control de Parámetro de Procesamiento de Dinámica de Audio con Eventos Auditivos A continuación, dos ejemplos de modalidades de la invención son presentados. El primer ejemplo describe el uso
de los eventos auditivos para controlar el tiempo de liberación en una implementación digital de un Controlador de Intervalo Dinámico (DRC) en el cual el control de ganancia es derivado de la potencia Media Cuadrática (RMS) de la señal. La segunda modalidad describe el uso de los eventos auditivos para controlar ciertos aspectos de una combinación más sofisticada de AGC y DRC implementada dentro del contexto del modelo de intensidad acústica psicoacústica descrito con anterioridad. Estas dos modalidades significan que sirven como ejemplos sólo de la invención, y debe entenderse que el uso de los eventos auditivos para controlar los parámetros del algoritmo de procesamiento de dinámica no es restringido a las modalidades específicas descritas más adelante. Control de Intervalo Dinámico La implementación digital descrita de un DRC divide una señal de audio x[n] en bloques de mitad de superposición de ventanas, y para cada bloque una ganancia de modificación es basada en la medición de la potencia local de la señal y es calculada la curva seleccionada de compresión. La ganancia es suavizada a través de los bloques, y posteriormente, es multiplicada con cada bloque. Los bloques modificados son finalmente agregados por superposición para generar la señal modificada de audio y[n] . Debe observarse, que mientras el análisis de escena auditiva y la implementación digital de DRC como se describió
en la presente, divide la señal de audio de dominio de tiempo en bloques para realizar el análisis y procesamiento, el procesamiento DRC necesita ser efectuado utilizando la segmentación del bloque. Por ejemplo, el análisis de escena auditiva podría ser realizado utilizando la segmentación de bloque y el análisis espectral como se describió con anterioridad y las ubicaciones y características resultantes del evento auditivo podrían ser empleadas a fin de proporcionar la información de control a la implementación digital de una implementación tradicional DRC que normalmente opera en una base de muestra a muestra. No obstante, aquí la misma estructura de bloque utilizada para el análisis de escena auditiva es empleada para la DRC a fin de simplificar la descripción de su combinación. Procediendo con la descripción de una implementación
DRC basada en bloque, los bloques de superposición de la señal de audio podrían ser representados como:
MtnJx[n+/Af/2] Para 0 < n < M - l (4)
en donde M es la longitud del bloque y el tamaño de salto es M/2, w[n] es la ventana, n es el índice de muestra dentro del bloque, y t es el índice de bloque (se observa que aquí, t es utilizado en el mismo modo que con STDFT en la Ecuación 1; representa el tiempo en unidades discretas de
bloques más que como por ejemplo, segundos) . En forma ideal, la ventana w[n] disminuye hasta cero en ambos extremos y se suma a la unidad cuando es superpuesta la mitad con sí misma; la ventana de seno comúnmente utilizada cumple, por ejemplo, con estos criterios. Para cada bloque, se podría entonces calcular la potencia RMS para generar una medición de potencia P[t] en dB por bloque :
(5) Como se mencionó con anterioridad, se podría suavizar esta medición de potencia con un ataque rápido y liberación lenta antes del procesamiento con una curva de compresión, aunque como una alternativa, la potencia instantánea P[t] es procesada y la ganancia resultante es suavizada. Este procedimiento alterno tiene la ventaja que una simple curva de compresión con puntos agudos de cambio de dirección podría ser utilizada, aunque las ganancias resultantes todavía son suaves a medida que la potencia se desplaza a través del punto de cambio de dirección. La representación de una curva de compresión como se muestra en la Figura 8c como una función F del nivel de señal que genera una ganancia, la ganancia de bloque G[t] es dada por:
(6)
Suponiendo que la curva de compresión aplique una atenuación más grande a medida que se incrementa el nivel de la señal, la ganancia estará disminuyendo cuando la señal se encuentre en el "modo de ataque" y estará aumentando cuando se encuentre en el "modo de liberación". Por lo tanto, la ganancia suavizada G[t] podría ser calculada de acuerdo con: G[í] = a[í · Gt-1]+(1-a[t^G[t] (7a)
en donde
(7b)
y e/taire ^"^" ^attaoti C7c) Finalmente, la ganancia suavizada G[t] , que se encuentra en dB, es aplicada a cada bloque de la señal, y los bloques modificados son agregados por superposición a fin de producir el audio modificado:
yin + tM/21 = (lO°w 20)«[ i,r]+(l0^-,,/¾)) »+M/2,/ - 1] > 0<n<Aá (8)
Se observa que debido a que los bloques han sido multiplicados con una ventana de disminución, como se muestra
en la Ecuación 4, la síntesis de adición por superposición mostrada con anterioridad, suavizada efectivamente las ganancias a través de las muestras de la señal procesada y[n] . De esta manera, la señal de control de ganancia recibe el suavizamiento además del que se muestra en la Ecuación 7a. En una implementación más tradicional de DRC que opera muestra por muestra, más que bloque por bloque, el suavizamiento de ganancia más sofisticado que un simple filtro de un polo mostrado en la Ecuación 7a podría ser necesario con el fin de evitar la distorsión audible en la señal procesada. Asimismo, el uso del procesamiento basado en bloque introduce un retraso inherente de M/2 muestras en el sistema, y con la condición que el tiempo de declinación asociado con attack se encuentre cercano a este retraso, la señal x[n] no necesita ser retrasada adicionalmente antes de la aplicación de las ganancias con el propósito de evitar el exceso de modulación. Las Figuras 9a- 9c representan el resultado de la aplicación del procesamiento descrito DRC a una señal de audio. Para esta implementación particular, una longitud de bloque de =512 es utilizada en una relación de muestreo de 44.1 kHz . Una curva de compresión similar a la mostrada en la Figura 8b es utilizada: por encima de -20dB con relación a la escala completa digital, la señal es atenuada con una relación de 5:1, y por debajo de -30dB la señal es
amplificada con una relación de 5:1. La ganancia es suavizada con un coeficiente de ataque aattack que corresponde con el tiempo de declinación a la mitad de 10ms y un coeficiente de liberación orelease que corresponde con el tiempo de declinación a la mitad de 500ms. La señal de audio original que se representa en la Figura 9c consiste de seis cuerdas consecutivas de piano, con la cuerda final situada alrededor de la muestra 1.75xl05, declinando hacia el silencio. Examinando una gráfica de la ganancia G[t] en la Figura 9b, debe observarse que la ganancia permanece cercana a OdB mientras que las seis cuerdas son tocadas. Esto es debido a que la energía de la señal permanece durante la mayor parte del tiempo, entre -30 y -2 OdB, la región dentro de la cual la curva DRC no requiere de modificación. Sin embargo, después de golpear la última cuerda, la energía de señal cae por debajo de -30dB y la ganancia comienza a elevarse, de manera eventual más allá de 15dB a medida que la cuerda declina. La Figura 9c representa la señal de audio resultante que es modificada, y puede observarse que la cola de la cuerda final es aumentada de manera significante. En forma audible, este aumento del sonido de declinación de bajo nivel natural de la cuerda crea un resultado extremadamente no natural . El objetivo de la presente invención es evitar problemas de este tipo que son asociados con un procesador tradicional de dinámica.
Las Figuras 10a- 10c representan los resultados de aplicación del mismo sistema exacto DRC a una señal de audio diferente. En este caso, la primera mitad de la señal consiste de una pieza de música de paso o compás ascendente en un nivel alto, y posteriormente, en una muestra aproximadamente de lOxlO4, la señal cambia a una segunda pieza de música de compás ascendente, aunque en un nivel significativamente más bajo. Examinando la ganancia en la Figura 6b, se observa que la señal es atenuada aproximadamente en lOdB durante la primera mitad, y posteriormente, la ganancia regresa a OdB durante la segunda mitad cuando se está tocando la pieza más suave. En este caso, la ganancia se comporta como se desee. A una persona le gustaría que la segunda pieza sea ampliada con relación a la primera, y la ganancia tiene que incrementarse con rapidez después de la transición hacia la segunda pieza para que no sea obstructiva en forma audible. Se observa un comportamiento de ganancia que es similar al de la primera señal discutida, aunque aquí, el comportamiento es el deseable. Por lo tanto, a una persona le gustaría arreglar el primer caso sin afectar el segundo. El uso de eventos auditivos para controlar el tiempo de liberación de este sistema DRC proporciona esta solución. En la primera señal que fue examinada en la Figura 9, la amplificación de la primera declinación de la última
cuerda parece no natural debido a que la cuerda y su declinación son percibidas como un evento auditivo único cuya integridad se espera que sea mantenida. No obstante, en el segundo caso sucede en muchos eventos auditivos mientras que la ganancia se incrementa, lo que significa que para cualquier evento individual, es transmitido un cambio pequeño. Por lo tanto, el cambio total de ganancia no puede ser objetable. Por lo tanto, se puede discutir que el cambio de ganancia sólo tiene que ser permitido en la proximidad casi temporal de un límite de evento auditivo. Se puede aplicar este principio a la ganancia mientras que se encuentre en cualquiera de los modos de ataque o liberación, aunque para la mayoría de implementaciones prácticas de una DRC, la ganancia se mueve tan rápidamente en el modo de ataque en comparación con la resolución temporal humana de la percepción de evento que ningún control es necesario. Por lo tanto, pueden utilizarse eventos para controlar el suavizamiento de la ganancia DRC sólo cuando se encuentre en el modo de liberación. A continuación, se describe un comportamiento adecuado del control de liberación. En términos cuantitativos, si fuera detectado un evento, la ganancia sería suavizada con la constante de liberación de tiempo como es especificado con anterioridad en la ecuación 7a. A medida que el tiempo evoluciona a través del evento detectado, y si
no fueran detectados eventos subsiguientes, la constante de liberación de tiempo se incrementaría en forma continua, de modo que eventualmente la ganancia suavizada sería "congelada" en el lugar. Si fuera detectado otro evento, entonces, la constante de suavización de tiempo sería restablecida al valor original y el proceso se repetiría. Con el fin de modular el tiempo de liberación, se podría generar primero una señal de control en base a los límites detectados de evento. Como se discutió con anterioridad, los límites de evento podrían ser detectados buscando cambios en los espectros sucesivos de la señal de audio. En esta implementación particular, la DFT de cada bloque de superposición x[n, t] podría ser calculada para generar la STDFT de la señal de audio x[n] :
(¾ A continuación, la diferencia entre los espectros normalizados de magnitud logarítmica de los bloques sucesivos podría ser calculada de acuerdo con:
(10a)
en donde
(10b) Aquí, el máximo de \X[k,t] | a través de las bandejas k es utilizado para la normalización, aunque podrían emplearse otros factores de normalización; por ejemplo, el promedio de \x[k,t] | a través de las bandejas. Si la diferencia D[t] excediera un umbral Dmin, entonces el evento sería considerado que ha ocurrido. Además, podría asignarse una intensidad a este evento, que se sitúa entre cero y uno, en base del tamaño de D[t] en comparación con el umbral máximo Dmax. La señal intensa resultante del evento auditivo A[t] podría ser calculada como:
Al asignar una intensidad al evento auditivo proporcional a la cantidad del cambio espectral asociado con este evento, es conseguido un control más grande con respecto al procesamiento de dinámica en comparación con la decisión del evento binario. Los inventores han encontrado que cambios más grandes de ganancia son aceptables durante eventos más intensos, y la señal en la Ecuación 11 permite este control variable .
La señal A[t] es una señal impulsiva con un impulso que sucede en la ubicación de un límite de evento. Con el propósito de controlar el tiempo de liberación, podría suavizarse la señal A[t] , de modo que decline en forma suave hasta cero después de la detección de un límite de evento. La señal suavizada de control de evento A[t] podría ser calculada a partir de A[t] de acuerdo con:
[a8»??[* -1] de otro modo (12)
Aquí, aevent controla el tiempo de declinación de la señal de control de evento. Las Figuras 9d y lOd representan la señal de control de evento A[t] para las dos correspondientes señales de audio, con la mitad de declinación de tiempo del establecimiento más suave en 250ms. En el primer caso, se observa que un límite de evento es detectado para cada una de las seis cuerdas del piano, y que la señal de control de evento declina en forma suave hacia cero después de cada evento. Para la segunda señal, son detectados muchos eventos muy cerca entre sí en el tiempo, y por lo tanto, la señal de control de evento nunca declina por completo hasta cero. A continuación, podría usarse la señal de control de evento A[t] para variar la constante de tiempo de liberación utilizada para suavizar la ganancia. Cuando la señal de
control sea igual a uno, el coeficiente de suavizamiento a[t] de la Ecuación 7a es igual a areiease, del mismo modo que con anterioridad, y cuando la señal de control es igual a cero, el coeficiente es igual a uno, de modo que sea evitado el cambio de la ganancia suavizada. El coeficiente de suavizamiento es interpolado entre estos dos extremos utilizando la señal de control de acuerdo con:
(13)
Al interpolar el coeficiente de suavizamiento en forma continua como una función de la señal de control de evento, el tiempo de liberación es reajustado a un valor proporcionado a la intensidad de evento en el curso de un evento y posteriormente, se incrementa en forma suave hasta el infinito después de la ocurrencia de un evento. La velocidad de este incremento es impuesta por el coeficiente 3-event utilizado para generar la señal de control de evento suavizada . Las Figuras 9e y lOe muestran el efecto de suavizamiento de la ganancia con el coeficiente controlado por evento de la Ecuación 13 que es opuesto al coeficiente controlado sin evento de la Ecuación 7b. En el primer caso, la señal de control de evento cae a cero después de la última cuerda de piano, con lo cual se evita que la ganancia se
mueva hacia arriba. Como resultado, el audio modificado correspondiente en la Figura 9f no experimenta un aumento no natural de la declinación de la cuerda. En el segundo caso, la señal de control de evento nunca se aproxima a cero, y por lo tanto, la señal de ganancia suavizada es impedida muy poco a través de la aplicación del control de evento. La trayectoria de la ganancia suavizada es casi idéntica a la ganancia controlada sin evento en la Figura 10b. Este es exactamente el efecto deseado. Intensidad Acústica Basada en AGC y DRC Como una alternativa a las técnicas tradicionales de procesamiento de dinámica, en donde las modificaciones de señal son una función directa de mediciones simples de señal tales como la potencia de pico o RMS, la solicitud de patente internacional S.N. PCT/US2005/038579 describe el uso del Modelo de intensidad acústica basado en la psicoacústica descrito con anterioridad como una estructura dentro de la cual se realiza el procesamiento de dinámica. Varias ventajas son citadas. En primer lugar, las mediciones y modificaciones son especificadas en unidades de sonido, la cual es una medición más exacta de la percepción de intensidad acústica que las mediciones más básicas como la potencia de pico o RMS. En segundo lugar, el audio podría ser modificado, de manera que el equilibrio espectral percibido del audio original sea mantenido a medida que es cambiada la intensidad
acústica total. De este modo, los cambios en la intensidad acústica total se vuelven menos aparentes, en forma perceptual, en comparación con un procesador de dinámica que utiliza una ganancia de banda ancha, por ejemplo, para modificar el audio. Finalmente, el modelo psicoacústico es de múltiples bandas, de manera inherente, y por lo tanto, el sistema es configurado con facilidad para realizar el procesamiento de dinámica de múltiples bandas con el fin de aliviar los problemas de bombeo espectral cruzado bien conocidos que son asociados con el procesador de dinámica de banda ancha. Aunque la realización del procesamiento de dinámica en este dominio de intensidad acústica ya mantiene varias ventajas con respecto al procesamiento de dinámica más tradicional, la técnica podría ser adicionalmente mejorada a través del uso de eventos auditivos para controlar varios parámetros. Se considera el segmento de audio que contiene cuerdas de piano como se representa en 27a y el DRC asociado que se muestra en las Figuras 10b y 10c. Podría realizarse un DRC similar en el dominio de la intensidad acústica, y en este caso, cuando la intensidad acústica de la declinación de la cuerda final de piano sea aumentada, el aumento o ampliación sería menos aparente debido a que el equilibrio espectral de la nota de declinación sería mantenido a medida que es aplicado el aumento o ampliación. Sin embargo, una
mejor solución es no aumentar la declinación en lo absoluto, y por lo tanto, podría ser ventajosa la aplicación del mismo principio de control de los tiempos de ataque y liberación con eventos auditivos en el dominio de intensidad acústica como se describió con anterioridad para el DRC tradicional . El sistema de procesamiento de dinámica de dominio de intensidad acústica que ahora es descrito, consiste de AGC seguido por DRC. El objetivo o meta de esta combinación es hacer que todo el audio procesado tenga aproximadamente la misma intensidad acústica percibida mientras que todavía mantiene al menos algunas de la dinámica del audio original . La Figura 11 representa un conjunto adecuado de curvas AGC y DRC para esta aplicación. Se observa que la entrada y la salida de ambas curvas son representadas en unidades de sonido debido a que el procesamiento es efectuado en el dominio de intensidad acústica. La curva AGC compite en llevar el audio de salida más cerca a algún nivel objetivo, y como se mencionó con anterioridad, lo hace con constantes de tiempo relativamente lentas. Podría pensarse que AGC que realiza la intensidad acústica a largo plazo del audio es igual al objetivo, aunque en una base a corto plazo, la intensidad acústica podría fluctuar de manera significativa alrededor de este objetivo. Por lo tanto, podría emplearse DRC de actuación más rápida para limitar estas fluctuaciones hasta algún alcance considerado aceptable para la aplicación
particular. La Figura 11 muestra una curva DRC en donde el objetivo AGC cae dentro de la "banda nula" del DRC, la porción de la curva que se requiere para que no exista modificación. Con esta combinación de las curvas, el AGC pone la intensidad acústica a largo plazo del audio dentro de la banda nula de la curva DRC, de modo que necesitan ser aplicadas modificaciones mínimas DRC de actuación rápida. Si la intensidad acústica de plazo corto todavía fluctuara fuera de la banda nula, entonces, el DRC actuaría para mover la intensidad acústica del audio hacia esta banda nula. Como una nota general final, podría aplicarse el AGC de actuación lenta, de manera que todas las bandas del Modelo de intensidad acústica reciban la misma cantidad de modificación de intensidad acústica, con lo cual se mantiene el equilibrio espectral percibido, y podría aplicarse el DRC de actuación rápida en un modo que permita que la modificación de intensidad acústica varíe a través de las bandas con el propósito de aliviar el bombeo espectral cruzado que de otro modo pudiera originarse a partir de la modificación de intensidad acústica independiente de banda de actuación rápida . Los eventos auditivos podrían ser utilizados para controlar los tiempos de ataque y liberación, tanto de AGC como de DRC. En el caso de AGC, ambos de los tiempos de ataque y liberación son grandes en comparación con la
resolución temporal de la percepción de evento, y por lo tanto, el control de evento podría ser empleado de manera ventajosa, en ambos casos, con el DRC, el tiempo de ataque es relativamente corto y por lo tanto, el control de evento sólo podría ser necesario para el tiempo de liberación del mismo modo que con el DRC tradicional descrito con anterioridad. Como se discutió con anterioridad, podría utilizarse el espectro de intensidad acústica específica asociado con el modelo empleado de intensidad acústica para los propósitos de detección de evento. Una señal de diferencia D[t] , similar a la de las Ecuaciones 10a y 10b podría ser calculada a partir de la intensidad acústica específica N[j , t] , definida en la Ecuación 2 como sigue:
(14a)
en donde
(14b)
Aquí, el máximo de |2V[j ,t] | a través de las bandas de frecuencia b es utilizado para la normalización, aunque podrían emplearse otros factores de normalización; por ejemplo, el promedio de |N[i_>, fc] | a través de las bandas de frecuencia. Si la diferencia D[t] excediera un umbral Dmin,
entonces, se considera que el evento ha sucedido. Entonces, la señal de diferencia podría ser procesada en el mismo modo mostrado en las Ecuaciones 11 y 12 para generar una señal de control aun más suave A[t] utilizada para regular los tiempos de ataque y liberación. La curva AGC representada en la Figura 11 podría ser representada como una función que toma como su entrada la medición de intensidad acústica y genera la intensidad acústica salida deseada:
(15a)
La curva DRC podría ser representada en forma similar:
(15b) .
Para el AGC, la intensidad acústica de entrada es una medición de la intensidad acústica a largo plazo del audio . Podría calcularse esta medición mediante la suavización de la intensidad acústica instantánea L[t], definida en la Ecuación 3, utilizando constantes de tiempo relativamente grandes (en el orden de varios segundos) . Se ha mostrado que para juzgar la intensidad acústica a largo plazo del segmento de audio, los humanos ponderan las porciones de mayor intensidad de manera más pesada que las más suaves, y
podría utilizarse un tiempo más rápido de ataque que de liberación en la suavización para simular este efecto. Con la incorporación del control de evento para ambos tiempos de ataque y liberación, la intensidad acústica a largo plazo utilizada para determinar la modificación AGC, podría entonces ser calculada de acuerdo con:
(16a) en aonae :
(16b)
Además, podría calcularse el espectro asociado de intensidad acústica específica a largo plazo que posteriormente será utilizado para el DRC de múltiples bandas : NAOC A
-1]+0-aAac lWN[b,t] (16c)
En la práctica, podrían elegirse los coeficientes de suavizamiento, de manera que el tiempo de ataque sea aproximadamente la mitad del tiempo de liberación. Dada la medición de intensidad acústica a largo plazo, entonces podría calcularse la escala de modificación de intensidad acústica asociada con el AGC como la relación de la intensidad acústica de salida con la intensidad acústica de
entrada
(17) La modificación DRC ahora podría ser calculada a partir de la intensidad acústica después de la aplicación de la escala AGC. Más que suavizar una medición de la intensidad acústica antes de la aplicación de la curva DRC, podría aplicarse en forma alterna la curva DRC a la intensidad acústica instantánea y después, suavizar de manera subsiguiente la modificación resultante. Esto es similar a la técnica descrita con anterioridad para suavizar la ganancia del DRC tradicional. Además, el DRC podría aplicarse en un modo de múltiples bandas, lo que significa que la modificación DRC es una función de la intensidad acústica específica N[b, fc] , en cada banda b, más que la intensidad acústica total L[t] . Sin embargo, con el fin de mantener el equilibrio espectral promedio del audio original, podría aplicarse DRC en cada banda, de manera que las modificaciones resultantes tengan el mismo efecto promedio que se originaría a partir de la aplicación de DRC a la intensidad acústica total . Esto podría ser conseguido mediante la escala de cada banda entre la relación de la intensidad acústica total a largo plazo (después de la aplicación de la escala AGC) con la intensidad acústica específica de largo plazo, y la utilización de este valor como el argumento para la función
DRC. Entonces, el resultado puede volver a ser escalado por el inverso de la relación para producir la intensidad acústica específica de salida. De esta manera, la escala DRC en cada banda podría ser calculada de acuerdo con:
Las modificaciones AGC y DCR podrían entonces ser combinadas para formar una escala total de intensidad acústica por banda: Srorib,']
(19)
Esta escala total podría entonces ser suavizada a través del tiempo de manera independiente para cada banda con un modo rápido de ataque y modo lento de liberación y el control de evento aplicado sólo al modo de liberación. En forma ideal, el suavizamiento es realizado en base al logaritmo de la escala análoga en las ganancias del DCR tradicional que está siendo suavizado en su representación de decibel, aunque esto no es esencial. Para garantizar que la escala suavizada total se mueva en sincronía con la intensidad acústica específica en cada banda, los modos de ataque y liberación podrían ser determinados a través de suavizamiento simultáneo de la intensidad acústica específica por sí misma:
(20b) .
en donde
(20c)
Finalmente, podría calcularse la intensidad acústica específica objetivo en base a la escala suavizada que es aplicada a la intensidad acústica específica original i^r] = -WM]-V[ ] (21) y después, se resuelven las ganancias G[b,t] que cuando se aplicó al resultado original de excitación en la intensidad acústica específica es igual al objetivo:
(22) Las ganancias podría ser aplicadas a cada banda del banco de filtros utilizado para calcular la excitación, y entonces, el audio modificado podría ser generado mediante la inversión del banco de filtros para producir una señal de audio modificada de dominio de tiempo. Control Adicional de Parámetro Mientras que la discusión anterior se ha enfocado en
el control de los parámetros de ataque y liberación AGC y DRC por medio del análisis de escena auditiva y el audio que está siendo procesado, otros parámetros importantes también podrían beneficiarse al ser controlados por medio de los resultados ASA. Por ejemplo, la señal de control de evento A[t] de la Ecuación 12 podría ser utilizada para variar el valor del parámetro de relación DRC que es utilizado para ajustar en forma dinámica la ganancia del audio. El parámetro de relación, en forma similar a los parámetros de tiempo de ataque y liberación, podría construir de manera significativa a los artefactos perceptuales introducidos por los ajustes de ganancia dinámica. Implementación La invención podría ser implementada en hardware o software, o una combinación de ambos (por ejemplo, en series lógicas programables) . A menos que sea especificado de otro modo, los algoritmos incluidos como parte de la invención no están inherentemente relacionados con ninguna computadora particular u otro aparato. En particular, podrían emplearse varias máquinas de uso general con programas escritos de acuerdo con las enseñanzas en este documento, o podría ser más conveniente la construcción de aparatos más especializados (por ejemplo, circuitos integrados) para realizar las etapas requeridas de método. De esta manera, la invención podría ser implementada en uno o más programas de
computadora que se ejecuten en uno o más sistemas programables de computadora, cada uno de los cuales comprende al menos un procesador, al menos un sistema de almacenamiento de datos (que incluye una memoria volátil y no volátil y/o elementos de almacenamiento) , al menos un dispositivo o puerto de entrada, y por lo menos un dispositivo o puerto de salida. El código de programa es aplicado a los datos de entrada para realizar las funciones descritas en la presente y para generar la información de salida. La información de salida es aplicada a uno o más dispositivos de salida en un modo conocido. Cada programa podría ser implementado en cualquier lenguaje deseado de computadora (que incluye lenguajes de programación de máquina, ensamble, o de alto nivel de procedimiento, lógico u orientado por objeto) para comunicarse con un sistema de computadora. En cualquier caso, el lenguaje podría ser un lenguaje compilado o interpretado. De preferencia, cada programa de computadora es almacenado o descargado en un medio o dispositivo de almacenamiento (por ejemplo, una memoria o medios de estado sólido, o medios magnéticos u ópticos) que pueda ser leído por una computadora programable de uso general o especial, para la configuración y operación de la computadora cuando los medios o dispositivo de almacenamiento sean leídos por el sistema de computadora a fin de realizar los procedimientos
descritos en la presente. El sistema inventivo también podría ser considerado que es implementado como un medio de almacenamiento susceptible de ser leído por computadora, el cual es configurado con un programa de computadora, en donde el medio de almacenamiento configurado de este modo, provoca que el sistema de computadora opere en un modo específico y predefinido a fin de realizar las funciones descritas en este documento . Se ha descrito un número de modalidades de la invención. Sin embargo, se entenderá que podrían realizarse varias modificaciones sin apartarse del espíritu y alcance de la invención. Por ejemplo, algunas de las etapas descritas en la presente podrían ser de orden independiente, y de esta manera, podrían realizarse en un orden diferente del orden descrito. Debe entenderse que la implementación de otras variaciones y modificaciones de la invención y sus distintos aspectos serán aparentes para aquellas personas expertas en la técnica y que la invención no es limitada por estas modalidades específicas descritas. Por lo tanto, se contempla cubrir por medio de la presente invención cualquiera y todas las modificaciones, variaciones o equivalentes que caen dentro del verdadero espíritu y alcance de los principios subyacentes básicos que se describen y se reivindican en este documento .
Incorporación como Referencia Las siguientes patentes, solicitudes y publicaciones de patente son incorporadas como referencia, cada una en su totalidad. Procesamiento de Dinámica de Audio Audio Engineer's Reference Book, editado por Michael
Talbot-Smith, 2a edición. Limiters and Compressors, Alan
Tutton, 2-1492-165. Focal Press, Reed Educational and
Professional Publishing, Ltd., 1999. Detección y Utilización de Eventos Auditivos La Patente de los Estados Unidos S.N. 10/474,387,
"High Quality Time-Scaling and Pitch-Scaling of Audio
Signáis" de Brett Graham Crockett et al, publicada el 24 de
Junio del 2004 como US 2004/0122662 Al. La Patente de los Estados Unidos S.N. 101478,398,
"Method for Time Aligning Audio Signáis Using
Characterizations Based on Auditory Events" de Brett G.
Crockett et al. publicada el 29 de Julio del 2004 como US
2004/0148159 Al. La Patente de los Estados Unidos S.N. 10/478,538,
"Segmenting Audio Signáis Into Auditory Events" de Brett G. Crockett, publicada el 26 de Agosto del 2004 como US 2004/0165730 Al. Los aspectos de la presente invención proporcionan una forma para detectar eventos auditivos además de aquellos descritos en la solicitud de Crockett.
La Patente de los Estados Unidos S.N. 10/478.397, "Comparing Audio Using Characterizations Based on Auditory Events" de Brett G. Crockett et al, publicada el 02 de Septiembre del 2004 como US 2004/0172240 Al. Solicitud Internacional de acuerdo con el Tratado de
Patentes S.N. PCT/US05/24630 presentada el 13 de Julio del 2005, titulada "Method for Combining Audio Signáis Using Auditory Scene Analysis," de Michael John Smithers, publicada el 09 de Marzo del 2006 como WO 2006/026161. Solicitud Internacional de acuerdo con el Tratado de
Patentes S.N. PCT/US 2004/016964, presentada el 27 de Mayo del 2004, titulada "Method, Apparatus and Computer Program for Calculating and Adjusting the Perceived Loudness of an Audio Signal" de Alan Jeffiey Seefeldt et al., publicada el 23 de Diciembre del 2004 como WO 20041111994 A2. Solicitud Internacional de acuerdo con el Tratado de Patentes S.N. PCT/US2005/038579 , presentada el 25 de Octubre del 2005, titulada "Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal" de Alan Jeffiey Seefeldt y publicada como Número de Publicación Internacional WO 2006/047600. "A Method for Characterizing and Identifying Audio Based on Auditory Scene Analysis," de Brett Crockett y Michael Smithers, Audio Engineering Society Convention Paper 6416.1 18va Convención, Barcelona, 28-31 de Mayo del 2005.
Claims (13)
- REIVINDICACIONES 1. Un método de modificación de un parámetro de un procesador de dinámica de audio, caracterizado porque comprende detectar los cambios en las características espectrales con respecto al tiempo en una señal de audio, identificar como límites de evento auditivo cambios más grandes que un umbral en las características espectrales con respecto al tiempo en la señal de audio, en donde un segmento de audio entre límites consecutivos constituye un evento auditivo, generar una señal de control de modificación de parámetro en base a los límites identificados de evento, y modificar el parámetro del procesador de dinámica de audio como una función de la señal de control.
- 2. El método de conformidad con la reivindicación 1, caracterizado porque el parámetro es uno del tiempo de ataque, el tiempo de liberación y la relación.
- 3. El método de conformidad con la reivindicación 1, caracterizado porque el parámetro modificado es una constante de tiempo de suavizamiento de ganancia
- 4. El método de conformidad con la reivindicación 3, caracterizado porque la constante de tiempo de suavizamiento de ganancia es una constante de tiempo de ataque de suavizamiento de ganancia.
- 5. El método de conformidad con la reivindicación 3, caracterizado porque la constante de tiempo de suavizamiento de ganancia es una constante de tiempo de liberación de suavizamiento de ganancia.
- 6. El método de conformidad con cualquiera de las reivindicaciones 1-5, caracterizado porque la señal de control de modificación de parámetro está basada en la ubicación de los límites identificados de evento auditivo y el grado de cambio en las características espectrales asociadas con cada uno de los límites de evento auditivo.
- 7. El método de conformidad con la reivindicación 6, caracterizado porque la generación de un parámetro de modificación de señal de control comprende proporcionar un impulso en cada uno de los límites de evento auditivo, cada impulso tiene una amplitud proporcional al grado de los cambios en las características espectrales, y suavizar el tiempo de cada impulso, de manera que su amplitud decline en forma suave hacia cero.
- 8. El método de conformidad con cualquiera de las reivindicaciones 1-7, caracterizado porque los cambios en las características espectrales con respecto al tiempo son detectados mediante la comparación de las diferencias en la intensidad acústica específica.
- 9. El método de conformidad con la reivindicación 8, caracterizado porque la señal de audio es representada por una secuencia discreta de tiempo x[n] que ha sido muestreada a partir de una fuente de audio en una frecuencia de muestreo f3 y los cambios en las características espectrales con respecto al tiempo son calculadas mediante la comparación de la diferencia en la intensidad acústica específica N[b, t] a través de las bandas de frecuencia b entre los bloques sucesivos de tiempo t.
- 10. El método de conformidad con la reivindicación 9, caracterizado porque la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio es calculada de acuerdo con en donde
- 11. El método de conformidad con la reivindicación 9, caracterizado porque la diferencia en el contenido espectral entre los bloques sucesivos de tiempo de la señal de audio es calculada de acuerdo con en donde N Tb n NORÍtí ''] avg {"[M} b
- 12. El aparato, caracterizado porque comprende medios adaptados para realizar el método de conformidad con cualquiera de las reivindicaciones 1-11.
- 13. El programa de computadora almacenado en un medio susceptible de ser leído por computadora, caracterizado porque provoca que la computadora realice el método de conformidad con cualquiera de las reivindicaciones 1-11.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79580806P | 2006-04-27 | 2006-04-27 | |
PCT/US2007/008313 WO2007127023A1 (en) | 2006-04-27 | 2007-03-30 | Audio gain control using specific-loudness-based auditory event detection |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2008013753A true MX2008013753A (es) | 2009-03-06 |
Family
ID=38445597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2008013753A MX2008013753A (es) | 2006-04-27 | 2007-03-30 | Control de ganancia de audio que utiliza deteccion de evento auditivo basado en intensidad acustica especifica. |
Country Status (21)
Country | Link |
---|---|
US (26) | US8144881B2 (es) |
EP (1) | EP2011234B1 (es) |
JP (2) | JP5129806B2 (es) |
KR (2) | KR101041665B1 (es) |
CN (2) | CN101432965B (es) |
AT (1) | ATE493794T1 (es) |
AU (2) | AU2007243586B2 (es) |
BR (1) | BRPI0711063B1 (es) |
CA (1) | CA2648237C (es) |
DE (1) | DE602007011594D1 (es) |
DK (1) | DK2011234T3 (es) |
ES (1) | ES2359799T3 (es) |
IL (1) | IL194430A (es) |
MX (1) | MX2008013753A (es) |
MY (1) | MY141426A (es) |
NO (13) | NO345590B1 (es) |
PL (1) | PL2011234T3 (es) |
RU (1) | RU2417514C2 (es) |
TW (1) | TWI455481B (es) |
UA (1) | UA93243C2 (es) |
WO (1) | WO2007127023A1 (es) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315398B2 (en) | 2007-12-21 | 2012-11-20 | Dts Llc | System for adjusting perceived loudness of audio signals |
US8538042B2 (en) | 2009-08-11 | 2013-09-17 | Dts Llc | System for increasing perceived loudness of speakers |
US9312829B2 (en) | 2012-04-12 | 2016-04-12 | Dts Llc | System for adjusting loudness of audio signals in real time |
CN108281148A (zh) * | 2016-12-30 | 2018-07-13 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
US7711123B2 (en) | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
CN101819771B (zh) | 2003-05-28 | 2012-04-11 | 杜比实验室特许公司 | 用于计算和调节音频信号的感觉响度的方法和设备 |
CA2992125C (en) | 2004-03-01 | 2018-09-25 | Dolby Laboratories Licensing Corporation | Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters |
US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
BRPI0518278B1 (pt) | 2004-10-26 | 2018-04-24 | Dolby Laboratories Licensing Corporation | Método e aparelho para controlar uma característica de sonoridade particular de um sinal de áudio |
US8199933B2 (en) | 2004-10-26 | 2012-06-12 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
MX2007015118A (es) | 2005-06-03 | 2008-02-14 | Dolby Lab Licensing Corp | Aparato y metodo para codificacion de senales de audio con instrucciones de decodificacion. |
TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
US8504181B2 (en) | 2006-04-04 | 2013-08-06 | Dolby Laboratories Licensing Corporation | Audio signal loudness measurement and modification in the MDCT domain |
JP5129806B2 (ja) | 2006-04-27 | 2013-01-30 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 特定ラウドネスに基づく聴覚イベント検出を使用する音声ゲイン制御 |
US8849433B2 (en) | 2006-10-20 | 2014-09-30 | Dolby Laboratories Licensing Corporation | Audio dynamics processing using a reset |
US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
US11217237B2 (en) | 2008-04-14 | 2022-01-04 | Staton Techiya, Llc | Method and device for voice operated control |
DE602008004252D1 (de) | 2007-06-08 | 2011-02-10 | Dolby Lab Licensing Corp | Hybridableitung von surround-sound-audiokanälen durch steuerbares kombinieren von umgebungs- und matrixdekodierten signalkomponenten |
CN101790758B (zh) | 2007-07-13 | 2013-01-09 | 杜比实验室特许公司 | 用于控制音频信号的信号处理的设备和方法 |
EP2250643B1 (en) | 2008-03-10 | 2019-05-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device and method for manipulating an audio signal having a transient event |
CN102007535B (zh) * | 2008-04-18 | 2013-01-16 | 杜比实验室特许公司 | 对环绕体验具有最小影响的用于保持多通道音频中的语音可听度的方法和设备 |
US9253560B2 (en) * | 2008-09-16 | 2016-02-02 | Personics Holdings, Llc | Sound library and method |
WO2010033384A1 (en) | 2008-09-19 | 2010-03-25 | Dolby Laboratories Licensing Corporation | Upstream quality enhancement signal processing for resource constrained client devices |
JP5273688B2 (ja) | 2008-09-19 | 2013-08-28 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 小型セル無線ネットワーク内のクライアントデバイスのための上流の信号処理 |
US9129291B2 (en) | 2008-09-22 | 2015-09-08 | Personics Holdings, Llc | Personalized sound management and method |
JP5236006B2 (ja) * | 2008-10-17 | 2013-07-17 | シャープ株式会社 | 音声信号調整装置及び音声信号調整方法 |
BRPI0921297A2 (pt) * | 2008-11-14 | 2016-03-08 | That Corp | controle de volume dinâmico e proteção de processamento multiespacial |
CN102265513B (zh) | 2008-12-24 | 2014-12-31 | 杜比实验室特许公司 | 频域中的音频信号响度确定和修改 |
WO2010099237A2 (en) * | 2009-02-25 | 2010-09-02 | Conexant Systems, Inc. | Speaker distortion reduction system and method |
US8422699B2 (en) * | 2009-04-17 | 2013-04-16 | Linear Acoustic, Inc. | Loudness consistency at program boundaries |
WO2010127024A1 (en) | 2009-04-30 | 2010-11-04 | Dolby Laboratories Licensing Corporation | Controlling the loudness of an audio signal in response to spectral localization |
WO2010126709A1 (en) | 2009-04-30 | 2010-11-04 | Dolby Laboratories Licensing Corporation | Low complexity auditory event boundary detection |
TWI503816B (zh) | 2009-05-06 | 2015-10-11 | Dolby Lab Licensing Corp | 調整音訊信號響度並使其具有感知頻譜平衡保持效果之技術 |
US9055374B2 (en) * | 2009-06-24 | 2015-06-09 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Method and system for determining an auditory pattern of an audio segment |
US8249275B1 (en) * | 2009-06-26 | 2012-08-21 | Cirrus Logic, Inc. | Modulated gain audio control and zipper noise suppression techniques using modulated gain |
US8554348B2 (en) * | 2009-07-20 | 2013-10-08 | Apple Inc. | Transient detection using a digital audio workstation |
CN102498514B (zh) * | 2009-08-04 | 2014-06-18 | 诺基亚公司 | 用于音频信号分类的方法和装置 |
US20120278087A1 (en) * | 2009-10-07 | 2012-11-01 | Nec Corporation | Multiband compressor and method of adjusting the same |
EP2367286B1 (en) | 2010-03-12 | 2013-02-20 | Harman Becker Automotive Systems GmbH | Automatic correction of loudness level in audio signals |
CN105847830B (zh) | 2010-11-23 | 2019-07-12 | Lg电子株式会社 | 由编码装置和解码装置执行的间预测方法 |
US8855322B2 (en) * | 2011-01-12 | 2014-10-07 | Qualcomm Incorporated | Loudness maximization with constrained loudspeaker excursion |
JP5707219B2 (ja) * | 2011-05-13 | 2015-04-22 | 富士通テン株式会社 | 音響制御装置 |
WO2012161717A1 (en) * | 2011-05-26 | 2012-11-29 | Advanced Bionics Ag | Systems and methods for improving representation by an auditory prosthesis system of audio signals having intermediate sound levels |
DE102011085036A1 (de) * | 2011-10-21 | 2013-04-25 | Siemens Medical Instruments Pte. Ltd. | Verfahren zum Ermitteln einer Kompressionskennlinie |
TWI575962B (zh) * | 2012-02-24 | 2017-03-21 | 杜比國際公司 | 部份複數處理之重疊濾波器組中的低延遲實數至複數轉換 |
JP5827442B2 (ja) * | 2012-04-12 | 2015-12-02 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号におけるラウドネス変化をレベリングするシステム及び方法 |
JP5527827B2 (ja) * | 2012-04-17 | 2014-06-25 | Necエンジニアリング株式会社 | ラウドネス調整装置、ラウドネス調整方法、及びプログラム |
US9685921B2 (en) | 2012-07-12 | 2017-06-20 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
US20140025230A1 (en) | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
US20140025233A1 (en) | 2012-07-17 | 2014-01-23 | Elwha Llc | Unmanned device utilization methods and systems |
US9991861B2 (en) * | 2012-08-10 | 2018-06-05 | Bellevue Investments Gmbh & Co. Kgaa | System and method for controlled dynamics adaptation for musical content |
US9349384B2 (en) | 2012-09-19 | 2016-05-24 | Dolby Laboratories Licensing Corporation | Method and system for object-dependent adjustment of levels of audio objects |
EP2946469B1 (en) | 2013-01-21 | 2017-03-15 | Dolby Laboratories Licensing Corporation | System and method for optimizing loudness and dynamic range across different playback devices |
WO2014151813A1 (en) | 2013-03-15 | 2014-09-25 | Dolby Laboratories Licensing Corporation | Normalization of soundfield orientations based on auditory scene analysis |
CN104079247B (zh) | 2013-03-26 | 2018-02-09 | 杜比实验室特许公司 | 均衡器控制器和控制方法以及音频再现设备 |
CN107093991B (zh) | 2013-03-26 | 2020-10-09 | 杜比实验室特许公司 | 基于目标响度的响度归一化方法和设备 |
CN104078050A (zh) * | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
JP6216553B2 (ja) * | 2013-06-27 | 2017-10-18 | クラリオン株式会社 | 伝搬遅延補正装置及び伝搬遅延補正方法 |
US10095468B2 (en) | 2013-09-12 | 2018-10-09 | Dolby Laboratories Licensing Corporation | Dynamic range control for a wide variety of playback environments |
CN110675884B (zh) * | 2013-09-12 | 2023-08-08 | 杜比实验室特许公司 | 用于下混合音频内容的响度调整 |
US9608588B2 (en) * | 2014-01-22 | 2017-03-28 | Apple Inc. | Dynamic range control with large look-ahead |
US10063207B2 (en) * | 2014-02-27 | 2018-08-28 | Dts, Inc. | Object-based audio loudness management |
WO2015130509A1 (en) | 2014-02-28 | 2015-09-03 | Dolby Laboratories Licensing Corporation | Perceptual continuity using change blindness in conferencing |
CN105142067B (zh) | 2014-05-26 | 2020-01-07 | 杜比实验室特许公司 | 音频信号响度控制 |
US10013992B2 (en) | 2014-07-11 | 2018-07-03 | Arizona Board Of Regents On Behalf Of Arizona State University | Fast computation of excitation pattern, auditory pattern and loudness |
WO2016011288A1 (en) | 2014-07-16 | 2016-01-21 | Eariq, Inc. | System and method for calibration and reproduction of audio signals based on auditory feedback |
CN113257274B (zh) | 2014-10-01 | 2024-09-13 | 杜比国际公司 | 高效drc配置文件传输 |
CN119252269A (zh) | 2014-10-10 | 2025-01-03 | 杜比实验室特许公司 | 基于发送无关的表示的节目响度 |
JP6228100B2 (ja) * | 2014-11-17 | 2017-11-08 | Necプラットフォームズ株式会社 | ラウドネス調整装置、ラウドネス調整方法及びラウドネス調整用プログラム |
US9875756B2 (en) * | 2014-12-16 | 2018-01-23 | Psyx Research, Inc. | System and method for artifact masking |
US10623854B2 (en) * | 2015-03-25 | 2020-04-14 | Dolby Laboratories Licensing Corporation | Sub-band mixing of multiple microphones |
EP3286757B1 (en) * | 2015-04-24 | 2019-10-23 | Cyber Resonance Corporation | Methods and systems for performing signal analysis to identify content types |
US10109288B2 (en) * | 2015-05-27 | 2018-10-23 | Apple Inc. | Dynamic range and peak control in audio using nonlinear filters |
GB2581032B (en) | 2015-06-22 | 2020-11-04 | Time Machine Capital Ltd | System and method for onset detection in a digital signal |
US9837086B2 (en) | 2015-07-31 | 2017-12-05 | Apple Inc. | Encoded audio extended metadata-based dynamic range control |
CA3050698C (en) | 2015-08-28 | 2021-09-14 | Juan Esteban Velasquez | Catalysts for the dehydration of hydroxypropionic acid and its derivatives |
US9590580B1 (en) | 2015-09-13 | 2017-03-07 | Guoguang Electric Company Limited | Loudness-based audio-signal compensation |
US10341770B2 (en) * | 2015-09-30 | 2019-07-02 | Apple Inc. | Encoded audio metadata-based loudness equalization and dynamic equalization during DRC |
CN105404654A (zh) * | 2015-10-30 | 2016-03-16 | 魅族科技(中国)有限公司 | 一种音频文件播放方法及装置 |
US10306392B2 (en) | 2015-11-03 | 2019-05-28 | Dolby Laboratories Licensing Corporation | Content-adaptive surround sound virtualization |
US9756281B2 (en) | 2016-02-05 | 2017-09-05 | Gopro, Inc. | Apparatus and method for audio based video synchronization |
US10923132B2 (en) | 2016-02-19 | 2021-02-16 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
WO2017142916A1 (en) * | 2016-02-19 | 2017-08-24 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
CN105845151B (zh) * | 2016-05-30 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 应用于语音识别前端的音频增益调整方法和装置 |
US10657983B2 (en) * | 2016-06-15 | 2020-05-19 | Intel Corporation | Automatic gain control for speech recognition |
US9697849B1 (en) | 2016-07-25 | 2017-07-04 | Gopro, Inc. | Systems and methods for audio based synchronization using energy vectors |
US9640159B1 (en) * | 2016-08-25 | 2017-05-02 | Gopro, Inc. | Systems and methods for audio based synchronization using sound harmonics |
US9653095B1 (en) | 2016-08-30 | 2017-05-16 | Gopro, Inc. | Systems and methods for determining a repeatogram in a music composition using audio features |
GB201615538D0 (en) * | 2016-09-13 | 2016-10-26 | Nokia Technologies Oy | A method , apparatus and computer program for processing audio signals |
US9916822B1 (en) | 2016-10-07 | 2018-03-13 | Gopro, Inc. | Systems and methods for audio remixing using repeated segments |
TWI590239B (zh) * | 2016-12-09 | 2017-07-01 | 宏碁股份有限公司 | 語音信號處理裝置及語音信號處理方法 |
US10374564B2 (en) | 2017-04-20 | 2019-08-06 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
US10491179B2 (en) | 2017-09-25 | 2019-11-26 | Nuvoton Technology Corporation | Asymmetric multi-channel audio dynamic range processing |
US11450339B2 (en) * | 2017-10-06 | 2022-09-20 | Sony Europe B.V. | Audio file envelope based on RMS power in sequences of sub-windows |
US11011180B2 (en) | 2018-06-29 | 2021-05-18 | Guoguang Electric Company Limited | Audio signal dynamic range compression |
CN112470219B (zh) | 2018-07-25 | 2024-08-02 | 杜比实验室特许公司 | 压缩机目标曲线以避免增强噪声 |
KR102816912B1 (ko) * | 2018-09-07 | 2025-06-05 | 그레이스노트, 인코포레이티드 | 오디오 분류를 통한 동적 볼륨 조절을 위한 방법 및 장치 |
US11775250B2 (en) | 2018-09-07 | 2023-10-03 | Gracenote, Inc. | Methods and apparatus for dynamic volume adjustment via audio classification |
JP7031543B2 (ja) * | 2018-09-21 | 2022-03-08 | 株式会社Jvcケンウッド | 処理装置、処理方法、再生方法、及びプログラム |
JP7019099B2 (ja) | 2018-09-28 | 2022-02-14 | ドルビー ラボラトリーズ ライセンシング コーポレイション | シーン切り換え解析器にガイドされる歪み可聴性モデルに基づく動的閾値を有する歪み低減マルチバンド・コンプレッサー |
US11223340B2 (en) | 2018-10-24 | 2022-01-11 | Gracenote, Inc. | Methods and apparatus to adjust audio playback settings |
US11347470B2 (en) | 2018-11-16 | 2022-05-31 | Roku, Inc. | Detection of media playback loudness level and corresponding adjustment to audio during media replacement event |
CN109889170B (zh) * | 2019-02-25 | 2021-06-04 | 珠海格力电器股份有限公司 | 音频信号的控制方法和装置 |
JP7275711B2 (ja) * | 2019-03-20 | 2023-05-18 | ヤマハ株式会社 | オーディオ信号の処理方法 |
US11133787B2 (en) | 2019-06-25 | 2021-09-28 | The Nielsen Company (Us), Llc | Methods and apparatus to determine automated gain control parameters for an automated gain control protocol |
US11019301B2 (en) | 2019-06-25 | 2021-05-25 | The Nielsen Company (Us), Llc | Methods and apparatus to perform an automated gain control protocol with an amplifier based on historical data corresponding to contextual data |
WO2021183916A1 (en) * | 2020-03-13 | 2021-09-16 | Immersion Networks, Inc. | Loudness equalization system |
US12217494B2 (en) | 2020-04-10 | 2025-02-04 | Gracenote, Inc. | Keyframe extractor |
EP3961624B1 (de) * | 2020-08-28 | 2024-09-25 | Sivantos Pte. Ltd. | Verfahren zum betrieb einer hörvorrichtung in abhängigkeit eines sprachsignals |
US12198711B2 (en) * | 2020-11-23 | 2025-01-14 | Cyber Resonance Corporation | Methods and systems for processing recorded audio content to enhance speech |
Family Cites Families (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2808475A (en) | 1954-10-05 | 1957-10-01 | Bell Telephone Labor Inc | Loudness indicator |
DE1736966U (de) | 1956-09-28 | 1956-12-27 | Heinz Schulze | Luftschraube fuer spiel- und modell-flugzeuge. |
SU720691A1 (ru) * | 1978-04-27 | 1980-03-05 | Предприятие П/Я Р-6609 | Устройство дл автоматического регулировани усилени |
US4281218A (en) | 1979-10-26 | 1981-07-28 | Bell Telephone Laboratories, Incorporated | Speech-nonspeech detector-classifier |
US4624009A (en) | 1980-05-02 | 1986-11-18 | Figgie International, Inc. | Signal pattern encoder and classifier |
DE3314570A1 (de) | 1983-04-22 | 1984-10-25 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und anordnung zur einstellung der verstaerkung |
US4739514A (en) | 1986-12-22 | 1988-04-19 | Bose Corporation | Automatic dynamic equalizing |
US4887299A (en) | 1987-11-12 | 1989-12-12 | Nicolet Instrument Corporation | Adaptive, programmable signal processing hearing aid |
US4882762A (en) * | 1988-02-23 | 1989-11-21 | Resound Corporation | Multi-band programmable compression system |
KR940003351B1 (ko) * | 1988-03-31 | 1994-04-20 | 주식회사 금성사 | 조도에 따른 자동이득 제어증폭기 이득 제어회로 |
US4953112A (en) * | 1988-05-10 | 1990-08-28 | Minnesota Mining And Manufacturing Company | Method and apparatus for determining acoustic parameters of an auditory prosthesis using software model |
US5027410A (en) | 1988-11-10 | 1991-06-25 | Wisconsin Alumni Research Foundation | Adaptive, programmable signal processing and filtering for hearing aids |
JPH02118322U (es) | 1989-03-08 | 1990-09-21 | ||
US5097510A (en) | 1989-11-07 | 1992-03-17 | Gs Systems, Inc. | Artificial intelligence pattern-recognition-based noise reduction system for speech processing |
US5369711A (en) | 1990-08-31 | 1994-11-29 | Bellsouth Corporation | Automatic gain control for a headset |
CA2077662C (en) | 1991-01-08 | 2001-04-17 | Mark Franklin Davis | Encoder/decoder for multidimensional sound fields |
US5632005A (en) | 1991-01-08 | 1997-05-20 | Ray Milton Dolby | Encoder/decoder for multidimensional sound fields |
DE69214882T2 (de) | 1991-06-06 | 1997-03-20 | Matsushita Electric Ind Co Ltd | Gerät zur Unterscheidung von Musik und Sprache |
US5278912A (en) | 1991-06-28 | 1994-01-11 | Resound Corporation | Multiband programmable compression system |
US5175769A (en) | 1991-07-23 | 1992-12-29 | Rolm Systems | Method for time-scale modification of signals |
KR940003351Y1 (ko) | 1991-10-17 | 1994-05-23 | 삼성전관 주식회사 | 편광판 부착장치 |
US5363147A (en) | 1992-06-01 | 1994-11-08 | North American Philips Corporation | Automatic volume leveler |
KR940003351A (ko) | 1992-07-15 | 1994-02-21 | 강진구 | 온 스크린 그래픽 표시 제어 장치 및 방법 |
GB2272615A (en) * | 1992-11-17 | 1994-05-18 | Rudolf Bisping | Controlling signal-to-noise ratio in noisy recordings |
DE4335739A1 (de) | 1992-11-17 | 1994-05-19 | Rudolf Prof Dr Bisping | Verfahren zur Steuerung des Signal-/Rausch-Abstandes bei rauschbehafteten Tonaufnahmen |
US5457769A (en) | 1993-03-30 | 1995-10-10 | Earmark, Inc. | Method and apparatus for detecting the presence of human voice signals in audio signals |
US5706352A (en) | 1993-04-07 | 1998-01-06 | K/S Himpp | Adaptive gain and filtering circuit for a sound reproduction system |
US5434922A (en) | 1993-04-08 | 1995-07-18 | Miller; Thomas E. | Method and apparatus for dynamic sound optimization |
BE1007355A3 (nl) | 1993-07-26 | 1995-05-23 | Philips Electronics Nv | Spraaksignaaldiscriminatieschakeling alsmede een audio-inrichting voorzien van een dergelijke schakeling. |
IN184794B (es) | 1993-09-14 | 2000-09-30 | British Telecomm | |
JP2986345B2 (ja) | 1993-10-18 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声記録指標化装置及び方法 |
TW247390B (en) | 1994-04-29 | 1995-05-11 | Audio Products Int Corp | Apparatus and method for adjusting levels between channels of a sound system |
US5463695A (en) * | 1994-06-20 | 1995-10-31 | Aphex Systems, Ltd. | Peak accelerated compressor |
US5500902A (en) | 1994-07-08 | 1996-03-19 | Stockham, Jr.; Thomas G. | Hearing aid device incorporating signal processing techniques |
GB9419388D0 (en) | 1994-09-26 | 1994-11-09 | Canon Kk | Speech analysis |
US5548538A (en) | 1994-12-07 | 1996-08-20 | Wiltron Company | Internal automatic calibrator for vector network analyzers |
US5682463A (en) | 1995-02-06 | 1997-10-28 | Lucent Technologies Inc. | Perceptual audio compression based on loudness uncertainty |
CA2167748A1 (en) | 1995-02-09 | 1996-08-10 | Yoav Freund | Apparatus and methods for machine learning hypotheses |
DK0661905T3 (da) | 1995-03-13 | 2003-04-07 | Phonak Ag | Fremgangsmåde til tilpasnning af et høreapparat, anordning hertil og høreapparat |
US5727119A (en) | 1995-03-27 | 1998-03-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase |
US6041295A (en) | 1995-04-10 | 2000-03-21 | Corporate Computer Systems | Comparing CODEC input/output to adjust psycho-acoustic parameters |
US6301555B2 (en) | 1995-04-10 | 2001-10-09 | Corporate Computer Systems | Adjustable psycho-acoustic parameters |
US5601617A (en) | 1995-04-26 | 1997-02-11 | Advanced Bionics Corporation | Multichannel cochlear prosthesis with flexible control of stimulus waveforms |
JPH08328599A (ja) | 1995-06-01 | 1996-12-13 | Mitsubishi Electric Corp | Mpegオーディオ復号器 |
US5663727A (en) | 1995-06-23 | 1997-09-02 | Hearing Innovations Incorporated | Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same |
US5712954A (en) | 1995-08-23 | 1998-01-27 | Rockwell International Corp. | System and method for monitoring audio power level of agent speech in a telephonic switch |
US6002776A (en) | 1995-09-18 | 1999-12-14 | Interval Research Corporation | Directional acoustic signal processor and method therefor |
US5907622A (en) | 1995-09-21 | 1999-05-25 | Dougherty; A. Michael | Automatic noise compensation system for audio reproduction equipment |
WO1997027578A1 (en) * | 1996-01-26 | 1997-07-31 | Motorola Inc. | Very low bit rate time domain speech analyzer for voice messaging |
US6108431A (en) | 1996-05-01 | 2000-08-22 | Phonak Ag | Loudness limiter |
US6327366B1 (en) | 1996-05-01 | 2001-12-04 | Phonak Ag | Method for the adjustment of a hearing device, apparatus to do it and a hearing device |
US6430533B1 (en) | 1996-05-03 | 2002-08-06 | Lsi Logic Corporation | Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation |
JPH09312540A (ja) | 1996-05-23 | 1997-12-02 | Pioneer Electron Corp | ラウドネスボリュームコントロール装置 |
JP3765622B2 (ja) | 1996-07-09 | 2006-04-12 | ユナイテッド・モジュール・コーポレーション | オーディオ符号化復号化システム |
EP0820212B1 (de) | 1996-07-19 | 2010-04-21 | Bernafon AG | Lautheitsgesteuerte Verarbeitung akustischer Signale |
JPH1074097A (ja) | 1996-07-26 | 1998-03-17 | Ind Technol Res Inst | オーディオ信号のパラメータを変更する方法及び装置 |
JP2953397B2 (ja) | 1996-09-13 | 1999-09-27 | 日本電気株式会社 | ディジタル補聴器の聴覚補償処理方法及びディジタル補聴器 |
US6049766A (en) | 1996-11-07 | 2000-04-11 | Creative Technology Ltd. | Time-domain time/pitch scaling of speech or audio signals with transient handling |
JP2991982B2 (ja) | 1996-11-29 | 1999-12-20 | 日本イーライリリー株式会社 | 注射練習器具 |
US6570991B1 (en) | 1996-12-18 | 2003-05-27 | Interval Research Corporation | Multi-feature speech/music discrimination system |
US5862228A (en) | 1997-02-21 | 1999-01-19 | Dolby Laboratories Licensing Corporation | Audio matrix encoding |
US6125343A (en) | 1997-05-29 | 2000-09-26 | 3Com Corporation | System and method for selecting a loudest speaker by comparing average frame gains |
US6272360B1 (en) | 1997-07-03 | 2001-08-07 | Pan Communications, Inc. | Remotely installed transmitter and a hands-free two-way voice terminal device using same |
US6185309B1 (en) * | 1997-07-11 | 2001-02-06 | The Regents Of The University Of California | Method and apparatus for blind separation of mixed and convolved sources |
KR100261904B1 (ko) | 1997-08-29 | 2000-07-15 | 윤종용 | 헤드폰 사운드 출력장치 |
US6088461A (en) | 1997-09-26 | 2000-07-11 | Crystal Semiconductor Corporation | Dynamic volume control system |
US6330672B1 (en) | 1997-12-03 | 2001-12-11 | At&T Corp. | Method and apparatus for watermarking digital bitstreams |
US6233554B1 (en) | 1997-12-12 | 2001-05-15 | Qualcomm Incorporated | Audio CODEC with AGC controlled by a VOCODER |
US6298139B1 (en) | 1997-12-31 | 2001-10-02 | Transcrypt International, Inc. | Apparatus and method for maintaining a constant speech envelope using variable coefficient automatic gain control |
US6182033B1 (en) | 1998-01-09 | 2001-01-30 | At&T Corp. | Modular approach to speech enhancement with an application to speech coding |
US6353671B1 (en) | 1998-02-05 | 2002-03-05 | Bioinstco Corp. | Signal processing circuit and method for increasing speech intelligibility |
US6311155B1 (en) | 2000-02-04 | 2001-10-30 | Hearing Enhancement Company Llc | Use of voice-to-remaining audio (VRA) in consumer applications |
US6498855B1 (en) | 1998-04-17 | 2002-12-24 | International Business Machines Corporation | Method and system for selectively and variably attenuating audio data |
JP2002518912A (ja) | 1998-06-08 | 2002-06-25 | コックレア リミティド | 聴覚装置 |
EP0980064A1 (de) | 1998-06-26 | 2000-02-16 | Ascom AG | Verfahren zur Durchführung einer maschinengestützten Beurteilung der Uebertragungsqualität von Audiosignalen |
GB2340351B (en) | 1998-07-29 | 2004-06-09 | British Broadcasting Corp | Data transmission |
US6351731B1 (en) | 1998-08-21 | 2002-02-26 | Polycom, Inc. | Adaptive filter featuring spectral gain smoothing and variable noise multiplier for noise reduction, and method therefor |
US6823303B1 (en) | 1998-08-24 | 2004-11-23 | Conexant Systems, Inc. | Speech encoder using voice activity detection in coding noise |
US6411927B1 (en) | 1998-09-04 | 2002-06-25 | Matsushita Electric Corporation Of America | Robust preprocessing signal equalization system and method for normalizing to a target environment |
FI113935B (fi) | 1998-09-25 | 2004-06-30 | Nokia Corp | Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä |
US6266644B1 (en) | 1998-09-26 | 2001-07-24 | Liquid Audio, Inc. | Audio encoding apparatus and methods |
DE19848491A1 (de) | 1998-10-21 | 2000-04-27 | Bosch Gmbh Robert | Rundfunkempfänger zum Empfang von Radio-Daten und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals in einem Rundfunkempfänger |
US6314396B1 (en) | 1998-11-06 | 2001-11-06 | International Business Machines Corporation | Automatic gain control in a speech recognition system |
GB9824776D0 (en) | 1998-11-11 | 1999-01-06 | Kemp Michael J | Audio dynamic control effects synthesiser |
EP1172020B1 (en) | 1999-02-05 | 2006-09-06 | Hearworks Pty Ltd. | Adaptive dynamic range optimisation sound processor |
EP1089242B1 (en) | 1999-04-09 | 2006-11-08 | Texas Instruments Incorporated | Supply of digital audio and video products |
WO2000065872A1 (en) | 1999-04-26 | 2000-11-02 | Dspfactory Ltd. | Loudness normalization control for a digital hearing aid |
US6263371B1 (en) | 1999-06-10 | 2001-07-17 | Cacheflow, Inc. | Method and apparatus for seaming of streaming content |
US6442278B1 (en) | 1999-06-15 | 2002-08-27 | Hearing Enhancement Company, Llc | Voice-to-remaining audio (VRA) interactive center channel downmix |
AR024353A1 (es) | 1999-06-15 | 2002-10-02 | He Chunhong | Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente |
US20020172376A1 (en) * | 1999-11-29 | 2002-11-21 | Bizjak Karl M. | Output processing system and method |
FR2802329B1 (fr) | 1999-12-08 | 2003-03-28 | France Telecom | Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames |
US6351733B1 (en) | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
DE10018666A1 (de) | 2000-04-14 | 2001-10-18 | Harman Audio Electronic Sys | Vorrichtung und Verfahren zum geräuschabhängigen Anpassen eines akustischen Nutzsignals |
US6651040B1 (en) | 2000-05-31 | 2003-11-18 | International Business Machines Corporation | Method for dynamic adjustment of audio input gain in a speech system |
US6889186B1 (en) | 2000-06-01 | 2005-05-03 | Avaya Technology Corp. | Method and apparatus for improving the intelligibility of digitally compressed speech |
CA2418722C (en) | 2000-08-16 | 2012-02-07 | Dolby Laboratories Licensing Corporation | Modulating one or more parameters of an audio or video perceptual coding system in response to supplemental information |
AUPQ952700A0 (en) | 2000-08-21 | 2000-09-14 | University Of Melbourne, The | Sound-processing strategy for cochlear implants |
JP3448586B2 (ja) | 2000-08-29 | 2003-09-22 | 独立行政法人産業技術総合研究所 | 聴覚障害を考慮した音の測定方法およびシステム |
US20040013272A1 (en) * | 2001-09-07 | 2004-01-22 | Reams Robert W | System and method for processing audio data |
US6625433B1 (en) | 2000-09-29 | 2003-09-23 | Agere Systems Inc. | Constant compression automatic gain control circuit |
US6947888B1 (en) * | 2000-10-17 | 2005-09-20 | Qualcomm Incorporated | Method and apparatus for high performance low bit-rate coding of unvoiced speech |
US6807525B1 (en) | 2000-10-31 | 2004-10-19 | Telogy Networks, Inc. | SID frame detection with human auditory perception compensation |
DK1206104T3 (da) | 2000-11-09 | 2006-10-30 | Koninkl Kpn Nv | Måling af en samtalekvalitet af en telefonforbindelse i et telekommunikationsnetværk |
US7457422B2 (en) | 2000-11-29 | 2008-11-25 | Ford Global Technologies, Llc | Method and implementation for detecting and characterizing audible transients in noise |
US7180939B2 (en) | 2001-01-10 | 2007-02-20 | The Trustees Of Columbia University In The City Of New York | Active filter circuit with dynamically modifiable internal gain |
FR2820573B1 (fr) | 2001-02-02 | 2003-03-28 | France Telecom | Methode et dispositif de traitement d'une pluralite de flux binaires audio |
WO2004019656A2 (en) | 2001-02-07 | 2004-03-04 | Dolby Laboratories Licensing Corporation | Audio channel spatial translation |
EP1233509A1 (en) * | 2001-02-14 | 2002-08-21 | Thomson Licensing S.A. | Digital audio processor |
DE10107385A1 (de) | 2001-02-16 | 2002-09-05 | Harman Audio Electronic Sys | Vorrichtung zum geräuschabhängigen Einstellen der Lautstärken |
US6915264B2 (en) | 2001-02-22 | 2005-07-05 | Lucent Technologies Inc. | Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding |
DE50102419D1 (de) | 2001-04-10 | 2004-07-01 | Phonak Ag | Verfahren zur anpassung eines hörgerätes an ein individuum |
US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
WO2002084645A2 (en) * | 2001-04-13 | 2002-10-24 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
US7283954B2 (en) | 2001-04-13 | 2007-10-16 | Dolby Laboratories Licensing Corporation | Comparing audio using characterizations based on auditory events |
US7711123B2 (en) * | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
US7461002B2 (en) | 2001-04-13 | 2008-12-02 | Dolby Laboratories Licensing Corporation | Method for time aligning audio signals using characterizations based on auditory events |
EP1251715B2 (en) | 2001-04-18 | 2010-12-01 | Sound Design Technologies Ltd. | Multi-channel hearing instrument with inter-channel communication |
US20020173864A1 (en) * | 2001-05-17 | 2002-11-21 | Crystal Voice Communications, Inc | Automatic volume control for voice over internet |
EP1393298B1 (en) * | 2001-05-25 | 2010-06-09 | Dolby Laboratories Licensing Corporation | Comparing audio using characterizations based on auditory events |
MXPA03010750A (es) * | 2001-05-25 | 2004-07-01 | Dolby Lab Licensing Corp | Metodo para la alineacion temporal de senales de audio usando caracterizaciones basadas en eventos auditivos. |
US7177803B2 (en) | 2001-10-22 | 2007-02-13 | Motorola, Inc. | Method and apparatus for enhancing loudness of an audio signal |
US20040037421A1 (en) | 2001-12-17 | 2004-02-26 | Truman Michael Mead | Parital encryption of assembled bitstreams |
US7068723B2 (en) | 2002-02-28 | 2006-06-27 | Fuji Xerox Co., Ltd. | Method for automatically producing optimal summaries of linear media |
KR100978018B1 (ko) | 2002-04-22 | 2010-08-25 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 공간 오디오의 파라메터적 표현 |
US7155385B2 (en) | 2002-05-16 | 2006-12-26 | Comerica Bank, As Administrative Agent | Automatic gain control for adjusting gain during non-speech portions |
US20030223597A1 (en) | 2002-05-29 | 2003-12-04 | Sunil Puria | Adapative noise compensation for dynamic signal enhancement |
US7447631B2 (en) | 2002-06-17 | 2008-11-04 | Dolby Laboratories Licensing Corporation | Audio coding system using spectral hole filling |
JP4257079B2 (ja) | 2002-07-19 | 2009-04-22 | パイオニア株式会社 | 周波数特性調整装置および周波数特性調整方法 |
DE10236694A1 (de) | 2002-08-09 | 2004-02-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren |
US7454331B2 (en) | 2002-08-30 | 2008-11-18 | Dolby Laboratories Licensing Corporation | Controlling loudness of speech in signals that contain speech and other types of audio material |
US20060069550A1 (en) | 2003-02-06 | 2006-03-30 | Dolby Laboratories Licensing Corporation | Continuous backup audio |
DE10308483A1 (de) | 2003-02-26 | 2004-09-09 | Siemens Audiologische Technik Gmbh | Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät |
US7551745B2 (en) | 2003-04-24 | 2009-06-23 | Dolby Laboratories Licensing Corporation | Volume and compression control in movie theaters |
JP2004356894A (ja) | 2003-05-28 | 2004-12-16 | Mitsubishi Electric Corp | 音質調整装置 |
CN101819771B (zh) | 2003-05-28 | 2012-04-11 | 杜比实验室特许公司 | 用于计算和调节音频信号的感觉响度的方法和设备 |
JP4226395B2 (ja) | 2003-06-16 | 2009-02-18 | アルパイン株式会社 | 音声補正装置 |
US8918316B2 (en) | 2003-07-29 | 2014-12-23 | Alcatel Lucent | Content identification system |
CN101061744B (zh) | 2004-01-13 | 2011-05-18 | 皇家飞利浦电子股份有限公司 | 音频信号的增强 |
CA2992125C (en) | 2004-03-01 | 2018-09-25 | Dolby Laboratories Licensing Corporation | Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters |
GB2413906A (en) | 2004-04-21 | 2005-11-09 | Imagination Tech Ltd | Radio volume control system |
US7574010B2 (en) | 2004-05-28 | 2009-08-11 | Research In Motion Limited | System and method for adjusting an audio signal |
DE602004013425T2 (de) | 2004-05-28 | 2009-06-04 | Research In Motion Ltd., Waterloo | System und Verfahren zur Einstellung eines Audiosignals |
JP4168976B2 (ja) | 2004-05-28 | 2008-10-22 | ソニー株式会社 | オーディオ信号符号化装置及び方法 |
WO2006003536A1 (en) * | 2004-06-30 | 2006-01-12 | Koninklijke Philips Electronics N.V. | Method of and system for automatically adjusting the loudness of an audio signal |
US7617109B2 (en) | 2004-07-01 | 2009-11-10 | Dolby Laboratories Licensing Corporation | Method for correcting metadata affecting the playback loudness and dynamic range of audio information |
US7508947B2 (en) * | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
WO2007120453A1 (en) | 2006-04-04 | 2007-10-25 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
BRPI0518278B1 (pt) | 2004-10-26 | 2018-04-24 | Dolby Laboratories Licensing Corporation | Método e aparelho para controlar uma característica de sonoridade particular de um sinal de áudio |
EP1829028A1 (en) | 2004-12-04 | 2007-09-05 | Dynamic Hearing Pty Ltd | Method and apparatus for adaptive sound processing parameters |
US20060126865A1 (en) | 2004-12-13 | 2006-06-15 | Blamey Peter J | Method and apparatus for adaptive sound processing parameters |
US8265295B2 (en) | 2005-03-11 | 2012-09-11 | Rane Corporation | Method and apparatus for identifying feedback in a circuit |
TWI397903B (zh) | 2005-04-13 | 2013-06-01 | Dolby Lab Licensing Corp | 編碼音訊之節約音量測量技術 |
TW200638335A (en) | 2005-04-13 | 2006-11-01 | Dolby Lab Licensing Corp | Audio metadata verification |
TWI396188B (zh) | 2005-08-02 | 2013-05-11 | Dolby Lab Licensing Corp | 依聆聽事件之函數控制空間音訊編碼參數的技術 |
TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
US8504181B2 (en) | 2006-04-04 | 2013-08-06 | Dolby Laboratories Licensing Corporation | Audio signal loudness measurement and modification in the MDCT domain |
JP5129806B2 (ja) * | 2006-04-27 | 2013-01-30 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 特定ラウドネスに基づく聴覚イベント検出を使用する音声ゲイン制御 |
US8750538B2 (en) | 2006-05-05 | 2014-06-10 | Creative Technology Ltd | Method for enhancing audio signals |
US8849433B2 (en) | 2006-10-20 | 2014-09-30 | Dolby Laboratories Licensing Corporation | Audio dynamics processing using a reset |
US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
CN101573866B (zh) | 2007-01-03 | 2012-07-04 | 杜比实验室特许公司 | 响度补偿音量控制方法和装置 |
US8724634B2 (en) | 2007-03-15 | 2014-05-13 | Interdigital Technology Corporation | Methods and apparatus for reordering data in an evolved high speed packet access system |
US8560320B2 (en) | 2007-03-19 | 2013-10-15 | Dolby Laboratories Licensing Corporation | Speech enhancement employing a perceptual model |
WO2008156774A1 (en) | 2007-06-19 | 2008-12-24 | Dolby Laboratories Licensing Corporation | Loudness measurement with spectral modifications |
US8054948B1 (en) | 2007-06-28 | 2011-11-08 | Sprint Communications Company L.P. | Audio experience for a communications device user |
EP2232700B1 (en) | 2007-12-21 | 2014-08-13 | Dts Llc | System for adjusting perceived loudness of audio signals |
JP4823352B2 (ja) | 2009-12-24 | 2011-11-24 | 株式会社東芝 | 情報処理装置 |
-
2007
- 2007-03-30 JP JP2009507694A patent/JP5129806B2/ja active Active
- 2007-03-30 CN CN2007800147428A patent/CN101432965B/zh not_active Expired - Fee Related
- 2007-03-30 US US12/226,698 patent/US8144881B2/en not_active Expired - Fee Related
- 2007-03-30 UA UAA200813668A patent/UA93243C2/ru unknown
- 2007-03-30 KR KR1020087029070A patent/KR101041665B1/ko not_active Expired - Fee Related
- 2007-03-30 DK DK07754779.2T patent/DK2011234T3/da active
- 2007-03-30 PL PL07754779T patent/PL2011234T3/pl unknown
- 2007-03-30 NO NO20191310A patent/NO345590B1/no unknown
- 2007-03-30 BR BRPI0711063-4A patent/BRPI0711063B1/pt not_active IP Right Cessation
- 2007-03-30 TW TW096111338A patent/TWI455481B/zh not_active IP Right Cessation
- 2007-03-30 DE DE602007011594T patent/DE602007011594D1/de active Active
- 2007-03-30 EP EP07754779A patent/EP2011234B1/en not_active Not-in-force
- 2007-03-30 RU RU2008146747/09A patent/RU2417514C2/ru not_active IP Right Cessation
- 2007-03-30 AU AU2007243586A patent/AU2007243586B2/en not_active Ceased
- 2007-03-30 AT AT07754779T patent/ATE493794T1/de active
- 2007-03-30 KR KR1020117001302A patent/KR101200615B1/ko active Active
- 2007-03-30 MX MX2008013753A patent/MX2008013753A/es active IP Right Grant
- 2007-03-30 CA CA2648237A patent/CA2648237C/en not_active Expired - Fee Related
- 2007-03-30 WO PCT/US2007/008313 patent/WO2007127023A1/en active Application Filing
- 2007-03-30 ES ES07754779T patent/ES2359799T3/es active Active
- 2007-03-30 MY MYPI20084037A patent/MY141426A/en unknown
- 2007-03-30 CN CN201210148962.2A patent/CN102684628B/zh not_active Expired - Fee Related
-
2008
- 2008-09-28 IL IL194430A patent/IL194430A/en active IP Right Grant
- 2008-10-16 NO NO20084336A patent/NO339346B1/no not_active IP Right Cessation
-
2011
- 2011-02-09 JP JP2011025711A patent/JP5255663B2/ja active Active
- 2011-03-24 AU AU2011201348A patent/AU2011201348B2/en not_active Ceased
-
2012
- 2012-02-28 US US13/406,929 patent/US9136810B2/en active Active
- 2012-05-04 US US13/464,102 patent/US8428270B2/en active Active
-
2013
- 2013-03-26 US US13/850,380 patent/US9450551B2/en active Active
-
2016
- 2016-08-12 NO NO20161295A patent/NO342160B1/no not_active IP Right Cessation
- 2016-08-12 NO NO20161296A patent/NO342157B1/no unknown
- 2016-08-17 US US15/238,820 patent/US9685924B2/en not_active Expired - Fee Related
- 2016-09-12 NO NO20161439A patent/NO342164B1/no unknown
-
2017
- 2017-03-02 US US15/447,482 patent/US9742372B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,543 patent/US9787268B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,493 patent/US9762196B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,564 patent/US9866191B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,529 patent/US9774309B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,518 patent/US9780751B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,469 patent/US9768749B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,556 patent/US9787269B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,456 patent/US9698744B1/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,503 patent/US9768750B2/en not_active Expired - Fee Related
- 2017-11-10 US US15/809,413 patent/US10103700B2/en active Active
-
2018
- 2018-02-21 NO NO20180266A patent/NO343877B1/no unknown
- 2018-02-21 NO NO20180272A patent/NO344658B1/no unknown
- 2018-02-21 NO NO20180271A patent/NO344655B1/no unknown
- 2018-09-12 US US16/128,642 patent/US10284159B2/en active Active
-
2019
- 2019-01-07 NO NO20190018A patent/NO344363B1/no unknown
- 2019-01-07 NO NO20190022A patent/NO344013B1/no unknown
- 2019-01-07 NO NO20190002A patent/NO344364B1/no unknown
- 2019-01-08 NO NO20190025A patent/NO344361B1/no unknown
- 2019-01-08 NO NO20190024A patent/NO344362B1/no unknown
- 2019-03-27 US US16/365,947 patent/US10523169B2/en active Active
- 2019-12-29 US US16/729,468 patent/US10833644B2/en active Active
-
2020
- 2020-11-09 US US17/093,178 patent/US11362631B2/en active Active
-
2022
- 2022-06-13 US US17/839,099 patent/US11711060B2/en active Active
-
2023
- 2023-06-01 US US18/327,585 patent/US11962279B2/en active Active
-
2024
- 2024-02-08 US US18/436,667 patent/US12218642B2/en active Active
- 2024-05-23 US US18/672,224 patent/US12301189B2/en active Active
- 2024-05-23 US US18/672,762 patent/US12283931B2/en active Active
- 2024-05-23 US US18/672,726 patent/US12301190B2/en active Active
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315398B2 (en) | 2007-12-21 | 2012-11-20 | Dts Llc | System for adjusting perceived loudness of audio signals |
US9264836B2 (en) | 2007-12-21 | 2016-02-16 | Dts Llc | System for adjusting perceived loudness of audio signals |
US8538042B2 (en) | 2009-08-11 | 2013-09-17 | Dts Llc | System for increasing perceived loudness of speakers |
US9820044B2 (en) | 2009-08-11 | 2017-11-14 | Dts Llc | System for increasing perceived loudness of speakers |
US10299040B2 (en) | 2009-08-11 | 2019-05-21 | Dts, Inc. | System for increasing perceived loudness of speakers |
US9312829B2 (en) | 2012-04-12 | 2016-04-12 | Dts Llc | System for adjusting loudness of audio signals in real time |
US9559656B2 (en) | 2012-04-12 | 2017-01-31 | Dts Llc | System for adjusting loudness of audio signals in real time |
CN108281148A (zh) * | 2016-12-30 | 2018-07-13 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
CN108281148B (zh) * | 2016-12-30 | 2020-12-22 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12301189B2 (en) | Audio control using auditory event detection | |
HK1126902B (en) | Audio gain control using specific-loudness-based auditory event detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |