Información

¿El oído humano se adapta a los niveles de ruido?

¿El oído humano se adapta a los niveles de ruido?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Últimamente he notado que si me voy a dormir, cuando tengo mi radio encendida, está en el volumen más bajo, todavía lo considero un poco ruidoso. Por la mañana, cuando estoy a punto de despertar, escucho los pájaros y las pelotas de tenis que ya están siendo bateadas en la cancha cercana, pero no escucho mi radio. Si espero unos minutos más, empiezo a escuchar la radio, sin cambios en los niveles de sonido en el exterior.

Sé que el ojo humano se adapta a los niveles de luz (apertura, qué células usa), pero ¿hay algo similar para la sensibilidad al sonido? Tenga en cuenta que, en esa ocasión, la radio está funcionando toda la noche, con siempre el mismo nivel de sonido.


En este caso, diría que se ha ajustado su atención, no la capacidad de su oído para percibir el sonido. Nuestros oídos no tienen una configuración de control o un medio para ajustar los niveles de sonido entrantes (aunque estoy seguro de que cuando pasa una ambulancia con una sirena fuerte, todos desearíamos tenerlo).

Lo que está experimentando es una priorización del sonido por parte de su cerebro en relación con otros sonidos.

  • Pones el sonido antes de irte a dormir. Su cerebro acepta ese sonido entrante como un sonido no vital ni amenazante. (Radio, destinada a calmar, se supone que está allí, relega este sonido a inocuo)

  • Llega el amanecer, aparecen nuevos y novedosos sonidos. Para nuestros cerebros, lo nuevo y novedoso podría indicar una amenaza, por lo que su cerebro prioriza ese sonido sobre el sonido conocido y considerado inocuo (su radio) que ha escuchado toda la noche. Los pájaros, las pelotas de tenis en las canchas son lo suficientemente distintivas como para que su cerebro las priorice aunque sepa en su mente consciente que ninguna de las dos es una amenaza real.

  • A medida que se despierta, su cerebro le recuerda que todavía hay otro sonido en su entorno que no es amenazante y, sin embargo, prevalece (su radio), lo que le pide que decida si desea hacer algo con el sonido no amenazante.

Sí, esta es una simplificación excesiva de un proceso muy complejo de priorización sólida, pero la mayoría de la ciencia moderna lo confirma. Como curiosidad, nuestra mente está predispuesta a buscar información que puede ser vital para nosotros, de ahí la razón por la que las conversaciones mantenidas por otras personas que están en el teléfono distraen tanto porque a nuestro cerebro no le gusta escuchar cosas que pueden ser necesarias para nuestra supervivencia, pero solo escuchar la mitad de la conversación.

EDITAR:

Como me recordaron, hay algunos elementos de control involuntarios integrados en el oído a través de:

  • los músculo tensor del tímpano cuya función es amortiguar los sonidos (principalmente los internos como la masticación)

  • y el músculo estapedio que amortigua la capacidad de vibración del estribo y protege el oído interno de altos niveles de ruido, principalmente el volumen de su propia voz.

Puedes agradecer al músculo estapedio por hacer que tu voz te suene tan extraña cuando la escuchas en una grabación. ¡Nunca ha escuchado realmente su voz hasta que escuche una grabación externa y la reproduzca!


Este es un experimento interesante en el área de la percepción del audio (sonido). El sistema auditivo humano es sensible a una amplia gama de sonidos, tanto en términos de frecuencia (tono) como de intensidad (volumen). Por lo general, una persona joven puede escuchar frecuencias que oscilan entre 20 y 20.000 Hz (Hz es la abreviatura de Hertz, el nombre de las unidades de ciclos / seg). Los seres humanos también pueden detectar sonidos con intensidades de más de 13 órdenes de magnitud (potencias de diez). En otras palabras, el sonido más fuerte que puede percibir un ser humano es 10,000,000,000,000 veces más fuerte que el sonido más suave que puede percibirse.

Cuando se comparan intensidades de sonido en un rango tan amplio, es inconveniente seguir arrastrando todos esos ceros, por lo que las unidades de decibelios (dB) se usan comúnmente en su lugar. Un decibel se define como 10 x log (IIárbitro ), dónde I y Iárbitro son las dos intensidades que se comparan.

Así que si I es 10 veces más fuerte que Iárbitro , que corresponde a un aumento de:
10 x log (10 ⁄ 1) dB = 10 x 1 dB = 10 dB.

Si I es 100 veces más fuerte que Iárbitro , que corresponde a un aumento de:
10 x log (100 ⁄ 1) dB = 10 x 2 dB = 20 dB.

Si I es 1000 veces más fuerte que Iárbitro , que corresponde a un aumento de:
10 x log (1000 ⁄ 1) dB = 10 x 3 dB = 30 dB. Etcétera.

Por cada poder de diez que cambia de intensidad, hay un década cambio (& plusmn10) en términos de dB.

Nuestra capacidad para detectar cambios en la intensidad (la "diferencia apenas perceptible" en el volumen) es proporcional a la intensidad original del sonido. Si está en una habitación muy silenciosa, puede escuchar un susurro. También se podía escuchar a otra persona susurrando: el sonido agregado sería significativo en relación con el nivel de sonido existente. Por otro lado, si estás en un juego de baloncesto con mucha gente animando, no podrás escuchar a alguien susurrar dos filas más abajo, porque ahora el sonido agregado es insignificante en relación con el nivel de sonido existente. . En otras palabras, a medida que los sonidos se hacen más fuertes, es necesario que haya un cambio mayor en la intensidad para poder detectarlos.

Entonces, puede ver que los decibelios se usan no solo por razones de conveniencia, sino también porque cuando expresamos los niveles de sonido en decibelios, obtenemos los números que tienen importancia en términos de percepción humana.

Los decibelios definen un relativo medida de la intensidad del sonido. En otras palabras, le dirá cuánto más fuerte o más suave es un sonido que otro. Sin embargo, si elegimos un punto fijo para el nivel de intensidad de referencia, entonces tenemos una medida absoluta de la intensidad del sonido. Un nivel de referencia que se utiliza a menudo en la ciencia auditiva humana es el nivel de presión sonora (SPL), el límite inferior de la audición humana, que se define como 10-12 W / m 2, y se le da un valor de 0 dB (SPL).

Como señalamos anteriormente, los humanos pueden escuchar una amplia gama de intensidades y también, una amplia gama de frecuencias. El sonido más bajo (en tono) que podemos escuchar normalmente es de unos 20 Hz y el sonido más alto de 20.000 Hz. Sin embargo, no somos igualmente sensibles en todas las frecuencias. En promedio, el umbral de audición del sistema auditivo humano varía con la frecuencia, como se muestra en la siguiente figura (ISO R226, 1961):

El umbral promedio de audición humana se muestra en el gráfico, ajustando el volumen, los sonidos que se escuchan con mayor facilidad están entre 500 y 3500 hercios.

Figura A. Este es un ejemplo del túnel de viento que puedes hacer,

La curva muestra la ganancia (amplificación) requerida para los tonos en cada frecuencia para que cada tono se perciba al mismo volumen. Piense en ajustar una perilla de volumen para cada tono, de modo que todos los tonos suenen igual de fuertes. Si las perillas de volumen están calibradas en dB, la lectura de los ajustes de volumen para cada frecuencia produciría esta curva. A partir de la curva, podemos ver que, en promedio, los humanos son más sensibles a los tonos de aproximadamente 3500 Hz, porque estos tonos requieren la menor ganancia.

La curva que se muestra arriba es una promedio respuesta para un gran número de oyentes humanos. En este proyecto, medirá y graficará su propio umbral de audición individual en función de la frecuencia.


Primer mapa de frecuencia de sonido en 3D para el oído interno creado con tecnología avanzada de rayos X

Membrana del oído y nervio auditivo en la cóclea. A las bandas de octava se les han dado diferentes colores. Los seres humanos pueden percibir frecuencias desde 20 Hz (la parte superior de la bobina) hasta 20.000 Hz (la base de la bobina). La imagen también muestra la ventana redonda, la ventana ovalada por donde entra el sonido y el nervio facial. Crédito: Hao Li

Investigadores de la Universidad de Uppsala han creado el primer mapa 3D del nervio auditivo que muestra dónde se capturan las distintas frecuencias de sonido. Usando lo que se conoce como imágenes de rayos X de sincrotrón, pudieron rastrear los hilos nerviosos finos y el órgano auditivo vibrante, la cóclea, y descubrir exactamente cómo se distribuyen las frecuencias del sonido entrante. El estudio se publica en Informes científicos.

& # 8220Esto puede hacer que el tratamiento con implantes de cóclea para personas con problemas de audición sea más efectivo & # 8221, dice Helge Rask-Andersen, profesor de otología experimental en la Universidad de Uppsala.

Las ondas sonoras tienen frecuencias diferentes & # 8211, es decir, la cantidad de vibraciones que hacen cada segundo varía según si se trata de un sonido de tono alto, que causa más vibraciones por segundo, o uno de tono bajo, que da como resultado menos. La frecuencia se mide en hercios (Hz) y el oído humano puede percibir frecuencias de entre 20 y 20.000 Hz.

Cuando las ondas sonoras son capturadas por la cóclea del oído interno, el tejido conectivo fibroso y las células sensoriales separan las distintas frecuencias. Los sonidos de alta frecuencia llegan a las células ciliadas sensibles al sonido en la parte inferior de la cóclea, mientras que los sonidos de baja frecuencia se absorben de la forma correspondiente en las partes superiores de la cóclea.

Los investigadores ahora han estudiado los detalles de este proceso, casi hasta el nivel celular. Para hacerlo, utilizaron rayos X de sincrotrón, una forma avanzada y poderosa de imágenes tomográficas. Dado que la radiación es demasiado fuerte para ser utilizada en seres humanos vivos, en su lugar se investigaron oídos donados de personas fallecidas. Esta investigación ha permitido determinar la ubicación de las distintas frecuencias en el nervio coclear y ha permitido la creación de un mapa de frecuencias tonotópicas tridimensionales.

& # 8220 Este tipo de mapa es comparable a un piano, con las teclas son análogas a todas las frecuencias codificadas de manera similar. A diferencia del piano, que tiene 88 teclas, tenemos alrededor de 3400 células ciliadas auditivas internas, todas las cuales codifican frecuencias distintas. Las células ciliadas están unidas a una membrana basilar de 34 milímetros de largo y también están sintonizadas por 12.000 células ciliadas externas para que podamos escuchar todos los niveles de volumen. Esta información se transmite al cerebro a través de 30 000 fibras sintonizadas con precisión en nuestro nervio auditivo, & # 8221 Helge Rask-Andersen explica.

Los conductos auditivos y los nervios humanos no tienen una apariencia completamente uniforme. Por lo tanto, los investigadores creen que el nuevo conocimiento puede resultar inmensamente importante para las personas que, debido a una discapacidad auditiva grave, se han insertado implantes cocleares (IC). Un IC es un audífono en el que un componente se coloca en la cóclea para proporcionar estimulación eléctrica directa del nervio auditivo, mientras que otra parte se coloca en la parte exterior del cráneo. Mostrar exactamente cómo se ve la cóclea del paciente permite individualizar mejor la tecnología y estimular cada área con la frecuencia correcta.

Referencia: & # 8220 Mapeo tonotópico tridimensional de la cóclea humana basado en imágenes de contraste de fase de radiación sincrotrón & # 8221 por Hao Li, Luke Helpard, Jonas Ekeroot, Seyed Alireza Rohani, Ning Zhu, Helge Rask-Andersen, Hanif M. Ladak y Sumit Agrawal, 24 de febrero de 2021, Informes científicos.
DOI: 10.1038 / s41598-021-83225-w

El estudio es una colaboración entre la Universidad de Uppsala, investigadores canadienses de la Western University y la Universidad de Saskatchewan, y la empresa Canadian Light Source Inc.


Reproductores de música personales y audición de amplificador

3.3.3.Unidades de exposición al ruido

3.3.3.1. Nivel de presión sonora y dB SPL

Un parámetro de la onda acústica (sonora) que se utiliza generalmente para evaluar la exposición al sonido de los seres humanos es el nivel de presión sonora expresado en μPa o Pa. Los niveles de presión sonora audible del oído humano oscilan entre 20 μPa (umbral de audición) y 20 Pa (dolor umbral), resultando en la escala 1: 10,000,000. Dado que el uso de una escala tan grande no es práctico, se introdujo una escala logarítmica en decibelios (dB) que también está de acuerdo con las sensaciones auditivas fisiológicas y psicológicas.

dB de nivel de presión sonora (dB SPL) se define como: 20 log10 p1 / p0 donde p1 es realmente el nivel de presión sonora medido de un sonido dado, y p0 es un valor de referencia de 20μPa, que corresponde al umbral de audición más bajo del oído joven y sano. En la escala logarítmica, el rango de los sonidos audibles del oído humano es de 0 dB SPL (umbral de audición) a 120-140 dB SPL (umbral de dolor) (consulte la tabla 1 a continuación).

Tabla 1: Niveles típicos de presión sonora para sonidos de la vida diaria

3.3.3.2. Nivel de sonoridad y filtro A [dB (A)]

El oído humano no es igualmente sensible a los sonidos (tonos) de los mismos niveles de presión sonora pero de diferentes frecuencias. Esta magnitud subjetiva o percibida de un sonido por un individuo se llama volumen. El volumen de un sonido no es igual a su nivel de presión sonora y difiere para diferentes frecuencias. Para evaluar la sonoridad de un sonido, se exploran las curvas isofónicas. Las curvas isofónicas relacionan la característica de un tono dado expresado en dB SPL con su nivel de sonoridad subjetivo expresado en teléfonos (consulte la figura 1 a continuación). Como se puede ver en la figura siguiente, las frecuencias de 3 a 4 kHz son las más sensibles dentro del rango de frecuencia de sonido de 20 Hz a 20 kHz que puede ser escuchado por el oído humano. Para frecuencias inferiores a 3-4 kHz y frecuencias de sonido más altas, el oído se vuelve menos sensible.


Todos los oídos: bases genéticas de la evolución del oído interno de los mamíferos

Los mamíferos se han adaptado para vivir en las cuevas más oscuras y los océanos más profundos, y desde las montañas más altas hasta las llanuras. En el camino, los mamíferos también han adaptado una capacidad notable en su sentido del oído, desde las llamadas de ecolocalización de alta frecuencia de los murciélagos hasta los cantos de ballenas de baja frecuencia. Incluso nuestros mejores amigos, los animales de compañía, los perros, han desarrollado un rango auditivo dos veces mayor que el de las personas.

Suponiendo que estas adaptaciones tienen una causa genética raíz, un equipo de científicos liderado por Lucia Franchini del Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICET), en Buenos Aires, Argentina, se ha propuesto como objetivo identificar las bases genéticas subyacentes a la evolución. del oído interno en mamíferos. Sus últimos hallazgos subrayaron la promesa de su enfoque, que identificó dos nuevos genes involucrados en la audición. El estudio fue publicado en la edición avanzada en línea de Biología molecular y evolución.

"Este artículo se basa en la premisa de que la evolución de las novedades relacionadas con la audición del oído interno de los mamíferos debe dejar un rastro detectable de la firma molecular adaptativa", dijo Franchini. "Este trabajo destaca la utilidad de los estudios evolutivos para identificar nuevos genes funcionales clave".

Los procesos básicos de audición en diferentes especies de mamíferos son los mismos. El sistema auditivo de los mamíferos se caracteriza por un oído medio compuesto por tres huesecillos (el yunque (yunque), martillo (martillo) y estribo (estribo), que canaliza el sonido al oído interno.

El grupo de Franchini se centró en el oído interno, que convierte los cambios en la intensidad del sonido en señales eléctricas que el cerebro puede procesar. Dentro del oído interno se encuentra la cóclea en forma de caracol que transforma las ondas sonoras en impulsos nerviosos, incluido un órgano auditivo de Corti que posee dos tipos de células ciliadas sensoriales especializadas (HC), células ciliadas internas (IHC) y externas (OHC).

"En la cóclea de los mamíferos, las IHC y las OHC muestran una clara división del trabajo", explica Franchini. "Las IHC reciben y transmiten información sonora comportándose como las verdaderas células sensoriales, mientras que las OHC amplifican la información sonora. Por lo tanto, las IHC, que son los transductores primarios, liberan glutamato para excitar las fibras sensoriales del nervio coclear y las OHC actúan como motores biológicos para amplificar la movimiento del epitelio sensorial ".

En su estudio, utilizaron un enfoque doble, complementando las comparaciones de genes in silico con estudios experimentales de seguimiento, para obtener una comprensión más completa de los circuitos genéticos detrás de las adaptaciones del oído interno de los mamíferos.

"Estas innovaciones funcionales y morfológicas en el oído interno de los mamíferos contribuyen a sus capacidades auditivas únicas", dijo la autora principal, Lucia Franchini. Sin embargo, las bases genéticas que subyacen a la evolución de este hito en mamíferos son poco conocidas. Proponemos que la aparición de innovaciones morfológicas y funcionales en el oído interno de los mamíferos podría haber sido impulsada por la evolución molecular adaptativa ".

En primer lugar, aprovecharon las amplias bases de datos de expresión génica para realizar estudios comparativos in silico o basados ​​en software de 1.300 genes para identificar genes que pueden haber sido seleccionados positivamente para ayudar a los mamíferos a adaptarse a lo largo del tiempo evolutivo. En total, encontraron un 13% o 165 genes del oído interno que pueden haber sido seleccionados para la adaptación.

"Este análisis indicó que tanto las IHC como las OHC pasaron por niveles similares de evolución adaptativa genética, probablemente subyacente a la remodelación morfológica y funcional que experimentaron ambos tipos celulares en el linaje de los mamíferos", dijo Franchini.

"En particular, encontramos que al analizar las categorías funcionales de genes seleccionados positivamente, el término funcional más enriquecido era 'unión a proteínas citoesqueléticas' y 'constituyente estructural del citoesqueleto'. Estos hallazgos indican que los genes OHC que se sometieron a selección positiva podrían haber contribuido a la adquisición de el citoesqueleto altamente especializado presente en estas células que subyace a sus propiedades funcionales distintivas, incluida la electromotilidad somática ".

A continuación, probaron experimentalmente las funciones de los genes auditivos en una serie de estudios con ratones. Entre ellos, se centraron en dos genes del oído interno previamente desconocidos: STRIP2 (de Striatin Interacting Protein 2) y ABLIM2 (Actin Binding LIM domain 2), que se caracterizaron funcionalmente al generar nuevas cepas de ratones mutantes mediante el uso de tecnología CRISPR / Cas9. En cada caso, utilizaron CRISPR para desactivar parte de la función genética normal y ver cómo afectaba el circuito genético auditivo.

"Realizamos estudios funcionales auditivos de los ratones mutantes recién generados Strip2 y Ablim2 mediante dos técnicas complementarias que permiten el diagnóstico diferencial de OHC versus IHC / disfunción neuronal en toda la cóclea", dijo Franchini. "Para evaluar la integridad del sistema auditivo, registramos ABR (Respuestas Auditory Brainstem) que son potenciales evocados por sonido generados por circuitos neuronales en las vías auditivas ascendentes. También evaluamos la función de OHCs a través de pruebas de emisiones otoacústicas de productos de distorsión (DPOAE)".

Descubrieron que Strip2 probablemente juega un papel funcional en la primera sinapsis entre las IHC y las fibras nerviosas. Además, cuando estaban en el epitelio sensorial coclear, encontraron una reducción significativa en las sinapsis del nervio auditivo. Por el contrario, los estudios de mutantes de Ablim2 sugieren que la ausencia de Ablim2 no afecta ni a la amplificación coclear ni a la función del nervio auditivo.

"En resumen, a través de este enfoque evolutivo descubrimos que STRIP2 se sometió a una fuerte selección positiva en el linaje de los mamíferos y juega un papel importante en la fisiología del oído interno", dijo Franchini. Además, nuestros estudios evolutivos y funcionales combinados nos permiten especular que la extensa remodelación evolutiva que experimentó este gen en el linaje de los mamíferos proporcionó un valor adaptativo. Por lo tanto, nuestro estudio es una prueba de concepto de que los enfoques evolutivos combinados con los estudios funcionales podrían ser una herramienta útil para descubrir nuevos actores clave en la función de órganos y tejidos ".


¿Cómo podemos medir correctamente el ruido impulsivo?

El ruido impulsivo generalmente se genera por la liberación rápida de gases comprimidos (impulso) o la colisión de objetos sólidos (impacto) y se define como el cambio instantáneo en la presión del sonido durante un corto período de tiempo. Numerosas investigaciones han demostrado que es más probable que el ruido impulsivo cause pérdida de audición inducida por ruido (NIHL) que el ruido continuo de igual energía. La exposición a impulsos de alta intensidad puede causar trauma acústico y daño mecánico instantáneo al oído interno. La exposición al ruido impulsivo es común entre las fuerzas del orden y el personal militar (por ejemplo, armas de fuego) y en los sectores de la construcción (por ejemplo, pistolas de clavos), fabricación (por ejemplo, forja, estampado) y minería (por ejemplo, atornillado de techos).

En NIOSH, a menudo recibimos preguntas sobre el ruido impulsivo y las técnicas adecuadas para medir los impulsos de alto nivel. Este blog es el primero de una serie que pretendemos publicar sobre medición de ruido impulsivo, caracterización de riesgos y la mejor manera de proteger a los trabajadores contra tales exposiciones. Este blog brinda información básica sobre la medición del ruido impulsivo y orientación basada en estudios de NIOSH y las mejores prácticas actuales.

Los niveles de sonido impulsivo, especialmente los generados por armas de fuego o fuegos artificiales, pueden alcanzar picos de nivel de presión sonora (SPL) de 170-180 dB o más. Muchos instrumentos de medición de sonido no son capaces de capturar con precisión niveles de sonido tan intensos. Los dosímetros de ruido de tipo 2 y los medidores de nivel de sonido tienden a alcanzar un máximo de 140-146 dB SPL. Estas limitaciones se destacan en el artículo. Limitaciones del uso de dosímetros en entornos de ruido impulsivo [Kardous y Willson 2004]. A continuación se muestra una imagen de esa publicación utilizando un dosímetro de ruido tomado en un rango de disparo; la línea verde muestra el recorte de los niveles de presión sonora pico por encima de 146 dB SPL. Si se recortan los niveles máximos, es probable que toda la medición, y métricas como TWA y Dose, se vean comprometidas.

Figura 1: “Recorte” del nivel de presión sonora pico de un dosímetro de ruido de Clase 2 [Kardous y Willson 2004].

Algunos fabricantes ofrecen medidores de nivel de sonido Tipo 1 de alta gama equipados con micrófonos de ¼ de pulgada que pueden medir impulsos de hasta 160+ dB SPL. Pero incluso si se puede capturar con precisión un nivel máximo de presión sonora (sin recorte), el nivel máximo ni siquiera es la métrica principal utilizada para caracterizar el riesgo auditivo del ruido impulsivo.

Los investigadores han identificado varias otras métricas que están más estrechamente asociadas con la caracterización del riesgo de exposición al ruido impulsivo y se han citado como factores importantes para determinar el riesgo de exposición al ruido impulsivo [CHABA 1992], que incluyen:

  • Energía total en forma de onda impulsiva
  • Duración inicial de un impulso, a menudo denominada duración A
  • La reverberación que sigue al impulso inicial, como las duraciones B, C o D
  • El contenido relativo de alta o baja frecuencia en un impulso.
  • El número y el espaciado temporal de los impulsos en una exposición completa.
  • La curtosis de un evento impulsivo (una métrica estadística que es sensible a las características pico y temporales de un ruido)

Otro enfoque adoptado recientemente por el Departamento de Defensa de EE. UU. Es el algoritmo de evaluación de riesgos auditivos para humanos (AHAAH), un modelo electroacústico del oído que asigna "unidades de riesgo auditivo" a una exposición impulsiva [DOD 2015]. Una de las principales cosas que podemos decir en este punto es que los métodos para estimar los criterios de riesgo de daño por exposición a ruido impulsivo es un área activa de investigación en curso.

NIOSH ha estado investigando los efectos del ruido impulsivo durante bastante tiempo. En 2003, convocamos un taller de Mejores Prácticas sobre ruido impulsivo y publicamos los hallazgos de los diversos grupos de trabajo en el Noise Control Engineering Journal bajo el título Talleres de mejores prácticas de NIOSH / NHCA sobre ruido impulsivo [Kardous et al., 2005].

Para abordar la necesidad de realizar mediciones precisas de ruido impulsivo en el lugar de trabajo, los ingenieros de NIOSH desarrollaron y patentaron un sistema de medición de ruido impulsivo autónomo y portátil. El sistema basado en computadora portátil / tableta se puede adquirir comercialmente como un kit autónomo en un solo estuche (que se muestra a continuación).

Figura 2: Kit del sistema de medición de ruido por impulso de NIOSH, que consta de una computadora portátil con el software Impulse de NIOSH, una placa de adquisición de datos USB de National-Instruments (NI-4432) y micrófonos de alta intensidad.

El sistema puede medir impulsos de hasta 186 dB SPL (192 dB SPL usando micrófonos polarizados de muy baja sensibilidad) en tiempo real, puede activarse manual o automáticamente y admite hasta 5 canales de adquisición con una frecuencia de muestreo de 102 kHz (un El sistema puede admitir hasta 16 canales con una frecuencia de muestreo de 204,8 kHz por canal). El sistema tiene la capacidad de almacenar formas de onda y proporcionar análisis y cálculos inmediatos de métricas de ruido de impulso relevantes (nivel de pico, duración B, espectro de frecuencia como FFT y banda de octava, espaciado temporal, número de impulsos, curtosis y Leq). El sistema también calcula varios criterios de riesgo de daños actualmente en uso: LeqA8hr, MIL-STD-1474D / E y AHAAH (como se muestra en la Figura 3). En el informe se describe una descripción detallada del sistema, su configuración y funcionamiento, así como los usos previstos. Pruebas de desarrollo y validación de un medidor de ruido de impulsos.

Figura 3: Una captura de pantalla de la ventana de análisis de datos del sistema de ruido impulsivo de NIOSH. Las pantallas principales pueden mostrar los dominios de tiempo y frecuencia de la forma de onda (es decir, impulsos, banda de 1/3 de octava, transformadas rápidas de Fourier) y en el lado izquierdo se calculan y muestran las diversas métricas de impulso y los criterios de riesgo de daños asociados.

Figura 5: Investigador de NIOSH ejecutando el sistema de medición de ruido impulsivo de NIOSH durante un ejercicio de entrenamiento con fuego real (en el fondo se muestran los micrófonos colocados en trípodes a la altura de los oídos y posiciones boca abajo).

El sistema ha sido implementado por investigadores de NIOSH en varias encuestas recientes y evaluaciones de peligros para la salud para medir la exposición del personal militar y de las fuerzas del orden público al ruido impulsivo de las armas de fuego: Desarrollo y prueba de validación de un medidor de ruido impulsivo y medición de la exposición al ruido impulsivo en interiores y exteriores Campos de tiro durante los ejercicios de entrenamiento táctico Las figuras 4 y 5 muestran fotografías de esas encuestas para darle al lector una idea sobre la implementación de campo.

Figura 4: El sistema de medición de ruido impulsivo de NIOSH se utiliza en un campo de tiro militar. Los micrófonos se colocan en trípodes en todo el rango para calcular la exposición general al ruido impulsivo

Tales estudios y evaluaciones detalladas de impulsos de ruido no son posibles simplemente usando un sonómetro y por eso se necesita un sistema de medición de impulsos de ruido específico. Conocer las características de la forma de onda de impulso es fundamental para comprender el riesgo de cualquier exposición al ruido de impulso de alto nivel. El uso del sistema de ruido impulsivo de NIOSH permite a nuestros investigadores capturar impulsos y calcular métricas de riesgo, en tiempo real, y brindar recomendaciones adecuadas para reducir el riesgo de pérdida auditiva. A medida que la adquisición de datos, el procesamiento de señales digitales y las capacidades de almacenamiento continúan mejorando, es crucial que los instrumentos de medición de sonido destinados a medir el ruido impulsivo:

  • ser rediseñado para capturar impulsos de alto nivel,
  • tener la capacidad de almacenar toda la forma de onda de impulso o evento impulsivo, y
  • incorporar métricas específicas de impulso apropiadas en sus capacidades.

Actualmente estamos finalizando un estudio para desarrollar nuevas pautas para la exposición al ruido impulsivo, que se utilizarán para actualizar nuestro documento de criterios de exposición al ruido ocupacional. Los investigadores de NIOSH en la prevención de la pérdida de audición también han realizado estudios sobre el rendimiento de los dispositivos de protección auditiva en entornos de ruido impulsivo. Pronto se publicará un blog de seguimiento sobre ese tema. Para obtener más información sobre la investigación del ruido impulsivo y la prevención de la pérdida auditiva en general, consulte nuestra página de temas y síganos en Twitter en @NIOSHNoise.

CAPT Chucri (Chuck) A. Kardous, MSEE, PE, es un ingeniero de investigación senior en la División de Investigación y Tecnología Aplicadas de NIOSH.

CAPT William J. Murphy, PhD, es un físico investigador senior en la División de Investigación y Tecnología Aplicadas de NIOSH.

Referencias:

CHABA [1992]. Exposición peligrosa al ruido impulsivo. Washington, DC: Consejo Nacional de Investigación, Comité de Audición, Bioacústica y Biomecánica. http://www.dtic.mil/docs/citations/ADA382167

Kardous CA, Willson RD [2004] Limitaciones del uso de dosímetros en entornos de ruido impulsivo. J Occup Environment Higiene 1(7): 456-462. DOI: 10.1080 / 15459620490465839

Kardous CA, Franks JR, Davis RR [2005]. Talleres de mejores prácticas de NIOSH / NHCA sobre ruido impulsivo. Control de ruido Eng J 53(2): 53-60. DOI: 10.3397 / 1.2839245


¿Dónde puedo encontrar información adicional sobre el tinnitus?

El NIDCD mantiene un directorio de organizaciones que brindan información sobre los procesos normales y desordenados de la audición, el equilibrio, el gusto, el olfato, la voz, el habla y el lenguaje.

Utilice las siguientes palabras clave para encontrar organizaciones que puedan responder preguntas y brindar información sobre el tinnitus:

Para más información, contáctenos en:

Centro de intercambio de información del NIDCD
1 avenida de comunicación
Bethesda, MD 20892-3456
Voz gratuita: (800) 241-1044
TTY sin cargo: (800) 241-1055
Correo electrónico: [email protected]

Publicación No. 10-4896
Febrero 2014
(Estadísticas actualizadas en septiembre de 2014)


La contaminación acústica

La contaminación acústica puede causar problemas de salud a las personas y la vida silvestre, tanto en tierra como en el mar. Desde el ruido del tráfico hasta los conciertos de rock, los sonidos fuertes o ineludibles pueden causar pérdida de audición, estrés e hipertensión arterial. El ruido de los barcos y las actividades humanas en el océano es dañino para las ballenas y los delfines que dependen de la ecolocalización para sobrevivir.

Antropología, Sociología, Biología, Ecología, Conservación

Contaminación acústica de la construcción

Un hombre que trabaja con un martillo neumático en un sitio de construcción. La contaminación acústica se convierte en un problema cada vez más importante en las grandes ciudades.

Fotografía de Construction Photography / Avalon

Aquí se enumeran los logotipos de los programas o socios de NG Education que han proporcionado o contribuido con el contenido de esta página. Energizado por

La contaminación acústica es un peligro invisible. No se puede ver, pero está presente, tanto en tierra como bajo el mar. Se considera contaminación acústica cualquier sonido no deseado o perturbador que afecte la salud y el bienestar de los seres humanos y otros organismos.

El sonido se mide en decibelios. Hay muchos sonidos en el ambiente, desde el susurro de las hojas (20 a 30 decibeles) hasta un trueno (120 decibeles) y el aullido de una sirena (120 a 140 decibeles). Los sonidos que alcanzan los 85 decibeles o más pueden dañar los oídos de una persona. Las fuentes de sonido que superan este umbral incluyen cosas familiares, como cortadoras de césped eléctricas (90 decibeles), trenes subterráneos (90 a 115 decibeles) y conciertos de rock ruidosos (110 a 120 decibeles).

La contaminación acústica afecta a millones de personas a diario. El problema de salud más común que causa es la pérdida auditiva inducida por ruido (NIHL). La exposición a ruidos fuertes también puede causar presión arterial alta, enfermedades cardíacas, trastornos del sueño y estrés. Estos problemas de salud pueden afectar a todos los grupos de edad, especialmente a los niños. Se ha descubierto que muchos niños que viven cerca de aeropuertos o calles ruidosos sufren estrés y otros problemas, como deficiencias en la memoria, el nivel de atención y la capacidad de lectura.

La contaminación acústica también afecta la salud y el bienestar de la vida silvestre. Los estudios han demostrado que los ruidos fuertes hacen que las orugas y los corazones de las orugas laten más rápido y que los pájaros azules tengan menos polluelos. Los animales usan el sonido por una variedad de razones, que incluyen navegar, encontrar comida, atraer parejas y evitar depredadores. La contaminación acústica les dificulta realizar estas tareas, lo que afecta su capacidad de supervivencia.

El aumento del ruido no solo afecta a los animales terrestres, sino que también es un problema creciente para los que viven en el océano. Barcos, perforadoras de petróleo, dispositivos de sonar y pruebas sísmicas han hecho que el ambiente marino, una vez tranquilo, sea ruidoso y caótico. Las ballenas y los delfines se ven particularmente afectados por la contaminación acústica. Estos mamíferos marinos dependen de la ecolocalización para comunicarse, navegar, alimentarse y encontrar parejas, y el exceso de ruido interfiere con su capacidad de ecolocalización eficaz.

Parte del ruido submarino más fuerte proviene de los dispositivos de sonar navales. El sonar, como la ecolocalización, funciona enviando pulsos de sonido a las profundidades del océano para rebotar en un objeto y devolver un eco al barco, lo que indica la ubicación del objeto. Sonar sounds can be as loud as 235 decibels and travel hundreds of miles under water, interfering with whales&rsquo ability to use echolocation. Research has shown that sonar can cause mass strandings of whales on beaches and alter the feeding behavior of endangered blue whales (Balaenoptera musculus). Environmental groups are urging the U.S. Navy to stop or reduce using sonar for military training.

Seismic surveys also produce loud blasts of sound within the ocean. Ships looking for deep-sea oil or gas deposits tow devices called air guns and shoot pulses of sound down to the ocean floor. The sound blasts can damage the ears of marine animals and cause serious injury. Scientists believe this noise may also be contributing to the altered behavior of whales.

Among those researching the effects of noise pollution is Michel Andre, a bioacoustics researcher in Spain who is recording ocean sounds using instruments called hydrophones. His project, LIDO (Listening to the Deep Ocean Environment), collects data at 22 different locations. Back in the lab, computers identify the sounds of human activities as well as 26 species of whales and dolphins. The analysis aims to determine the effects that underwater noise is having on these animals. Andre hopes his project will find ways to protect marine animals from the dangers of ocean noise.

A man working with a jackhammer in a construction site. Noise pollution becomes an increasingly larger issue in big cities.


Parts and Components of Human Ear and Their Functions

The ear parts allow the body to capture sound waves out of the air, translate them into vibrations and send these signals to the brain to be interpreted. If any portion of this system is harmed, it can be difficult to hear, or the patient can lose hearing in that ear all together. Understanding the inner workings of your ear can help you understand what you need to do to encourage optimum ear health and safety.

Parts of the Ears

The ear plays an influential part in the sensory system. This organ is a key portion of the auditory system, which translates sound waves into a signal that the brain can interpret. In addition to helping the body take in auditory messages, the ear helps to maintain a proper head position. The fluid in the ear also helps the body maintain a sense of balance so the body can maintain proper posture and coordination. There are three major parts of the ear, the outer, middle and inner ear. Each contains several parts that are essential to the overall function of the ear.

Description and Function

The outer ear is the portion of the ear that sits atop the skull, which is made of flesh and cartilage.

It is the visible part which serves to protect the eardrum. It also collects and guides sound waves into the middle ear.

Compositional parts and their functions

Pinna (ear flap)

The ear flap or pinna is the outer portion of the ear. This is the physical portion of the ear that you see on the side of your head, which is used like a satellite dish to collect sound and transmit it inward where it can be translated into the appropriate medium.

Meatus (ear canal)

This part of ear extends inward from the outer ear. This 2 cm canal helps to amplify sound as it enters the middle ear so it can be interpreted properly. This area also contains cells which produce ear wax, which helps keep debris out of the middle ear.

Description and Function

The middle ear contains tissue and bone but no skin, and is the area where sound is translated into mechanical energy so it can pass through the body. Most diseases such as ear infections will take hold in the middle ear, though some can also affect the inner ear.

It translates sound waves from the outer ear into the form of pressure waves.

Compositional parts and their functions

Tympanic Membrane (Eardrum)

The eardrum, known scientifically as the tympanic membrane Is a thin piece of tissue that is stretched between the outer and middle ear. It is called the drum because sound waves will hit it and cause it to vibrate, which will take the sound from acting as wave energy and translate it to mechanical energy that can travel through the rest of the ear.

Malleus (Hammer)

The malleus or hammer of the ear is one of the smallest bones in the body. It is connected to the ear drum, and will vibrate as the drum is hit by the sound waves, passing the sound on to the rest of the ear.

Incus (Anvil)

The anvil bone or the incus sits on top of the hammer, and will collect the vibrations coming from the ear drum, sending them on to the stirrup.

Stapes (Stirrup)

The stirrup or stapes sits below the anvil, and is the final bone in the inner ear to collect and pass on sound. These sound waves will cause the stirrup to compress, compressing the waves so they can be passed on to the inner ear.

Inner Ear (Labyrinth)

Description and Function

The inner ear is the part of the ear which is responsible for translating the message and sending it to the brain where it can be interpreted. It is filled with fluid that helps to balance the ear organs and comprise the hearing so it can be passed to the nerves.

Compositional parts and their functions

This is a spiral tube that is covered in a stiff membrane. This membrane is filled with nerve cells, commonly known as ear hairs. These â&euro&oelighairsâ&euro are each designed to pick up on a different type of vibration, which hits in different frequencies. As the nerves begin to vibrate they will turn these frequencies into an electrical pulse which will be sent up to the brain. If the ear is exposed to sound that is too high pitched or too loud, these hair-like nerves can break off, and they will not grow back. This is one of the biggest contributors to hearing loss.

Auditory Nerve

These nerves receive the electrical impulses generated by the ear and pass this information up to the brain so it can be interpreted.

Semicircular Canals

These are attached to the cochlea, but do not spend much time interacting with the hearing portion of ear function. Instead, these fluid filled tubes will turn and sway with movement, helping you keep your balance.


Reptile Hearing

Anatomía
In reptiles with external ear structures, the tympanic membrane is visible, either nearly contiguous to the surface of the skin (as with iguanids such as the green iguana), or recessed deeper into the head (as with some scincids, such as the blue-tongue skink, and agamids, such as the bearded dragon). The tympanic membrane covers the middle ear cavity. In fact, it is the outer boundary of this cavity which is linked, on its other side to the pharynx and eustachian tube. In general, the inner boundary of the middle ear cavity has two openings. There is a round one, covered by a thin membrane, and, farther back towards the neck, an oval opening which is uncovered. The stapes crosses the middle ear cavity, from the inside of the tympanic membrane, its inner end fitted inside the oval opening. The outer end of the stapes has a cartilage cap which comes into contact with the tympanic membrane. In some reptiles, this cartilage, called the extrastapes, is attached to the quadrate, the primary support of the lower jaw.

Beyond the round and oval openings of the middle ear cavity is the inner ear cavity. Here are located the organs related to balance (the semicircular canals, utricle, and saccule) and hearing (cochlear duct). The cochlear duct and the saccule are both suspended in perilymphatic fluid the cochlear is also filled with this fluid. The inside of the duct has two specialized regions, the papilla basilaris and the smaller macula lagenae. Both of these areas are actually clusters of sensory cells. These areas also have cilia which are embedded in a membrane within the cochlear duct. These sensory cells give rise to the auditory nerve (the VIIIth cranial nerve).

Función
Airborne vibrations are picked up by the tympanic membrane. Substrate (ground or other conducting surface on which the reptile is in close contact) vibrations are detected by the quadrate. The tympanic membrane or quadrate vibrates, in turn vibrating the extrastapes and thus the stapes. This causes the vibrations to be conducted through the middle ear cavity, through the windows to the fluid-filled inner ear cavity housing the sensitive cochlear duct, whose sensory clusters then transmit the information along the auditory nerve.

This means, of course, that even without a surface or subsurface-mounted tympanic membrane, many "earless" reptiles can indeed "hear", though to varying degrees. The tympanic membrane is absent in many fossorial (burrowing) and semi-fossorial lizards, such as the legless Anniella, as well as in other reptiles, such as the tuatara, amphisbaenians, and, of course, snakes.

There is a great variation in the tympanic membrane and sensitivity of the inner ear amongst those lizards and chelonians with tympanic membranes ("eared"). Morphological variations include the depth of the structures from the surface of the head, the sizes of the structures, thickness of the various membranes, etc. Some eared lizards, as mentioned above, have surface-mounted tympanic membranes. Others have a recessed membrane, rather like the human tympanic membrane is recessed inside the head. Whereas our ears are marked by a rather visible flap of cartilaginous skin which helps conduct vibrations into our ear, other eared reptiles don't have the significant structure as do ours, though some species have angled recesses, or scales that grow farther out from the head just in front (cranially) of the recess, which may serve to channel vibrations or, more likely, protect the recessed membrane further from getting poked by sharp objects such as twigs and claws.

Crocodilians and geckos have a small muscle that is next to or upon the stapes, the stapedius, which may function in the way the mammalian stapedius muscle does: dampening strong vibrations. However, given the number of humans whose hearing has been permanently impaired by listening to loud music, or loud engine or other machinery noise, one should not assume that the stapedius provides full protection against such damage in humans, nor in those reptiles who have this muscle.

In the tuatara, the stapes is longer, coming into contact with the quadrate as well as the hyoid and squamosal. Their middle ear cavity is filled with loose tissue, mostly adipose. Crocodilians, on the other hand, have a complex of bony air-filled passages and a branching eustachian tube. Amphisbaenians show at least two variations of extrastapes-stapes morphology, both connecting more closely with the lower jaw.

In those reptiles lacking the tympanic membrane, what would be the middle-ear cavity is divided, by a bony partition, into two chambers. The extrastapes passes through the outer chamber, into which opens the eustachian tube. The inner chamber is called by different names, depending upon whose skull it is in:

Chelonians: juxtastapedial sinus

Lizards: pericapsular sinus

Snakes: pericapsular recess

This inner sinus, in turtles and lizards, is filled with perilymphatic fluid in snakes, the recess is filled with air.

In many reptiles, including turtles, snakes, and amphisbaenians, the round window leading to the inner ear, is missing. Instead, other ways have evolved to dissipate the vibrations in the perilymphatic fluid. In crocodilians, the cochlear duct is elongated and differs in other ways amongst this group.

The cochlear duct in turtles differs from other reptiles in that that the two sensory areas are not as far apart from one another. In studies of the cochlear duct's papilla basilaris macula lagenae, as well as their cilia and nerve fibers, the patterns found are often so significant that they can help trace taxonomic and phylogenetic relationships. Some of the differences point to other functions, such as the enlarged papilla basilaris in those geckos that vocalize, an area that are larger than the same area in their more fossorial cousins. Contrary to this, however, is that fossorial snakes which have the largest papilla basilaris areas.

Okay, that was all very interesting, but what do they really hear?
As with the morphological differences in the ear structures, there is a diversity in the sensitivity of their hearing, in the decibel ranges reptiles can detect - hear. While we don't have data on all species, there is some, gathered from tests which measured the charge on the perilymphatic fluid, recorded indirectly at the round window or directly from the fluid itself. Use of both techniques enable one to quantify the frequency range as well as the amplitude required to evoke the response.

Amphisbaenians
Amphisbaenia manni, like many amphisbaenians, is responsive to low frequencies, below 2,000 Hz, with sensitivity of 50 dB at 1,000Hz. When the extrastapes was severed in amphisbaenians, the airborne sensitivity dropped to 30 dB, but that made no difference on the amphisbaenians ability to detect and respond to groundborne (somatic) vibrations, transmitted though the tissues of the lower jaw. The front tip of the lower jaw is most sensitive. Amphisbaenians, not surprisingly, share some other features of hearing - detecting groundborne vibrations - with snakes. See the section on Snakes below for more information.

Chelonians
In those species studied, they respond to low frequency sounds in the 50-1,500 Hz range, similar to that of crocodilians. Aquatic species studied show some difference from terrestrial species. Por ejemplo, Clemmys guttata (spotted turtle) shows a peak sensitivity of 4 dB at 80 Hz, while Geochelone carbonaria (red-footed tortoise) exhibits a much lower sensitivity, with a peak of 50 dB at 300 Hz.

Cocodrilos
As with chelonians, they respond to low frequency sounds in the 50-1,500 Hz range. They are not restricted to sound vibrations picked up by their ears or even their jaw bone. In addition to this sensory equipment, crocodilians have apical pits on the scales of their face and bodies which are sensitive to vibrations traveling through water. For more information on this, see Adam Britton's Crocodilian Biology Database > Integumentary Sense Organs.

Lagartijas
Most of the lizards for whom data has been collected show that most hear in the same range as does the green iguana (Iguana iguana), whose picks up sounds in the 500-4,000Hz range, with a peak sensitivity at 700 Hz, equal to about 24 dB. With fossorial forms (such as Holbrookia maculata) (lesser [Northern] earless lizard) and others lacking a tympanic membrane, hearing is limited to lower frequencies and requires louder sounds (stimulation) to be detected. Other eared species, such as Gerrhonotus (alligator lizards) have both high sensitivity over a wider range, while others, such as the Lepidophyma sylvaticum (Madrean tropical night lizard), has the high sensitivity but over a smaller range in the lower frequencies. Gekkonids who vocalize have both high sensitivity and high frequency, up into the 10,000Hz range.

Serpientes
When mechanical vibrations are applied to the body, they result activation of the inner ear just as do airborne vibrations detected by the tympanic membrane and extrastapes do in eared reptiles. Responses to groundborne vibrations are low in sensitivity and frequency, in the 50-1,000Hz range their peak sensitivity is at 200-300 Hz range, superior to cats. Like the crocodilians, and other reptiles with linkages of their inner ear structures to their jaw and other structures in the head and throat, snakes have another way to conduct sound to their ear. Vibrations picked up by mechanoreceptors in the skin of their bellies (and bodies?), and possibly their venter, are transmitted to the quadrate via the spinal nerves and from there into their inner ear structures. In other words, most snakes can hear a person speaking in a normal tone of voice in a quiet room at a distance of about 10 feet (3 m). So, if you think your snakes recognize their names, you are probably right. Researchers debate whether the snake's receptors cannot tell the difference between airborne or groundborne (somatic) stimuli, but that higher level processing could enable the snake to tell if the stimulus was airborne or groundborne.

Tuatara
These earless reptiles show a frequency response from 100-800 Hz, with peak sensitivity at 40 dB at 200Hz.

And this means.
In comparison, human hearing is in the range of 20-20,000 Hz, with intensity at roughly 120 dB. The approximate threshold of pain is 130 dB, with a rock concert coming in at 130 dB, and hearing damage occurs at >90 dB Normal conversation is between 60-70 dB The typical background noise in a classroom is 20-30 dB A motorcycle going 5 mph is about 100 dB, busy traffic 70 dB, rustling leaves 20 dB, and a human breathing normally is 10 dB.

Groundborne vibration sensitivity has not been well studied in terrestrial or arboreal lizards and chelonians. It would not be surprising to learn that they, too, have some mechanism by which vibrations detected when they are are recumbent on a branch or, in the case of chelonians, on the ground.

Can Reptiles Communicate Other Than Behaviorally?
There are reptilian species who vocalize (other than a rapid expellation of air resulting in a hiss): crocodilians, many gekkonids, and chelonians. There is some evidence that some (or possibly all) true chameleons produce very low-wave sounds that may be used to communicate. In crocodilians and chelonians, vocalizations are part of the courtship and/or mating. Crocodilians have a wide range of other vocalizations, as well (listen to vocalizations at Adam Britton's Crocodile Talk site). Gekkonid vocalization has not been well studied, but indications are that, besides alarm calls, some species may play a roll in territoriality and social groupings, similar to the use of vocalizations in some "higher" species.

It was not all that long ago that researchers figured out that elephants communicate with each other - often over incredible distances - in frequencies undetected by human ears. To assume that other animals aren't communicating just because we can't hear them would be foolish. So, too, would be assuming that animals can't hear us, or our televisions and stereos when they are cranked up.

Health Concerns
Since the eustachian tube connects the outer ear structure with the inner ear cavity, sinus or recess, and from there to the pharynx, there is risk of pathogens getting in there that shouldn't. Infections of the eustachian tube, inflammation of the cochlear duct, and infection of the oral mucosa can all result from such infections. Since the inner ear also contains the structures helping to maintain balance, ear and eustachian infections can cause loss of balance or the inability to right oneself.

The most common causes of such infections seem to be related to prolonged periods of suboptimal care - inappropriate temperatures and other care, and malnutrition - leading to a compromised immune system unable any longer to fend off infection. Another source of abscessing may be due to the accumulation of shed squamous cells that collect and form plugs or other blockages in the cavities. Tympanic membranes may be punctured, accidentally as the lizard or chelonian moves through its environment. Large lizards, such as iguanas, may be hooked by an untrimmed claw, their own or belonging to a cagemate, or the family cat. Cats and other household pets may get ahold of the reptile, causing injury to the head. Left untreated, the wounds could become infected.

While humans who have ear infections for the most part go on about their daily business, we cannot be so cavalier about such infections in our reptiles. Along with getting them checked and the necessary treatment initiated by a reptile vet, we needed to assess the reptile's captive setup to make sure we identify any problems and rectify them immediately so as to enable the sick reptile to recover at all possible speed.

Cool Stuff
When you have some time on your hands, or even if you don't, put a green iguana's head in between you and a bright light, then look into the tympanic membrane. You will see some movement in there as the iguana breaths and moves its lower jaw.

In lizards with tympanic membranes, there is a layer of skin covering the membranes which shed when the body sheds. In lizards with recessed membranes, when the skin on the membrane and surrounding walls of the recess come off in one piece, it's like a little skin cup.

Crocodilians (alligators, crocodiles, caiman, gharial) are the only reptiles with an outer ear that moves. A mobile flap of skin allows the crocodilians to close their external ears to a thin slit when they are under water.

While this article is really about reptiles, amphibians have some cool adaptations, too. The first known vertebrate to send sound though the air, they needed some good receiving apparatus as well as a strong transmitter. Frogs and toads have well developed ears. In some species, the lower frequencies are transmitted to the inner ear through the forelegs, while the higher frequencies are picked up and transmitted by the tympanic membrane. Larvae and aquatic adults have a lateral sensory line that detects water movement.

Carson, John. 1998. Shhh! The Snake May Hear You. Originally published online at the Torrey Pines State Park (CA) website.

Murray, Michael J. 1997. Aural Abscesses. In, In, Reptile Medicine & Surgery, pp. 349-352. Douglas Mader DVM, editor. WB Saunders, NY.

Young, Bruce A. 1997. Hearing, taste, tactile reception, and olfaction. In, The Biology, Husbandry and Health Care of Reptiles, Vol I, pp 185-213. Lowell Ackerman DVM, editor. T.F.H. Publishing, Neptune City NJ.

Wright, Kevin M. 1997. Amphibian husbandry and medicine. In, Reptile Medicine & Surgery, pg. 440. Douglas Mader DVM, editor. WB Saunders, NY.

For those desirous of further research, Young cites, amongst the 214 or so references he at the end of his chapter, three in particular in regards to the structure and function of the reptilian ear:

Baird, I. The anatomy of the Reptilian ear. In, Biology of the Reptilia, Gans, C. Parsons, T (Eds.) Academic Press, New York, NY. 1970, pp. 193-275

Bellairs, A. The life of reptiles. 2 vol. Universe Books, New York. 1970.

Wever, E. The reptile ear: Its structure and function. Princeton University Press, Princeton. 1978.

www.anapsid.org/ reptilehearing.html

© 1994-2014 Melissa Kaplan or as otherwise noted by other authors of articles on this site


Ver el vídeo: El oído tolera hasta 20 decibeles de ruido (Julio 2022).


Comentarios:

  1. Zugul

    Definitivamente un gran mensaje

  2. Cetus

    Genial, esta es información muy valiosa.

  3. Samutaxe

    lleno ......................

  4. Mokinos

    Creo que estabas equivocado. Estoy seguro. Escríbeme en PM, discúblalo.



Escribe un mensaje