jueves, 10 de julio de 2025

 

EL FONEMA NO SE PRONUNCIA: SE PRONUNCIA EL SONIDO DEL HABLA. LENGUAJE, LENGUA, HABLA Y DISCURSO: UNA MIRADA CRÍTICA DESDE LA FONOAUDIOLOGÍA 

Néstor Antonio Pardo Rodríguez

Terapeuta del Lenguaje / Fonoaudiólogo

Titulado por la Universidad Nacional de Colombia

pardofonoaudiolog@gmail.com

Resumen

En este artículo se trata sobre las diferencias entre lenguaje, lengua, habla y discurso, todo desde una perspectiva neurolingüística y fonoaudiológica. También se hace un análisis detallado sobre cómo ha surgido y evolucionado el concepto de "trastorno de los sonidos del habla" (TSDH), enfatizando en la distinción entre "sonido del habla" y "fonema", teniendo en cuenta las perspectivas neurobiológicas y fonoaudiológicas. Con base en estudios de autores como Studdert-Kennedy (1987) y Bloomfield (1933), se exploran las implicaciones que esta diferencia tiene para el diagnóstico y la terapia, además de las áreas del cerebro que están involucradas en la percepción procesamiento de sonidos y fonemas. Al final, se señalan los errores comunes que suelen surgir en la clínica al confundir estos dos conceptos y se hace un llamado a que la práctica fonoaudiológica se base en evidencias neurocognitivas. De otro lado, se genera una crítica a los ejercicios motores orales no lingüísticos (EMONL). Esta conceptualización no es solo un asunto de terminología, ya que resulta clave para hacer diagnósticos e intervenciones efectivas. Por último, se concluye que la práctica fonoaudiológica debería cambiar hacia modelos más ecológicos, multisistémicos y con un enfoque ético.

INTRODUCCIÓN

Desde Aristóteles se sostiene que la mano fue fundamental para el desarrollo del simbolismo, y, por ende, del lenguaje. Actividades como usar herramientas, coordinar movimientos visuales y realizar acciones intencionales crearon estructuras cerebrales complejas que hicieron posible que pensáramos verbalmente (Herrera, 2003; Damasio, 2010).

En este contexto, separar lenguaje, lengua, habla y discurso no es solo una cuestión intelectual, es algo esencial tanto a nivel epistemológico como clínico. Pasar por alto estas diferencias puede llevar a intervenciones inadecuadas, diagnósticos erróneos y vulnerar los derechos comunicativos de las personas, especialmente de quienes tienen neurodivergencias.

Por otra parte, el habla humana es un proceso complejo que involucra aspectos neurobiológicos, cognitivos y motores, y es esencial para la expresión del lenguaje. En este marco, el término "trastorno de los sonidos del habla" (TSDH) ha cobrado mucha fuerza en el campo de la Fonoaudiología, especialmente en países anglosajones. Sin embargo, adoptar este término sin tener una comprensión clara de sus aspectos fonéticos y fonológicos puede llevar a errores en los diagnósticos y tratamientos.

LENGUAJE, LENGUA Y DISCURSO: LA BASE TEÓRICA Y CLÍNICA

Cuando hablamos de lenguaje, nos referimos a esa función neurobiológica y evolutiva que está organizada en una red cerebral que se construye con base en las experiencias y los aprendizajes del individuo. Esta red integra emociones, percepciones, planificación y acciones simbólicas (Friederici, 2011). Por otro lado, la lengua es un sistema sociocultural que heredamos, compuesto por signos, reglas gramaticales y usos compartidos (Rojas, 1989). En cuanto al discurso, se trata de un acto que tiene lugar en un contexto específico y que es intencional. Aquí, la persona se presenta como un agente comunicativo, utilizando palabras, gestos y hasta silencios (Austin, 1962; Peirce, 1903).

El lenguaje, como facultad neuropsicológica y biológica, es una capacidad mental estructurada en redes neuronales distribuidas que permiten la simbolización, la intencionalidad comunicativa y la articulación del pensamiento. Esta capacidad es independiente del código particular —la lengua— que se adquiera, o del uso generado —el discurso— que se realice en contextos específicos. Sin embargo, en la práctica clínica y educativa, es común que se atribuyan las dificultades comunicativas a la falta de vocabulario, a una articulación defectuosa o a un conocimiento insuficiente de la gramática, dejando de lado los procesos superiores del sistema nervioso central que verdaderamente configuran la función lingüística.

La corteza prefrontal dorsolateral (DLPFC) y la ventromedial (VMPFC) se activan cuando hacemos tareas de planificación, inhibición verbal, coherencia narrativa y escucha empática. Estas funciones son esenciales para construir un discurso efectivo y coordinar una comunicación intencionada. Por eso, si los ejercicios no integran funciones ejecutivas, motivación y vínculo interpersonal, no van a estimular las redes necesarias para la producción del discurso.

Además, se debe tener en cuenta que el lenguaje no está desligado del cuerpo. Las áreas del cerebro que controlan la manipulación de herramientas y los gestos manuales se superponen con zonas que se encargan del lenguaje (Rizzolatti & Arbib, 1998). Al final, la acción siempre precede a la palabra, y la mano a los signos. La voz, el habla y la escritura surgen de esta conexión corporal-simbólica. Implicaciones clínicas, educativas y éticas

No distinguir entre estos niveles puede llevar a patologizar la diversidad comunicativa y a simplificar la intervención terapéutica a algo meramente mecánico.

EL HABLA COMO FUNCIÓN NEUROLÓGICA Y EVOLUCIÓN HUMANA

El habla ha sido vista, básicamente, como la forma en que usamos nuestros músculos para expresar el discurso. A través de movimientos coordinados de nuestro aparato fonoarticulatorio, podemos comunicar signos lingüísticos de manera oral. Sin embargo, esta va más allá de una función mecánica.

Susanibar y Dioses (2020) lo explican así: “es la ejecución neuromuscular articulada, perceptible y sonora del lenguaje, que permite que los signos lingüísticos se materialicen fonéticamente para ser percibidos por otros”. En otras palabras, es un comportamiento que aprendemos y que hacemos de manera voluntaria, aunque también hay una parte automática en todo esto.

Desde el punto de vista evolutivo, especialistas como A.R. Luria y Eric Lenneberg nos dicen que el habla apareció gracias a cómo se reorganizó el cerebro humano y, claro, a que empezamos a caminar erguidos. Esto permitió que hubiera una mejor coordinación entre las áreas del cerebro que se encargan de planificar movimientos (las áreas frontales) y las que se ocupan de escuchar y procesar lo que oímos (las áreas temporoparietales). Lenneberg (1967) sugiere que el desarrollo del habla articulada dependía de madurar biológicamente y de cómo se lateraliza el cerebro.

Por su parte, Luria (1980) pone énfasis en la importancia de integrar funciones de las áreas corticales superiores, especialmente en el lóbulo frontal izquierdo.

EL SONIDO, LA AUDICIÓN Y EL HABLA

Una parte fundamental de cómo escuchamos y hablamos es el sonido. Este es, en realidad, una onda mecánica que se mueve a través del aire. Algunas de sus características más importantes son la frecuencia y la intensidad, que son eventos que estudia la acústica, una rama de la física (Cromer, 1978; Miller, 1979).

El oído humano normalmente puede captar sonidos de una frecuencia que va desde 16 hasta 20,000 ciclos por segundo (que también se llaman hertz). Sin embargo, somos más sensibles a las diferencias de tono cuando hay 50 dB (decibeles) por encima del umbral de audición, especialmente en la franja de 500 a 4,000 ciclos por segundo, donde se desarrolla la discriminación auditiva del habla.

Cuanto mayor es el número de hertz de una onda sonora, más agudo suena el sonido para nosotros, así que hay una relación directa entre la frecuencia y la percepción del sonido. Es importante destacar que los sonidos del habla, al igual que muchos otros que escuchamos en la naturaleza, no son tonos puros; más bien, son mezclas complejas que se organizan en un espectro. Por lo tanto, nuestro oído tiene que no solo captar estos sonidos, sino también analizarlos y conducirlos al cerebro, que es el encargado de identificar los mensajes que llevan.

Según Cromer (1978), Di Nicola (1979) y otros, a medida que los seres humanos evolucionaron, los órganos que originalmente eran para respirar y alimentarse también empezaron a servir para producir una rica variedad de sonidos. Este uso se aprende desde pequeños y se comparte simbólicamente con otras personas que hablan el mismo idioma y pueden entender esos sonidos. Por eso, a veces el habla se llama “función superpuesta”.

DIFERENCIA ENTRE EL SONIDO DEL HABLA Y EL FONEMA: CUERPO FÍSICO VS. ABSTRACCIÓN COGNITIVA

La diferencia entre el sonido del habla y el fonema es clave en áreas como la Fonoaudiología, la lingüística y las neurociencias cognitivas. Por un lado, el sonido del habla es algo tangible: se trata de una onda acústica que se produce cuando movemos nuestros órganos articuladores. Es algo que podemos medir en términos de frecuencia (en Hz) y volumen (en dB), y que nuestro oído puede captar. En cambio, el fonema es una representación mental que nos ayuda a distinguir significados dentro del contenido del discurso, gracias al lenguaje. No lo escuchamos como tal, sino que lo reconocemos como una categoría dentro de un sistema lingüístico.

Los fonemas, como entidades abstractas, están en el nivel fonológico. Como mencionó Bloomfield en 1933, los fonemas no son sonidos en sí mismos, sino “espectros complejos” que se contrastan dentro de un sistema para cumplir una función distintiva. Desde el punto de vista neurológico, esta diferencia se basa en las funciones sensoriales, motoras y lingüísticas que se especializan en nuestro cerebro.

La producción de la expresión oral, en su parte más mecánica, se puede dividir en dos pasos: primero, se emite un sonido que se puede oír gracias a la vibración de las cuerdas vocales, lo que genera una frecuencia fundamental (F0 entre 125 y 250 Hz); y luego, se forma un sonido de habla específico mediante ajustes que hace el aparato articulador.

Esto ha sido respaldado por varios autores, entre ellos Bailey (1983), quien señala que los distintos sonidos se diferencian acústicamente por la envoltura del espectro, especialmente por la frecuencia de los picos espectrales. Estos picos surgen de las resonancias en el tracto vocal y se les llama formantes, que se identifican con un número (f1, f2, f3, f4, etc.), siendo el primer formante el que tiene la frecuencia más baja.

En otras palabras, el conjunto de formantes (las características sonoras) forma un espectro cuyo contorno es lo que realmente constituye el sonido del habla, el cual es asumido, diferenciado y cognitivamente procesado como fonema por el cerebro.

En resumen, el "sonido del habla" se refiere a algo físico que podemos captar, que surge de cómo movemos los órganos del habla para crear señales acústicas. Es algo que podemos escuchar y medir. Por otro lado, el "fonema" es una representación mental, una especie de categoría que usamos en el sistema del lenguaje.

ESTRUCTURAS DEL CEREBRO QUE PARTICIPAN EN LA PERCEPCIÓN Y REPRESENTACIÓN DEL SONIDO DEL HABLA Y DEL FONEMA

Según lo que nos dice la neurociencia y el modelo perceptuomotor de Studdert-Kennedy (1987), el fonema no es solo una idea lingüística, sino que es una parte de una estructura sensoriomotora que se entrelaza de la siguiente manera:

 - Percepción auditiva del habla (lóbulos temporales, área de Wernicke, planum temporale): aquí se hace el trabajo de procesar los sonidos y clasificar los fonemas.

 - Representación motora articulatoria (área de Broca, corteza premotora y motora, ínsula anterior): esta es la parte que se encarga de los movimientos necesarios para generar los sonidos del habla que corresponden a los fonemas.

 - Conectividad interhemisférica (fascículo arqueado, fascículo longitudinal superior): aquí se asegura la transmisión y coordinación entre lo que escuchamos y cómo lo planeamos motoramente.

Así que, en resumen, el cerebro no solo se dedica a escuchar sonidos, sino que también los identifica como parte de categorías fonológicas. Este proceso fonémico está respaldado por un sistema especializado que mezcla la audición con el movimiento, algo que también se puede observar en bebés y adultos a través del fenómeno de “invariancia categorial” (Kuhl, 2010; Liberman et al., 1967).

ORDEN DE ADQUISICIÓN DE LOS SONIDOS DEL HABLA EN ESPAÑOL

Los niños van adquiriendo y aprendiendo los sonidos del habla de una manera que refleja tanto cómo maduran neuromuscularmente como la cantidad de discurso al que están expuestos.

Jakobson (1941) pensó que las oposiciones fonológicas se adquieren en un orden universal, y luego, estudios más recientes han encontrado evidencias para complementar esto. En español, el orden típico en el que los niños adquieren estos sonidos es:

 

ORÍGENES TERMINOLÓGICOS DEL TSH EN CONTEXTOS ANGLOSAJÓN Y EUROPEO

El término “Speech Sound Disorder” (SSD) aparece en la literatura anglosajona a finales del siglo XX, como una evolución del concepto tradicional de dislalia que era más común en Europa. Mientras que allá, influenciados por escuelas fonético-clínicas y logopédicas, se referían a estos problemas como trastornos articulatorios o fonéticos, en Estados Unidos, desde los años 70, y especialmente con el auge de la lingüística generativa y la psicología cognitiva, se empezó a comprender la necesidad de distinguir entre los problemas de producción física (la fonética) y aquellos de representación mental (la fonología).

La ASHA (American Speech-Language-Hearing Association) formaliza el término "Speech Sound Disorder" dentro de su clasificación, abarcando tanto trastornos fonéticos (que tienen que ver con la producción del habla) como trastornos fonológicos (que se enfocan más en la comprensión y el uso de los sonidos).

En los estudios clínicos, se ha ido popularizando el uso de la categoría "Speech Sound Disorders" como un concepto más amplio que incluye cuestiones como la dislalia, la dispraxia del habla infantil y los errores fonológicos que persisten (Shriberg et al., 2010).

Este cambio de concepto refleja una transformación significativa: pasamos de un enfoque que solo miraba la mecánica de la articulación a uno que reconoce la importancia del sistema nervioso central en cómo percibimos, categorizamos y producimos los sonidos del habla.

TRASTORNOS DE LOS SONIDOS DEL HABLA (TSH): CLASIFICACIÓN Y COMPARACIÓN

Los Trastornos de los Sonidos del Habla (TSH) se refieren a las dificultades que tienen algunas personas para producir los sonidos de forma correcta. Estos trastornos se pueden clasificar en dislalias, disartrias, dispraxias y retraso fonológico. A continuación, se muestra un cuadro comparativo que resume esto:

Susanibar y Dioses agrupan los Trastornos de los Sonidos del Habla (TSH) en dos categorías principales:

 1.         TSH Lingüísticos: Este tipo se da cuando el niño tiene la capacidad motora para producir los sonidos, pero comete errores en cómo organiza o usa los sonidos del habla.

 -       Retraso Fonológico: Esto ocurre cuando el niño aprende más tarde de lo normal los procesos fonológicos que debería haber adquirido para su edad.

 -       Desviación Fonológica: Aquí, el niño usa de manera persistente procesos que no son comunes durante ninguna etapa del desarrollo del habla.

 -       Trastorno Fonológico: En este caso, los errores fonológicos son tan significativos que afectan bastante la claridad del habla y no siguen el patrón de desarrollo que se esperaría. Estos niños pueden pronunciar los sonidos si se les pide de manera aislada o en actividades que no involucren lenguaje, pero no logran usarlos correctamente cuando están hablando.

2. TSH Orgánicos: Estos trastornos están relacionados con problemas estructurales, sensoriales o neuromotores que impactan negativamente en la producción de los sonidos.

a) TSH por alteraciones anatómicas o sensoriales:

·         Fisura palatina

·         Macroglosia / microglosia

·         Alteraciones dentoalveolares

·         Pérdida auditiva

b) TSH por alteración neuromotora (habla motora):

- Disartria: Es la dificultad para ejecutar los movimientos necesarios al hablar debido a un daño neurológico; la voz puede sonar nasalizada, con poco control del flujo de aire y la articulación puede no ser precisa.

- Apraxia infantil del habla (o dispraxia verbal): En este caso, el niño tiene problemas para planificar y secuenciar los movimientos motores del habla, lo que resulta en errores que no son consistentes y se nota el esfuerzo al articular las palabras.

Cuando hablamos de dispraxia del habla infantil (o CAS en inglés), nos referimos a:

·         Dificultades para planificar las secuencias motoras del habla.

·         Errores que son inconsistentes.

·         Prosodia que no suena normal.

·         Problemas al hacer la transición entre sonidos.

En el caso de la apraxia del habla en adultos, esta suele aparecer después de un accidente cerebrovascular o una lesión cerebral. En este contexto, la persona sabe lo que quiere decir, pero le cuesta articularlo bien. Además, tiene más dificultades con palabras largas o frases complejas y, a veces, puede presentarse junto a afasia de Broca o disartria.

- Retrasos motores del habla: Esto se refiere a niños que no alcanzan los hitos motores del habla que se esperaban, pero no hay señales claras de disartria o apraxia.

 Este término se utiliza para describir a niños que presentan:

·         Un comienzo tardío en el balbuceo y sus primeras palabras.

·         Una maduración mucho más lenta en la coordinación de los movimientos al hablar.

·         La persistencia de simplificaciones en la forma de hablar y algunos errores motores.

·         La ausencia de problemas neurológicos evidentes.

·         Una mejora progresiva cuando reciben la estimulación adecuada.

Es importante no confundir estos retrasos con la apraxia del habla infantil o la disartria, aunque en algunos casos pueden mostrar síntomas motores leves.

¿POR QUÉ LOS EJERCICIOS MOTORES ORALES NO LINGÜÍSTICOS NO FUNCIONAN?

Los ejercicios motores orales no lingüísticos (EMONL) —como soplar velas, lamer paletas o inflar globos— son muy comunes en el ámbito clínico porque se cree que fortalecer la musculatura oral mejora el habla. Sin embargo, Lof y Watson (2008) señalan cinco razones claves que demuestran por qué estos ejercicios no son efectivos:

1. Falta de evidencia científica: No hay estudios sólidos que muestren mejoras significativas en el habla a partir de los EMONL.

2. Problemas de especificidad neuromuscular: Los movimientos que empleamos al hablar son rápidos, coordinados y muy específicos, y no se pueden replicar con acciones aisladas 

3. Principio de especificidad motora: Practicar movimientos que no están directamente relacionados con el habla no fortalece las vías neuronales que se activan al hablar.

4. Confusión entre fuerza y coordinación: Hablar requiere precisión, no simplemente fuerza muscular.

5. Desconexión funcional: Estos ejercicios no tienen una intención comunicativa, lo que va en contra de la naturaleza funcional y pragmática del discurso.

Desde una perspectiva neurolingüística, cometer el error de pensar que activar músculos significa activar el habla es realmente grave.

¿POR QUÉ ES IMPORTANTE LA DISTINCIÓN ENTRE SONIDO DEL HABLA Y FONEMA PARA LA FONOAUDIOLOGÍA?

Distinguir entre el sonido del habla (que es fonético) y el fonema (que es fonológico) es clave en la Fonoaudiología porque:

- Contribuye en el acierto del diagnóstico: si hay un error fonético (como una distorsión), eso puede reflejar dificultades motoras. En cambio, si se trata de un error fonológico (como una sustitución sistemática), está relacionado con problemas en cómo se representa o se usa el sistema lingüístico.

- Ayuda a definir tratamientos específicos: los trastornos fonéticos suelen requerir técnicas de reeducación articulatoria, mientras que los fonológicos necesitan enfoques más cognitivo-lingüísticos, como el contraste fonémico o trabajar la conciencia fonológica 

- Previene diagnósticos erróneos o tratamientos que no funcionan: al entender si la dificultad está más cerca de la planificación motora, la percepción auditiva, la memoria fonológica o la simbolización lingüística.

Por todo esto, el concepto de trastorno de sonidos del habla no debería verse como una categoría rígida, sino como un área que conecta la neurobiología del lenguaje, la lingüística clínica y la intervención fonoaudiológica basada en evidencias.

Una intervención fonoaudiológica que se base solo en la oralidad mecánica no solo es ineficaz, sino que también limita la comprensión del ser humano, pensándolo solo como un dispositivo articulatorio y dejando de lado su dimensión simbólica, social y emocional. Por el contrario, proponemos una práctica clínica que:

- Promueva el discurso como una acción generada.

- Estimule las funciones ejecutivas que están involucradas en la planificación y la coherencia.

- Utilice tareas funcionales, relevantes culturalmente y que motiven.

- Involucre el cuerpo en su totalidad, además de la interacción, la emoción y la intención.

CONCLUSIÓN

Reducir el lenguaje a simples movimientos de la boca, sin una intención de base, es un error tanto teórico como clínico. El lenguaje es una habilidad neuropsicológica complicada, no solo un ejercicio de músculos. La lengua es algo que construimos socialmente, no solo un conjunto de sonidos. Y el discurso, en lugar de ser una serie de frases repetitivas, es una acción simbólica que está ligada a un contexto específico. Las prácticas que se basan en ejercicios motores orales, pero no en el habla, son una herencia de un enfoque mecanicista que no aguanta un examen científico ni ético.

El lenguaje humano surge de la conformación de redes neuronales interconectadas que están impulsadas por la intención de comunicarnos, de compartir y de relacionarnos con los demás.

Desde una perspectiva neurolingüística y fonoaudiológica actual, es fundamental deshacerse de prácticas que no funcionan y fomentar intervenciones que reconozcan la complejidad de ser hablante. Porque trabajar con el lenguaje no es solo rehabilitar una función: es defender el derecho humano a dar sentido, a representarse a uno mismo y a cambiar la realidad a través de la palabra.

Confundir el sonido del habla con el fonema no es solo un error de términos. Es una falta de perspectiva que puede llevar a problemas clínicos serios. En el campo de la Fonoaudiología, esta confusión puede producir diagnósticos erróneos, tratamientos inapropiados y una visión demasiado simplificada del lenguaje humano 

Tratar un trastorno fonológico como si fuera un problema fonético, y viceversa, no solo afecta la efectividad de las terapias, sino que también indica una comprensión limitada de los procesos neurolingüísticos que están detrás del habla. El sonido del habla, que es la forma en que articulamos, depende de que nuestros sistemas motores y sensoriales funcionen bien.

Por otra parte, el fonema es algo más abstracto; está formado por una red cortical en nuestro cerebro que integra percepción, memoria, simbolización y planificación motora. Este dualismo, tanto funcional como neurocognitivo, significa que el trabajo en Fonoaudiología debe considerar, al menos, dos aspectos: la forma concreta en que hablamos y la estructura mental que hay detrás.

Cuando un Fonoaudiólogo no logra diferenciar entre estos dos niveles, corre el riesgo de ver errores sistemáticos de sustitución fonológica como simples fallos en la articulación. Esto puede llevarlo a aplicar técnicas motoras a lo que, en realidad, podría ser un problema de representación en los procesos del lenguaje. De igual forma, puede confundir una distorsión fonética causada por disartria con un patrón fonológico, perdiendo de vista su origen neuromotor.

Investigaciones como las de Studdert-Kennedy (1987) y otros han demostrado que los fonemas no existen de manera aislada en el ámbito físico; en realidad, son estructuras perceptuomotoras. Esto significa que los aprendemos y los reconocemos a través de la conexión entre lo que escuchamos y lo que articulamos. Esta integración se da gracias a ciertas áreas cerebrales, como el planum temporale, el área de Broca, la ínsula y el fascículo arqueado, que son esenciales en la evaluación y el tratamiento en Fonoaudiología.

Por lo tanto, la misión ética y científica del Fonoaudiólogo es ir más allá de una visión meramente conductual del habla y entender la complejidad cognitiva y neurofuncional que implica la producción del discurso. Solo de esta forma se podrán crear intervenciones que toquen la raíz del problema, respeten la naturaleza simbólica del discurso humano, con base en el lenguaje, y fomenten el desarrollo integral de la comunicación en quienes atendemos.

Referencias

Austin, J. L. (1962). How to Do Things with Words. Oxford University Press. 

Bloomfield, L. (1933). Language. New York: Holt.

Bowen, C. (2005). Children's Speech Sound Disorders. Wiley-Blackwell.

Catani, M., & Mesulam, M. M. (2008). The arcuate fasciculus and the disconnection theme in language and aphasia: history and current state. Cortex, 44(8), 953–961.

Damasio, A. (1996). El error de Descartes: la emoción, la razón y el cerebro humano. Crítica.

Di Nicola, L. (1979): Trattato di foniatriainfantile. EdizioniBrenner, Cosenza (Italia).

Friederici, A. D. (2011). The brain basis of language processing: From structure to function. Physiological Reviews, 91(4), 1357–1392.

Herrera, L. (2003). Lenguaje y cerebro: una perspectiva evolutiva. Universidad de Antioquia.

Kuhl, P. K. (2010). Brain mechanisms in early language acquisition. Neuron, 67(5), 713–727. https://doi.org/10.1016/j.neuron.2010.08.038

Jakobson, R. (1941). Kindersprache, Aphasie und allgemeine Lautgesetze. Uppsala: Almqvist & Wiksell.

Lenneberg, E. H. (1967). Biological Foundations of Language. Wiley.

Liberman, A. M., Cooper, F. S., Shankweiler, D. P., & Studdert-Kennedy, M. (1967). Perception of the speech code. Psychological Review, 74(6), 431–461 

Lof, G. L., & Watson, M. M. (2008). Five reasons why nonspeech oral motor exercises do not work. The ASHA Leader, 13(6), 14–17.

Luria, A. R. (1980). Funciones corticales superiores del hombre. Barcelona: Fontanella.

McCauley, R. J., & Strand, E. A. (2008). Treatment of Childhood Apraxia of Speech: Clinical Decision Making in Assessment and Intervention. Brookes.

Peirce, C. S. (1903). Lectures on Pragmatism. Harvard University.

Rizzolatti, G., & Arbib, M. A. (1998). Language within our grasp. Trends in Neurosciences, 21(5), 188–194.

Rojas, C. (1989). Lengua, pensamiento y realidad. Editorial Universitaria.

Shriberg, L. D., Kwiatkowski, J., & Gruber, F. A. (1994). Developmental phonological disorders I: A clinical profile. Journal of Speech and Hearing Research, 37(5), 1100–1126 

Studdert-Kennedy, M. (1987). The phoneme as a perceptuomotor structure. In Allport, A. et al. (Eds.), Language perception and production (pp. 67–90). London: Academic Press.

Susanibar, J. & Dioses, J. (2020). Manual de Motricidad Orofacial y Habla. Lima: Yes Press.

 

 

No hay comentarios:

Publicar un comentario