Por: Alejandra Martínez Hoyos
Comunicadora/ Investigadora sobre Accesibilidad Digital
¿Qué tan justas pueden ser las tecnologías desarrolladas en lenguas y contextos ajenos, cuando quienes más las necesitan han sido históricamente silenciades en sus propios idiomas?
La inteligencia artificial (IA) está redefiniendo la forma en que accedemos a la información, interactuamos en línea, creamos y usamos contenido, ejercemos nuestros derechos y participamos en la vida pública. Para muchas personas, estas tecnologías prometen inclusión, autonomía, rapidez y personalización. Pero para otras, pueden significar lo contrario: barreras más complejas, exclusión y un nuevo rostro de la discriminación.
Que la Inteligencia Artificial (IA) discrimina y reproduce sesgos hacia comunidades tradicionalmente excluidas no es una novedad. (Paterson & Maker, 2019). Numerosos estudios han demostrado cómo los algoritmos amplifican estereotipos de género, raza, clase o discapacidad. Por ejemplo, se ha observado la invisibilización sistemática de las Personas Sordas, Hipoacúsicas o con Pérdida auditiva en el desarrollo de estas tecnologías: los sistemas de IA suelen entrenarse con datos que no representan adecuadamente la diversidad corporal, lingüística y comunicativa, lo que da lugar a soluciones incompletas, ineficaces o incluso perjudiciales.
Este sesgo estructural se manifiesta en herramientas populares como los subtítulos automáticos en reels y videos generados con IA, donde las fallas son frecuentes y evidencian una falta de diseño accesible desde el origen.
Aunque la IA ha sido presentada como una herramienta transformadora en el campo de la accesibilidad, los beneficios prometidos distan de materializarse para muchas personas. Por ejemplo, las Personas Sordas, Hipoacúsicas o con Pérdida Auditiva enfrentan barreras cuando intentan acceder a contenidos con subtítulos automáticos, que en algunos casos están mal sincronizados, mal traducidos o entrenados en lenguas ajenas a la suya.
Incluso herramientas como el texto alternativo en imágenes, importante para personas con particularidades visuales que usan tecnologías de asistencia, también presentan limitaciones cuando no son generadas desde una comprensión contextual y cultural del contenido.
Este texto se aproxima a algunas investigaciones que dan cuenta de esta realidad, bosqueja algunos avances de las plataformas para hacerle frente, y plantea por qué el enfoque de derechos humanos es fundamental al hablar de inteligencia artificial, inclusión y accesibilidad digital.
Pese a que algunas plataformas han implementado mejoras concretas para hacer frente a estos desafíos, los enfoques dominantes en la investigación de IA aplicada a Lengua de Señas siguen reproduciendo sesgos sistemáticos y una visión colonial sobre qué lenguas y comunidades deben priorizarse. El llamado a la acción de esta publicación es contundente: el campo debe dejar espacio para que los investigadores sordos lideren la conversación en IA en Lenguaje de Señas. (Desai et al., 2024).
Gerard Quinn, ex Relator Especial sobre los derechos de las personas con discapacidad de Naciones Unidas, así lo expresó: “...Los predicados en los que se basan los algoritmos que impulsan la inteligencia artificial pueden reflejar e integrar suposiciones de capacitismo (e incluso suposiciones de edadismo). La discapacidad puede ser “vista” por la tecnología como algo desviado y, por tanto, negativo”, explicó Quinn. “[Las personas con discapacidad] pueden quedar excluidas para el empleo sin tener en cuenta sus méritos y si un ‘ajuste razonable’ podría permitirles desempeñar las tareas esenciales del puesto”.
Este no es un caso aislado. En el artículo “Desafíos con los conjuntos de datos de lenguaje de señas para el reconocimiento y la traducción del lenguaje de señas”, presentado en la conferencia LREC 2022, De Sisto y colegas (2022) realizaron un análisis crítico sobre los conjuntos de datos utilizados para entrenar sistemas automáticos de reconocimiento y traducción de Lengua de Señas.
El estudio revisó corpus existentes, con un enfoque en su cobertura lingüística, tamaño, calidad del etiquetado y accesibilidad. Concluyeron que la mayoría de los datasets están sesgados hacia el American Sign Language (ASL), y carecen de documentación clara, estandarización, y representatividad de otras Lenguas de Señas. Esta homogeneidad limita el desarrollo de modelos que sean cultural y lingüísticamente inclusivos, y evidencia una brecha crítica en la creación de tecnologías verdaderamente accesibles para comunidades sordas diversas (De Sisto et al., 2022).
Así, por ejemplo, cuando se intenta adaptar estos sistemas a otras lenguas, como la Lengua de Señas Colombiana (LSC), los errores son significativos: no reconocen su gramática, omiten componentes culturales esenciales y, en muchos casos, generan traducciones incorrectas o ininteligibles. Es importante recordar que la Lengua de Señas no es una traducción palabra por palabra del español, sino una lengua autónoma, visual y gestual, con su propia estructura y sintaxis.
Por su parte, en la encuesta, Reconocimiento de voz acentuado, reveló que los sistemas de reconocimiento automático de voz (ASR, por sus siglas en inglés) tienen dificultades para adaptarse a la diversidad de acentos, lo que genera errores sistemáticos en la transcripción. Hinsvark et al. (2021). A esto se suma el estudio, Cuantificación del sesgo en el reconocimiento automático de voz, que evidenció sesgos significativos en función del género, la edad y el acento de las personas usuarias. (Feng et al., 2021).
Estos hallazgos refuerzan la preocupación de que las tecnologías de ASR no solo no son neutras, sino que pueden reproducir patrones de discriminación estructural que limitan la participación equitativa en los entornos.
Avances recientes en IA y subtitulado
Pese a estos desafíos, algunas plataformas han implementado mejoras concretas:
- YouTube amplió sus subtítulos automáticos a más de 30 idiomas, incluyendo variantes del español, y advierte que “la calidad puede variar debido a acentos o ruido de fondo” (YouTube Help, s.f., párr. 1–2). También permite que los creadores editen estas transcripciones y agreguen etiquetas como [música] o [aplausos] para describir sonidos no verbales (YouTube Help, s.f., párr. 3).
-Zoom, Google Meet y Microsoft Teams ofrecen ahora subtitulado en vivo multilingüe, con mejoras notables en velocidad, precisión y opciones de personalización, gracias al entrenamiento de sus modelos con datos diversos. En particular, Microsoft Teams permite activar subtítulos automáticos en más de 28 idiomas, atribuye cada línea al hablante, permite ajustar el idioma detectado y personalizar el estilo visual (tamaño, color, posición) para facilitar la lectura (Microsoft, s.f.).
- Algunas aplicaciones permiten personalizar el tamaño, el color y el contraste de los subtítulos, una funcionalidad esencial para personas con baja visión. Estas opciones responden directamente a los criterios de accesibilidad establecidos en las Pautas de Accesibilidad para el Contenido Web (WCAG) 2.2, específicamente en el criterio 1.4.4 (Resize Text), que recomienda permitir la ampliación del texto hasta un 200 % sin pérdida de funcionalidad, y el criterio 1.4.8 (Visual Presentation), que sugiere brindar control sobre colores de fondo y primer plano, interlineado, espaciado entre palabras y alineación del texto (W3C, 2023).
Estos avances son valiosos, pero aún insuficientes
- La precisión de los subtítulos cae abruptamente en presencia de acentos regionales, ruido ambiental o lenguaje no normativo.
- Las mejoras llegan primero a quienes ya tienen visibilidad o recursos técnicos, dejando fuera a colectivos menos favorecidos.
Cuando los sistemas no contemplan las realidades de quienes acceden desde sus particularidades, el resultado no es innovación, sino exclusión.
El reto es claro: La exclusión sigue siendo estructural
Si no se construyen tecnologías con y para las personas más históricamente excluidas, estaremos repitiendo con nuevos lenguajes las mismas viejas violencias. Desarrollar con enfoque de derechos humanos implica priorizar la consulta, co-diseñar con las comunidades, y garantizar la transparencia de los procesos tecnológicos.
El hecho de que la IA “mejore” no garantiza inclusión. Estas plataformas siguen operando bajo la lógica del mercado y la visibilidad algorítmica, beneficiando principalmente a quienes ya cuentan con mayor capital social y económico. Por eso, la accesibilidad digital continúa siendo, en buena medida, un privilegio.
Para activistas, defensores de derechos humanos, desarrolladores, empresas tecnológicas y creadores de contenidos, esto debería encender todas las alertas. El acceso a la información no es un lujo: es un derecho. La participación plena y efectiva en la sociedad, incluida la digital, es un principio clave de la Convención sobre los Derechos de las Personas con Discapacidad. Cuando una herramienta no contempla cómo acceden los distintos cuerpos, geografías o lenguas, no es accesible: es discriminatoria.
Mientras el umbral hacia una verdadera discusión sobre los efectos y el alcance de las tecnologías en la promoción de la autonomía y la independencia de las personas en los contextos digitales siga avanzando en su ausencia, cabe hacerse una pregunta fundamental: ¿Qué hace falta para que la inclusión deje de ser una promesa y un privilegio y se convierta en una condición estructural del desarrollo tecnológico? ¿Hasta cuándo vamos a seguir desarrollando tecnologías en lenguas y contextos ajenos, cuando quienes más las necesitan han sido históricamente silenciades en sus propios idiomas?
Referencias bibliográficas
Paterson, J. M., & Maker, Y. (2019, junio). Why does artificial intelligence discriminate? Pursuit, University of Melbourne. https://pursuit.unimelb.edu.au/articles/why-does-artificial-intelligence-discriminate
Desai, A., De Meulder, M., Hochgesang, J. A., Kocab, A., & Lu, A. X. (2024). Systemic biases in sign language AI research: A Deaf‑led call to reevaluate research agendas. arXiv. https://arxiv.org/abs/2403.02563
De Sisto, M., Vandeghinste, V., Egea‑Gómez, S., De Coster, M., & Saggion, H. (2022). Challenges with sign language datasets for sign language recognition and translation. In Proceedings of the Language Resources and Evaluation Conference (LREC). Desafíos con los conjuntos de datos de lenguaje de señas para el reconocimiento y la traducción del lenguaje de señas - ACL Anthology
Hinsvark, A., Delworth, N., Del Rio, M., McNamara, Q., Dong, J., Westerman, R., Huang, M., … Drexler, J. (2021). Accented Speech Recognition: A Survey. arXiv. https://arxiv.org/abs/2104.10747
Feng, S., Kudina, O., Halpern, B. M., & Scharenborg, O. (2021). Quantifying Bias in Automatic Speech Recognition. arXiv. https://arxiv.org/abs/2103.15122
Google Meet Help. (2023). Use captions in a video meeting. https://support.google.com/meet/answer/9300310
Microsoft Support. (2024). Live captions and subtitles in Microsoft Teams meetings. https://support.microsoft.com/teams-live-captions
World Wide Web Consortium (W3C). (2023). Web Content Accessibility Guidelines (WCAG) 2.2. https://www.w3.org/TR/WCAG22/