Pages

IA de Google para ayudar a personas con necesidades especiales


La mayoría de los aspectos de la vida involucran la comunicación con los demás y la comprensión de esas personas también. Muchos de nosotros damos por sentado este entendimiento, pero usted puede imaginar la extrema dificultad y frustración que sentiría si la gente no pudiera entender fácilmente la forma en que usted habla o se expresa. Esa es la realidad para millones de personas que viven con impedimentos del habla causados por condiciones neurológicas como apoplejía, ELA, esclerosis múltiple, lesiones cerebrales traumáticas y Parkinson.

Para ayudar a resolver este problema, el equipo del Proyecto Eufonía -parte del programa de IA para el Bien Social- está utilizando la IA para mejorar las habilidades de las computadoras para entender diversos patrones del habla, como el habla deficiente. Se han asociado con las organizaciones sin fines de lucro ALS Therapy Development Institute (ALS TDI) y ALS Residence Initiative (ALSRI) para grabar las voces de las personas que padecen ALS, una afección neurodegenerativa que puede provocar la incapacidad para hablar y moverse. Han colaborado estrechamente con estos grupos para aprender sobre las necesidades de comunicación de las personas con ELA, y trabajan para optimizar los algoritmos basados en la IA para que los teléfonos móviles y las computadoras puedan transcribir de forma más fiable las palabras pronunciadas por personas con este tipo de dificultades del habla. Para obtener más información sobre cómo comenzó la asociación con ALS TDI, lea este artículo de la Directora Ejecutiva de Operaciones Clínicas, Maeve McNally, y del Director Científico de ALS TDI, Fernando Vieira.

Para ello, el software de Google convierte las muestras de voz grabadas en un espectrograma o una representación visual del sonido. El ordenador utiliza entonces espectrogramas transcritos comunes para "entrenar" el sistema para reconocer mejor este tipo de habla menos común. Nuestros algoritmos de IA actualmente apuntan a acomodar a individuos que hablan inglés y tienen impedimentos típicamente asociados con la ELA, pero creemos que nuestra investigación puede ser aplicada a grupos más grandes de personas y a diferentes impedimentos del habla.

Además de mejorar el reconocimiento de voz, también estamos formando algoritmos de inteligencia artificial personalizados para detectar sonidos o gestos y, a continuación, realizar acciones como la generación de comandos hablados en Google Home o el envío de mensajes de texto. Esto puede ser particularmente útil para las personas que tienen una discapacidad grave y no pueden hablar.

El siguiente video muestra a Dimitri Kanevsky, un investigador del habla de Google que aprendió inglés después de quedar sordo cuando era niño en Rusia. Dimitri está usando Live Transcribe con un modelo personalizado entrenado únicamente para reconocer su voz. El video también presenta a colaboradores que tienen ELA como Steve Saling -diagnosticado con ELA hace 13 años- y que utilizan sonidos no relacionados con el habla para activar dispositivos caseros inteligentes y gestos faciales para animar durante un juego deportivo.



Enlace Web - Fuente

CompuTekni

¡No olvides seguirnos en Telegram para recibir las mejores noticias del día!

No hay comentarios.:

Publicar un comentario