Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
Los teléfonos móviles durante los años han ido evolucionando para brindar a sus usuarios diferentes funcionalidades sin importar cuál sea su ámbito o necesidad, volviéndose una herramienta indispensable del día a día, por su capacidad de ofrecer gran utilidad. Las personas con capacidades reducidas...
Spremljeno u:
| Glavni autor: | |
|---|---|
| Format: | bachelorThesis |
| Izdano: |
2022
|
| Teme: | |
| Online pristup: | http://repositorio.utmachala.edu.ec/handle/48000/18773 |
| Oznake: |
Dodaj oznaku
Bez oznaka, Budi prvi tko označuje ovaj zapis!
|
| Sažetak: | Los teléfonos móviles durante los años han ido evolucionando para brindar a sus usuarios diferentes funcionalidades sin importar cuál sea su ámbito o necesidad, volviéndose una herramienta indispensable del día a día, por su capacidad de ofrecer gran utilidad. Las personas con capacidades reducidas son capaces de comunicarse muchas veces gracias a estos dispositivos, ayudándolos a tareas simples como comunicarse con otros, hasta pedir servicios de emergencia. Todo gracias al dinamismo que ofrecen estos dispositivos. Con el tiempo se ha visto un creciente interés en la inteligencia artificial, sus usos están limitados a la imaginación de las personas que las ponen en uso, permitiendo a las personas automatizar procesos tediosos y que tomarían mucho tiempo si se hicieran de manera manual. Ya que los teléfonos móviles han evolucionado a un punto de ser considerados “teléfonos de bolsillo”, se busca crear soluciones que usen inteligencia artificial para lograr resolver los problemas de las personas, sin que tengan que acceder a grandes servidores o a páginas web de manera constante, que todo se pueda lograr con aplicaciones que se puedan instalar en un teléfono. Con la finalidad de apoyar a las personas por medio de la tecnología, se planea construir una aplicación para teléfonos inteligentes, capaz de reconocer sonidos de alrededor y presentar un resultado de lo que se escucha, usando herramientas de inteligencia artificial, enfocándose en las personas con dificultades auditivas, con el fin de reconocer los sonidos del entorno que no puedan percibir correctamente. Se realizó este proyecto con herramientas como Android Studio, Teachable Machine, la cual usa como paquete base el algoritmo de Command Speech Recognizer de Tensorflow, el cual posee un flujo de trabajo capaz de identificar palabras aisladas y formar una red de conocimiento a base de estas, funcionando también con sonidos, por lo cual se acopla perfectamente al proyecto que se está realizando, razón por la cual se buscará exportar en Tensorflow Lite. Durante la construcción del modelo se busca poner a prueba a la red neuronal con el fin de evaluar su precisión, colocando un índice aceptable para que cumpla con un nivel de satisfacción, lo cual se medirá haciendo uso de las matrices de confusión para cada uno de los dominios que se han definido en el modelo y determinar si el modelo es apto para funcionar en un caso del mundo real. La forma en la cual funciona la aplicación usando el modelo entrenado, será que por medio del micrófono del dispositivo se pueda escuchar lo que hay en el entorno y pueda entregar un resultado de coincidencia dependiendo de los sonidos que haya reconocido en el entorno y se encuentren en un dominio del modelo. Gracias a las pruebas que se realizaron en un entorno real, se puede concluir que el modelo cuenta con un alto nivel de aceptación, con una precisión justo a la media necesaria que se propuso para que sea considerado como apto al modelo entrenado, por lo que al modelo se lo considera apto para su aplicación en un caso del mundo real. |
|---|