Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.

Los teléfonos móviles durante los años han ido evolucionando para brindar a sus usuarios diferentes funcionalidades sin importar cuál sea su ámbito o necesidad, volviéndose una herramienta indispensable del día a día, por su capacidad de ofrecer gran utilidad. Las personas con capacidades reducidas...

Celý popis

Uloženo v:
Podrobná bibliografie
Hlavní autor: Tello Maldonado, Angel Andrés (author)
Médium: bachelorThesis
Vydáno: 2022
Témata:
On-line přístup:http://repositorio.utmachala.edu.ec/handle/48000/18773
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
_version_ 1859021579097210880
author Tello Maldonado, Angel Andrés
author_facet Tello Maldonado, Angel Andrés
author_role author
collection Repositorio Universidad Técnica de Machala
dc.contributor.none.fl_str_mv Rivas Asanza, Wilmer Braulio
dc.creator.none.fl_str_mv Tello Maldonado, Angel Andrés
dc.date.none.fl_str_mv 2022-03-18T13:17:31Z
2022-03-18T13:17:31Z
2022
dc.format.none.fl_str_mv 57 p.
application/pdf
dc.identifier.none.fl_str_mv Tello Maldonado, Angel Andrés. (2022) Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning. (trabajo de titulación). UTMACH, Facultad de Ingeniería Civil, Machala, Ecuador.
TTFIC-2022-IS-DE00027
http://repositorio.utmachala.edu.ec/handle/48000/18773
dc.language.none.fl_str_mv es
dc.publisher.none.fl_str_mv Machala: Universidad Tëcnica de Machala
dc.rights.none.fl_str_mv https://creativecommons.org/licenses/by-nc-sa/3.0/ec/
info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:Repositorio Universidad Técnica de Machala
instname:Universidad Técnica de Machala
instacron:UTMACH
dc.subject.none.fl_str_mv RED NEURONAL
DETECCION DE SONIDO
ANDROID
TENSORFLOW
dc.title.none.fl_str_mv Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
dc.type.none.fl_str_mv info:eu-repo/semantics/publishedVersion
info:eu-repo/semantics/bachelorThesis
description Los teléfonos móviles durante los años han ido evolucionando para brindar a sus usuarios diferentes funcionalidades sin importar cuál sea su ámbito o necesidad, volviéndose una herramienta indispensable del día a día, por su capacidad de ofrecer gran utilidad. Las personas con capacidades reducidas son capaces de comunicarse muchas veces gracias a estos dispositivos, ayudándolos a tareas simples como comunicarse con otros, hasta pedir servicios de emergencia. Todo gracias al dinamismo que ofrecen estos dispositivos. Con el tiempo se ha visto un creciente interés en la inteligencia artificial, sus usos están limitados a la imaginación de las personas que las ponen en uso, permitiendo a las personas automatizar procesos tediosos y que tomarían mucho tiempo si se hicieran de manera manual. Ya que los teléfonos móviles han evolucionado a un punto de ser considerados “teléfonos de bolsillo”, se busca crear soluciones que usen inteligencia artificial para lograr resolver los problemas de las personas, sin que tengan que acceder a grandes servidores o a páginas web de manera constante, que todo se pueda lograr con aplicaciones que se puedan instalar en un teléfono. Con la finalidad de apoyar a las personas por medio de la tecnología, se planea construir una aplicación para teléfonos inteligentes, capaz de reconocer sonidos de alrededor y presentar un resultado de lo que se escucha, usando herramientas de inteligencia artificial, enfocándose en las personas con dificultades auditivas, con el fin de reconocer los sonidos del entorno que no puedan percibir correctamente. Se realizó este proyecto con herramientas como Android Studio, Teachable Machine, la cual usa como paquete base el algoritmo de Command Speech Recognizer de Tensorflow, el cual posee un flujo de trabajo capaz de identificar palabras aisladas y formar una red de conocimiento a base de estas, funcionando también con sonidos, por lo cual se acopla perfectamente al proyecto que se está realizando, razón por la cual se buscará exportar en Tensorflow Lite. Durante la construcción del modelo se busca poner a prueba a la red neuronal con el fin de evaluar su precisión, colocando un índice aceptable para que cumpla con un nivel de satisfacción, lo cual se medirá haciendo uso de las matrices de confusión para cada uno de los dominios que se han definido en el modelo y determinar si el modelo es apto para funcionar en un caso del mundo real. La forma en la cual funciona la aplicación usando el modelo entrenado, será que por medio del micrófono del dispositivo se pueda escuchar lo que hay en el entorno y pueda entregar un resultado de coincidencia dependiendo de los sonidos que haya reconocido en el entorno y se encuentren en un dominio del modelo. Gracias a las pruebas que se realizaron en un entorno real, se puede concluir que el modelo cuenta con un alto nivel de aceptación, con una precisión justo a la media necesaria que se propuso para que sea considerado como apto al modelo entrenado, por lo que al modelo se lo considera apto para su aplicación en un caso del mundo real.
eu_rights_str_mv openAccess
format bachelorThesis
id UTMACH_eb2f9df49ed76f387f0ccd2237e4f925
identifier_str_mv Tello Maldonado, Angel Andrés. (2022) Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning. (trabajo de titulación). UTMACH, Facultad de Ingeniería Civil, Machala, Ecuador.
TTFIC-2022-IS-DE00027
instacron_str UTMACH
institution UTMACH
instname_str Universidad Técnica de Machala
language_invalid_str_mv es
network_acronym_str UTMACH
network_name_str Repositorio Universidad Técnica de Machala
oai_identifier_str oai:repositorio.utmachala.edu.ec:48000/18773
publishDate 2022
publisher.none.fl_str_mv Machala: Universidad Tëcnica de Machala
reponame_str Repositorio Universidad Técnica de Machala
repository.mail.fl_str_mv .
repository.name.fl_str_mv Repositorio Universidad Técnica de Machala - Universidad Técnica de Machala
repository_id_str 0
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-sa/3.0/ec/
spelling Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.Tello Maldonado, Angel AndrésRED NEURONALDETECCION DE SONIDOANDROIDTENSORFLOWLos teléfonos móviles durante los años han ido evolucionando para brindar a sus usuarios diferentes funcionalidades sin importar cuál sea su ámbito o necesidad, volviéndose una herramienta indispensable del día a día, por su capacidad de ofrecer gran utilidad. Las personas con capacidades reducidas son capaces de comunicarse muchas veces gracias a estos dispositivos, ayudándolos a tareas simples como comunicarse con otros, hasta pedir servicios de emergencia. Todo gracias al dinamismo que ofrecen estos dispositivos. Con el tiempo se ha visto un creciente interés en la inteligencia artificial, sus usos están limitados a la imaginación de las personas que las ponen en uso, permitiendo a las personas automatizar procesos tediosos y que tomarían mucho tiempo si se hicieran de manera manual. Ya que los teléfonos móviles han evolucionado a un punto de ser considerados “teléfonos de bolsillo”, se busca crear soluciones que usen inteligencia artificial para lograr resolver los problemas de las personas, sin que tengan que acceder a grandes servidores o a páginas web de manera constante, que todo se pueda lograr con aplicaciones que se puedan instalar en un teléfono. Con la finalidad de apoyar a las personas por medio de la tecnología, se planea construir una aplicación para teléfonos inteligentes, capaz de reconocer sonidos de alrededor y presentar un resultado de lo que se escucha, usando herramientas de inteligencia artificial, enfocándose en las personas con dificultades auditivas, con el fin de reconocer los sonidos del entorno que no puedan percibir correctamente. Se realizó este proyecto con herramientas como Android Studio, Teachable Machine, la cual usa como paquete base el algoritmo de Command Speech Recognizer de Tensorflow, el cual posee un flujo de trabajo capaz de identificar palabras aisladas y formar una red de conocimiento a base de estas, funcionando también con sonidos, por lo cual se acopla perfectamente al proyecto que se está realizando, razón por la cual se buscará exportar en Tensorflow Lite. Durante la construcción del modelo se busca poner a prueba a la red neuronal con el fin de evaluar su precisión, colocando un índice aceptable para que cumpla con un nivel de satisfacción, lo cual se medirá haciendo uso de las matrices de confusión para cada uno de los dominios que se han definido en el modelo y determinar si el modelo es apto para funcionar en un caso del mundo real. La forma en la cual funciona la aplicación usando el modelo entrenado, será que por medio del micrófono del dispositivo se pueda escuchar lo que hay en el entorno y pueda entregar un resultado de coincidencia dependiendo de los sonidos que haya reconocido en el entorno y se encuentren en un dominio del modelo. Gracias a las pruebas que se realizaron en un entorno real, se puede concluir que el modelo cuenta con un alto nivel de aceptación, con una precisión justo a la media necesaria que se propuso para que sea considerado como apto al modelo entrenado, por lo que al modelo se lo considera apto para su aplicación en un caso del mundo real.Over the years, cell phones have been evolving to provide their users with different functionalities no matter what their field or need is, becoming an indispensable day-to-day tool, due to their ability to offer great utility. People with reduced capacities are able to communicate many times thanks to these devices, helping them with simple tasks such as communicating with others, even asking for emergency services. All thanks to the dynamism offered by these devices. Over time there has been a growing interest in artificial intelligence, its uses are limited to the imagination of the people who put them to use, allowing people to automate tedious and time-consuming processes that would take too long if done manually. Since cell phones have evolved to the point of being considered "pocket phones", the idea is to create solutions that use artificial intelligence to solve people's problems, without having to access large servers or web pages constantly, everything can be achieved with applications that can be installed on a phone. In order to support people through technology, it is planned to build an application for smartphones, capable of recognizing sounds around and present a result of what is heard, using artificial intelligence tools, focusing on people with hearing difficulties, in order to recognize the sounds of the environment that can not perceive correctly. This project was carried out with tools such as Android Studio, Teachable Machine, which uses as a base package the Command Speech Recognizer algorithm of Tensorflow, which has a workflow capable of identifying isolated words and forming a knowledge network based on these, also working with sounds, so it is perfectly suited to the project being carried out, which is why it will be exported in Tensorflow Lite. During the construction of the model, the aim is to test the neural network in order to evaluate its accuracy, placing an acceptable index to meet a level of satisfaction, which will be measured using the confusion matrices for each of the domains that have been defined in the model and determine whether the model is suitable to work in a real-world case. The way in which the application works using the trained model will be that by means of the device's microphone it will be able to listen to what is in the environment and will be able to deliver a matching result depending on the sounds that have been recognized in the environment and are in a domain of the model. Thanks to the tests that were performed in a real environment, it can be concluded that the model has a high level of acceptance, with an accuracy just to the necessary average that was proposed to be considered as suitable for the trained model, so the model is considered suitable for application in a real world case.Machala: Universidad Tëcnica de MachalaRivas Asanza, Wilmer Braulio2022-03-18T13:17:31Z2022-03-18T13:17:31Z2022info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesis57 p.application/pdfTello Maldonado, Angel Andrés. (2022) Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning. (trabajo de titulación). UTMACH, Facultad de Ingeniería Civil, Machala, Ecuador.TTFIC-2022-IS-DE00027http://repositorio.utmachala.edu.ec/handle/48000/18773eshttps://creativecommons.org/licenses/by-nc-sa/3.0/ec/info:eu-repo/semantics/openAccessreponame:Repositorio Universidad Técnica de Machalainstname:Universidad Técnica de Machalainstacron:UTMACH2025-11-22T03:45:14Zoai:repositorio.utmachala.edu.ec:48000/18773Institucionalhttp://repositorio.utmachala.edu.ec/Universidad públicahttps://www.utmachala.edu.ec/http://repositorio.utmachala.edu.ec/oai.Ecuador...opendoar:02025-11-22T03:45:14Repositorio Universidad Técnica de Machala - Universidad Técnica de Machalafalse
spellingShingle Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
Tello Maldonado, Angel Andrés
RED NEURONAL
DETECCION DE SONIDO
ANDROID
TENSORFLOW
status_str publishedVersion
title Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
title_full Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
title_fullStr Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
title_full_unstemmed Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
title_short Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
title_sort Desarrollo de una aplicación móvil que permita clasificar sonidos para personas con discapacidad auditiva utilizando deep learning.
topic RED NEURONAL
DETECCION DE SONIDO
ANDROID
TENSORFLOW
url http://repositorio.utmachala.edu.ec/handle/48000/18773