Arquitecturas neuronales para la clasificación de sentimientos: Una evaluación empírica de LSTM, BERT y CNN usando PYTORCH
El objetivo de la presente investigación fue evaluar el desempeño comparativo de tres arquitecturas de redes neuronales profundas: la Red Neuronal Convolucional (CNN, por sus siglas en inglés Convolutional Neural Network), la Red Neuronal Bidireccional de Memoria a Largo y Corto Plazo (Bi-LSTM, por...
Na minha lista:
| Autor principal: | |
|---|---|
| Formato: | masterThesis |
| Publicado em: |
2025
|
| Assuntos: | |
| Acesso em linha: | https://dspace.espoch.edu.ec/handle/123456789/25494 |
| Tags: |
Adicionar Tag
Sem tags, seja o primeiro a adicionar uma tag!
|
| Resumo: | El objetivo de la presente investigación fue evaluar el desempeño comparativo de tres arquitecturas de redes neuronales profundas: la Red Neuronal Convolucional (CNN, por sus siglas en inglés Convolutional Neural Network), la Red Neuronal Bidireccional de Memoria a Largo y Corto Plazo (Bi-LSTM, por sus siglas en inglés Bidirectional Long Short-Term Memory) y el Modelo de Representaciones Bidireccionales de Codificadores (BERT, por sus siglas en inglés Bidirectional Encoder Representations from Transformers), aplicadas a la clasificación de sentimientos en español utilizando el conjunto de datos de reseñas cinematográficas IMDB. La metodología se basó en un enfoque dual, mediante la Investigación en Ciencia del Diseño y la metodología de Elementos de Reporte Preferidos para Revisiones Sistemáticas y Metaanálisis (PRISMA, por sus siglas en inglés Preferred Reporting Items for Systematic Reviews and Meta-Analyses). Se implementó los tres modelos en la biblioteca PyTorch con parámetros equivalentes para garantizar condiciones comparables. Los resultados mostraron que la arquitectura BERT alcanzó el mejor desempeño, con una precisión del 87,92%, un puntaje F1 de 87,89% y un área bajo la curva ROC (AUC-ROC) de 0,947, seguida por Bi-LSTM con 86,29% y CNN con 85,64%. Se observó que BERT presentó un mejor desempeño en la detección de sentimientos negativos, mientras que CNN mantuvo un rendimiento más equilibrado entre clases. No obstante, BERT requirió mayores recursos computacionales, registrando un tiempo de entrenamiento de 2 horas y 14 minutos frente a 1 minuto y 22 segundos de Bi-LSTM. En conclusión, el estudio aportó evidencia empírica sobre la efectividad de las arquitecturas neuronales en el análisis de sentimientos en español, recomendando la elección de BERT cuando se prioriza la precisión y de CNN o Bi-LSTM cuando se busca eficiencia computacional. |
|---|