Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión

Las malas hierbas son plantas indeseables que compiten con los cultivos por recursos esenciales como la luz, el suelo, el agua y los nutrientes. Además, pueden albergar plagas que reducen el rendimiento de los cultivos. En la agricultura tradicional, el control de malas hierbas se basa en la aplicac...

Deskribapen osoa

Gorde:
Xehetasun bibliografikoak
Egile nagusia: Sandoval Pillajo, Ana Lucía (author)
Beste egile batzuk: García Santillán, Iván Danilo (author), Pusdá Chulde, Marco Remigio (author), Giret, Adriana (author)
Formatua: article
Hizkuntza:eng
Argitaratua: 2025
Gaiak:
Sarrera elektronikoa:https://repositorio.utn.edu.ec/handle/123456789/18335
https://www.sciencedirect.com/science/article/pii/S277237552500379X?via%3Dihub
Etiketak: Etiketa erantsi
Etiketarik gabe, Izan zaitez lehena erregistro honi etiketa jartzen!
_version_ 1863407568271966208
author Sandoval Pillajo, Ana Lucía
author2 García Santillán, Iván Danilo
Pusdá Chulde, Marco Remigio
Giret, Adriana
author2_role author
author
author
author_facet Sandoval Pillajo, Ana Lucía
García Santillán, Iván Danilo
Pusdá Chulde, Marco Remigio
Giret, Adriana
author_role author
collection Repositorio Universidad Técnica del Norte
dc.contributor.none.fl_str_mv https://orcid.org/0000-0003-1463-017X
https://orcid.org/0000-0001-6404-5185
https://orcid.org/0000-0003-4265-999X
https://orcid.org/0000-0002-2311-0785
dc.coverage.none.fl_str_mv Ibarra. Ecuador
dc.creator.none.fl_str_mv Sandoval Pillajo, Ana Lucía
García Santillán, Iván Danilo
Pusdá Chulde, Marco Remigio
Giret, Adriana
dc.date.none.fl_str_mv 2025-12-17T19:30:26Z
2025-12-17T19:30:26Z
2025-06-30
2025-12-17
dc.identifier.none.fl_str_mv 27723755
https://repositorio.utn.edu.ec/handle/123456789/18335
https://www.sciencedirect.com/science/article/pii/S277237552500379X?via%3Dihub
dc.language.none.fl_str_mv eng
dc.publisher.none.fl_str_mv Elsevier
dc.rights.none.fl_str_mv Atribución-NoComercial-CompartirIgual 3.0 Ecuador
http://creativecommons.org/licenses/by-nc-sa/3.0/ec/
info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:Repositorio Universidad Técnica del Norte
instname:Universidad Técnica del Norte
instacron:UTN
dc.subject.none.fl_str_mv MALEZA
APRENDIZAJE PROFUNDO
AGRICULTURA
REVISIÓN SISTEMÁTICA
WEED DETECTION
WEED MAPPING
DEEP LEARNING
UAV IMAGES
dc.title.none.fl_str_mv Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
Weed detection based on deep learning from UAV imagery: A review
dc.type.none.fl_str_mv info:eu-repo/semantics/publishedVersion
info:eu-repo/semantics/article
description Las malas hierbas son plantas indeseables que compiten con los cultivos por recursos esenciales como la luz, el suelo, el agua y los nutrientes. Además, pueden albergar plagas que reducen el rendimiento de los cultivos. En la agricultura tradicional, el control de malas hierbas se basa en la aplicación de pesticidas en todo el campo agrícola, lo que provoca daños en el suelo, contaminación ambiental, afectación de los productos agrícolas y riesgos para la salud humana. La agricultura de precisión (AP) ha evolucionado en los últimos años gracias a sensores, hardware, software y avances en los sistemas de vehículos aéreos no tripulados (UAV). Estos sistemas tienen como objetivo mejorar la aplicación localizada de productos químicos para el control de malas hierbas mediante el uso de técnicas avanzadas de análisis de imágenes, visión por computador, aprendizaje profundo (DL) y geolocalización (GPS) para detectar y reconocer malas hierbas. Esto, a su vez, facilita la implementación de mecanismos de control específicos en entornos reales. Recientemente, se han desarrollado técnicas automáticas de detección de malas hierbas utilizando imágenes adquiridas por UAV. Sin embargo, estas técnicas enfrentan un desafío significativo debido a las similitudes morfológicas entre las malas hierbas y los cultivos, como el color, la forma y la textura, lo que dificulta su diferenciación práctica y efectiva y su implementación. Este artículo presenta una revisión sistemática de la literatura (SLR) basada en 77 estudios recientes y relevantes sobre la detección y clasificación de malas hierbas en imágenes de UAV utilizando arquitecturas de aprendizaje profundo. El análisis se centra en aspectos clave como el uso de UAV y sensores, la adquisición y el procesamiento de imágenes, las arquitecturas de DL y las métricas de evaluación. La revisión abarca publicaciones desde 2017 hasta junio de 2024 procedentes de las bases de datos WoS, Scopus, ScienceDirect, SpringerLink e IEEE Xplore. Los resultados permitieron identificar diversas limitaciones, tendencias, brechas y oportunidades para futuras investigaciones. En general, se observa un uso predominante de UAV multirrotor, en particular el DJI Phantom con sensores RGB, así como una tendencia hacia la integración de múltiples sensores (multiespectrales, LiDAR) operando a alturas cercanas a los 10 metros, lo que proporciona una buena cobertura espacial en la adquisición de datos. Asimismo, el rápido desarrollo de las arquitecturas de aprendizaje profundo ha impulsado modelos CNN como ResNet para clasificación, YOLO para detección, U-Net para segmentación semántica y Mask R-CNN para la segmentación de instancias de malas hierbas, con una tendencia hacia nuevas arquitecturas basadas en Transformers e híbridas. Las métricas más comunes utilizadas para evaluar estos modelos incluyen precisión, recall, F1-Score y mAP.
eu_rights_str_mv openAccess
format article
id UTN_72560fb881aa3e15304f83d8ca0e2bc4
identifier_str_mv 27723755
instacron_str UTN
institution UTN
instname_str Universidad Técnica del Norte
language eng
network_acronym_str UTN
network_name_str Repositorio Universidad Técnica del Norte
oai_identifier_str oai:repositorio.utn.edu.ec:123456789/18335
publishDate 2025
publisher.none.fl_str_mv Elsevier
reponame_str Repositorio Universidad Técnica del Norte
repository.mail.fl_str_mv .
repository.name.fl_str_mv Repositorio Universidad Técnica del Norte - Universidad Técnica del Norte
repository_id_str 4189
rights_invalid_str_mv Atribución-NoComercial-CompartirIgual 3.0 Ecuador
http://creativecommons.org/licenses/by-nc-sa/3.0/ec/
spelling Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisiónWeed detection based on deep learning from UAV imagery: A reviewSandoval Pillajo, Ana LucíaGarcía Santillán, Iván DaniloPusdá Chulde, Marco RemigioGiret, AdrianaMALEZAAPRENDIZAJE PROFUNDOAGRICULTURAREVISIÓN SISTEMÁTICAWEED DETECTIONWEED MAPPINGDEEP LEARNINGUAV IMAGESLas malas hierbas son plantas indeseables que compiten con los cultivos por recursos esenciales como la luz, el suelo, el agua y los nutrientes. Además, pueden albergar plagas que reducen el rendimiento de los cultivos. En la agricultura tradicional, el control de malas hierbas se basa en la aplicación de pesticidas en todo el campo agrícola, lo que provoca daños en el suelo, contaminación ambiental, afectación de los productos agrícolas y riesgos para la salud humana. La agricultura de precisión (AP) ha evolucionado en los últimos años gracias a sensores, hardware, software y avances en los sistemas de vehículos aéreos no tripulados (UAV). Estos sistemas tienen como objetivo mejorar la aplicación localizada de productos químicos para el control de malas hierbas mediante el uso de técnicas avanzadas de análisis de imágenes, visión por computador, aprendizaje profundo (DL) y geolocalización (GPS) para detectar y reconocer malas hierbas. Esto, a su vez, facilita la implementación de mecanismos de control específicos en entornos reales. Recientemente, se han desarrollado técnicas automáticas de detección de malas hierbas utilizando imágenes adquiridas por UAV. Sin embargo, estas técnicas enfrentan un desafío significativo debido a las similitudes morfológicas entre las malas hierbas y los cultivos, como el color, la forma y la textura, lo que dificulta su diferenciación práctica y efectiva y su implementación. Este artículo presenta una revisión sistemática de la literatura (SLR) basada en 77 estudios recientes y relevantes sobre la detección y clasificación de malas hierbas en imágenes de UAV utilizando arquitecturas de aprendizaje profundo. El análisis se centra en aspectos clave como el uso de UAV y sensores, la adquisición y el procesamiento de imágenes, las arquitecturas de DL y las métricas de evaluación. La revisión abarca publicaciones desde 2017 hasta junio de 2024 procedentes de las bases de datos WoS, Scopus, ScienceDirect, SpringerLink e IEEE Xplore. Los resultados permitieron identificar diversas limitaciones, tendencias, brechas y oportunidades para futuras investigaciones. En general, se observa un uso predominante de UAV multirrotor, en particular el DJI Phantom con sensores RGB, así como una tendencia hacia la integración de múltiples sensores (multiespectrales, LiDAR) operando a alturas cercanas a los 10 metros, lo que proporciona una buena cobertura espacial en la adquisición de datos. Asimismo, el rápido desarrollo de las arquitecturas de aprendizaje profundo ha impulsado modelos CNN como ResNet para clasificación, YOLO para detección, U-Net para segmentación semántica y Mask R-CNN para la segmentación de instancias de malas hierbas, con una tendencia hacia nuevas arquitecturas basadas en Transformers e híbridas. Las métricas más comunes utilizadas para evaluar estos modelos incluyen precisión, recall, F1-Score y mAP.N/AWeeds are undesirable plants that compete with crops for essential resources such as light, soil, water, and nutrients. Additionally, they can harbor pests that reduce crop yields. In traditional agriculture, weed control is based on applying pesticides throughout the agricultural field, resulting in soil damage, environmental contamination, damage to farm products, and risks to human health. Precision agriculture (PA) has evolved in recent years thanks to sensors, hardware, software, and innovations in unmanned aerial vehicle (UAV) systems. These systems aim to improve the localized application of chemicals in weed control by using advanced image analysis techniques, computer vision, deep learning (DL), and geo-positioning (GPS) to detect and recognize weeds. This subsequently facilitates the implementation of specific control mechanisms in real environments. Recently, automatic weed detection techniques have been developed using UAV imagery. However, these face a significant challenge due to the morphological similarities between weeds and crops, such as color, shape, and texture, which makes their practical and effective differentiation and implementation difficult. This paper presents a systematic literature review (SLR) based on 77 recent and relevant studies on weed detection and classification in UAV imagery using DL architectures. The analysis focuses on key aspects such as using UAVs and sensors, image acquisition and processing, DL architecture, and evaluation metrics. The review covers publications from 2017 to June 2024 from WoS, Scopus, ScienceDirect, SpringerLink, and IEEE Xplore databases. The results allowed the identification of various limitations, trends, gaps, and opportunities for future research. In general, there is a predominant use of multirotor UAVs, particularly the DJI Phantom with RGB sensors, showing a trend towards the integration of multiple sensors (multispectral, LiDAR) operating at heights of around 10 meters, providing good spatial coverage in data acquisition. Likewise, the rapid development of deep learning architectures has driven CNN models such as ResNet for classification, YOLO for detection, U-Net for semantic segmentation, and Mask R-CNN for weed instance segmentation, with a tendency towards new Transformerbased and hybrid architectures. The most common metrics used to evaluate these models include precision, recall, F1-Score, and mAP.Elsevierhttps://orcid.org/0000-0003-1463-017Xhttps://orcid.org/0000-0001-6404-5185https://orcid.org/0000-0003-4265-999Xhttps://orcid.org/0000-0002-2311-07852025-12-17T19:30:26Z2025-12-17T19:30:26Z2025-06-302025-12-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/article27723755https://repositorio.utn.edu.ec/handle/123456789/18335https://www.sciencedirect.com/science/article/pii/S277237552500379X?via%3DihubengIbarra. EcuadorAtribución-NoComercial-CompartirIgual 3.0 Ecuadorhttp://creativecommons.org/licenses/by-nc-sa/3.0/ec/info:eu-repo/semantics/openAccessreponame:Repositorio Universidad Técnica del Norteinstname:Universidad Técnica del Norteinstacron:UTN2025-12-17T19:30:27Zoai:repositorio.utn.edu.ec:123456789/18335Institucionalhttp://repositorio.utn.edu.ec/Universidad públicahttps://www.utn.edu.ec/http://repositorio.utn.edu.ec/oai.Ecuador...opendoar:41892026-04-25T02:11:07.210386Repositorio Universidad Técnica del Norte - Universidad Técnica del Nortetrue
spellingShingle Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
Sandoval Pillajo, Ana Lucía
MALEZA
APRENDIZAJE PROFUNDO
AGRICULTURA
REVISIÓN SISTEMÁTICA
WEED DETECTION
WEED MAPPING
DEEP LEARNING
UAV IMAGES
status_str publishedVersion
title Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
title_full Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
title_fullStr Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
title_full_unstemmed Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
title_short Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
title_sort Detección de malas hierbas basada en aprendizaje profundo a partir de imágenes de UAV: una revisión
topic MALEZA
APRENDIZAJE PROFUNDO
AGRICULTURA
REVISIÓN SISTEMÁTICA
WEED DETECTION
WEED MAPPING
DEEP LEARNING
UAV IMAGES
url https://repositorio.utn.edu.ec/handle/123456789/18335
https://www.sciencedirect.com/science/article/pii/S277237552500379X?via%3Dihub