Original Research Article

The Korean Journal of Crop Science. 1 September 2025. 171-184
https://doi.org/10.7740/kjcs.2025.70.3.171

ABSTRACT


MAIN

  • 서 론

  • 재료 및 방법

  •   실험 재배지 및 현장 조사

  •   UAV 촬영 및 영상 전처리

  •   학습 데이터 구축 및 분류 모델 구성

  •   정확도 검증 및 평가지표

  • 결과 및 고찰

  •   영상-기계학습 조합별 정량적 성능 비교

  •   클래스별 면적 변화 및 변수 중요도 분석

  •   Ground truth 기반 모델 검증

  • 적 요

서 론

농작물의 지상부가 수직 상태에서 벗어나 지표면 쪽으로 기울어지거나 쓰러지는 현상인 도복(Lodging)은 농작물 생산지에 빈번히 발생하며, 수확량과 품질 저하 등 다양한 농업적 손실을 유발한다(Amaya et al., 1996; Murakamiet al., 2012; Lee et al., 2023).

도복의 원인은 급작스러운 강우, 강풍과 같은 직접적인 물리적 요인과 비료 과시용, 부적절한 배수 등 간접적인 생육 환경 요인으로 나눌 수 있다(Lim et al., 1992). 도복은 형태에 따라, 작물의 지상부 혹은 줄기가 부러지거나 구부러지는 줄기 도복(Stem Lodging)과 뿌리의 생육 저하 등으로 식물체가 쓰러지는 뿌리 도복(Root Lodging)으로 구분되며, 줄기 도복은 생산성 저하에 더 큰 영향을 미치는 것으로 알려져 있다(Zuo et al., 2017; Mulsanti et al., 2018; Wang et al., 2022; Li et al., 2022).

일반적으로 밀 생육기간 중 절간신장기와 개화기에 도복이 발생하여 수량 감소, 품질 저하, 수확 효율 감소 등의 문제를 초래한다. 그러나 최근 이상기후로 인해 등숙기와 같은 밀의 생육 후기에도 도복 발생이 빈번해지고 있으며, 생육 후기의 도복은 20~61%까지 수확량을 감소시키는 것으로 보고되었다(Berry et al., 2003; Foulkes et al., 2011; Berry & Spink, 2012; Mardanisamani et al., 2019).

이처럼 생산성과 품질 측면에서 심각한 손실을 유발하는 밀 재배지에서의 도복은 발생 규모와 피해 정도를 신속하고 정확하게 파악하는 것이 중요하다. 지금까지 밀 재배지에서의 전통적인 도복 조사는 넓은 면적에 대한 현장 조사가 일반적으로 수행되어 왔으나, 시간과 노동력의 제약으로 인해 대안이 필요한 시점이다(Bock et al., 2010; Chu et al., 2017; Han et al., 2018; Li et al., 2021).

위성을 활용한 거시적 관측을 통해 농작물의 생육 및 재배 환경을 평가하던 초기의 농업 원격탐사는 작물 재배지에서 발생하는 도복에 대해서도 평가를 수행하여왔다. RADASTA-2, Sentinel-1 등의 위성영상자료는 밀, 옥수수, 사탕수수 등 대규모 작물 재배지에서 발생하는 도복의 발생 유무에 대해서 분석을 수행하는데 활용되었다(Yang et al., 2015; Chen et al 2016; Zhao et al., 2017; Han et al., 2017; Shu et al., 2020). 그러나 위성의 긴 재방문 주기와 구름 등에 의한 농경지의 정보를 획득할 수 없는 제한점은 시기적절한 데이터의 획득이 필요한 도복판별에서 큰 장벽으로 작용하였다(Chauhan et al., 2019a).

저고도 비행을 통한 정밀 관측과 활용 접근성이 좋은 무인항공기(UAV, Unmanned Aerial Vehicle, such as drone)는 농업 원격탐사를 활용한 정밀농업에서 그 중요도가 높아지고 있다(Weiss et al., 2020; Reza Ghafarian Malamiri et al., 2021; Rodríguez et al., 2021). RGB 센서(RGB Camera)와 다중분광 센서(Multispectral Camera) 등의 유연한 활용이 가능한 UAV는 고해상도 영상자료를 활용하여 주요 작물의 엽면적과 수확량 등 다양한 생육 지표 평가에 활용되고 있다(Zhang et al., 2022; Jung et al., 2023).

기술의 발전과 함께 인공지능(AI, Artificial Intelligence)의 활용이 다양한 분야에서 확대되고 있으며, 농업 분야에서도 이를 활용한 응용 연구가 활발히 진행되고 있다. 특히 공간 정보 데이터와 결합한 기계학습(ML, Machine Learning) 알고리즘은 대규모 관측 데이터를 분석하고, 작물 생육이나 환경 변화와 같은 의미 있는 정보를 효과적으로 추출할 수 있다(Zhao et al., 2020; Zhang et al., 2020).

중국과 인도 등 밀의 주요 생산국에서는 UAV를 활용한 원격탐사자료와 AI기반 기계학습을 결합하여 밀의 생산성 예측, 도복 피해 탐지 등 재배 환경에 대한 정밀 분석을 수행하고 이에 기반하여 의사결정 지원을 위한 다양한 데이터를 구축하고 있다(Yu et al., 2022; Zang et al., 2024; Sharda et al., 2025).

품질 개선과 재배면적 확대 등 밀 자급률 향상이 주요 목표인 국내에서는 UAV를 활용한 수확량과 품질평가에 관한 연구가 주를 이루고 있으나, 상대적으로 도복과 같은 재배 환경에 관한 연구는 미비한 실정이다(Lee et al., 2020; Jung et al., 2024).

이에 본 연구는 밀 재배지에서 발생한 도복 피해를 정밀하게 분석하고자, UAV로 촬영한 RGB 및 다중분광 영상자료를 활용하여 Random Forest (RF), Extreme Gradient Boosting (XGB)과 K-Nearest Neighbors (KNN) 알고리즘 기반의 도복 분류를 수행하고, 영상 유형 및 기계학습 알고리즘에 따른 도복 탐지 성능을 비교·평가함으로써 국내 밀 재배지에서 UAV 기반 영상정보의 도복 탐지 활용 가능성을 검토하고자 하였다.

재료 및 방법

실험 재배지 및 현장 조사

본 연구는 전라북도 김제시 죽산면 연포리에 위치한 면적 9,400m²의 밀 재배지(35°45'18.2"N, 126°48'35.7"E)를 대상으로 수행하였다(Fig. 1). 해당 시험지에는 국내 제빵용 경질밀 품종인 백강(BG)과 황금알(HG)이 각각 Field 1과 Field 2에 재배되고 있었으며, 각 필드에는 28 m² 크기의 재배 배드가 108개씩 조성되어 밀 재배가 이루어지고 있었다. UAV 영상을 활용한 도복판별 영상 결과와의 비교분석을 위해 Field 2에서 0.25 m²의 면적에 대해 도복 밀, 비 도복 밀 구역을 9곳씩 선정하여 현장 조사(Ground truth) 자료로 기록하였다.

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F1.jpg
Fig. 1.

Overview of experimental wheat fields with drone flight area and orthomosaic images captured on May 18, 2025. The green and red squares in field 2 represent the field survey location of lodged wheat and non-lodged wheat, respectively.

UAV 촬영 및 영상 전처리

UAV 영상 촬영은 쿼드콥터 회전익 드론 ‘Matice 300’ (M300, DJI, China)에 RGB 카메라 ‘Zenmuse P1’ (DJI, China)와 가시광선(Red, Green, Blue), 적색 경계(Red-Edge), 근적외선(NIR, Near Infrared)파장 촬영이 가능한 ‘REDEDGE-P1’(Micasence, UAS)를 장착하여 2025년 5월 18일 촬영을 진행하였다(Fig. 2, Table 1). ‘Zenmuse P1’과 ‘REDEDGE-P1’의 촬영고도는 각각 40 m와 50 m로 상이하였으나, 횡 중복도, 종 중복도, 비행 속도등 기타 환경은 동일하게 진행하였다(Table 2). 각각의 센서로 촬영된 낱장의 사진은 분석을 위해 전처리 프로그램 Pix4D mapper (Pix4D, Lausanne, Switzerland)를 이용하여 하나의 정사영상으로 합성을 수행하였다.

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F2.jpg
Fig. 2.

UAV and sensor systems used in this study. (A) DJI Matrice 300 RTK, a commercial multirotor drone platform; (B) Zenmuse P1 (DJI, China), a full-frame RGB camera for high-resolution aerial mapping; (C) REDEDGE-P (Micasense, USA), a multispectral sensor capable capturing narrowband reflectance data in five spectral bands.

Table 1

UAV and sensor specifications.

Category Specification
UAV Model Matrice 300 (DJI)
Dimensions Open 810 × 670 × 430 mm
Fold 430 × 420 × 430 mm
Type Quadcopter
Velocity Within 61.2 km/h
Wind resistance Up to 12 m/s
P1 Sensor type Full-frame CMOS
Weight 800g
Dimensions 198 × 166 × 129 mm
Resolution 45 MP (8192 × 5460)
Capture interval 0.7 sec
REDEDGE-P Weight 350 g
Dimensions 890 × 700 × 670 mm
Spectral bands Blue 475 nm (±32 nm)
Green 560 nm (±27 nm)
Red 668 nm (±14 nm)
Red-Edge 717 nm (±12 nm)
NIR 842 nm (±57 nm)
FOV 50°HFOV × 38°VFOV
Table 2

UAV utilization configuration for data collection.

Category Specification
Sensor type Zenmuse P1 REDEDGE-P
Flight date 18 May (2025) 18 May (2025)
Flight altitude 40 m 50 m
Flight velocity 5 m/s
Overlap rate 80% (both forward and side lap)
Total images no. for field 346 images 259 images
Radiometric calibration Panel - Micasense calibration panel
Reflectance - Blue: 0.487, Green: 0.489
Red: 0.488, Red-Edge: 0.488
NIR: 0.486
Time - Before flight

학습 데이터 구축 및 분류 모델 구성

UAV를 활용한 밀 재배지에서의 도복 판독을 수행한 선행연구의 경우, 단순 도복과 비 도복 2가지의 클래스만 설정하여 분류를 수행했으며, 이러한 단순화된 방법은 식생 배경의 다양성을 반영하지 못하는 한계가 존재한다고 지적되었다 (Chauhan et al., 2019a). 이를 보완하기 위해 총 5개의 클래스 (Class 0:도복 밀, Class 1:비도복 밀, Class 2:잡초, Class 3:토양, Class 4:그림자)를 설정하고, GIS 프로그램 QGIS (Quantum GIS) version 3.42.1을 활용하여 Field 1에서 각 클래스별로 40개 구역을 수동 마스킹하여 픽셀 단위 훈련 데이터셋을 구성하였다(Fig. 3).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F3.jpg
Fig. 3.

Visual comparison between ground-observed lodged- and non-lodged wheat as well as weed classes and their corresponding aerial annotations used for training.

RGB영상을 활용한 학습 및 분류시에는 R (Red Spectral Band), G (Green Spectral Band), B (Blue Spectral Band) 각각 단일밴드의 반사도와 함께 RGB색상기반 파생변수인 H (Hue), S (Saturation), V (Value)와 RGB기반 식생지수 ExG (Excess Green), ExR (Excess Red), NDI (Normalized Difference Index) 총 9종류의 feature를 사용하였다.

다중분광영상의 경우 R (Red Spectral Band), G (Green Spectral Band), B (Blue Spectral Band), RE (Red-Edge Spectral Band), NIR (Near-Infrared Spectral Band) 각각 단일밴드의 반사도와 더불어 식생의 활력, 엽록소 함량 등을 반영할 수 있는 다중분광 영상 기반 식생지수 NDVI (Normalized Difference Vegetation Index), NDRE (Normalized Difference Red-Edge Index), GNDVI (Green Normalized Difference Vegetation Index), OSAVI (Optimized Soil Adjusted Vegetation Index) 4가지를 선정하여 총 9종류의 feature를 활용하였다(Table 3).

Table 3

RGB and multispectral features and equations used for lodging detection in wheat field.

Feature Equation* Reference
RGB
H
(Hue)
H=θifBG360-θifB>G
with
θ=cos-1*0.5*((R-G)+(R-B))((R-G)2+(R-B)*(G-B)0.5)
(Chaudhary et al., 2012)
S
(Saturation)
1-[(3*min(R,G,B)) /(R+G+B)] (Chaudhary et al., 2012)
V
(Value)
(R+G+B)/3 (Chaudhary et al., 2012)
ExG
(Excess Green)
2*G-R-B (Zhang et al., 2021)
ExR
(Excess Red)
1.4*R-G (Guijarro et al., 2011)
NDI
(Normalized Difference Index)
(G-R)/(G+R) (Pérez et al., 2000)
Multispectral
NDVI
(Normalized Difference Vegetation Index)
(NIR-RED)/(NIR+RED) (Jordan, 1969)
NDRE
(Normalized Difference Red-Edge Index)
(NIR-RE)/(NIR+RE) (Walsh et al., 2018)
GNDVI
(Green Normalized Difference Vegetation Index)
(NIR-G)/(NIR+G) (Tucker, 1979)
OSAVI
(Optimized Soil Adjusted Vegetation Index)
(NIR-R)/(NIR+R+0.16) (Rondeaux et al., 1996)

*R, G, B, RE, and NIR are the reflectance of RED, GREEN, BLUE, RED-Edge, and Near-Infrared bands, respectively.

기계학습은 Random Forest (RF), XGBoost (XGB), K-Nearest Neighbors (KNN) 세 가지를 적용하였다. 이들은 각기 다른 방식의 학습 구조를 기반으로 하며, 본 연구에서는 이들의 특성과 장점을 고려하여 도복 탐지에 적합한 모델로 선정하였다.

Random Forest (RF)는 훈련 데이터를 무작위로 여러 하위 집합으로 나누어 다수의 결정 트리를 생성하고, 각 트리의 예측 결과를 다수결 방식으로 종합하여 최종 분류를 수행한다. 이 과정은 과적합을 줄이고 모델의 일반화 성능을 향상시키는 데 효과적이다(Jin et al., 2020).

XGBoost (Extreme Gradient Boosting, XGB)는 이전 단계에서 발생한 오차를 다음 단계에서 보완하고, 정규화를 통해 과적합을 방지하여 모델의 일반화 성능을 향상시킨다. 연산 효율성과 높은 예측 정확도로 인해 영상 기반 분류 문제에 널리 활용되고 있다(Chen & Guestrin, 2016).

K-Nearest Neighbors(KNN)은 인접한 데이터 간의 거리를 기준으로 분류를 수행하는 비모수 학습 알고리즘으로, 예측 시 대상 데이터와 가장 가까운 k개의 이웃을 탐색하여 다수의 클래스를 기준으로 분류한다. 구조가 단순하고 해석이 용이하다는 장점이 있다(Cover & Hart, 1967).

본 연구에서는 과적합을 방지하고자 RF와 XGB의 경우 결정트리 수(n_estimators)를 100으로 고정한 상태에서 교차검증을 통해 최적의 최대 트리 깊이(max depth)를 적용하여 분석하였다. 분석결과, RGB영상을 활용한 RF와 XGB의 max depth가 각각 12과 6으로 설정되었으며, 다중분광의 경우 13과 5로 설정하였다. KNN은 최근접 이웃 개수(n_neighbors, k)에 대해 성능 곡선을 분석하여 RGB와 다중분광 영상 모두 k=5를 최적값으로 결정하였다(Fig. 4).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F4.jpg
Fig. 4.

F1 score variations for RF (Random Forest), XGB (XGBoost), and KNN (K-Nearest Neighbors) as a function of max depth (RF and XGB) and n-neighbors (KNN) using RGB and multispectral imagery, indicating the optimal hyperparameter ranges.

전체 데이터는 Field 1을 학습용과 검증용으로 분할하여 모델을 학습하였으며, RF와 XGB에서는 각 입력 변수의 예측 기여도를 파악하기 위해 Feature importance 분석을 수행하였다.

Field 1은 전체 모델 학습 및 검증에 사용 되었으며, 영상 및 기계학습 조합에 따른 도복 탐지 성능을 평가하는데 활용되었다. Field 2는 학습 과정에 포함되지 않은 독립적인 검정 세트로 활용되었으며, 이를 통해 Field 1에서 학습된 최적의모델을 적용하여 예측된 도복 결과와 실제 도복 발생 지점(Ground truth)간의 공간적 일치 여부를 평가하였다.

정확도 검증 및 평가지표

기계학습 기반 분류 모델의 성능 평가는 Field 1의 데이터를 학습용(Train set)과 검증용(Validation set)으로 8:2 비율로 분할하여 예측 결과 중 실제 정답인 비율을 나타내는 정밀도(Precision), 실제 정답 중에서 모델이 정확한 예측 비율인 재현율(Recall), 정밀도와 재현율의 조화평균인 F1-Score를 산출하였다(Table 4).

다중 클래스간 지표를 각각 산출한 후 이를 비교하였으며, 전체 정확도(Overall Accuracy)는 모든 샘플중 정확히 분류된 비율로 계산하였다.

또한, 다중 클래스간 오분류 경향을 분석하기 위해 Field 1의 Validation set을 대상으로 confusion matrix를 시각화하여 각 클래스 간 혼동 패턴과 분류 특성을 평가하였다.

Table 4

Definitions and equations of evaluation metrics used for classification performance assessment.

Metrics Equation*
Precision TPTP+FP
Recall TPTP+FN
F1-Score 2×Precision×RecallPrecision+Recall
Overall Accuracy TP+TNTP+FP+TN+FN

*TP (True Positive), FP (False Positive), FN (False Negative), and TN (True Negative) represent the number of correctly classified samples, incorrectly predicted as the target class, target-class samples that were not correctly identified, and samples correctly excluded from the target class, respectively.

결과 및 고찰

영상-기계학습 조합별 정량적 성능 비교

Field 1을 기반으로 RGB 및 다중분광(Multispectral, MS)과 RF, XGB, KNN 기계학습을 조합하여 도복 탐지 모델의 정량적 성능을 평가하였다(Table 5). 도복 여부 판단에 가장 중요한 Class 0(도복 밀)과 Class 1(비도복 밀)의 F1-score를 비교한 결과, 모든 기계학습 모델에서 다중분광 영상 기반 모델이 RGB 영상 기반 모델보다 높은 성능을 나타내었다.

Class 0에서 RGB 영상 기반 XGB의 validation f1-score는 0.80, 다중분광 영상 기반 XGB는 0.97로 0.17 향상되었고, Class 1에서도 RGB 0.82에서 다중분광 영상은 0.97로 0.15 개선되었다. RF와 KNN 역시 RGB 대비 다중분광 영상 기반에서 성능 향상을 보였는데, Class 0은 각각 약 0.17과 0.20, Class 1은 각각 0.14와 0.17 상승하였다.

이러한 성능 향상은 다중분광 영상의 NIR과 Red-Edge 밴드가 RGB 영상에서는 식별하기 어려운 도복 밀의 생리적, 광학적 변화를 민감하게 반영한 결과로 판단되며, 이는 벼와 같은 주요 작물 재배지에서 NIR과 Red-Edge 밴드의 중요도를 언급한 선행연구와 일치한 결과를 나타내었다(Moon et al., 2021).

도복을 판단하기 위한 기계학습별 성능을 비교한 결과, RGB영상과 다중분광 영상 모두에서 XGB 모델이 가장 우수한 성능을 보였으며 RF가 그 뒤를 이었고 KNN이 가장 낮은 성능을 기록하였다. 이는 Gradient Boosting 구조를 기반으로 하는 XGB가 복잡한 다중 클래스 경계와 비선형적 분포를 안정적으로 학습하여 RGB영상과 다중분광 영상 모두에서 일관된 우수성을 보인것으로 해석된다.

Table 5

Quantitative performance metrics of RF, XGB, and KNN for lodging detection using RGB and Multispectral imagery in field 1, with values indicated as Train (Validation) for each metric.

Class RGB_RF RGB_XGB RGB_KNN
P* R F1 P R F1 P R F1
0 0.80
(0.80)
0.80
(0.80)
0.80
(0.80)
0.80
(0.79)
0.80
(0.80)
0.80
(0.80)
0.77
(0.76)
0.79
(0.79)
0.78
(0.77)
1 0.80
(0.80)
0.84
(0.84)
0.82
(0.82)
0.80
(0.80)
0.84
(0.84)
0.82
(0.82)
0.79
(0.78)
0.81
(0.81)
0.80
(0.79)
2 0.96
(0.96)
0.86
(0.86)
0.91
(0.91)
0.97
(0.97)
0.86
(0.86)
0.91
(0.91)
0.97
(0.96)
0.86
(0.86)
0.91
(0.90)
3 1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
4 0.95
(0.95)
0.90
(0.89)
0.93
(0.92)
0.96
(0.96)
0.89
(0.90)
0.93
(0.92)
0.95
(0.94)
0.91
(0.90)
0.93
(0.92)
Accuracy 0.84
(0.84)
0.85
(0.84)
0.83
(0.82)
Class MS_RF MS_XGB MS_KNN
P R F1 P R F1 P R F1
0 0.99
(0.98)
0.96
(0.96)
0.97
(0.97)
0.99
(0.98)
0.96
(0.96)
0.97
(0.97)
0.98
(0.98)
0.96
(0.95)
0.97
(0.97)
1 0.95
(0.95)
0.99
(0.98)
0.97
(0.96)
0.96
(0.96)
0.99
(0.98)
0.97
(0.97)
0.96
(0.95)
0.98
(0.98)
0.97
(0.96)
2 1.00
(0.99)
0.98
(0.98)
0.99
(0.98)
1.00
(0.99)
0.99
(0.99)
1.00
(0.99)
1.00
(0.99)
0.99
(0.98)
0.99
(0.99)
3 1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
1.00
(1.00)
4 1.00
(0.98)
0.97
(0.96)
0.98
(0.97)
1.00
(0.98)
1.00
(0.98)
1.00
(0.98)
0.98
(0.97)
0.98
(0.97)
0.98
(0.97)
Accuracy 0.98
(0.97)
0.98
(0.98)
0.98
(0.97)

*P, R, and F1 represent Precision, Recall, and F1-Score, respectively.

이러한 정량적 지표 결과를 보완 및 검증하기 위해 Field 1의 Validation set의 재현율(Recall) 결과를 기준으로 confusion matrix를 시각화하여 각 영상과 기계학습 조합에 따른 클래스별 예측 성능과 타 클래스와의 혼동 양상을 평가하였다 (Fig. 5).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F5.jpg
Fig. 5.

Validation Recall-based confusion matrices for lodging detection, comparing class-wise prediction performance across RGB and multispectral datasets processed using RF (Random Forest), XGB (XGBoost), and KNN (K-Nearest Neighbors).

RGB 기반 모델에서는 Class 0의 Recall이 RF와 XGB에서 0.80, KNN에서 0.79로 나타났으며, KNN에서 가장 낮은 성능을 보였다. 이는 RGB 영상에서 도복 밀과 비도복 밀의 경계가 미묘할 경우 도복 밀을 비도복 밀로 오분류하는 경향이 있음을 시사한다.

반면, 다중분광 영상 기반 모델에서는 Class 0에 대해 0.95~0.96의 Recall값을 나타내어 RGB영상 기반 대비 큰 성능 향상을 나타내었다. Class 1 또한 전체적으로 안정적으로 높은 값이 유지되었다.

UAV 기반 다중분광 영상은 고해상도와 다양한 스펙트럼 정보를 활용함으로써 RGB영상 대비 도복 탐지에서 더 높은 정확도와 예측 일관성을 제공하는 것으로 보고되었으며(Chauhan et al., 2019b; Zhao et al., 2020), 본 연구에서도 이러한 특성이 확인되어 다중분광 영상 기반 모델이 각 클래스간 경계에서 보다 정밀한 구분을 수행하고 Field 1 내 다양한 도복 형태와 복잡한 배경 조건에서도 안정적인 예측 성능을 유지함이 입증되었다.

클래스별 면적 변화 및 변수 중요도 분석

Field 1과 Field 2에서 RGB 및 다중분광 영상 기반 모델을 활용하여 도복 밀(Lodge), 비도복 밀(Wheat), 잡초(Weed), 토양(Soil), 그림자(Shadow) 5가지 클래스를 분류한 결과를 공간분포 지도로 작성하였다(Fig. 6).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F6.jpg
Fig. 6.

Lodging prediction maps for Fields 1 and 2 derived from RGB and multispectral UAV data analyzed through RF (Random Forest), XGB (XGBoost), and KNN (K-Nearest Neighbors) models.

RGB 영상 기반 공간분포 지도에서는 전반적으로 도복 밀의 영역이 Field 1에서 전체적으로 넓게 분포하는 경향이 나타나며, 이는 가시광 밴드(Red, Green, Blue)영역의 제한된 정보를 통해 도복과 비도복 밀 또는 잡초간의 반사 특성 차이를 세밀하게 구분함에 한계점이 있음을 시사한다.

반면 다중분광 영상 기반 모델은 NIR과 Red-Edge의 추가적인 밴드의 활용을 통해 분류 클래스 간 스펙트럼 차이를 더 정밀하게 구분할 수 있고, 그 결과 RGB 영상기반 모델 대비 도복 밀의 분포가 균일하게 표현되는 경향성과 Field 간 시각적 일관성이 높은 것을 확인하였다.

이러한 시각적 차이는 Fig. 7의 면적 분석에서도 수치적으로 확인되었으며, 분류 클래스별 면적 비율에서는 동일한 필드 내에서도 영상 종류와 기계학습 조합에 따라 면적 추정 결과가 뚜렷하게 달라졌다(Fig. 7).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F7.jpg
Fig. 7.

Class 0-4 area proportions in Fields 1 and 2 across RGB and MS imagery-ML model combinations.

특히 RGB영상, 다중분광영상에 따라 전체적인 분류 경향의 확연한 차이가 확인되었고, 동일한 영상에 적용된 기계학습 차이에 따른 면적의 변동도 확인되었다.

도복 밀(Class 0) 면적의 경우, Field 1에서 RGB 영상 기반 RF와 XGB가 각각 19%, KNN이 18%로 유사하였으나, 다중분광 영상 기반 모델은 약 10%로 절반 수준에 불과했다. Field 2에서도 RGB 영상 기반 분류는 5~6%였던 반면, 다중분광 영상 기반 분류는 1~2%로 더 낮게 추정되었다.

즉, 두 필드 모두에서 RGB 영상 기반 모델은 도복 면적을 과대 추정하는 경향이 나타난 반면에, 다중분광 영상 기반은 상대적으로 안정적이고 보수적인 면적 추정을 보였다.

이는 RGB 영상이 가시광 영역만으로는 도복 밀(Class 0)과 비도복 밀(Class 1)및 잡초(Class 2를 명확히 구분하기 어려워 일부 영영이 도복 밀로 잘못 분류되었기 때문으로 판단된다.

반면, 다중분광 영상 기반 모델은 NIR과 Red-Edge 밴드를 활용하여 클래스간 스펙트럼 차이를 정밀하게 분리함으로써 과대 추정을 효과적으로 억제한 것으로 해석된다.

비도복 밀(Class 1) 면적 비율에서도 영상 간 차이가 뚜렷하게 나타났다. Field 1에서 RGB 영상 기반 모델은 58~59%, 다중분광 영상 기반 모델은 64~65% 범위로 다중분광 영상 기반 모델이 더 높은 비도복 밀(Class 1) 비율을 보였으며, Field 2에서는 두 영상별 76~78%과 75~77%로 유사하게 나타났다.

Field 2에서는 두 영상 모두 75~78%로 유사하게 나타났는데, 이는 해당 시험포장에서 도복 발생 면적이 상대적으로 작아 비도복 밀 면적이 영상 종류와 무관하게 높게 유지되었기 때문으로 해석된다. 따라서 Field 1에서 보인 RGB 영상 대비 다중분광 영상의 우세는, 도복 면적 분포와 간접적으로 연관된 결과로 볼 수 있다.

잡초(Class 2) 면적은 전반적으로 두 영상 간 차이가 크지 않았으나, Field 1에서 RGB 영상 기반 모델은 5~6%로 약간 높았고 다중분광 영상 기반 모델은 3~4%를 기록했다. 이는 RGB 영상이 도복 밀(Class 0)과 잡초(Class 2)의 반사 특성을 충분히 분리하지 못해 일부 잡초가 도복 밀로 혼동된 영향으로 해석된다.

토양(Class 3)의 경우 영상의 종류보다 모델에 따른 변동이 더욱 뚜렷하게 나타났다. RGB 영상 기반 모델은 Field 1에서 6~15%, Field 2에서 4~11%까지 넓은 변동폭을 보였으나, 다중분광 영상 기반 모델은 상대적으로 좁은 범위에서 안정적인 면적값을 유지하였다.

이는 RGB 영상이 토양과 밀 포장 내 다른 클래스 간의 경계 구분에서 일관성을 확보하기 어렵다는 한계를 보여준다.

그림자(Class 4)는 다중분광 영상 기반 모델에서 Field 1과 2 모두 8%로 일정하게 유지되었으나, RGB 영상 기반 모델은 Field 1에서 5~11%, Field 2에서 3~7%로 변동성이 컸다. 이는 다중분광 영상의 추가 밴드 정보가 광조건 변화에 따른 분류 불안정을 완화하는 효과를 제공했음을 시사한다.

RGB 영상 기반과 다중분광 영상 기반 모두에서 RF, XGB, KNN간 도복 밀(Class 0) 면적 추정치 차이는 1~2% 이내로 크지 않았다.

이는 세 모델 모두 동일한 입력 변수 구조를 사용함에 따라 학습 과정에서 클래스 간 경계 설정이 유사하게 이루어졌기 때문으로, 영상 종류에 따른 차이가 기계학습 모델 간 차이보다 도복 면적 추정 결과에 더 큰 영향을 미쳤음을 보여준다.

다중분광 영상 기반 XGB 모델의 활용이 밀 재배지에서의 도복 탐지에서 가장 우수한 성능을 보임에 따라, RGB 영상 기반 XGB 모델과 비교하여 도복 탐지에 기여하는 주요 변수를 규명하고 특성을 파악하고자 Feature Importance 분석을 수행하였다(Fig. 7).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F8.jpg
Fig. 8.

Feature importance comparison between RGB-XGB (A) and MS-XGB (B).

RGB 영상 기반 XGB 모델(Fig. 8A)에서는 H (Hue, 중요도 약 0.21), ExG (Excess Green Index, 0.18), ExR (Excess Red Index, 0.15), G (Green, 0.13), NDI (Normalized Different Index, 0.11) 순으로 상위 변수들이 도출되었다. 이 중 H (Hue)와 ExG (Excess Green Index)는 Class 0(도복 밀)과 Class 1(비도복 밀) 간 색조 및 채도 차이를 반영하여 RGB 영상에서 도복을 구분하는데 핵심적인 역할을 한 것으로 판단된다.

반면 다중분광 영상 기반 XGB 모델(Fig. 8B)에서는 NIR (Near-Infrared) 밴드가 가장 높은 중요도(0.24)를 보였고, NDVI (0.19), NDRE (0.16), GNDVI (0.14)와 같은 NIR기반의 식생지수도 상위권에 포함되었다. 이러한 결과는 국내외 UAV 기반 원격탐사 연구에서 NIR과 Red-Edge 밴드의 중요성이 반복적으로 보고된 사실과 일치한다(Bhargava & Mariam, 1991; Chen et al., 1991).

즉, RGB 영상은 주로 가시광 영역의 색상과 채도 정보를 활용하여 도복을 구분한 반면, 다중분광 영상은 NIR과 Red-Edge 밴드가 제공하는 추가 스펙트럼 정보를 통해 도복 발생시 나타나는 식생의 생리적, 광학적 변화를 더욱 정밀하게 반영함으로써 탐지 정확도 향상에 기여했음을 보여준다.

Ground truth 기반 모델 검증

밀 재배지에서 영상을 활용한 도복 탐지의 적용 가능성을 검증하기 위해, Field 1에서 최적화된 다중분광 영상 기반 XGB 모델 조합을 Field 2에 적용 하여 독립 검정을 실시하고, 이를 통해 모델의 일반화 성능과 다양한 재배 환경에서의 활용 잠재력을 평가하였다.

다중분광 영상 기반 XGB 모델을 적용한 Field 2의 Prediction map에 대해 픽셀 기반 majority를 적용한 후 ground truth와 비교한 결과, 실제 도복 지점 상당수가 도복으로 정확히 판독되었다. 그러나 일부 도복 구역은 다수의 픽셀이 비도복으로 분류되어 최종적으로 비도복으로 판정되는 사례가 관찰되었다(Fig. 9).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F9.jpg
Fig. 9.

Matches and mismatches between predicted lodging area and ground truth area in Field 2, where certain areas with visually confirmed lodging were not classified as lodging because the proportion of lodging pixels did not exceed the majority threshold.

이러한 문제를 보완하기 위해 threshold값 조정에 따른 Prediction map의 정확도 변화를 분석하여 과대 탐지와 과소 탐지 간 균형을 최적화 하였다(Fig. 10).

https://cdn.apub.kr/journalsite/sites/kjcs/2025-070-03/N0840700306/images/kjcs_2025_703_171_F10.jpg
Fig. 10.

Lodging detection result accurary according to varying threshold values, indicating improved accuracy after selecting the optimal threshold.

도복 탐지를 위한 분류 모델에서는 픽셀 기반 majority 결정 또는 threshold 설정에 따른 과대/과소 탐지 균형이 중요한 변수로 작용한다. 이에 따라, 임계값의 변화가 분류 정확도에 미치는 영향을 체계적으로 분석하는 과정이 필수적으로 요구된다.

Threshold의 설정값이 5~10%일 때 정확도는 1.0으로 가장 높게 유지되었으며, 15%에서 약 0.95, 20~25% 구간에서 약 0.78로 하락하였다. 30% 이상에서는 정확도가 0.72 이하 수준으로 지속적인 감소경향을 나타내다, 40% 이상에서는 0.66의 값을 유지하였다.

위와 같은 결과는 threshold 값을 낮게 설정할 때 전체적인 도복 탐지 정확도가 가장 높게 유지되며, 임계값 조정이 현장 적용 시 실제 신뢰도 향상 및 예측 성능 최적화에 중요한 역할을 한다는 연구보고와 일치하였다 (Wilke et al., 2019).

즉, 밀 재배지에서의 도복을 판독할 경우 다중분광 영상 기반 XGB 모델의 약 5~10%의 threshold 설정은 경계 불확실성을 수용함으로써 도복 영역을 포괄적으로 판정하게 하여 다양한 재배 환경에서도 모델의 예측 신뢰도를 높이고 안정적인 판정을 가능할 것으로 판단된다.

적 요

본 연구는 국내 밀 재배지에서 무인항공기(UAV) 기반 영상과 기계학습을 활용하여 도복 탐지의 정확도를 평가하고, 최적의 영상-모델 조합을 도출하는 것을 목적으로 하였다.

전라북도 김제시의 두 개 시험포장(Field 1, Field 2)에서 도복이 발생한 시점에 RGB 및 다중분광 영상을 촬영하고, RF (Random Forest), XGB (XGBoost), KNN (K-Nearest Neighbors) 기계학습을 적용하여 도복 탐지 모델을 구축하였다.

Field 1의 학습(Train)과 검증(Validation) 결과, 다중분광 영상은 RGB 영상에 비해 모든 기계학습 모델에서 높은 성능을 보였으며, 특히, 다중분광 영상 기반 XGB 모델에서 가장 높은 정확도와 안정성을 나타내었다.

독립 검증용 Field 2에 다중분광 영상 기반 XGB 모델을 적용한 결과, Prediction map이 Ground truth와 전반적으로 유사한 공간분포를 보였으나 픽셀기반 majority 판정에서 일부 도복 구역이 비도복으로 분류되는 사례가 관찰되었다.

이를 보완하기 위해 threshold 값을 조정한 결과, Field 2의 Prediction Accuracy는 최적 threshold(5~10%)에서 최대 1.0까지 향상되었다.

본 연구를 통해 UAV 기반 다중분광 영상을 활용한 XGB 모델이 밀 재배지에서의 도복 탐지에 효과적임을 확인하였다. 또한, 도복을 조기에 탐지하고 그 변화를 정량적으로 평가함으로써 밀의 단백질 함량과 같은 품질에 영향을 미치는 요인을 신속하게 파악할 수 있는 가능성을 제시하였다.

이러한 접근은 도복 피해 예측뿐 아니라 품질 유지와 생산성 향상을 위한 실질적 의사 결정 지원에도 기여할 것으로 기대된다.

다만 본 연구는 밀의 생육 기간중 출수기 이후의 단일 UAV 영상을 기반으로 하였다는 한계가 있으며, 도복 발생의 시기적 변화를 충분히 반영하지 못하였다. 실제 농업 현장에서는 도복 발생 시기와 진행 양상에 따라 관리 대책이 달라질 수 있으므로, 특정 생육시기의 단일 영상은 피해 구역의 조기 탐지에는 유용하지만, 장기적 관리 의사결정을 지원하기 위해서는 시계열 영상(Time-series imagery)의 확보가 필수적이라 판단된다.

또한, 본 연구는 특정 생육 단계에서 수행되었기에 밀의 전체적인 생육기간과 다양한 환경 조건에서도 동일한 정확도를 나타낼 것이라 단정할 수 없으나, 다중분광 영상의 NIR 및 Red-Edge 밴드가 도복 탐지에서 높은 기여도를 보였다는 점은 다른 생육단계에서도 일정 수준의 활용 가능성을 시사한다.

따라서 향후에는 다양한 생육시기와 재배 환경 조건에서 축적된 데이터를 활용한 검증을 통해 현장에서의 적용 가능성을 높일 필요가 있으며, 이러한 후속 연구가 적극적으로 수행되어야 할 것이다.

Acknowledgements

본 연구는 농촌진흥청 연구사업(과제번호 : PJ01760801) 지원에 의해 이루어진 것임.

본 연구는 2025년도 농촌진흥청 국립식량과학원 전문연구원 과정 지원사업에 의해 이루어진 것임.

References

1

Berry, P. M. and J. Spink. 2012. Predicting yield losses caused by lodging in wheat. Field Crops Res. 137 : 19-26.

10.1016/j.fcr.2012.07.019
2

Berry, P. M., J. Spink, M. Sterling, and A. A. Pickett. 2003. Methods for rapidly measuring the lodging resistance of wheat cultivars. J. Agron. Crop Sci. 189(6) : 390-401.

10.1046/j.0931-2250.2003.00062.x
3

Bhargava, D. S., and D. W. Mariam. 1991. Light penetration depth, turbidity and reflectance related relationship and models. ISPRS J. Photogramm. Remote Sens. 46(4) : 217-230.

10.1016/0924-2716(91)90055-Z
4

Bock, C. H., G. H. Poole, P. E. Parker, and T. R. Gottwald. 2010. Plant disease severity estimated visually, by digital photography and image analysis, and by hyperspectral imaging. Crit. Rev. Plant Sci. 29(2) : 59-107.

10.1080/07352681003617285
5

Chaudhary, P., A. K. Chaudhari, A. Cheeran, and S. Godara. 2012. Color transform based approach for disease spot detection on plant leaf. International Journal of Computer Science and Telecommunications 3(6) : 65-71.

6

Chauhan, S., R. Darvishzadeh, M. Boschetti, M. Pepe, and A. Nelson. 2019a. Remote sensing-based crop lodging assessment: current status and perspectives. ISPRS J. Photogramm. Remote Sens. 151(August 2018) : 124-40.

10.1016/j.isprsjprs.2019.03.005
7

Chauhan, S., R. Darvishzadeh, Y. Lu, D. Stroppiana, M. Boschetti, M. Pepe, and A. Nelson. 2019b. Wheat lodging assessment using multispectral uav data. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences - ISPRS Archives, 42(2/W13) : 235-240.

10.5194/isprs-archives-XLII-2-W13-235-2019
8

Chen, J., H. Li, and Y. Han. 2016. Potential of RADARSAT-2 data on identifying sugarcane lodging caused by typhoon. In: 2016 5th Int. Conf. Agro-Geoinformatics, AgroGeoinformatics 2016.

10.1109/Agro-Geoinformatics.2016.7577665
9

Chen, T., and C. Guestrin. 2016. XGBoost: A scalable tree boosting system. Proceedings of the ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 13-17-August-2016, 785-794.

10.1145/2939672.2939785
10

Chen, Z., J. D. Hanson, and P. J. Curran. 1991. The form of the relationship between suspended sediment concentration and spectral reflectance: its implications for the use of Daedalus 1268 data. Int. J. Remote Sens., 12(1) : 215-222.

10.1080/01431169108929647
11

Chu, T., Michael J. Starek, Michael J. Brewer, Seth C. Murray, and Luke S. Pruter. 2017. Assessing lodging severity over an experimental maize (Zea Mays L.) field using UAS images. Remote Sens. 9(9) : 1-24.

10.3390/rs9090923
12

Cover, T. M., P. E. Hart. 1967. Nearest neighbor pattern classification. IEEE Trans. Inf. Theor. 13 : 21-27.

10.1109/TIT.1967.1053964
13

Foulkes, M. John, Gustavo A. Slafer, William J. Davies, Pete M. Berry, Roger Sylvester-Bradley, Pierre Martre, Daniel F. Calderini, Simon Griffiths, and Matthew P. Reynolds. 2011. Raising yield potential of wheat. III. optimizing partitioning to grain while maintaining lodging resistance. J. Exp. Bot. 62(2) : 469-86.

10.1093/jxb/erq300
14

Guijarro, M., G. Pajares, I. Riomoros, P. J. Herrera, X. P. Burgos-Artizzu, and A. Ribeiro. 2011. Automatic segmentation of relevant textures in agricultural images. Comput. Electron. Agric. 75(1) : 75-83.

10.1016/j.compag.2010.09.013
15

Han, D., H. Yang, G. Yang, and C. Qiu. 2017. Monitoring model of corn lodging based on Sentinel-1 radar image. Proceedings of 2017 SAR in Big Data Era: Models, Methods and Applications, BIGSARDATA 20172017- January:1-5.

10.1109/BIGSARDATA.2017.8124928
16

Han, L., G. Yang, H. Feng, C. Zhou, H. Yang, B. Xu, Z. Li, and X. Yang. 2018. Quantitative identification of maize lodging-causing feature factors using unmanned aerial vehicle images and a nomogram computation. Remote Sens. 10(10) : 1-19.

10.3390/rs10101528
17

Jin, Z., J. Shang, Q. Zhu, C. Ling, W. Xie, and B. Qiang. 2020. RFRSF: Employee turnover prediction based on random forests and survival analysis. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 12343 LNCS, pp.503-515.

10.1007/978-3-030-62008-0_35
18

Jordan, C. F. 1969. Derivation of leaf area index from quality of light on the forest floor. Ecology 50: 663-666.

10.2307/1936256
19

Jung, H., R. Tajima, R. Ye, N. Hashimoto, Y. Yang, S. Yamamoto, and K. Homma. 2023. Utilization of UAV remote sensing in plant-based field experiments: a case study of the evaluation of LAI in a small-scale sweetcorn experiment. Agriculture (Switzerland) : 13(3).

10.3390/agriculture13030561
20

Jung, H.-J., D. Jeon, K.-D. Lee, J.-H. Ryu, H.-Y. Ahn, Y-A. Jeon, and S.-G. Kim. 2024. Estimation of wheat protein content and yield under different nitrogen fertilization through UAV-based vegetation index. Korean J. Crop Sci. 69(4) : 264-272.

21

Lee, H., J. Lee, S.-H. Lee, W. Lee, H. Jeong, N. Yu, H.-E. Lee, J.-H. Moon, K.-H. Yeo, and S. Jang. 2023. Lodging resistance of crops with a focus on solanaceous vegetables: a review. J. Korean Soc. Int. Agric. 35(4) : 366-75.

10.12719/KSIA.2023.35.4.366
22

Lee, K.­D., H.-Y. An, S.-Y. Hong, C.-W. Park, K.-H. So, S.-I. Shim, G.-E. Song, and S.­I. Na. 2020. Estimation of winter wheat nitrogen content, biomass and uield using UAV images in South Korea. Korean J. Soil Sci. Fert. 53(4) : 589-99.

10.7745/KJSSF.2020.53.4.589
23

Li, Q., C. Fu, C. Liang, X. Ni, X. Zhao, M. Chen, and L. Ou. 2022. Crop lodging and the roles of lignin, cellulose, and hemicellulose in lodging resistance. Agronomy 12(8) : 1-18.

10.3390/agronomy12081795
24

Li, X., X. Li, W. Liu, B. Wei, and X. Xu. 2021. A UAV-based framework for crop lodging assessment. Eur. J. Agron. 123(November 2020) : 126201.

10.1016/j.eja.2020.126201
25

Lim T. L., H.J. Lee, K.S. Cho, D.S Song. 1992. Analysis of lodging related characteristics in rice plants. Korean J. Crop Sci. 37(1) : 78-85.

26

Mardanisamani, S., F. Maleki, S. H. Kassani, S. Rajapaksa, H. Duddu, M. Wang, S. Shirtliffe, S. Ryu, A. Josuttes, T. Zhang, S. Vail, C. Pozniak, I. Parkin, I. Stavness, and M. Eramian. 2019. Crop lodging prediction from UAV- acquired images of wheat and canola using a DCNN augmented with handcrafted texture features. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops 2019- June : 2657-64.

10.1109/CVPRW.2019.00322
27

Amaya, A., A. L. Gomez, J. T. Buitrago, C. A. Moreno, and C. Cassa lett. 1996. Characterization of lodging in sugarcane. Vol. 2. p. 321 328. In proceedings of the international society of sugarcane technologists XXII congress, cartagena colombia. 11-15 Sept. 1996. Tecnicana, Colombia.

28

Moon, H. D., J. H. Ryu, S. I. Na, S. W. Jang, S. H. Sin, and J. Cho, 2021. Comparative analysis of rice lodging area using a UAV-based multispectral imagery. Korean J. Remote Sens. 37(5-1) : 917-926.

29

Mulsanti, I. W., T. Yamamoto, T. Ueda, A. F. Samadi, Kamahora, E., I. A. Rumanti, V. C. Thanh, S. Adachi, S. Suzuki, M. Kanekatsu, T. Hirasawa, and T. Ookawa. 2018. Finding the superior allele of japonica-type for increasing stem lodging resistance in indica rice varieties using chromosome segment substitution lines. Rice 11(1) : 1-14.

10.1186/s12284-018-0216-329671092PMC5906422
30

Murakami, T., M. Yui, and K. Amaha. 2012. Canopy height measurement by photogrammetric analysis of aerial images: application to buckwheat (Fagopyrum Esculentum Moench) lodging evaluation. Comput. Electron. Agric. 89:70-75.

10.1016/j.compag.2012.08.003
31

Pérez, A. J., F. López, J. V. Benlloch, and S. Christensen. 2000. Colour and shape analysis techniques for weed detection in cereal fields. Comput. Electron. Agric. 25(3): 197-212.

10.1016/S0168-1699(99)00068-X
32

Reza Ghafarian Malamiri, H., F. A. Aliabad, S. Shojaei, M. Morad, and S. S. Band. 2021. A study on the use of UAV images to improve the separation accuracy of agricultural land areas. Comput. Electron. Agric. 184(August 2020) : 106079.

10.1016/j.compag.2021.106079
33

Rodríguez, J., I. Lizarazo, F. Prieto, and V. Angulo-Morales. 2021. Assessment of potato late blight from UAV-based multispectral imagery. Comput. Electron. Agric. 184(February).

10.1016/j.compag.2021.106061
34

Rondeaux, G., M. Steven, and F. Baret. 1996. Optimization of soil-adjusted vegetation indices. Remote Sens. Environ. 55(2) : 95-107.

10.1016/0034-4257(95)00186-7
35

Sharda, S., S. Kumar, R. Setia, P. Dhiman, N. R. Patel, B. Pateriya, A. Salem, and A. Elbeltagi. 2025. Evaluation of different spectral indices for wheat lodging assessment using machine learning algorithms. Sci. Rep. 15(1) : 1-14.

10.1038/s41598-025-09109-540594917PMC12217358
36

Shu, M., L. Zhou, X. Gu, Y. Ma, Q. Sun, G. Yang, and C. Zhou. 2020. Monitoring of maize lodging using multi-temporal Sentinel-1 SAR data. Adv. Space Res. 65(1) : 470-80.

10.1016/j.asr.2019.09.034
37

Tucker, C. J. 1979. Red and photographic infrared linear combinations for monitoring vegetation. Remote Sens. Environ. 8 : 127-150.

10.1016/0034-4257(79)90013-0
38

Walsh, Olga S., Sanaz Shafian, Juliet M. Marshall, Chad Jackson, Jordan R. McClintick-Chess, Steven M. Blanscet, Kristin Swoboda, Craig Thompson, Kelli M. Belmont, and Willow L. Walsh. 2018. Assessment of UAV based vegetation indices for nitrogen concentration estimation in spring wheat. Advances in Remote Sensing 07(02) : 71-90.

10.4236/ars.2018.72006
39

Wang, Y., M. Jin, Y. Luo, Y. Chang, J. Zhu, Y. Li, and Z. Wang. 2022. Effects of irrigation on stem lignin and breaking strength of winter wheat with different planting densities. Field Crops Res. 282 (December 2021) : 108518.

10.1016/j.fcr.2022.108518
40

Weiss, M., F. Jacob, G. Duveiller. 2020. Remote sensing for agricultural applications: a meta-review. Remote Sens. Environ. 236 : 111402

10.1016/j.rse.2019.111402
41

Wilke, N., B. Siegmann, F. Frimpong, O. Muller, L. Klingbeil, and U. Rascher. 2019. Quantifying lodging percentage, lodging development and lodging severity using a uav-based canopy height model. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences - ISPRS Archives, 42(2/W13) : 649-655.

10.5194/isprs-archives-XLII-2-W13-649-2019
42

Yang, H., E. Chen, Z. Li, C. Zhao, G. Yang, S. Pignatti, R. Casa, and L. Zhao. 2015. Wheat lodging monitoring using polarimetric index from RADARSAT-2 data. Int. J. Appl. Earth Obs. Geoinf. 34(1) : 157-66.

10.1016/j.jag.2014.08.010
43

Yu, J., T. Cheng, N. Cai, F. Lin, X. G. Zhou, S. Du, D. Zhang, G. Zhang, and D. Liang. 2022. Wheat lodging extraction using improved_Unet Network. Front. Plant Sci. 13(September) : 1-14.

10.3389/fpls.2022.100983536247550PMC9563998
44

Zang, H., X. Su, Y. Wang, G. Li, J. Zhang, G. Zheng, W. Hu, and H. Shen. 2024. Automatic grading evaluation of winter wheat lodging based on deep learning. Front. Plant Sci. 15(April) : 1-14.

10.3389/fpls.2024.128486138726297PMC11079220
45

Zhang, D., Y. Ding, P. Chen, X. Zhang, Z. Pan, and D. Liang. 2020. Automatic extraction of wheat lodging area based on transfer learning method and Deeplabv3+ Network. Comput. Electron. Agric. 179(November) : 105845.

10.1016/j.compag.2020.105845
46

Zhang, J., W. Wang, B. Krienke, Q. Cao, Y. Zhu, W. Cao, and X. Liu. 2022. In-season variable rate nitrogen recommendation for wheat precision production supported by fixed-wing UAV imagery. Precis. Agric. 23(3) : 830-53.

10.1007/s11119-021-09863-2
47

Zhang, L., H. Zhang, W. Han, Y. Niu, J. L. Chávez, and W. Ma. 2021. The mean value of gaussian distribution of excess green index: a new crop water stress indicator. Agric. Water Manage. 251 : 106866.

10.1016/j.agwat.2021.106866
48

Zhao, B., J. Li, P. S. Baenziger, V. Belamkar, Y. Ge, J. Zhang, and Y. Shi. 2020. Automatic wheat lodging detection and mapping in aerial imagery to support high-throughput phenotyping and in-season crop management. Agronomy 10(11).

10.3390/agronomy10111762
49

Zhao, L., J. Yang, P. Li, L. Shi, and L. Zhang. 2017. Characterizing lodging damage in wheat and canola using Radarsat-2 polarimetric SAR data. Remote Sens. Lett. 8(7) : 667-75.

10.1080/2150704X.2017.1312028
50

Zuo, Q., J. Kuai, L. Zhao, Z. Hu, J. Wu, and G. Zhou. 2017. The effect of sowing depth and soil compaction on the growth and yield of rapeseed in rice straw returning field. Field Crops Res. 203 : 47-54.

10.1016/j.fcr.2016.12.016
페이지 상단으로 이동하기