Message Board

Dear readers, authors and reviewers,you can add a message on this page. We will reply to you as soon as possible!

2022 Volume 44 Issue 8
Article Contents

ZHANG Wanhao, ZHANG Wenai, FENG Qingchun, et al. Tomato Main-stem Tracking Control Method Based on PTZ Camera[J]. Journal of Southwest University Natural Science Edition, 2022, 44(8): 216-225. doi: 10.13718/j.cnki.xdzk.2022.08.023
Citation: ZHANG Wanhao, ZHANG Wenai, FENG Qingchun, et al. Tomato Main-stem Tracking Control Method Based on PTZ Camera[J]. Journal of Southwest University Natural Science Edition, 2022, 44(8): 216-225. doi: 10.13718/j.cnki.xdzk.2022.08.023

Tomato Main-stem Tracking Control Method Based on PTZ Camera

More Information
  • Corresponding author: ZHANG Wenai ; 
  • Received Date: 11/06/2021
    Available Online: 20/08/2022
  • MSC: TP242.6; S641.2

  • A visual information acquisition system for active tracking of tomato main-stem was designed to meet the needs of tomato pruning and harvesting robots, and a tracking control method of the PTZ was proposed. The system consists of a 2-DOF PTZ and Realsense D435i depth camera. The 3D information of the tomato main-stem is acquired by the camera installed on the PTZ. On the basis of completing the calibration of PTZ and camera parameters, a proactive tracking control method based on the image morphology of the tomato main-stem is proposed. The tracking and acquisition of the image of the tomato main-stem is achieved by real-time control of camera posture. The test results showed that the maximum vertical deviation of the maximum horizontal deviation did not exceed 8 pixels, and the maximum deviation of the horizontal pixel was equivalent to 53.3% of the width of the tomato main-stem pixel when the vertical region was in the range of 600-1 500 mm and the tracking step Δl was not more than 150 mm. The results of this study can provide technical support for the intelligent operation of tomato pollination, pruning, spraying and harvesting.
  • 加载中
  • [1] 熊露, 朱孟帅. 番茄2016年市场分析及2017年市场预测[EB/OL]. 农业部市场与经济信息司, (2017-01-22)[2021-05-28]. http://www.moa.gov.cn/gk/jcyj/201701/t20170122_5461550.htm.

    Google Scholar

    [2] 王海楠, 弋景刚, 张秀花. 番茄采摘机器人识别与定位技术研究进展[J]. 中国农机化学报, 2020, 41(5): 188-196.

    Google Scholar

    [3] 成伟, 张文爱, 冯青春, 等. 基于改进YOLOv3的温室番茄果实识别估产方法[J]. 中国农机化学报, 2021, 42(4): 176-182.

    Google Scholar

    [4] 穆月英. 北京市蔬菜产业经济研究[M]. 北京: 中国农业出版社, 2013.

    Google Scholar

    [5] BOTTERILL T, PAULIN S, GREEN R, et al. A Robot System for Pruning Grape Vines[J]. Journal of Field Robotics, 2017, 34(6): 1100-1122.

    Google Scholar

    [6] 黄彪. 枇杷剪枝机器人关键技术的研究[D]. 广州: 华南理工大学, 2016.

    Google Scholar

    [7] CUEVAS-VELASQUEZ H, GALLEGO A J, TYLECEK R, et al. Real-Time Stereo Visual Servoing for Rose Pruning with Robotic Arm[C] //2020 IEEE International Conference on Robotics and Automation. May 31 - August 31, 2020, Paris, France. IEEE, 2020: 7050-7056.

    Google Scholar

    [8] 冯青春, 王秀, 刘继展, 等. 基于视觉伺服的温室番茄植株主茎跟踪与测量方法[J]. 农业机械学报, 2020, 51(11): 221-228. doi: 10.6041/j.issn.1000-1298.2020.11.024

    CrossRef Google Scholar

    [9] TOMAS D B. 配备Chameleon3相机的机器人, 被用来修剪西红柿的枯叶[EB/OL]. 机器视觉, (2022-06-07)[2020-08-06]. http://www.iianews.com/ca/_01-ABC00000000000298184.shtml.

    Google Scholar

    [10] JUN J, KIM J, SEOL J, et al. Towards an Efficient Tomato Harvesting Robot: 3D Perception, Manipulation, and End-Effector[J]. IEEE Access, 9: 17631-17640.

    Google Scholar

    [11] ARAD B, BALENDONCK J, BARTH R, et al. Development of a Sweet Pepper Harvesting Robot[J]. Journal of Field Robotics, 2020, 37(6): 1027-1039. doi: 10.1002/rob.21937

    CrossRef Google Scholar

    [12] 王志豪. 基于RGB-D图像和深度学习的抓取配置预测[D]. 济南: 山东大学, 2020.

    Google Scholar

    [13] 刘运炜. 基于RealSense的手语手势识别系统开发[D]. 哈尔滨: 黑龙江大学, 2020.

    Google Scholar

    [14] 杜福洲, 叶晗鸣. 基于视觉的大尺度部件相对位姿实时测量方法研究[J]. 航空制造技术, 2021, 64(6): 34-40, 47.

    Google Scholar

    [15] 孙鹏飞, 郭喜庆, 杨敬娴. 二自由度云台的机器视觉控制[J]. 光电工程, 2012, 39(10): 135-142.

    Google Scholar

    [16] GRAIG J J. 机器人学导论[M]. 3版. 贠超, 译. 北京: 机械工业出版社, 2006.

    Google Scholar

    [17] TSAI R Y, LENZ R K. A New Technique for Fully Autonomous and Efficient 3D Robotics Hand/Eye Calibration[J]. IEEE Transactions on Robotics and Automation, 1989, 5(3): 345-358. doi: 10.1109/70.34770

    CrossRef Google Scholar

    [18] CHAUMETTE F, HUTCHINSON S. Visual Servo Control. I. Basic Approaches[J]. IEEE Robotics & Automation Magazine, 2006, 13(4): 82-90.

    Google Scholar

  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(10)  /  Tables(2)

Article Metrics

Article views(3460) PDF downloads(913) Cited by(0)

Access History

Tomato Main-stem Tracking Control Method Based on PTZ Camera

    Corresponding author: ZHANG Wenai ; 

Abstract: A visual information acquisition system for active tracking of tomato main-stem was designed to meet the needs of tomato pruning and harvesting robots, and a tracking control method of the PTZ was proposed. The system consists of a 2-DOF PTZ and Realsense D435i depth camera. The 3D information of the tomato main-stem is acquired by the camera installed on the PTZ. On the basis of completing the calibration of PTZ and camera parameters, a proactive tracking control method based on the image morphology of the tomato main-stem is proposed. The tracking and acquisition of the image of the tomato main-stem is achieved by real-time control of camera posture. The test results showed that the maximum vertical deviation of the maximum horizontal deviation did not exceed 8 pixels, and the maximum deviation of the horizontal pixel was equivalent to 53.3% of the width of the tomato main-stem pixel when the vertical region was in the range of 600-1 500 mm and the tracking step Δl was not more than 150 mm. The results of this study can provide technical support for the intelligent operation of tomato pollination, pruning, spraying and harvesting.

  • 开放科学(资源服务)标志码(OSID):

  • 中国是世界上番茄栽培面积最大、生产总量最多的国家,常年产量在5 000 t以上,并呈现增长趋势[1]. 目前,番茄已经成为我国种植面积和产量最大的蔬菜品种之一,2020年番茄产量为6 515万t,占全国蔬菜总产量的7.1%[2]. 在番茄种植周期中,整枝打叶、授粉、采摘以及喷药等环节人工作业频次高、劳动强度大. 近年来,随着从业劳动力的流失,番茄种植管理的人工费用已达到总生产成本的35%以上,成为制约番茄种植产业效益增长的重要因素[3]. 因此,研发替代或者辅助人工作业的番茄机器人,对于我国番茄安全供应、种植产业健康发展具有重要意义.

    由于种植管理作业对象(果、叶、花)都是交错生长在番茄主茎上[4],这类作业有着相似的作业路径,都是沿着番茄主茎的生长方向进行作业. 因此对番茄植株主茎视觉信息的获取是实现对番茄智能化管理作业的重要前提,针对这类作业环节,借鉴人工作业方式,沿着番茄主茎生长方向自下而上主动搜索作业目标,是提高对作业对象定位效率和识别精度的有效方法.

    国内外学者针对果蔬的茎秆形态跟踪定位问题做了很多研究. Botterill等[5]设计的葡萄藤修剪机器人采用3个围绕葡萄藤固定安装在箱体内部的立体相机获取葡萄藤的视觉信息以实现修剪工作. 黄彪[6]设计的枇杷剪枝机器人采用2个超广角相机在3个固定高度对枇杷树做3轮扫描获取枇杷枝条的视觉信息,摄像头的畸变导致采集的图像存在较大失真. Cuevas等[7]设计的玫瑰整枝机器人采用立体相机在9个固定位姿对玫瑰灌木进行扫描获取整株玫瑰的点云图,根据相邻作业点的实时更新实现对整株玫瑰的作业. 冯青春等[8]提出的离散小视场番茄主茎测量方法,实现了对番茄主茎的测量和信息获取. 荷兰Tomas[9]团队设计的Kompano Deleaf-Line机器人采用可控的Chameleon 3相机实现了对番茄侧枝的修剪. Jon等[10]借助安装于机械手末端的深度相机获取视觉信息设计了一款番茄采摘机器人. Arad等[11]设计的甜椒收获机器人采用随末端移动的深度相机识别目标和果梗. 这些研究极大促进了玫瑰、番茄和果树等作物整枝和收获技术的进步,但这些研究中,以固定视角被动搜索目标的设计方案使得设备的体积过大,得到大量的冗余信息;以可控视角主动搜索的方式,设备轻巧灵活,获取信息可用性更大,可以提高信息的处理效率.

    针对番茄智能化作业需要,本文设计了基于云台相机的番茄主茎形态视觉信息获取系统,提出了对番茄主茎的视觉跟踪控制方法. 根据摄像机视场内的番茄主茎形态,实时调整云台姿态使番茄主茎上的跟踪参考点始终位于相机视场中心. 该研究可以为番茄整枝、授粉、喷药和采摘等智能化作业环节提供技术支撑.

1.   温室环境与跟踪原理
  • 温室番茄栽培逐渐趋于工厂化和标准化,这将有利于机器人的智能作业. 选择试验的温室栽培环境如图 1所示. 番茄栽培在离地面600 mm高的培养槽中,番茄种植行间距约为1 200 mm,株距为300 mm. 距地面600~1 500 mm的区域为番茄整枝、打叶、授粉和收获的作业区域. 随着番茄植株的生长,通过释放缠绕于主茎的吊线进行落蔓,使得作业区域相对地面高度保持不变,因此本文以此高度区域内的番茄植株为跟踪的对象.

  • 图 2所示,果实和侧枝是番茄整枝和采摘环节的作业对象. 番茄的侧枝和果实是沿着主茎生长的,由于作业对象交错生长在番茄主茎两侧,大视场下会出现信息冗余和遮挡,采用离散小视场的方法可以获取更加精确的信息. 借鉴人工作业方式,沿着番茄主茎自下而上地搜索可以提高作业对象(花、果和侧枝)的探测效率. 主动跟踪就是不断调整相机姿态使番茄主茎上变化的跟踪参考点始终位于视场中心进而实现模仿人工作业时获取视觉信息的一种目标跟踪方法.

2.   云台视觉系统设计
  • 视觉信息是支撑机器人作业的重要依据,为了避免大视场带来的信息冗余以及对目标定位和识别精度的影响,采用离散小视场方式采集信息. 本次试验设计的视觉获取系统如图 3所示.

    视觉获取系统主要由一个二自由度的云台和Intel公司的Realsense D435i深度相机组成. 云台有左右摆动和上下俯仰两个自由度,其范围分别为(-75°~+75°)和(-30°~+60°),其精度均为0.01°. Realsense D435i相机是一款深度相机,采用即用型USB供电形式,搭载Intel公司的D400系列深度模块,具备完整的深度光学解决方案. 它主要由两个红外传感器、一个1 080 P的色彩传感器和一个红外激光投射器3个部分组成[12]. D435i模仿人眼的视觉成像原理,通过两个红外传感器同时追踪由红外激光投射器发出的红外光位置,然后利用三角定位原理计算得到图像中的深度信息. 主要参数[13]表 1所示.

  • 明确云台与相机的结构位置关系是根据图像信息控制云台姿态的重要依据[14]. 通过D435i相机可以直接得到目标点在相机坐标系下的坐标,但为了实现对目标的跟踪和云台的控制,必须将其坐标转换到云台坐标系下. 如图 3所示,云台坐标系为OT-XTYTZT,相机坐标系为OC-XCYCZC,则云台坐标与相机坐标存在式(1)的转换关系[15].

    T为云台与相机坐标系之间的转换矩阵. 由式(1)可知,对云台相机做标定就是求解旋转矩阵R和平移分量t.

    图 3所示,以云台垂直自由度的转轴与云台上平面的交点O0为原点,并以左右摆动转轴向上的方向作为Z轴的正方向,以水平指向目标的方向作为X轴正方向,建立基坐标系O0-X0Y0Z0. 以云台两个旋转轴的交点OT为原点,以俯仰旋转轴为Y轴,以与相机光轴平行的方向为X轴,建立云台坐标系OT-XTYTZT. 以左红外相机的光心为原点OC建立相机坐标系OC-XCYCZCZC轴与光轴重合. 根据坐标系建立规则,基坐标系O0-X0Y0Z0与云台坐标系OT-XTYTZT的原点共线.

    已知,坐标系绕X轴和Z轴旋转具有式(2)的旋转矩阵关系[16].

    θγ分别是坐标系绕X轴和Z轴的旋转角度.

    规定云台自由度的旋转顺序为先左右摆动后上下俯仰. 则基坐标系O0-X0Y0Z0与云台坐标系OT-XTYTZT存在转换关系CT0.

    tT0为基坐标系与云台坐标系间的位移关系.

    设空间中一点q在基坐标系下为q0,在云台坐标系下为qT,根据坐标系转换原理可得式(4)的关系.

    设云台坐标系OT-XTYTZT相对于基坐标系O0-X0Y0Z0具有一定的初始姿态θ0γ0. 经过一次姿态调整后,点q在云台坐标系下为qT. 则q0qTqT存在式(5)的关系.

    Δθ和Δγ分别是云台左右摆动和上下俯仰两个自由度的增量.

    通过式(5)可以得到在云台坐标系下相邻两个姿态之间的转换关系H(i+1)i.

    在标定转换矩阵T时,通过连续两次设置云台姿态角的增量θ1γ1θ2γ2得到3个连续的云台姿态,相机分别从这3个不同的视角拍摄固定位置的靶标棋盘. 靶标平面上一固定点P在相机坐标系OC-XCYCZC和云台坐标系OT-XTYTZT中分别表示为PCiPTi. 根据获得的D435i相机的内参,可以求得靶标平面与相机姿态转换关系Ii,则相邻姿态i和(i+1)下点P在相机坐标系下的坐标PCiPCi+1存在关系IiPCi=Ii+1PCi+1. 由此可得相机坐标系在相邻姿态下的转换关系A(i+1)i=(Ii)-1Ii+1. 云台坐标系中相邻姿态的转换关系H(i+1)i可由式(6)得到H(i+1)i=(CT(θ0γ0)0)-1CT(θ0θγ0γ)0. 于是PCiPCi+1PTiPTi+1存在式(7)的关系.

    对式(7)化简处理可得TH(i+1)i=A(i+1)iT,将相邻3个姿态的参数分别带入矩阵A(i+1)iH(i+1)i中可得:

    采用Tsai两步法[17]求解式(8);已知矩阵AH的旋转轴和旋转角可以求出转换矩阵T的旋转矩阵R,再将R代入式(8)则可求出平移分量t,最后求得相机坐标系与云台坐标系的转换矩阵T.

3.   主茎跟踪控制算法
  • 根据番茄主茎生长趋势实时调整云台姿态使番茄主茎上的跟踪参考点始终位于视场中心,是实现对番茄主茎主动跟踪的基本思路. 如何确定跟踪参考点BCi和跟踪点的期望位置BCi+1是实现对番茄主茎主动跟踪的关键. 在番茄工厂化种植中,番茄主茎都做了吊绳落蔓处理,根据实地考察后发现,这些番茄植株除在根部有较大弯曲外,主茎其他部分生长趋势比较规则,在较小视场下可近似为一条空间曲线. 依据这些,提出了跟踪参考点BCi和跟踪点期望位置BCi+1的确定方法.

    番茄主茎的跟踪方案如图 4所示. 为了避免视场边缘空洞对相机获取深度信息的影响,在当前视场下选取位于视场中番茄主茎上的一点ACi作为跟踪起始点,其坐标为ACi(xciycizci),过点ACi拟合得到番茄主茎该段空间直线L的方程. 让点ACi沿着直线L方向向量移动距离Δll≥0)到达点BCi,则将点BCi确定为跟踪参考点,其坐标为BCi(xci,ycizci),示意图如图 4中(a)图所示. 跟踪目的是调整云台位姿后使跟踪参考点BCi位于下一个视场的中心位置,即视场(i+1)中的点BCi+1,则点BCi+1的坐标为BCi+1(0,0,zci+1);借助于深度相机可以得到番茄主茎上所有点的三维信息,故可以求得直线L的空间方程. 将跟踪步长Δl代入到直线L的方程中可以求得跟踪参考点BCi在相机坐标系中的三维坐标.

    式中,向量l(mnp)为直线L的单位方向向量.

    根据图 4可以看出,跟踪参考点BCi(xciycizci)和期望点BCi+1(0,0,zci+1)描述的是空间中的同一个点;同时,相机坐标系的坐标原点OC的空间位置基本不变,所以有|OCBci|=|OCBci+1|成立. 将跟踪参考点BCi和期望点BCi+1的坐标代入可以求得期望点BCi+1z坐标.

    根据式(10)可以求得期望点BCi+1(0,0,zci+1)在相机坐标系下的三维坐标.

    根据图 4的跟踪方案,已经确定了跟踪参考点BCi和期望点BCi+1在相机坐标系下的空间坐标.

  • 云台姿态的伺服控制[18]依赖于跟踪参考点BCi和期望位置BCi+1在云台坐标系中的坐标信息. 将相机坐标系下跟踪参考点BCi(xciycizci)和期望位置点BCi+1(0,0,zci+1)的坐标值分别代入到式(7)可以求得其在云台坐标系中的坐标BTiBTi+1.

    将式(11)求得的云台坐标点代入到式(6)并作齐次化处理可得:

    将参考点BTiBTi+1的坐标代入到式(12)并化简可得:

    其中c代表cos函数,s代表sin函数.

    方程(13)中包含的未知数Δθ,Δγ是云台依次绕X轴和Z轴旋转的角度增量. 解得:

    θ是每一次位姿变换前云台坐标系OT-XTYTZT相对于基坐标系O0-X0Y0Z0的上下俯仰角度,可以通过云台驱动电机编码器实时反馈得到.

4.   试验与结果分析
  • 为了验证对番茄主茎主动跟踪算法的实际效果,在北京大兴区宏福国际农业生产基地番茄工厂化温室内开展了现场试验. 选择5株番茄植株,分别在跟踪步长Δl为50 mm,100 mm,150 mm和200 mm下完成一次跟踪试验. 将安装有相机的云台固定在与番茄植株种植槽等高的可移动工作台上,云台与试验对象的水平距离为400~600 mm,跟踪的番茄主茎区域为离地600~1 500 mm高度范围内. 根据相机视场大小和试验对象的高度,需要调整云台姿态4~5次以完成对单株番茄主茎的跟踪. 为了避免引入主茎识别误差,本文以人眼对摄像机视场主茎的实时识别结果为依据,在主茎中心线上选择跟踪起始点. 基于python 3开发了云台相机的跟踪交互程序,将相机的视频流实时显示在界面上,如图 5所示,人工通过鼠标在靠近视场中心的番茄主茎上选择一个点ACi作为跟踪起始点,沿着主茎的中心线在视场上边缘主茎上再次选取一个点ACi+1. 由深度相机可得点ACiACi+1空间坐标,以两点连线ACiACi+1的立体单位向量作为当前视场主茎的单位方向向量l. 设定跟踪步长Δl下,根据式(9)可以求得跟踪参考点BCi在当前视场下的坐标. 求解云台转角位移,调整云台相机的姿态后,比较相机的视场中心点与跟踪期望点的像素偏差.

  • 试验得到的结果包括每个姿态下观测到的番茄植株离散图和参考点与当前视场中心点像素差的绝对值. 以云台姿态调整后参考点与视场中心点像素差的绝对值Vi(i+1)评价跟踪算法对番茄主茎的跟踪效果. 跟踪偏差Vi(i+1)包含水平像素偏差ui(i+1)和垂直像素偏差vi(i+1). 同时,为了验证算法是否适用于对番茄主茎的跟踪,引入番茄主茎的像素宽度,通过水平像素偏差占番茄主茎像素宽度的大小验证算法的适用性.

    式(15)中,D0为番茄主茎的像素宽度,根据试验环境测得番茄主茎像素宽度平均为15个像素.

    跟踪结果如图 6所示,是同一植株在相同姿态下不同跟踪步长的跟踪结果. 当跟踪步长Δl=200 mm时,跟踪参考点不在当前视场,为了直观体现误差,试验中可人为标记.

    对番茄植株相邻视场主茎标记点跟踪偏差Vi(i+1)的记录如表 2所示. 在不同的跟踪步长下分别得到了5组跟踪偏差数据. 分析表 2可知,当跟踪步长Δl=50 mm时,跟踪的最大水平偏差为6个像素,最大垂直偏差为5个像素,最大水平偏差占主茎像素宽度的40%;当跟踪步长Δl=100 mm时,跟踪的最大水平偏差为7个像素,最大垂直偏差为6个像素,最大水平偏差占主茎像素宽度的46.7%;当跟踪步长Δl=150 mm时,跟踪的最大水平偏差为8个像素,最大垂直偏差为7个像素,最大水平偏差占主茎像素宽度的53.3%;当跟踪步长Δl=200 mm时,跟踪的最大水平偏差为13个像素,最大垂直偏差为10个像素,最大水平偏差占主茎像素宽度的86.7%.

    图 7图 8分别是不同跟踪步长下平均水平偏差和平均垂直偏差. 观察每组跟踪步长下的跟踪偏差,随着云台姿态调整次数的增加,跟踪的平均偏差也在变大,这是由于随着跟踪的进行,跟踪对象与云台相机的距离在变大,相机的畸变变大,导致相机测距产生偏差. 比较同一次云台姿态调整后的跟踪偏差可以发现,随着跟踪步长的增加,同等姿态下跟踪偏差也在变大,因为随着跟踪步长的变大,对拟合的主茎直线L的准确率要求增加. 但是番茄主茎客观上不是一条规则的空间直线,随着跟踪步长的增加,依赖于拟合直线确定的跟踪参考点误差增大,导致跟踪的偏差也会变大. 比较每一组数据的跟踪偏差变化曲线可以发现在云台姿态第4次调整后,跟踪偏差较前3次有明显的增加,这是由于第4次姿态调整后,跟踪距离变化较大,相机畸变变大,导致跟踪效果变差.

    图 9是同一株番茄植株在不同跟踪步长下的跟踪偏差,在跟踪步长为50 mm,100 mm,150 mm时,跟踪偏差增加幅度较小,但在跟踪步长为200 mm时,跟踪偏差增加幅度较大. 说明跟踪步长在不超过150 mm时可以保证跟踪精度,当跟踪步长达到或超过200 mm时,跟踪效果变差,精度下降严重.

    图 10是不同跟踪步长下,水平平均偏差占番茄主茎像素宽度的多少,20组数据的最大水平平均偏差占主茎像宽的46.7%. 在跟踪步长为150 mm时,最大水平平均偏差占主茎像宽的40%;在跟踪步长为200 mm时,最大水平平均偏差占主茎像宽的74.7%,远高于平均水平;说明当跟踪步长Δl超过200 mm时该算法不适合跟踪番茄主茎. 可以发现当跟踪步长越小时,跟踪的精度就越高,但是跟踪的效率也会降低,综合考虑将跟踪步长Δl设置为100 mm到150 mm之间最为合适.

5.   结论
  • 为了提高对番茄智能管理作业对象的探测效率,本研究提出了一种基于云台相机的番茄主茎主动跟踪控制方法. 采用二自由度云台相机,实现了对主茎水平和垂直方向的跟踪;通过视觉系统结构参数标定,建立了云台与摄像机坐标之间的关系;提出了以主茎形态为引导的主茎跟踪控制方法,实现了摄像机视场中心对主茎的定向跟踪. 试验结果表明,在番茄植株离地600~1 500 mm高度范围内,当跟踪步长Δl≤150 mm时,平均水平偏差和平均垂直偏差不超过6个像素,水平偏差占番茄主茎像宽不超过40%;当跟踪步长Δl≥200 mm时,跟踪偏差变大,水平偏差占番茄主茎像宽超过70%. 综合考虑跟踪精度和跟踪效率,将跟踪步长设置为100~150 mm可以满足对番茄主茎的跟踪. 本研究可以为番茄的收获、打叶和授粉提供视觉信息参考.

Figure (10)  Table (2) Reference (18)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return