論文目錄 | |
摘要 | 第1-5頁 |
abstract | 第5-12頁 |
1 緒論 | 第12-22頁 |
1.1 課題來源 | 第12頁 |
1.2 研究背景和目的 | 第12-14頁 |
1.3 國內外研究現狀 | 第14-19頁 |
1.3.1 國外研究現狀 | 第15-17頁 |
1.3.2 國內研究現狀 | 第17-18頁 |
1.3.3 國內外研究現狀總結 | 第18-19頁 |
1.4 研究內容 | 第19-20頁 |
1.4.1 主要研究內容 | 第19-20頁 |
1.4.2 技術路線 | 第20頁 |
1.5 本章小結 | 第20-22頁 |
2 基于改進匹配算法的目標二維定位 | 第22-40頁 |
2.1 基于邊緣梯度方向的原形狀匹配相似性度量準則 | 第23頁 |
2.2 原形狀匹配及傳統機器學習方法的不足 | 第23-24頁 |
2.3 基于CNN的區域判斷分類——“SM-CNN” | 第24-35頁 |
2.3.1 方法流程 | 第24-25頁 |
2.3.2 基于工件3維模型的訓練集生成方法 | 第25-27頁 |
2.3.3 CNN的基本原理 | 第27-33頁 |
2.3.4 區域判斷分類網絡 | 第33-35頁 |
2.4 圖像像素坐標與標定板坐標系平面坐標的精確轉換 | 第35-38頁 |
2.5 本章小結 | 第38-40頁 |
3 基于點云配準的目標三維精確定位與姿態計算 | 第40-59頁 |
3.1 相機標定的基本原理 | 第41-45頁 |
3.1.1 相機的基本成像模型 | 第41-42頁 |
3.1.2 相機標定的基本原理 | 第42-44頁 |
3.1.3 相機立體標定的基本原理 | 第44-45頁 |
3.2 點云的生成——雙目立體視覺原理與立體匹配 | 第45-52頁 |
3.2.1 雙目立體視覺的基本原理 | 第45-47頁 |
3.2.2 立體匹配基本原理 | 第47-49頁 |
3.2.3 更好的立體匹配——基于CNN的立體匹配 | 第49-52頁 |
3.3 改進的迭代最近點法 | 第52-58頁 |
3.3.1 經典的迭代最近點法 | 第52-54頁 |
3.3.2 基于區域生長思想的非目標點去除 | 第54-55頁 |
3.3.3 迭代初值的計算 | 第55-56頁 |
3.3.4 迭代最近點法粗匹配 | 第56-57頁 |
3.3.5 改進的迭代最近點法 | 第57-58頁 |
3.4 本章小結 | 第58-59頁 |
4 視覺與機器人的關聯 | 第59-69頁 |
4.1 Eye-to-Hand關聯方式 | 第59-61頁 |
4.2 Eye- in-Hand關聯方式 | 第61-68頁 |
4.2.1 在線手眼標定原理 | 第62-65頁 |
4.2.2 基于Sylvester方程變形的手眼標定方法 | 第65-68頁 |
4.3 本章小結 | 第68-69頁 |
5 試驗與分析 | 第69-89頁 |
5.1 試驗設備 | 第69-70頁 |
5.2 目標二維識別試驗 | 第70-74頁 |
5.2.1 試驗說明 | 第70-72頁 |
5.2.2 試驗結果與分析 | 第72-74頁 |
5.3 雙目視覺定位系統誤差試驗 | 第74-76頁 |
5.3.1 試驗說明 | 第74-75頁 |
5.3.2 試驗結果 | 第75-76頁 |
5.4 目標三維精確定位與姿態計算試驗 | 第76-80頁 |
5.4.1 試驗說明 | 第76頁 |
5.4.2 試驗結果與分析 | 第76-80頁 |
5.5 關聯方式Eye- in-Hand的視覺關聯機器人重復定位誤差試驗 | 第80-82頁 |
5.5.1 試驗說明 | 第80-81頁 |
5.5.2 試驗結果與分析 | 第81-82頁 |
5.6 工件抓取試驗 | 第82-86頁 |
5.6.1 Eye-to-Hand視覺機器人系統抓取工件試驗 | 第83-84頁 |
5.6.2 Eye- in-Hand視覺機器人系統抓取工件試驗 | 第84-85頁 |
5.6.3 其他目標抓取試驗 | 第85-86頁 |
5.7 荔枝采摘試驗 | 第86-88頁 |
5.7.1 試驗說明 | 第86頁 |
5.7.2 試驗結果與分析 | 第86-88頁 |
5.8 本章小結 | 第88-89頁 |
6 總結與展望 | 第89-91頁 |
6.1 論文總結 | 第89頁 |
6.2 展望 | 第89-91頁 |
致謝 | 第91-92頁 |
參考文獻 | 第92-101頁 |
附錄A 在讀碩士期間科研成果 | 第101-103頁 |
附錄B 本文相關數據 | 第103-129頁 |