其中imagemerge1表示初步融合图片,imagemerge2表示融合图片,k1代表image1的权重系数,k2代表image2的权重系数,a表示拉伸系数,b表示拉伸偏移;image1表示凸台图片,image2表示端面图片。
根据本发明的一个方面,所述步骤s2包括:
s21、利用层拍相机沿z轴方向对镜头内部进行层拍获得多张图片,并按照顺序等分为多组;
s22、对每一组图片进行缺陷分割和识别,将符合缺陷标准的所有缺陷放入到缺陷容器中;
s23、在所述缺陷容器中,通过比较缺陷中心距离偏差值将同一位置处的缺陷筛选出来;
s24、根据清晰度算法筛选出同一位置处表现为清晰的缺陷,按照此缺陷判断其尺寸是否为缺陷产品。
因为手机镜头的端面区域和凸台区域存在一定的高度差,现有技术中需要拍摄两张图像并进行两次算法检测,导致检测速度慢、cpu负载高。而本发明的端面和凸台检测方法有效地解决了这一问题,具体来说,根据本发明的一种实施方式,本发明的端面和凸台检测方法需要对端面和凸台按照如下公式的模板匹配获得r(x,y)值时得到两组值(x1,y1,phi1;x2,y2,phi2)分别代表定位的x坐标、y坐标和角度:
之后对凸台图片进行仿射变换后与端面图片对齐,
目标定位是计算机视觉领域中基本的任务之一,同时它也是和传统意 义上缺陷检测接近的任务,其期的是获
得目标的位置和类别信息。目前, 基于深度学习的目标检测方法层出不穷,-般来说, 基于深度学习的缺陷
检测网络从结构.上可以划分为:以Faster R-CNN为代表的两阶段(two stage)网络和以SSD或YOLO为代表的一
阶段(one stage)网络。两者的主要差异在于两阶段网络需要首先生成可能包含缺陷的候选框(proal),然后在
进一步进行目标检测。-阶段网络直接利用网络中提取的特征来预测缺陷的位置和类别。
以上信息由专业从事在线字符检测的宣雄于2024/5/2 5:48:39发布
转载请注明来源:http://m.herostart.com/qynews/szxxznlj-2745307454.html