2026/1/8 7:58:51
网站建设
项目流程
网站 集约化建设管理举措,影视软件开发定制,建筑工程公司注册需要什么条件,山东建设厅网站专职安全员简介
你是不是经常在停车场周围转来转去寻找停车位。如果你的车辆能准确地告诉你最近的停车位在哪里#xff0c;那是不是很爽#xff1f;事实证明#xff0c;基于深度学习和OpenCV解决这个问题相对容易#xff0c;只需获取停车场的实时视频即可。
该项目可推荐用于毕业设计…简介你是不是经常在停车场周围转来转去寻找停车位。如果你的车辆能准确地告诉你最近的停车位在哪里那是不是很爽事实证明基于深度学习和OpenCV解决这个问题相对容易只需获取停车场的实时视频即可。该项目可推荐用于毕业设计毕设帮助开题指导资料分享疑问解答(见文末)选题指导, 项目分享见文末检测效果废话不多说 先上效果图注意车辆移动后空车位被标记上车辆移动到其他车位实现方式整体思路这个流程的第一步就是检测一帧视频中所有可能的停车位。显然在我们能够检测哪个是没有被占用的停车位之前我们需要知道图像中的哪些部分是停车位。第二步就是检测每帧视频中的所有车辆。这样我们可以逐帧跟踪每辆车的运动。第三步就是确定哪些车位目前是被占用的哪些没有。这需要结合前两步的结果。最后一步就是出现新车位时通知我。这需要基于视频中两帧之间车辆位置的变化。这里的每一步我们都可以使用多种技术用很多种方式实现。构建这个流程并没有唯一正确或者错误的方式但不同的方法会有优劣之分。使用要使用到两个视觉识别技术 识别空车位停车线识别车辆检测空车位车位探测系统的第一步是识别停车位。有一些技巧可以做到这一点。例如通过在一个地点定位停车线来识别停车位。这可以使用OpenCV提供的边缘检测器来完成。但是如果没有停车线呢我们可以使用的另一种方法是假设长时间不移动的汽车停在停车位上。换句话说有效的停车位就是那些停着不动的车的地方。但是这似乎也不可靠。它可能会导致假阳性和真阴性。那么当自动化系统看起来不可靠时我们应该怎么做呢?我们可以手动操作。与基于空间的方法需要对每个不同的停车位进行标签和训练不同我们只需标记一次停车场边界和周围道路区域即可为新的停车位配置我们的系统。在这里我们将从停车位的视频流中截取一帧并标记停车区域。Python库matplotlib 提供了称为PolygonSelector的功能。它提供了选择多边形区域的功能。我制作了一个简单的python脚本来标记输入视频的初始帧之一上的多边形区域。它以视频路径作为参数并将选定多边形区域的坐标保存在pickle文件中作为输出。importosimportnumpyasnpimportcv2importpickleimportargparseimportmatplotlib.pyplotaspltfrommatplotlib.patchesimportPolygonfrommatplotlib.widgetsimportPolygonSelectorfrommatplotlib.collectionsimportPatchCollectionfromshapely.geometryimportboxfromshapely.geometryimportPolygonasshapely_poly points[]prev_points[]patches[]total_points[]breakerFalseclassSelectFromCollection(object):def__init__(self,ax):self.canvasax.figure.canvas self.polyPolygonSelector(ax,self.onselect)self.ind[]defonselect(self,verts):globalpoints pointsverts self.canvas.draw_idle()defdisconnect(self):self.poly.disconnect_events()self.canvas.draw_idle()defbreak_loop(event):globalbreakerglobalglobSelectglobalsavePathifevent.keyb:globSelect.disconnect()ifos.path.exists(savePath):os.remove(savePath)print(data saved in savePath file)withopen(savePath,wb)asf:pickle.dump(total_points,f,protocolpickle.HIGHEST_PROTOCOL)exit()defonkeypress(event):globalpoints,prev_points,total_pointsifevent.keyn:ptsnp.array(points,dtypenp.int32)ifpoints!prev_pointsandlen(set(points))4:print(Points : str(pts))patches.append(Polygon(pts))total_points.append(pts)prev_pointspointsif__name____main__:parserargparse.ArgumentParser()parser.add_argument(video_path,helpPath of video file)parser.add_argument(--out_file,helpName of the output file,defaultregions.p)argsparser.parse_args()globalglobSelectglobalsavePath savePathargs.out_fileifargs.out_file.endswith(.p)elseargs.out_file.pprint(\n Select a region in the figure by enclosing them within a quadrilateral.)print( Press the f key to go full screen.)print( Press the esc key to discard current quadrilateral.)print( Try holding the shift key to move all of the vertices.)print( Try holding the ctrl key to move a single vertex.)print( After marking a quadrilateral press n to save current quadrilateral and then press q to start marking a new quadrilateral)print( When you are done press b to Exit the program\n)video_capturecv2.VideoCapture(args.video_path)cnt0rgb_imageNonewhilevideo_capture.isOpened():success,framevideo_capture.read()ifnotsuccess:breakifcnt5:rgb_imageframe[:,:,::-1]cnt1video_capture.release()whileTrue:fig,axplt.subplots()imagergb_image ax.imshow(image)pPatchCollection(patches,alpha0.7)p.set_array(10*np.ones(len(patches)))ax.add_collection(p)globSelectSelectFromCollection(ax)bboxplt.connect(key_press_event,onkeypress)break_eventplt.connect(key_press_event,break_loop)plt.show()globSelect.disconnect()(PS: 若代码出现bug可反馈博主 及时修改)车辆识别要检测视频中的汽车我使用Mask-RCNN。它是一个卷积神经网络对来自几个数据集包括COCO数据集的数百万个图像和视频进行了训练以检测各种对象及其边界。 Mask-RCNN建立在Faster-RCNN对象检测模型的基础上。除了每个检测到的对象的类标签和边界框坐标外Mask RCNN还将返回图像中每个检测到的对象的像pixel-wise mask。这种pixel-wise masking称为“ 实例分割”。我们在计算机视觉领域所看到的一些最新进展包括自动驾驶汽车、机器人等都是由实例分割技术推动的。M-RCNN将用于视频的每一帧它将返回一个字典其中包含边界框坐标、检测对象的masks、每个预测的置信度和检测对象的class_id。现在使用class_ids过滤掉汽车卡车和公共汽车的边界框。然后我们将在下一步中使用这些框来计算IoU。由于Mask-RCNN比较复杂这里篇幅有限需要mask-RCNN的同学联系博主获取 下面仅展示效果 项目分享:大家可自取用于参考学习获取方式见文末!