切换马甲
上一页
下一页
TA最新文章
默认分类
文章数:9
文章总阅读量:1.9k
文章总收藏量:0
文章总点赞量:0
按发布时间
按阅读量
按点赞量
-
文章目录 前言一、安装pytorch1.创建新的环境2.下载YOLOv5 github项目3.安装相关依赖库和包4.验证二、运行detect.py文件总结前言最近实习任务为黑烟检测,想起了可以尝试用yolov5来跑下,之前一直都是用的RCN2024-02-19 15:29:340 0 227
-
文章目录 前言1.编译caffer1.1安装虚拟机1.2安装caffer1.3编译python接口2.适应wk的yolov5模型训练2.1下载yolov5-6.0项目源码2.2安装yolov5-6.0运行环境2.3修改模型2.4修改数据集22024-02-19 15:26:470 0 301
-
查看图像数据的端点信息grep '' /sys/class/video4linux/video*/name ISP: rkisp_mainpath:视频输出 rkisp_selfpath:视频输出 rkisp-statistics:3A 统计 rkisp-input-params:3A 参数设置 查看系统当前DRM情况modetest 输出信息(部分) Connectors: id2023-12-21 16:28:560 0 225
-
在嵌入式linux平台中,大部分工作都是填充根文件系统,在开发中,根文件系统一般都是以目录的方法放在开发宿主机上。 当根文件系统填充完成后,我们需要将其打包成xxx.img或者其他的镜像格式。本文以xxx.img镜像格式为例,描述如何将根文件系统打包成img的镜像文件。 本文打包的根文件系统目录结构和文件如下图所示: 这些目录和文件都存放在rootfs目录下。 我们在rootfs目录的同级目录下2024-01-02 16:12:050 0 354
-
要理解什么是深度神经网络的“训练(training)”,我们可以把它类比成在学校中学习。神经网络和大多数人一样——为了完成一项工作,需要接受教育。 具体来说,经过训练(training)的神经网络可以将其所学应用于数字世界的任务——例如:识别图像、口语词、血液疾病,或者向某人推荐她/他接下来可能要购买的鞋子等各种各样的应用。这种更快更高效的版本的神经网络可以基于其训练成果对其所获得的新数据进行「推2024-01-12 15:04:460 0 70
-
第一次接触模型训练和在开发板部署,过程曲折,从开始的一脸懵到最后模型部署成功,查阅了不少资料和学习了不少大佬的经验,在这里记录一下过程和心得。 一、总体思路首先在本机上使用yolov5代码训练自己的数据集,得到训练后的pt模型,然后通过export.py转化出onnx模型,最后通过瑞芯微官方代码,将onnx模型转化为rknn模型,实现在rv1126开发板上实现模型部署。 ps:为什么不直接使用2024-01-18 18:05:380 0 245
-
YOLOv4 darknet模型转换成caffemodel上网搜过很多转换教程,但是很多都少了一些步骤,这里的话自己整理一份教程,本人实测可以转换成功,如果大家觉得有用,关注点赞加收藏也是一种美德哦. 1. 准备训练好的darknet模型以及配置文件如下图所示这里只需要darknet版本的cfg文件以及weights文件即可,data和names文件可以不用 2. git克隆转换文件仓库克隆模型2024-01-22 10:56:030 0 256
-
本文接上一篇:YOLOv4 darknet模型转换成caffemodel再转om在Atlas服务器上面推理(一)把caffemodel转成om模型,然后在Atlas的服务器上面使用acl进行推理。 1. 修改转换好的YOLOv4 caffemodel的prototxt文件由于caffe并不支持YOLOv4的一些层,并且转换时候自动忽略,这里需要手动添加回caffe忽略的层,我们打开xxxxx.pr2024-01-22 15:27:250 0 146
-
前言最近一直在研究海思的嵌入式设备的模型部署,手头上面训练好的YOLOv3 Pytorch版本的模型需要放在海思的嵌入式芯片上面去推理,我的芯片是Hi3519AV100(对应nnie版本是1.2)。查看官方文档,发现都是一些什么IDE使用指南之类的,写的都是边边角角,没有一个整个能够跑通的demo。所以,自己研究了好久,走了很多弯路,终于找到一套能够完全跑通的链路,这里分享给大家,让大家能够在实际2024-01-22 16:01:530 0 103