当前位置: 技术问答>linux和unix
如何实现摄像头拍照功能???在线等待
来源: 互联网 发布时间:2016-11-16
本文导语: 本帖最后由 dingyuanpu 于 2010-09-15 15:15:22 编辑 我在做一个远程网络监控的项目,基于arm9和Linux的,视频服务器使用的是mjpg-streamer, 通过远程浏览器访问开发板,cgi做后台处理, 如何实现拍照功能呢? | ...
通过远程浏览器访问开发板,cgi做后台处理,
如何实现拍照功能呢?
|
1、写个中间库,用于在arm9上控制摄像头
2、写cgi程序调用中间库来控制摄像头。
3、打开开发板上的http服务
这样,远端机器就可以通过浏览器访问开发板上的cgi程序来控制摄像头,也就可以拍照了。
2、写cgi程序调用中间库来控制摄像头。
3、打开开发板上的http服务
这样,远端机器就可以通过浏览器访问开发板上的cgi程序来控制摄像头,也就可以拍照了。
|
摄像机程序可以修改吗?如果可以的话,非常简单。点击的时候,把当前拍到画面保存下来就行了。
如果不能修改摄像机程序的话,那么分析一下摄像机程序是如何处理拍摄的画面的。例如怎么缓存?怎么保存?是否需要在某个显示设备上显示?等等
如果不能修改摄像机程序的话,那么分析一下摄像机程序是如何处理拍摄的画面的。例如怎么缓存?怎么保存?是否需要在某个显示设备上显示?等等
|
建议用V4L2来读取摄像头的数据。然后保存成文件就行了。必要的话,通过网络发送到浏览器中显示出来。
|
可以看看luvcview或mjpg-streamer的源代码,前者我看过,有保存为图片的函数。
|
因为摄像机已经打开该设备,所以只能从output_http plugin中截获一张图片,保存,但是应该怎么实现呢?
-------------------------------
output_http plugin这个我不懂的。
但是,无论如何,你总得通过代码来获取缓冲区的数据,再保存啊。
同意楼上的看法。
-------------------------------
output_http plugin这个我不懂的。
但是,无论如何,你总得通过代码来获取缓冲区的数据,再保存啊。
同意楼上的看法。
|
直接读取视频数据,保存为图片。