参见:linux下usb摄像头采集的YUYV格式转换成JPEG格式的图片
1.要用jpeg库编译,所以要先编译jpegsrc.v6b.tar.gz,
$ cd jpeg-6b
$ ./configure --prefix=/work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux
$ make
$ make install
2.然后编译video2_jpeg.c>arm-linux-gcc -o video2_jpeg video2_jpeg.c -I/work/tools/gcc -I/work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux/include -L//work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux/lib -ljpeg
源码video2_jpeg.c如下:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <assert.h>
#include <getopt.h>
#include <fcntl.h>
#include <unistd.h>
#include <errno.h>
#include <malloc.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/time.h>
#include <sys/mman.h>
#include <sys/ioctl.h>
#include <asm/types.h>
#include <linux/videodev2.h>
#include <jpeglib.h>
#define OUTPUT_BUF_SIZE 4096
#define CLEAR(x) memset(&(x), 0, sizeof(x))
#define WIDTH 320
#define HEIGHT 240
struct buffer {
void *start;
size_t length;
};
typedef struct {
struct jpeg_destination_mgr pub;
JOCTET * buffer;
unsigned char *outbuffer;
int outbuffer_size;
unsigned char *outbuffer_cursor;
int *written;
}mjpg_destination_mgr;
typedef mjpg_destination_mgr *mjpg_dest_ptr;
static char * dev_name= "/dev/video0";
static int fd= -1;
struct buffer * buffers = NULL;
static unsigned int n_buffers = 0;
FILE *file_fd;
static unsigned long file_length;
static unsigned char *file_name;
METHODDEF(void) init_destination(j_compress_ptr cinfo) {
mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;
dest->buffer =(JOCTET *)(*cinfo->mem->alloc_small)((j_common_ptr) cinfo, JPOOL_IMAGE, OUTPUT_BUF_SIZE*sizeof(JOCTET));
*(dest->written) = 0;
dest->pub.next_output_byte = dest->buffer;
dest->pub.free_in_buffer = OUTPUT_BUF_SIZE;
}
METHODDEF(boolean) empty_output_buffer(j_compress_ptr cinfo) {
mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;
memcpy(dest->outbuffer_cursor, dest->buffer, OUTPUT_BUF_SIZE);
dest->outbuffer_cursor += OUTPUT_BUF_SIZE;
*(dest->written) += OUTPUT_BUF_SIZE;
dest->pub.next_output_byte = dest->buffer;
dest->pub.free_in_buffer = OUTPUT_BUF_SIZE;
return TRUE;
}
METHODDEF(void) term_destination(j_compress_ptr cinfo) {
mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;
size_t datacount = OUTPUT_BUF_SIZE - dest->pub.free_in_buffer;
/* Write any data remaining in the buffer */
memcpy(dest->outbuffer_cursor, dest->buffer, datacount);
dest->outbuffer_cursor += datacount;
*(dest->written) += datacount;
}
void dest_buffer(j_compress_ptr cinfo, unsigned char *buffer, int size, int *written) {
mjpg_dest_ptr dest;
if(cinfo->dest == NULL) {
cinfo->dest =(struct jpeg_destination_mgr *)(*cinfo->mem->alloc_small)((j_common_ptr) cinfo, JPOOL_PERMANENT, sizeof(mjpg_destination_mgr));
}
dest =(mjpg_dest_ptr)cinfo->dest;
dest->pub.init_destination = init_destination;
dest->pub.empty_output_buffer = empty_output_buffer;
dest->pub.term_destination = term_destination;
dest->outbuffer = buffer;
dest->outbuffer_size = size;
dest->outbuffer_cursor = buffer;
dest->written = written;
}
//......YUYV.....JPEG..
int compress_yuyv_to_jpeg(unsigned char *buf, unsigned char *buffer, int size, int quality) {
struct jpeg_compress_struct cinfo;
struct jpeg_error_mgr jerr;
JSAMPROW row_pointer[1];
unsigned char *line_buffer, *yuyv;
int z;
static int written;
//int count = 0;
//printf("%s\n", buf);
line_buffer = calloc(WIDTH * 3, 1);
yuyv = buf;
printf("compress start...\n");
cinfo.err = jpeg_std_error(&jerr);
jpeg_create_compress(&cinfo);
/* jpeg_stdio_dest(&cinfo, file); */
dest_buffer(&cinfo, buffer, size, &written);
cinfo.image_width = WIDTH;
cinfo.image_height = HEIGHT;
cinfo.input_components = 3;
cinfo.in_color_space = JCS_RGB;
jpeg_set_defaults(&cinfo);
jpeg_set_quality(&cinfo, quality, TRUE);
jpeg_start_compress(&cinfo, TRUE);
z = 0;
while(cinfo.next_scanline < HEIGHT) {
int x;
unsigned char *ptr = line_buffer;
for(x = 0; x < WIDTH; x++) {
int r, g, b;
int y, u, v;
if(!z)
y = yuyv[0] << 8;
else
y = yuyv[2] << 8;
u = yuyv[1] - 128;
v = yuyv[3] - 128;
r =(y +(359 * v)) >> 8;
g =(y -(88 * u) -(183 * v)) >> 8;
b =(y +(454 * u)) >> 8;
*(ptr++) =(r > 255) ? 255 :((r < 0) ? 0 : r);
*(ptr++) =(g > 255) ? 255 :((g < 0) ? 0 : g);
*(ptr++) =(b > 255) ? 255 :((b < 0) ? 0 : b);
if(z++) {
z = 0;
yuyv += 4;
}
}
row_pointer[0] = line_buffer;
jpeg_write_scanlines(&cinfo, row_pointer, 1);
}
jpeg_finish_compress(&cinfo);
jpeg_destroy_compress(&cinfo);
free(line_buffer);
return(written);
}
static int read_frame(void)
{
struct v4l2_buffer buf;
int ret;
unsigned int i;
CLEAR(buf);
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
int ff = ioctl(fd, VIDIOC_DQBUF, &buf); ///出列采集的帧缓冲
if(ff<0)
printf("failture\n");
unsigned char src[buf.length+1];
unsigned char dest[buf.length+1];
assert(buf.index < n_buffers);
printf("buf.index dq is %d,\n",buf.index);
memcpy(src, buffers[buf.index].start, buf.length);
ret = compress_yuyv_to_jpeg(src, dest,(WIDTH * HEIGHT), 80);//....
fwrite(dest, ret, 1, file_fd);//........
ff=ioctl(fd, VIDIOC_QBUF, &buf); //....
if(ff<0)
printf("failture VIDIOC_QBUF\n");
return 1;
}
//上面四个函数都是给下面get_picture用的
//get_picture->read_frame->compress_yuyv_to_jpeg->dest_buffer
//在dest_buffer()函数中:设置
//dest =(mjpg_dest_ptr)cinfo->dest;
//dest->pub.init_destination = init_destination;
//dest->pub.empty_output_buffer = empty_output_buffer;
//dest->pub.term_destination = term_destination;
int get_picture()
{
struct v4l2_capability cap;
struct v4l2_format fmt;
unsigned int i;
enum v4l2_buf_type type;
file_fd = fopen("test-mmap.jpg", "w");
fd = open(dev_name, O_RDWR | O_NONBLOCK, 0);
int ff=ioctl(fd, VIDIOC_QUERYCAP, &cap);//.......
if(ff<0)
printf("failture VIDIOC_QUERYCAP\n");
struct v4l2_fmtdesc fmt1;
int ret;
memset(&fmt1, 0, sizeof(fmt1));
fmt1.index = 0;
fmt1.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
while((ret = ioctl(fd, VIDIOC_ENUM_FMT, &fmt1)) == 0) //...........
{
fmt1.index++;
printf("{ pixelformat = '%c%c%c%c', description = '%s' }\n",
fmt1.pixelformat & 0xFF,(fmt1.pixelformat >> 8) & 0xFF,
(fmt1.pixelformat >> 16) & 0xFF,(fmt1.pixelformat >> 24) & 0xFF,
fmt1.description);
}
CLEAR(fmt);
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.width = 640;
fmt.fmt.pix.height= 480;
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
ff = ioctl(fd, VIDIOC_S_FMT, &fmt); //......
if(ff<0)
printf("failture VIDIOC_S_FMT\n");
file_length = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height; //......
struct v4l2_requestbuffers req;
CLEAR(req);
req.count = 1;
req.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory= V4L2_MEMORY_MMAP;
ioctl(fd, VIDIOC_REQBUFS, &req);//.....count......
if(ff<0)
printf("failture VIDIOC_REQBUFS\n");
if(req.count < 1)
printf("Insufficient buffer memory\n");
buffers = calloc(req.count, sizeof(*buffers));
for(n_buffers = 0; n_buffers < req.count; ++n_buffers)
{
struct v4l2_buffer buf;
CLEAR(buf);
buf.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory= V4L2_MEMORY_MMAP;
buf.index = n_buffers;
if(-1 == ioctl(fd, VIDIOC_QUERYBUF, &buf)) //......
printf("VIDIOC_QUERYBUF error\n");
buffers[n_buffers].length = buf.length;
buffers[n_buffers].start=mmap(NULL,buf.length,PROT_READ|PROT_WRITE,MAP_SHARED,fd,buf.m.offset); //..mmap......
if(MAP_FAILED == buffers[n_buffers].start)
printf("mmap failed\n");
}
for(i = 0; i < n_buffers; ++i)
{
struct v4l2_buffer buf;
CLEAR(buf);
buf.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory= V4L2_MEMORY_MMAP;
buf.index = i;
if(-1 == ioctl(fd, VIDIOC_QBUF, &buf))//..........
printf("VIDIOC_QBUF failed\n");
}
type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if(-1 == ioctl(fd, VIDIOC_STREAMON, &type)) //........
printf("VIDIOC_STREAMON failed\n");
for(;;) //........IO
{
fd_set fds;
struct timeval tv;
int r;
FD_ZERO(&fds);//............
FD_SET(fd, &fds);//....................
/* Timeout. */
tv.tv_sec = 2;
tv.tv_usec = 0;
r = select(fd + 1, &fds, NULL, NULL, &tv);//......(...........tv...
if(-1 == r)
{
if(EINTR == errno)
continue;
printf("select err\n");
}
if(0 == r)
{
fprintf(stderr, "select timeout\n");
return -1;
}
if(read_frame())//.......read_frame..
break;
}
for(i = 0; i < n_buffers; ++i)
if(-1 == munmap(buffers[i].start, buffers[i].length))
printf("munmap error");
type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if(-1 == ioctl(fd, VIDIOC_STREAMOFF, &type))
printf("VIDIOC_STREAMOFF");
close(fd);
fclose(file_fd);
return 0;
}
//main函数中调用这个函数就可以了
get_picture();
return 0;
}
原本经济危机来了,FACEBOOK估值从150亿美金跌至40亿;国内互联网创投环境也日趋寒冷,而在舆论界,关于SNS的话题似乎热度未减,当然在精彩文章之中也夹杂着一些隔靴搔痒式的讨论;
最近,时值腾讯QQ空间及手机社区平台高速发展,迭创新高;我也想结合自身的工作实践,简单地聊一些关于SNS的理解;
个人认为,从严格产品意义而言,国外是FACEBOOK,国内是校内网最先实现相对完整地SNS社区产品架构的;而早期的网易社区,腾讯IM平台,早期博客形态的QQ空间,包括现在一些手机社区,都和SNS有些偏差;
具体地讨论以下问题:
1)SNS社区的三层产品架构: Profile;Relation;Content&App;
2)SNS三层产品架构之间的关联与相互依存;
3)关系链开放及NewsFeed,SNS的重要元素;
4)市场上SNS产品形态及商务模式;
1. SNS 社区的 三层产品架构;
从概念上,SNS是一种新的在线生活方式;连FACEBOOK自己都说自己不是一个网站,而是在创造一种新的网络生活方式;这个理念和腾讯的“在线社区产业”是相通;
从外部一些文章可看到,腾讯形成了在线社区3C产业链,分为三层,从下到上分别是用户(Customer), 社区(Community), 内容(Content);这是腾讯的创造性贡献;
其实,具体到一个SNS社区产品模型,从下到上也分为三层:
1)底层,Profile;用户的属性描述及行为画像;
比如用户的社会属性,姓名,性别,年龄,职业等;还包括用户的爱好,服务使用倾向等推导属性;
这相当于社区的“地基”,一定要建立的很稳固,这里有几种细分:
一类是用户的直接属性;
表现为用户可以通过直接引导填写的信息;如姓名,年龄,性别,职业,毕业年份等基本社会属性;看到所有的SNS都在引导用户填写,甚至采用一些激励措施;
二类是用户在社区中生存所获得的社区属性;比如成长等级,称号,虚拟职务,角色等;
三类是用户的隐藏的扩展属性;
即系统通过对用户在各类社区长久活动留下痕迹的智能挖掘与分析,所形成的对用户有统计意义的商业偏好属性;比如用户XX,是一个30岁左右,怀孕期的妈妈,对婴儿用品,化妆品有独特的潜在偏好;
一个不同完善程度的社区系统,对于一个用户信息的收集也是不同层次的;而所有的商业网站通过持久竞争,留下来最宝贵的核心竞争信息,就是对用户个人信息的掌握能力了;
2)中间,Relation; 用户群内部关系链;
在WEB1.0时代,每天浏览SINA的人可能有100万,但他们虽然同在访问一个网站,同看一条新闻,但相互之间无法察觉,无法交流和沟通,这100万人中是孤立的,没有关系链;
随着WEB2.0元素的发展,网站经营者知道给每个访问的用户一个ID,让他们相互可见,并提供他们相互联系,认识并熟知的工具和手段(比如站内消息,相互访问首页);
用户群的“网络效应”
用户群中的关系链是具有“网络效应”的,当用户群规模到一定的临界点,不需要外部推动,通过低成本口碑传播可以像雪球一样的自我滚动壮大的;所以,在网站发展初期,很多网站都要拼命烧钱,送鸡腿等推广方式,要把用户群推到这个临界点;这还可以叫做“群聚效应”;
很多WEB2.0概念的网络产品都开始意识到用户群内部“网络效应”而得以壮大,比如QQ的IM关系链是最稳定的一种;淘宝网中买家和卖家之间的网络效应也十分强大;
关系链,包括人与人的关系;人与群体的关系;群与群的关系;
具体表现为,好友关系(强关系链),关注追随关系(弱关系链),同好关系,(同爱好,粉丝圈);同地域关系(同城)等;
在一个SNS社区产品中,关系链是非常核心的,是“聚气”的;在产品构建之处就需要优先考虑;
3)上层, 内容(Content)和应用(Application);
内容(content), 包括两类,
一类,是网站经营者官方提供的资讯,图片,音乐,等浏览类的资源;
二类,是UGC(User Generated Content),用户自创造自组织的内容;
可表现为,个人日志(Blog),相片,即时博客(如短文本Qzone心情,Twitter);
内容,从表现形式及载体上从简单到丰富,从简单文本,短文本,到图片,音频,甚至个人视频,随着网络硬件条件的发展,内容的主流载体将更加RICH化;
内容从本质上,满足了用户的几类基本地广泛的需求:
1. 信息获取的需求
2.个性化表达与倾诉的需求(UGC,通过个人日志,心情,图片等表达自己的存在感,这个符合人对自我存在感的心理诉求)
应用(Application);
App 是有点偏技术化的术语了,相对于平台而言,它有一定的业务逻辑独立性,可以插件化的与平台轻度耦合;
App可以表现一个互动游戏或应用软件,在Facebook的平台上表现为web方式;在Iphone的平台上为独立可运行的软件方式;
SNS中的App,要调用到下层的用户属性信息(profile), 中间的关系链信息(relation). 以及电子支付系统等;
App和内容一样,是分为主流和长尾;
主流App用户接受度高,比如朋友买卖,抢车位,在用户群中可获得很高覆盖率;长尾APP,只针对某一个细分的用户群某一特定偏好,但规模化的App可以覆盖一个广阔用户;
关于App的开放问题
当前比较热的话题是SNS平台的开放,通过开放API,引入更多的第三方App开发者,平台经营者聚集更多的产业资源,引入竞争,发挥群众的创意和智慧,;
但平台开放,也给平台经营者的运营能力提出很大挑战;比如平台的安全策略,承载性能,APP的审核等管理机制等。这涉及到对一个产业链下游的经营问题。
二, Profile,关系链,App 之间的关系
1)经过用户在SNS社区中的生活,Profile将自我演化,逐步丰富和清晰;
SNS社区是一个平台,生活着千百万的网络用户,一开始除了用户填写的一些基本资料,我们对他的了解是模糊的,比如一个个带着面纱的用户;
随着用户在此平台上,UGC产生内容,浏览自己个性化的新闻内容,加入自己喜爱的投票或粉丝圈,玩自己喜爱的游戏,购买自己喜爱的商品…
用户在使用APP和Content的所有过程中会留下痕迹和脚印;这些碎片化的信息被沉淀下来,通过数据挖掘是可以构成对此用户进一步清晰的画像;从而达到对此用户的精准认知;
比如FACEBOOK这类的用户行为挖掘系统,像一个黑盒子,输入一个用户的ID,系统会告诉你这个人的商业价值倾向,直接对应到不同行业的商业广告价值中;
2)用户通过在App之间的互动,强化关系链粘性,并扩展关系链;
对于关系链而言,用户之间在共同参与APP互动中,好友之间增强沟通了解,关系链粘度提升;用户在对“同好”,“同城”的参与过程中,会拓展新的关系链;同时通过六度概念“朋友的朋友”来不断的延伸自己的关系圈;
3)App和内容等“题材”是聚集人气的核心要素;下两层是基础设施,是粘住人气的核心要素;
在SNS中,“题材”是吸引人气的核心要素;某一个内容或某一款App 或许可以引爆流行,快速吸引来大量用户;同时,“题材”都是有生命周期的,需要持续的更新;如果这个更新是网站经营者做,那维护成本就很高;如果是用户通过UGC可以自我更新,那这是成本最低的方式;
比如一个投票的APP,看上去简单,却具有很持续的生命力,用户可以自发的创建投票,在关系链中传播,不断保持活力;而抢车位这个App看上去很火,但用户的生命周期很短,很快就会厌倦,需要不断的更新游戏规则,或者用新的游戏“开心农场”替代;
当时开心网或许就有此类问题,抢车位带来了大量人气,但没有很及时做下两层的建设工作,而导致人气也很快散去;相信如果不重视基础设施工作,光靠频繁的引入App刺激人气,是疲于奔命的;而QQ空间和QQ校友是一个比较好的典范,先建设好基础的UGC这些长远价值的东西,至于App建设上,在跟随中创新了;
平台为王的时代,下两层是平台的基础设置。
App是插件,可拆卸;SNS的核心竞争力并不是App,而是Profile和关系链这些平台基础设施;
三,关系链开放,Newsfeeds , 是SNS中的重要元素:
除了上面的三层产品架构之外;还有其他重要的元素,我认为可以识别一个SNS是否完备,或是否符合WEB2.0精神实质。
1) 关系链的开放性;
简单的说,SNS产品中形成一个契约,加入这个平台中,默认的大家都将自己的关系链开放出来,便于通过“朋友的朋友”来扩展关系链;这个更符合“六度关系理论”的精髓;
早期的互联网产品形态中,EMAIL, IM 产品,也包含有关系链,但是个人封闭的,无法拓展;所以,我个人不认为他们属于SNS的范畴,只不过是SNS之间用户之间的具体沟通工具而已;MAIL是异步通信;IM是同步通信;现在校内网也有IM工具校内通,这些都是SNS社区中用户的沟通工具;
2)News Feeds的创新
这是一个很重要的概念,对于FACEBOOK的推动是历史性的,对SNS的发展也是至关重要;我认为这个News Feeds 本身不是FACEBOOK的发明,但它却创新性的应用到人际网络中,用于信息沟通与传递,获得了巨大成功,而被国内SNS跟随;
说到News Feed,不得不提RSS;
我个人有一种提法:RSS的出现揭示WEB2.0时代的萌芽;WEB2.0是什么,有很多概念解释,我认为简单的说就是“以人为本”;
WEB1.0时代,互联网是“以信息为本”,网站经营者雇佣一群编辑收集,创造,整理内容来让网民进行主动浏览(信息的GET时代);然而,随着互联网的发展,用户本质上的个性化诉求与信息海量化之间的矛盾日益突出;
信息的获取方式必然要创新;于是RSS产生了。
RSS约定了一种信息共享方式和数据格式规范;用户可以事先设定好过滤条件,信息有更新时,主动从News Feeds 信息源,PUSH 到用户的面前;这个是方案本身是很美妙的。然而并没有十分火爆起来,这与网站追求PageView的商业利益之间冲突有关;
而随着用户之间关系的密切发展,动态的信息在关系链之间的传播非常重要;用NewsFeed来解决是再好不过。于是一种新的人际网络中的信息沟通方式产生了:
在这个SNS平台上,大家形成一个契约,你可以默认将你的动态通过news feeds 传播到关系链中去,传播到群关系中;也可以坐等着朋友的最新动态发过来;
这是一种创新的沟通方式,想象这么一个场景:我每天早上起来,打开手机或PC进入我的QQ空间,看到同事XXX在丽江手机拍的照片;看到同学XX写了心情说工作压力大啊,心情很郁闷;看到朋友XXX说,深圳做大雨,不小心感冒了…
如果构建一个SNS社区,Newsfeeds 是必不可缺的,至于关系链开放,可以根据具体情况分层次而定;以QQ空间为例,因为QQ原关系链是私密的,当前往SNS去转的时候,必然会采用一些过渡策略;
四、市场中的SNS产品形态及商务模式;
目前,国内的SNS跟随者还是比较丰富的,从SNS社区发展轨迹来看,从某一个细分群体切入,再扩大的发展策略比较典型;
1)百花齐放的SNS,细分是趋势;
Facebook,最早是从大学生用户群发展而来,校内网直接步其后尘;
开心网由于最早从抢车位App切入,赢得了一批office白领用户群;
同楼网,直接从地域维度切入发展了一批白领用户;
QQ校友,也是直接从QQ用户中里的高校学生群体切入;
至于QQ空间,这个非实名的社区,我一直不敢称之为严格意义上的SNS;虽然当前QQ关系链经过这么多年的互联网文化发展,和陌生人聊天已不是主流,QQ中逐渐沉淀成为熟人关系链;三层架构也有了,Newsfeeds 也很丰富了;唯一就是关系链的开放还由于历史原因无法解决;
ChinaRen 社区,我们发现也开始有了一些三层架构的眉目;
其实,其他只要有用户群的网站,比如淘宝,百度,SINA,只要按SNS的架构来建设产品功能,都是很容易发展成综合性或垂直细分的SNS的;这里没有技术门槛,产品架构也都是相同,我想关键的是团队的竞争力还有市场先机了。因为SNS不同于工具化产品,包含网络效应,谁先粘住用户群,谁就越容易成功;
至于手机终端的SNS,其实原则都是一致的,日本的MIXI,GREE等手机社区偏重娱乐及虚拟化场景建设,通过手机游戏实现商务模式;国内的天下网,稀饭,乐讯,摩网等有些类似;但有的还是典型的WEB1.0个人空间的形态;
2) 真实还是虚拟,都有生存空间;
从Profile和关系链真实性出发,又有真实的SNS和虚拟的SNS社区;
这两类产品都有存在空间,有各自的商务模式;都有存在的理由,我想从未来趋势看,基于真实关系的SNS必然有更稳固的关系链,商业价值也更加突出;
3)商务模式的问题:
关于SNS的商务模式,网上的讨论也比较多;从商业利益输入者的角色来分:
一是 ToB,通过精准定向广告获利。
相对传统门户网站广告,有一些优势:
1)可以摆脱门户网站有限的广告位置资源限制;
2)对用户精确广告投放,更容易获得广告主青睐的定向投放,也减少对用户的骚扰;是理论上的用户和网站双赢的广告模式;只不过最大的挑战在于,网站经营者的后台定位系统是否精准;
二是 ToC,
姜奇平教授说,互联网商务模式中,人是基础设施;有了大量可精确把握其需求的用户群,就好办了。而且在电子支付手段目前已经逐渐普及的背景下;
1)虚拟物品增值;
通过在SNS网站中经营虚拟的增值物品,比如Avatar,虚拟礼物是腾讯的拿手好戏,Facebook的GIFT APP也赚了不少;
2)和电子商务,招聘网站结合
通过SNS来和电子商务网站结合,通过精准定位向用户经营真实物品,是一个可行的方式;通过和招聘网站结合,想目标客户推荐工作也是好办法;
而且,SNS有一个可通过Newsfeed进行营销的优势,这类信息通过Newsfeed在关系链中传播,包含了朋友之间的情感因素,可接受程度提高;
3)通过App游戏盈利;
这个和1)有些类似,只不过游戏类App包含完整的商业逻辑,可以刺激购买游戏道具获利;当前互联网产业中,游戏盈利能力也是最强大的;快速抓住机会在App短暂的生命周期内获利是现实之路;
虽然有这么多赚钱的方法,但因为市场时机问题,除了腾讯恐怕很多SNS网站还在烧钱过冬;而从成本来,SNS产品的运营成本随着用户规模化发展会快速升高,对服务器后端海量存储,并发性能等都有非常高的要求;现在赶上经济危机,VC这一块更加谨慎,有的SNS网站在冬天来临前已经准备了过冬的棉袄(如校内网)可能还好一些;有的却已经在寒风中开始瑟瑟发抖;但不管如何,从最初的“和陌生人聊天”的触网快感,到现在接受实名的SNS的网络社区,中国的网络文化再不断演进,这里必然会有很多的颠覆性的商业机会;
我相信,中国SNS的未来一定是充满前途的!
[OpenGL ES 08]Per-Pixel Light及卡通效果
罗朝辉 (http://blog.csdn.com/kesalin/)
本文遵循“署名-非商业用途-保持一致”创作公用协议
这是《OpenGL ES 教程》的第九篇,前八篇请参考如下链接:
前言
本文是基于前文《光照原理》以及《Per-Vertex Light及深度缓存》两篇文章的,如果你还不熟悉光照相关的基础知识,请先阅读那两篇文章。在今天的这篇文章中,我们来研究 Per-Pixel 光照效果以及卡通效果。Per-Pixel 光照效果就是在片元着色阶段针对每个像素进行光照计算,而卡通效果是将散射光因子“分级”从而不再是连续(打个比方说,考试成绩上百分制是连续的,而分级制:好/良好/及格/不及格就不是连续的),这样就能获得漫反射跳跃的卡通效果。Per-Pixel Light 示例源码在这里,运行效果如下:
一,创建工程
Per-Vertex light 与 Per-Pixel 的光照计算基本上相同,只是进行的时机不同,Per-Vertex Light 在顶点着色阶段针对每个顶点进行光照计算,而 Per-Pixel 是在片元着色阶段针对每个像素进行光照计算。因此,本文将在前文《Per-Vertex Light及深度缓存》源码的基础上继续进行。
二,Per-Pixel Light
1,修改顶点着色
这次,顶点着色脚本非常简单,因为光照计算工作都将转移到片元着色脚本中进行。为了方便与前文中的脚本进行对比,在这里,保留前文中的脚本,新建 PerPixelVertex.glsl 以及 PerPixelFragment.glsl 脚本。
PerPixelVertex.glsl 脚本内容如下:
uniform mat4 projection; uniform mat4 modelView; uniform mat3 normalMatrix; attribute vec4 vPosition; attribute vec3 vNormal; attribute vec3 vDiffuseMaterial; varying vec3 vEyeSpaceNormal; varying vec3 vDiffuse; void main(void) { gl_Position = projection * modelView * vPosition; vEyeSpaceNormal = normalMatrix * vNormal; vDiffuse = vDiffuseMaterial; }
从上面的代码中可以看到,顶点着色器只是简单地转换 local space 中的法线到 view space,然后将相关 varying 传递给片元着色器。
PerPixelFragment.glsl 脚本内容如下:
varying mediump vec3 vEyeSpaceNormal; varying mediump vec3 vDiffuse; uniform highp vec3 vLightPosition; uniform highp vec3 vAmbientMaterial; uniform highp vec3 vSpecularMaterial; uniform highp float shininess; void main() { highp vec3 N = normalize(vEyeSpaceNormal); highp vec3 L = normalize(vLightPosition); highp vec3 E = vec3(0, 0, 1); highp vec3 H = normalize(L + E); highp float df = max(0.0, dot(N, L)); highp float sf = max(0.0, dot(N, H)); sf = pow(sf, shininess); mediump vec3 color = vAmbientMaterial + df * vDiffuse + sf * vSpecularMaterial; gl_FragColor = vec4(color, 1); }
从上面的代码可以看到,原先在顶点着色器中进行的光照计算被转移到片元着色器中了。这里没有什么特别的,光照计算过程还是前面两篇文章介绍的那些内容,因此在这里就不再累述了。
为了方便在不同着色脚本之间进行切换,我定义了一个 LightMode 枚举:
enum LightMode { PerVertex, PerPixel, PerPixelToon, }; const LightMode CurrentLightMode = PerPixel;
并在 setProgram 中根据当前的光照计算模式来载入对应的脚本:
- (void)setupProgram { // Load shaders // NSString * vertexShaderPath = nil; NSString * fragmentShaderPath = nil; if (CurrentLightMode == PerVertex) { vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"VertexShader" ofType:@"glsl"]; fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"FragmentShader" ofType:@"glsl"]; } else if (CurrentLightMode == PerPixelToon) { vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelVertex" ofType:@"glsl"]; fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelToonFragment" ofType:@"glsl"]; } else { // default per-pixel light vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelVertex" ofType:@"glsl"]; fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelFragment" ofType:@"glsl"]; } //...... }
编译运行,效果如下图。细心的童鞋可以比较 Per-Vertex 与 Per-Pixel 两种光照的效果。Per-Vertex 光照计算是在顶点着色阶段进行,然后在光栅化阶段进行线性插值;而 Per-Pixel 光照计算是在片元着色阶段针对每一个像素进行,因此后者要比前者更加细致逼真,效果更好一些,当然计算量自然也要大。
三,卡通效果
前面说过,卡通效果是将散射光因子“分级”从而不再是连续的,打个比方说,考试成绩上百分制是连续的,而分级制:好/良好/及格/不及格就不是连续的,这样就能获得漫反射跳跃的卡通效果。
新建 PerPixelToonFragment.glsl 脚本,其内容如下:
varying mediump vec3 vEyeSpaceNormal; varying mediump vec3 vDiffuse; uniform highp vec3 vLightPosition; uniform highp vec3 vAmbientMaterial; uniform highp vec3 vSpecularMaterial; uniform highp float shininess; void main() { highp vec3 N = normalize(vEyeSpaceNormal); highp vec3 L = normalize(vLightPosition); highp vec3 E = vec3(0, 0, 1); highp vec3 H = normalize(L + E); highp float df = max(0.0, dot(N, L)); highp float sf = max(0.0, dot(N, H)); sf = pow(sf, shininess); if (df < 0.1) df = 0.0; else if (df < 0.2) df = 0.2; else if (df < 0.4) df = 0.4; else if (df < 0.6) df = 0.6; else if (df < 0.8) df = 0.8; else df = 1.0; mediump vec3 color = vAmbientMaterial + df * vDiffuse + sf * vSpecularMaterial; gl_FragColor = vec4(color, 1); }
注意看粗体部分,这就是新增的部分。这部分代码将漫反射因子调整为五个级别:0.0,0.2,0.6,0.8,1.0,因此漫反射就有层次效果了。如下图所示:
四,总结
Per-Vertex 与 Per-Pixel 两种光照的异同:两者都是基于相同的光照原理来进行光照计算的,Per-Vertex 光照计算是在顶点着色阶段进行,然后在光栅化阶段进行线性插值;而 Per-Pixel 光照计算是在片元着色阶段针对每一个像素进行。因此后者要比前者效果更好,看上去更加细致逼真,当然计算量自然也要多一些。
卡通效果是将漫反射因子分级,从而形成不连续的跳跃的漫反射效果。在本文中,是在片元着色阶段进行卡通效果处理的,它也可以在顶点着色阶段进行。
在这个系列的介绍中,只提及了一些简单的光照效果,还有很多更加逼真的光照算法或技巧没有涉及,比如菲涅尔效果或使用光照贴图。
菲涅尔效果:根据观察者的观察表面来调整反射率来实现的。比如你从水面,油漆表面或者丝绸的正上方看,反射光泽的柔和效果基本没有,如果侧着或平着看的话,反射光泽的柔和效果就很明显。
光照贴图:使用预先处理好的明暗纹理来模拟光照,这样可以减少实时的光照计算,但这样的技巧只适用于静态场景。