当前位置:  编程技术>移动开发
本页文章导读:
    ▪把YUYV转化作jpg格式(改进v4l2的应用程序编写)        把YUYV转化为jpg格式(改进v4l2的应用程序编写) 参见:linux下usb摄像头采集的YUYV格式转换成JPEG格式的图片 1.要用jpeg库编译,所以要先编译jpegsrc.v6b.tar.gz, $ cd jpeg-6b  $ ./configure --prefix=/work/t.........
    ▪ 对SNS的了解        对SNS的理解         原本经济危机来了,FACEBOOK估值从150亿美金跌至40亿;国内互联网创投环境也日趋寒冷,而在舆论界,关于SNS的话题似乎热度未减,当然在精彩文章之中也夹杂着一些隔.........
    ▪ [OpenGL ES 08]Per-Pixel Light及卡通片效果       [OpenGL ES 08]Per-Pixel Light及卡通效果 [OpenGL ES 08]Per-Pixel Light及卡通效果 罗朝辉 (http://blog.csdn.com/kesalin/) 本文遵循“署名-非商业用途-保持一致”创作公用协议   这是《OpenGL ES 教程》的第九篇.........

[1]把YUYV转化作jpg格式(改进v4l2的应用程序编写)
    来源: 互联网  发布时间: 2014-02-18
把YUYV转化为jpg格式(改进v4l2的应用程序编写)

参见:linux下usb摄像头采集的YUYV格式转换成JPEG格式的图片

1.要用jpeg库编译,所以要先编译jpegsrc.v6b.tar.gz,

$ cd jpeg-6b

 $ ./configure --prefix=/work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux

 $ make

 $ make install

2.然后编译video2_jpeg.c

>arm-linux-gcc -o video2_jpeg video2_jpeg.c -I/work/tools/gcc -I/work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux/include -L//work/tools/gcc-3.4.5-glibc-2.3.6/arm-linux/lib -ljpeg

源码video2_jpeg.c如下:

#include <stdio.h>


#include <stdlib.h>

#include <string.h>

#include <assert.h>

#include <getopt.h>

#include <fcntl.h>

#include <unistd.h>

#include <errno.h>

#include <malloc.h>

#include <sys/stat.h>

#include <sys/types.h>

#include <sys/time.h>

#include <sys/mman.h>

#include <sys/ioctl.h>

#include <asm/types.h>

#include <linux/videodev2.h>

#include <jpeglib.h>

 

#define OUTPUT_BUF_SIZE 4096

#define CLEAR(x) memset(&(x), 0, sizeof(x))

#define WIDTH 320

#define HEIGHT 240

 

struct buffer {

 void *start;

 size_t length;

};

 

typedef struct {

struct jpeg_destination_mgr pub;

 

JOCTET * buffer;

 

unsigned char *outbuffer;

int outbuffer_size;

unsigned char *outbuffer_cursor;

int *written;

 

}mjpg_destination_mgr;

 

typedef mjpg_destination_mgr *mjpg_dest_ptr;

 

static char * dev_name= "/dev/video0";

static int fd= -1;
struct buffer * buffers = NULL;
static unsigned int n_buffers = 0;
FILE *file_fd;

static unsigned long file_length;

static unsigned char *file_name;

 

METHODDEF(void) init_destination(j_compress_ptr cinfo) {

mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;

dest->buffer =(JOCTET *)(*cinfo->mem->alloc_small)((j_common_ptr) cinfo, JPOOL_IMAGE, OUTPUT_BUF_SIZE*sizeof(JOCTET));

*(dest->written) = 0;

dest->pub.next_output_byte = dest->buffer;

dest->pub.free_in_buffer = OUTPUT_BUF_SIZE;

}

 

METHODDEF(boolean) empty_output_buffer(j_compress_ptr cinfo) {

mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;

memcpy(dest->outbuffer_cursor, dest->buffer, OUTPUT_BUF_SIZE);

dest->outbuffer_cursor += OUTPUT_BUF_SIZE;

*(dest->written) += OUTPUT_BUF_SIZE;

dest->pub.next_output_byte = dest->buffer;

dest->pub.free_in_buffer = OUTPUT_BUF_SIZE;

 

return TRUE;

}

 

METHODDEF(void) term_destination(j_compress_ptr cinfo) {

mjpg_dest_ptr dest =(mjpg_dest_ptr) cinfo->dest;

size_t datacount = OUTPUT_BUF_SIZE - dest->pub.free_in_buffer;

/* Write any data remaining in the buffer */

memcpy(dest->outbuffer_cursor, dest->buffer, datacount);

dest->outbuffer_cursor += datacount;

*(dest->written) += datacount;

}

 

void dest_buffer(j_compress_ptr cinfo, unsigned char *buffer, int size, int *written) {

mjpg_dest_ptr dest;

if(cinfo->dest == NULL) {

cinfo->dest =(struct jpeg_destination_mgr *)(*cinfo->mem->alloc_small)((j_common_ptr) cinfo, JPOOL_PERMANENT, sizeof(mjpg_destination_mgr));

}

 

dest =(mjpg_dest_ptr)cinfo->dest;

dest->pub.init_destination = init_destination;

dest->pub.empty_output_buffer = empty_output_buffer;

dest->pub.term_destination = term_destination;

dest->outbuffer = buffer;

dest->outbuffer_size = size;

dest->outbuffer_cursor = buffer;

dest->written = written;

}

 

//......YUYV.....JPEG..

int compress_yuyv_to_jpeg(unsigned char *buf, unsigned char *buffer, int size, int quality) {

struct jpeg_compress_struct cinfo;

struct jpeg_error_mgr jerr;

JSAMPROW row_pointer[1];

unsigned char *line_buffer, *yuyv;

int z;

static int written;

//int count = 0;

//printf("%s\n", buf);

line_buffer = calloc(WIDTH * 3, 1);

yuyv = buf;
printf("compress start...\n");

cinfo.err = jpeg_std_error(&jerr);

jpeg_create_compress(&cinfo);

/* jpeg_stdio_dest(&cinfo, file); */

dest_buffer(&cinfo, buffer, size, &written);

 

cinfo.image_width = WIDTH;

cinfo.image_height = HEIGHT;

cinfo.input_components = 3;

cinfo.in_color_space = JCS_RGB;

 

jpeg_set_defaults(&cinfo);

jpeg_set_quality(&cinfo, quality, TRUE);

jpeg_start_compress(&cinfo, TRUE);

 

z = 0;

while(cinfo.next_scanline < HEIGHT) {

int x;

unsigned char *ptr = line_buffer;

 

for(x = 0; x < WIDTH; x++) {

int r, g, b;

int y, u, v;

 

if(!z)

y = yuyv[0] << 8;

else

y = yuyv[2] << 8;

u = yuyv[1] - 128;

v = yuyv[3] - 128;

 

r =(y +(359 * v)) >> 8;

g =(y -(88 * u) -(183 * v)) >> 8;

b =(y +(454 * u)) >> 8;

 

*(ptr++) =(r > 255) ? 255 :((r < 0) ? 0 : r);

*(ptr++) =(g > 255) ? 255 :((g < 0) ? 0 : g);

*(ptr++) =(b > 255) ? 255 :((b < 0) ? 0 : b);

 

if(z++) {

z = 0;

yuyv += 4;

}

}

 

row_pointer[0] = line_buffer;

jpeg_write_scanlines(&cinfo, row_pointer, 1);

}

 

jpeg_finish_compress(&cinfo);

jpeg_destroy_compress(&cinfo);

 

free(line_buffer);

return(written);

}

 


//读取一帧的内容

static int read_frame(void)

{

 struct v4l2_buffer buf;

 int ret;

 unsigned int i;

 CLEAR(buf);

 buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

 buf.memory = V4L2_MEMORY_MMAP;

 int ff = ioctl(fd, VIDIOC_DQBUF, &buf); ///出列采集的帧缓冲

 if(ff<0)

 printf("failture\n");

 unsigned char src[buf.length+1];

 unsigned char dest[buf.length+1];

 assert(buf.index < n_buffers);

printf("buf.index dq is %d,\n",buf.index);

 

 memcpy(src, buffers[buf.index].start, buf.length);

 ret = compress_yuyv_to_jpeg(src, dest,(WIDTH * HEIGHT), 80);//....

 fwrite(dest, ret, 1, file_fd);//........

 ff=ioctl(fd, VIDIOC_QBUF, &buf); //....

 if(ff<0)

 printf("failture VIDIOC_QBUF\n");

 return 1;

}

 

//上面四个函数都是给下面get_picture用的

//get_picture->read_frame->compress_yuyv_to_jpeg->dest_buffer

//在dest_buffer()函数中:设置

//dest =(mjpg_dest_ptr)cinfo->dest;

//dest->pub.init_destination = init_destination;

//dest->pub.empty_output_buffer = empty_output_buffer;

//dest->pub.term_destination = term_destination;


int get_picture()

{

 struct v4l2_capability cap;

 struct v4l2_format fmt;

 unsigned int i;

 enum v4l2_buf_type type;

 

 file_fd = fopen("test-mmap.jpg", "w");

 fd = open(dev_name, O_RDWR | O_NONBLOCK, 0);

 int ff=ioctl(fd, VIDIOC_QUERYCAP, &cap);//.......

 

 if(ff<0)

 printf("failture VIDIOC_QUERYCAP\n");

 

 struct v4l2_fmtdesc fmt1;

 int ret;

 

 memset(&fmt1, 0, sizeof(fmt1));

fmt1.index = 0;

fmt1.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

while((ret = ioctl(fd, VIDIOC_ENUM_FMT, &fmt1)) == 0) //...........

{

fmt1.index++;

printf("{ pixelformat = '%c%c%c%c', description = '%s' }\n",

fmt1.pixelformat & 0xFF,(fmt1.pixelformat >> 8) & 0xFF,

 (fmt1.pixelformat >> 16) & 0xFF,(fmt1.pixelformat >> 24) & 0xFF,

 fmt1.description);

}

 CLEAR(fmt);

 fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

 fmt.fmt.pix.width = 640;

 fmt.fmt.pix.height= 480;

 fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

 fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;

 

 ff = ioctl(fd, VIDIOC_S_FMT, &fmt); //......

 if(ff<0)

 printf("failture VIDIOC_S_FMT\n");

 

 file_length = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height; //......

 struct v4l2_requestbuffers req;

 CLEAR(req);

 req.count = 1;

 req.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;

 req.memory= V4L2_MEMORY_MMAP;

 

 ioctl(fd, VIDIOC_REQBUFS, &req);//.....count......

 if(ff<0)

printf("failture VIDIOC_REQBUFS\n");

 if(req.count < 1)

printf("Insufficient buffer memory\n");

buffers = calloc(req.count, sizeof(*buffers));
 
for(n_buffers = 0; n_buffers < req.count; ++n_buffers)
{

struct v4l2_buffer buf;

CLEAR(buf);

buf.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory= V4L2_MEMORY_MMAP;

buf.index = n_buffers;

 if(-1 == ioctl(fd, VIDIOC_QUERYBUF, &buf)) //......

 printf("VIDIOC_QUERYBUF error\n");

 buffers[n_buffers].length = buf.length;

buffers[n_buffers].start=mmap(NULL,buf.length,PROT_READ|PROT_WRITE,MAP_SHARED,fd,buf.m.offset); //..mmap......

 if(MAP_FAILED == buffers[n_buffers].start)

 printf("mmap failed\n");

 }

 

 for(i = 0; i < n_buffers; ++i)

 {

struct v4l2_buffer buf;

CLEAR(buf);

buf.type= V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory= V4L2_MEMORY_MMAP;

buf.index = i;

if(-1 == ioctl(fd, VIDIOC_QBUF, &buf))//..........

printf("VIDIOC_QBUF failed\n");

 }

 type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

 if(-1 == ioctl(fd, VIDIOC_STREAMON, &type)) //........

 printf("VIDIOC_STREAMON failed\n");

 

 for(;;) //........IO

 {

fd_set fds;

struct timeval tv;

int r;

 FD_ZERO(&fds);//............

FD_SET(fd, &fds);//....................

 /* Timeout. */

tv.tv_sec = 2;

tv.tv_usec = 0;

r = select(fd + 1, &fds, NULL, NULL, &tv);//......(...........tv...

if(-1 == r)

{

 if(EINTR == errno)
continue;
printf("select err\n");
}

if(0 == r)
{
fprintf(stderr, "select timeout\n");
return -1;
}

 

if(read_frame())//.......read_frame..
 break;
 }

 for(i = 0; i < n_buffers; ++i)
if(-1 == munmap(buffers[i].start, buffers[i].length))
 printf("munmap error");
 type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

if(-1 == ioctl(fd, VIDIOC_STREAMOFF, &type))
printf("VIDIOC_STREAMOFF");
close(fd);
fclose(file_fd);
return 0;
}


//main函数中调用这个函数就可以了

int main(){
    get_picture();
 
    return 0;
    }


    
[2] 对SNS的了解
    来源: 互联网  发布时间: 2014-02-18
对SNS的理解

        原本经济危机来了,FACEBOOK估值从150亿美金跌至40亿;国内互联网创投环境也日趋寒冷,而在舆论界,关于SNS的话题似乎热度未减,当然在精彩文章之中也夹杂着一些隔靴搔痒式的讨论;

  最近,时值腾讯QQ空间及手机社区平台高速发展,迭创新高;我也想结合自身的工作实践,简单地聊一些关于SNS的理解;

  个人认为,从严格产品意义而言,国外是FACEBOOK,国内是校内网最先实现相对完整地SNS社区产品架构的;而早期的网易社区,腾讯IM平台,早期博客形态的QQ空间,包括现在一些手机社区,都和SNS有些偏差;

  具体地讨论以下问题:

  1)SNS社区的三层产品架构: Profile;Relation;Content&App;

  2)SNS三层产品架构之间的关联与相互依存;

  3)关系链开放及NewsFeed,SNS的重要元素;

  4)市场上SNS产品形态及商务模式;

  1. SNS 社区的 三层产品架构;

  从概念上,SNS是一种新的在线生活方式;连FACEBOOK自己都说自己不是一个网站,而是在创造一种新的网络生活方式;这个理念和腾讯的“在线社区产业”是相通;

  从外部一些文章可看到,腾讯形成了在线社区3C产业链,分为三层,从下到上分别是用户(Customer), 社区(Community), 内容(Content);这是腾讯的创造性贡献;

其实,具体到一个SNS社区产品模型,从下到上也分为三层:

1)底层,Profile;用户的属性描述及行为画像;

  比如用户的社会属性,姓名,性别,年龄,职业等;还包括用户的爱好,服务使用倾向等推导属性;

  这相当于社区的“地基”,一定要建立的很稳固,这里有几种细分:

  一类是用户的直接属性;

  表现为用户可以通过直接引导填写的信息;如姓名,年龄,性别,职业,毕业年份等基本社会属性;看到所有的SNS都在引导用户填写,甚至采用一些激励措施;

  二类是用户在社区中生存所获得的社区属性;比如成长等级,称号,虚拟职务,角色等;

  三类是用户的隐藏的扩展属性;

  即系统通过对用户在各类社区长久活动留下痕迹的智能挖掘与分析,所形成的对用户有统计意义的商业偏好属性;比如用户XX,是一个30岁左右,怀孕期的妈妈,对婴儿用品,化妆品有独特的潜在偏好;

一个不同完善程度的社区系统,对于一个用户信息的收集也是不同层次的;而所有的商业网站通过持久竞争,留下来最宝贵的核心竞争信息,就是对用户个人信息的掌握能力了;


2)中间,Relation; 用户群内部关系链;


  在WEB1.0时代,每天浏览SINA的人可能有100万,但他们虽然同在访问一个网站,同看一条新闻,但相互之间无法察觉,无法交流和沟通,这100万人中是孤立的,没有关系链;

  随着WEB2.0元素的发展,网站经营者知道给每个访问的用户一个ID,让他们相互可见,并提供他们相互联系,认识并熟知的工具和手段(比如站内消息,相互访问首页);

  用户群的“网络效应”

  用户群中的关系链是具有“网络效应”的,当用户群规模到一定的临界点,不需要外部推动,通过低成本口碑传播可以像雪球一样的自我滚动壮大的;所以,在网站发展初期,很多网站都要拼命烧钱,送鸡腿等推广方式,要把用户群推到这个临界点;这还可以叫做“群聚效应”;

  很多WEB2.0概念的网络产品都开始意识到用户群内部“网络效应”而得以壮大,比如QQ的IM关系链是最稳定的一种;淘宝网中买家和卖家之间的网络效应也十分强大;

  关系链,包括人与人的关系;人与群体的关系;群与群的关系;

  具体表现为,好友关系(强关系链),关注追随关系(弱关系链),同好关系,(同爱好,粉丝圈);同地域关系(同城)等;

在一个SNS社区产品中,关系链是非常核心的,是“聚气”的;在产品构建之处就需要优先考虑;


3)上层, 内容(Content)和应用(Application);


  内容(content), 包括两类,

  一类,是网站经营者官方提供的资讯,图片,音乐,等浏览类的资源;

  二类,是UGC(User Generated Content),用户自创造自组织的内容;

可表现为,个人日志(Blog),相片,即时博客(如短文本Qzone心情,Twitter);

  内容,从表现形式及载体上从简单到丰富,从简单文本,短文本,到图片,音频,甚至个人视频,随着网络硬件条件的发展,内容的主流载体将更加RICH化;

  内容从本质上,满足了用户的几类基本地广泛的需求:

1.  信息获取的需求

2.个性化表达与倾诉的需求(UGC,通过个人日志,心情,图片等表达自己的存在感,这个符合人对自我存在感的心理诉求)

  应用(Application);

  App 是有点偏技术化的术语了,相对于平台而言,它有一定的业务逻辑独立性,可以插件化的与平台轻度耦合;

  App可以表现一个互动游戏或应用软件,在Facebook的平台上表现为web方式;在Iphone的平台上为独立可运行的软件方式;

  SNS中的App,要调用到下层的用户属性信息(profile), 中间的关系链信息(relation). 以及电子支付系统等;

  App和内容一样,是分为主流和长尾;

  主流App用户接受度高,比如朋友买卖,抢车位,在用户群中可获得很高覆盖率;长尾APP,只针对某一个细分的用户群某一特定偏好,但规模化的App可以覆盖一个广阔用户;

  关于App的开放问题

  当前比较热的话题是SNS平台的开放,通过开放API,引入更多的第三方App开发者,平台经营者聚集更多的产业资源,引入竞争,发挥群众的创意和智慧,;

  但平台开放,也给平台经营者的运营能力提出很大挑战;比如平台的安全策略,承载性能,APP的审核等管理机制等。这涉及到对一个产业链下游的经营问题。

  

二, Profile,关系链,App 之间的关系

  1)经过用户在SNS社区中的生活,Profile将自我演化,逐步丰富和清晰;

SNS社区是一个平台,生活着千百万的网络用户,一开始除了用户填写的一些基本资料,我们对他的了解是模糊的,比如一个个带着面纱的用户;

随着用户在此平台上,UGC产生内容,浏览自己个性化的新闻内容,加入自己喜爱的投票或粉丝圈,玩自己喜爱的游戏,购买自己喜爱的商品…

用户在使用APP和Content的所有过程中会留下痕迹和脚印;这些碎片化的信息被沉淀下来,通过数据挖掘是可以构成对此用户进一步清晰的画像;从而达到对此用户的精准认知;

  比如FACEBOOK这类的用户行为挖掘系统,像一个黑盒子,输入一个用户的ID,系统会告诉你这个人的商业价值倾向,直接对应到不同行业的商业广告价值中;

  2)用户通过在App之间的互动,强化关系链粘性,并扩展关系链;

  对于关系链而言,用户之间在共同参与APP互动中,好友之间增强沟通了解,关系链粘度提升;用户在对“同好”,“同城”的参与过程中,会拓展新的关系链;同时通过六度概念“朋友的朋友”来不断的延伸自己的关系圈;

  3)App和内容等“题材”是聚集人气的核心要素;下两层是基础设施,是粘住人气的核心要素;

  在SNS中,“题材”是吸引人气的核心要素;某一个内容或某一款App 或许可以引爆流行,快速吸引来大量用户;同时,“题材”都是有生命周期的,需要持续的更新;如果这个更新是网站经营者做,那维护成本就很高;如果是用户通过UGC可以自我更新,那这是成本最低的方式;

  比如一个投票的APP,看上去简单,却具有很持续的生命力,用户可以自发的创建投票,在关系链中传播,不断保持活力;而抢车位这个App看上去很火,但用户的生命周期很短,很快就会厌倦,需要不断的更新游戏规则,或者用新的游戏“开心农场”替代;

  当时开心网或许就有此类问题,抢车位带来了大量人气,但没有很及时做下两层的建设工作,而导致人气也很快散去;相信如果不重视基础设施工作,光靠频繁的引入App刺激人气,是疲于奔命的;而QQ空间和QQ校友是一个比较好的典范,先建设好基础的UGC这些长远价值的东西,至于App建设上,在跟随中创新了;

平台为王的时代,下两层是平台的基础设置。

App是插件,可拆卸;SNS的核心竞争力并不是App,而是Profile和关系链这些平台基础设施;


三,关系链开放,Newsfeeds , 是SNS中的重要元素:


除了上面的三层产品架构之外;还有其他重要的元素,我认为可以识别一个SNS是否完备,或是否符合WEB2.0精神实质。

1)  关系链的开放性;

  简单的说,SNS产品中形成一个契约,加入这个平台中,默认的大家都将自己的关系链开放出来,便于通过“朋友的朋友”来扩展关系链;这个更符合“六度关系理论”的精髓;

  早期的互联网产品形态中,EMAIL, IM 产品,也包含有关系链,但是个人封闭的,无法拓展;所以,我个人不认为他们属于SNS的范畴,只不过是SNS之间用户之间的具体沟通工具而已;MAIL是异步通信;IM是同步通信;现在校内网也有IM工具校内通,这些都是SNS社区中用户的沟通工具;

2)News Feeds的创新

这是一个很重要的概念,对于FACEBOOK的推动是历史性的,对SNS的发展也是至关重要;我认为这个News Feeds 本身不是FACEBOOK的发明,但它却创新性的应用到人际网络中,用于信息沟通与传递,获得了巨大成功,而被国内SNS跟随;

  说到News Feed,不得不提RSS;

  我个人有一种提法:RSS的出现揭示WEB2.0时代的萌芽;WEB2.0是什么,有很多概念解释,我认为简单的说就是“以人为本”;

  WEB1.0时代,互联网是“以信息为本”,网站经营者雇佣一群编辑收集,创造,整理内容来让网民进行主动浏览(信息的GET时代);然而,随着互联网的发展,用户本质上的个性化诉求与信息海量化之间的矛盾日益突出;

  信息的获取方式必然要创新;于是RSS产生了。

RSS约定了一种信息共享方式和数据格式规范;用户可以事先设定好过滤条件,信息有更新时,主动从News Feeds 信息源,PUSH 到用户的面前;这个是方案本身是很美妙的。然而并没有十分火爆起来,这与网站追求PageView的商业利益之间冲突有关;

  而随着用户之间关系的密切发展,动态的信息在关系链之间的传播非常重要;用NewsFeed来解决是再好不过。于是一种新的人际网络中的信息沟通方式产生了:

  在这个SNS平台上,大家形成一个契约,你可以默认将你的动态通过news feeds 传播到关系链中去,传播到群关系中;也可以坐等着朋友的最新动态发过来;

  这是一种创新的沟通方式,想象这么一个场景:我每天早上起来,打开手机或PC进入我的QQ空间,看到同事XXX在丽江手机拍的照片;看到同学XX写了心情说工作压力大啊,心情很郁闷;看到朋友XXX说,深圳做大雨,不小心感冒了…

  如果构建一个SNS社区,Newsfeeds 是必不可缺的,至于关系链开放,可以根据具体情况分层次而定;以QQ空间为例,因为QQ原关系链是私密的,当前往SNS去转的时候,必然会采用一些过渡策略;

  

四、市场中的SNS产品形态及商务模式;

  目前,国内的SNS跟随者还是比较丰富的,从SNS社区发展轨迹来看,从某一个细分群体切入,再扩大的发展策略比较典型;

  1)百花齐放的SNS,细分是趋势;

  Facebook,最早是从大学生用户群发展而来,校内网直接步其后尘;

  开心网由于最早从抢车位App切入,赢得了一批office白领用户群;

  同楼网,直接从地域维度切入发展了一批白领用户;

  QQ校友,也是直接从QQ用户中里的高校学生群体切入;

  至于QQ空间,这个非实名的社区,我一直不敢称之为严格意义上的SNS;虽然当前QQ关系链经过这么多年的互联网文化发展,和陌生人聊天已不是主流,QQ中逐渐沉淀成为熟人关系链;三层架构也有了,Newsfeeds 也很丰富了;唯一就是关系链的开放还由于历史原因无法解决;

  ChinaRen 社区,我们发现也开始有了一些三层架构的眉目;

  其实,其他只要有用户群的网站,比如淘宝,百度,SINA,只要按SNS的架构来建设产品功能,都是很容易发展成综合性或垂直细分的SNS的;这里没有技术门槛,产品架构也都是相同,我想关键的是团队的竞争力还有市场先机了。因为SNS不同于工具化产品,包含网络效应,谁先粘住用户群,谁就越容易成功;

  至于手机终端的SNS,其实原则都是一致的,日本的MIXI,GREE等手机社区偏重娱乐及虚拟化场景建设,通过手机游戏实现商务模式;国内的天下网,稀饭,乐讯,摩网等有些类似;但有的还是典型的WEB1.0个人空间的形态;

  2) 真实还是虚拟,都有生存空间;

  从Profile和关系链真实性出发,又有真实的SNS和虚拟的SNS社区;

  这两类产品都有存在空间,有各自的商务模式;都有存在的理由,我想从未来趋势看,基于真实关系的SNS必然有更稳固的关系链,商业价值也更加突出;

  3)商务模式的问题:

  关于SNS的商务模式,网上的讨论也比较多;从商业利益输入者的角色来分:

  一是 ToB,通过精准定向广告获利。

相对传统门户网站广告,有一些优势:

1)可以摆脱门户网站有限的广告位置资源限制;

2)对用户精确广告投放,更容易获得广告主青睐的定向投放,也减少对用户的骚扰;是理论上的用户和网站双赢的广告模式;只不过最大的挑战在于,网站经营者的后台定位系统是否精准;

  二是 ToC,

  姜奇平教授说,互联网商务模式中,人是基础设施;有了大量可精确把握其需求的用户群,就好办了。而且在电子支付手段目前已经逐渐普及的背景下;

  1)虚拟物品增值;

  通过在SNS网站中经营虚拟的增值物品,比如Avatar,虚拟礼物是腾讯的拿手好戏,Facebook的GIFT APP也赚了不少;

  2)和电子商务,招聘网站结合

  通过SNS来和电子商务网站结合,通过精准定位向用户经营真实物品,是一个可行的方式;通过和招聘网站结合,想目标客户推荐工作也是好办法;

  而且,SNS有一个可通过Newsfeed进行营销的优势,这类信息通过Newsfeed在关系链中传播,包含了朋友之间的情感因素,可接受程度提高;

  3)通过App游戏盈利;

  这个和1)有些类似,只不过游戏类App包含完整的商业逻辑,可以刺激购买游戏道具获利;当前互联网产业中,游戏盈利能力也是最强大的;快速抓住机会在App短暂的生命周期内获利是现实之路;

  虽然有这么多赚钱的方法,但因为市场时机问题,除了腾讯恐怕很多SNS网站还在烧钱过冬;而从成本来,SNS产品的运营成本随着用户规模化发展会快速升高,对服务器后端海量存储,并发性能等都有非常高的要求;现在赶上经济危机,VC这一块更加谨慎,有的SNS网站在冬天来临前已经准备了过冬的棉袄(如校内网)可能还好一些;有的却已经在寒风中开始瑟瑟发抖;但不管如何,从最初的“和陌生人聊天”的触网快感,到现在接受实名的SNS的网络社区,中国的网络文化再不断演进,这里必然会有很多的颠覆性的商业机会;

  我相信,中国SNS的未来一定是充满前途的!



    
[3] [OpenGL ES 08]Per-Pixel Light及卡通片效果
    来源: 互联网  发布时间: 2014-02-18
[OpenGL ES 08]Per-Pixel Light及卡通效果

[OpenGL ES 08]Per-Pixel Light及卡通效果

罗朝辉 (http://blog.csdn.com/kesalin/)

本文遵循“署名-非商业用途-保持一致”创作公用协议

 

这是《OpenGL ES 教程》的第九篇,前八篇请参考如下链接:

[OpenGL ES 01]iOS上OpenGL ES之初体验
[OpenGL ES 02]OpenGL ES渲染管线与着色器
[OpenGL ES 03]3D变换:模型,视图,投影与Viewport
[OpenGL ES 04]3D变换实践篇:平移,旋转,缩放
[OpenGL ES 05]相对空间变换与颜色
[OpenGL ES 06]使用VBO:顶点缓存
[OpenGL ES 07-1]光照原理
[OpenGL ES 07-2]Per-Vertex Light及深度缓存

前言

本文是基于前文《光照原理》以及《Per-Vertex Light及深度缓存》两篇文章的,如果你还不熟悉光照相关的基础知识,请先阅读那两篇文章。在今天的这篇文章中,我们来研究 Per-Pixel 光照效果以及卡通效果。Per-Pixel 光照效果就是在片元着色阶段针对每个像素进行光照计算,而卡通效果是将散射光因子“分级”从而不再是连续(打个比方说,考试成绩上百分制是连续的,而分级制:好/良好/及格/不及格就不是连续的),这样就能获得漫反射跳跃的卡通效果。Per-Pixel Light 示例源码在这里,运行效果如下:


 

一,创建工程

Per-Vertex light 与 Per-Pixel 的光照计算基本上相同,只是进行的时机不同,Per-Vertex Light 在顶点着色阶段针对每个顶点进行光照计算,而 Per-Pixel 是在片元着色阶段针对每个像素进行光照计算。因此,本文将在前文《Per-Vertex Light及深度缓存》源码的基础上继续进行。

 

二,Per-Pixel Light

1,修改顶点着色

这次,顶点着色脚本非常简单,因为光照计算工作都将转移到片元着色脚本中进行。为了方便与前文中的脚本进行对比,在这里,保留前文中的脚本,新建 PerPixelVertex.glsl 以及 PerPixelFragment.glsl 脚本。

PerPixelVertex.glsl 脚本内容如下:

uniform mat4 projection;
uniform mat4 modelView;
uniform mat3 normalMatrix;

attribute vec4 vPosition;
attribute vec3 vNormal;
attribute vec3 vDiffuseMaterial;

varying vec3 vEyeSpaceNormal;
varying vec3 vDiffuse;

void main(void)
{
    gl_Position = projection * modelView * vPosition;
    
    vEyeSpaceNormal = normalMatrix * vNormal;
    vDiffuse = vDiffuseMaterial;
}

从上面的代码中可以看到,顶点着色器只是简单地转换 local space 中的法线到 view space,然后将相关 varying 传递给片元着色器。

PerPixelFragment.glsl 脚本内容如下:

varying mediump vec3 vEyeSpaceNormal;
varying mediump vec3 vDiffuse;

uniform highp vec3 vLightPosition;
uniform highp vec3 vAmbientMaterial;
uniform highp vec3 vSpecularMaterial;
uniform highp float shininess;

void main()
{
    highp vec3 N = normalize(vEyeSpaceNormal);
    highp vec3 L = normalize(vLightPosition);
    highp vec3 E = vec3(0, 0, 1);
    highp vec3 H = normalize(L + E);

    highp float df = max(0.0, dot(N, L));
    highp float sf = max(0.0, dot(N, H));
    sf = pow(sf, shininess);

    mediump vec3 color = vAmbientMaterial + df * vDiffuse + sf * vSpecularMaterial;
    
    gl_FragColor = vec4(color, 1);
}

从上面的代码可以看到,原先在顶点着色器中进行的光照计算被转移到片元着色器中了。这里没有什么特别的,光照计算过程还是前面两篇文章介绍的那些内容,因此在这里就不再累述了。

为了方便在不同着色脚本之间进行切换,我定义了一个 LightMode 枚举:

enum LightMode {
    PerVertex,
    PerPixel,
    PerPixelToon,
};
const LightMode CurrentLightMode = PerPixel;

并在 setProgram 中根据当前的光照计算模式来载入对应的脚本:

- (void)setupProgram
{
    // Load shaders
    //
    NSString * vertexShaderPath = nil;
    NSString * fragmentShaderPath = nil;

    if (CurrentLightMode == PerVertex) {
        vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"VertexShader"
                                                           ofType:@"glsl"];
        fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"FragmentShader"
                                                             ofType:@"glsl"];
    }
    else if (CurrentLightMode == PerPixelToon) {
        vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelVertex"
                                                           ofType:@"glsl"];
        fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelToonFragment"
                                                             ofType:@"glsl"];
    }
    else  {
        // default per-pixel light
        vertexShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelVertex"
                                                           ofType:@"glsl"];
        fragmentShaderPath = [[NSBundle mainBundle] pathForResource:@"PerPixelFragment"
                                                             ofType:@"glsl"];
    }
    
    //......
}

编译运行,效果如下图。细心的童鞋可以比较 Per-Vertex 与 Per-Pixel 两种光照的效果。Per-Vertex 光照计算是在顶点着色阶段进行,然后在光栅化阶段进行线性插值;而 Per-Pixel 光照计算是在片元着色阶段针对每一个像素进行,因此后者要比前者更加细致逼真,效果更好一些,当然计算量自然也要大。


 

三,卡通效果

前面说过,卡通效果是将散射光因子“分级”从而不再是连续的,打个比方说,考试成绩上百分制是连续的,而分级制:好/良好/及格/不及格就不是连续的,这样就能获得漫反射跳跃的卡通效果。

新建 PerPixelToonFragment.glsl 脚本,其内容如下:

varying mediump vec3 vEyeSpaceNormal;
varying mediump vec3 vDiffuse;

uniform highp vec3 vLightPosition;
uniform highp vec3 vAmbientMaterial;
uniform highp vec3 vSpecularMaterial;
uniform highp float shininess;

void main()
{
    highp vec3 N = normalize(vEyeSpaceNormal);
    highp vec3 L = normalize(vLightPosition);
    highp vec3 E = vec3(0, 0, 1);
    highp vec3 H = normalize(L + E);

    highp float df = max(0.0, dot(N, L));
    highp float sf = max(0.0, dot(N, H));
    sf = pow(sf, shininess);
    
    if (df < 0.1)
        df = 0.0;
    else if (df < 0.2)
        df = 0.2;
    else if (df < 0.4)
        df = 0.4;
    else if (df < 0.6)
        df = 0.6;
    else if (df < 0.8)
        df = 0.8;
    else
        df = 1.0;

    mediump vec3 color = vAmbientMaterial + df * vDiffuse + sf * vSpecularMaterial;
    
    gl_FragColor = vec4(color, 1);
}

注意看粗体部分,这就是新增的部分。这部分代码将漫反射因子调整为五个级别:0.0,0.2,0.6,0.8,1.0,因此漫反射就有层次效果了。如下图所示:


 

四,总结

Per-Vertex 与 Per-Pixel 两种光照的异同:两者都是基于相同的光照原理来进行光照计算的,Per-Vertex 光照计算是在顶点着色阶段进行,然后在光栅化阶段进行线性插值;而 Per-Pixel 光照计算是在片元着色阶段针对每一个像素进行。因此后者要比前者效果更好,看上去更加细致逼真,当然计算量自然也要多一些。

卡通效果是将漫反射因子分级,从而形成不连续的跳跃的漫反射效果。在本文中,是在片元着色阶段进行卡通效果处理的,它也可以在顶点着色阶段进行。

在这个系列的介绍中,只提及了一些简单的光照效果,还有很多更加逼真的光照算法或技巧没有涉及,比如菲涅尔效果或使用光照贴图。

菲涅尔效果:根据观察者的观察表面来调整反射率来实现的。比如你从水面,油漆表面或者丝绸的正上方看,反射光泽的柔和效果基本没有,如果侧着或平着看的话,反射光泽的柔和效果就很明显。

光照贴图:使用预先处理好的明暗纹理来模拟光照,这样可以减少实时的光照计算,但这样的技巧只适用于静态场景。

 


    
最新技术文章:
▪Android开发之登录验证实例教程
▪Android开发之注册登录方法示例
▪Android获取手机SIM卡运营商信息的方法
▪Android实现将已发送的短信写入短信数据库的...
▪Android发送短信功能代码
▪Android根据电话号码获得联系人头像实例代码
▪Android中GPS定位的用法实例
▪Android实现退出时关闭所有Activity的方法
▪Android实现文件的分割和组装
▪Android录音应用实例教程
▪Android双击返回键退出程序的实现方法
▪Android中GPS定位的用法实例 iis7站长之家
▪Android获取当前已连接的wifi信号强度的方法
▪Android实现动态显示或隐藏密码输入框的内容
▪根据USER-AGENT判断手机类型并跳转到相应的app...
▪Android Touch事件分发过程详解
▪Android中实现为TextView添加多个可点击的文本
▪Android程序设计之AIDL实例详解
▪Android显式启动与隐式启动Activity的区别介绍
▪Android按钮单击事件的四种常用写法总结
▪Android消息处理机制Looper和Handler详解
▪Android实现Back功能代码片段总结
▪Android实用的代码片段 常用代码总结
▪Android实现弹出键盘的方法
▪Android中通过view方式获取当前Activity的屏幕截...
▪Android提高之自定义Menu(TabMenu)实现方法
▪Android提高之多方向抽屉实现方法
▪Android提高之MediaPlayer播放网络音频的实现方法...
▪Android提高之MediaPlayer播放网络视频的实现方法...
▪Android提高之手游转电视游戏的模拟操控
 


站内导航:


特别声明:169IT网站部分信息来自互联网,如果侵犯您的权利,请及时告知,本站将立即删除!

©2012-2021,,E-mail:www_#163.com(请将#改为@)

浙ICP备11055608号-3