星期五, 六月 15, 2012

关于如何演讲 /讲课的听课笔记

整理一下今天(2012年4月)听课的笔记,3万一下午的课哦
沟通:『事情』=事+情,通情->达理,先处理对方情感,再处理事,情为先,事为后。处理情感时,先跟后带,表达感同身受,复制对方表情。复述对方的语言,先复述事,再复述情,表达出理解对方的『事+情』

演讲的准备:1)内容,讲100%,听众只能接纳10%,这10%是核心。希望是什么。2)结合讲者的目的和听众的需求。3)用脑图软件找到『罗马柱』。4)确定逻辑关系


开场:开场要围绕10%的核心内容。方法:开场三问;讲故事,但不能离题;事实或数据,要有冲击力的对比;展示,连续展示大量视觉冲击;引述,显示专业,诱导兴趣。

主干:人类的注意力最长7分钟。(人类啊人类)。每7分钟就要穿插吸引注意力的东西,问答、表决、游戏、故事、更换主题等等。数字要转换成感性认知,eg角膜屈光力43D相当于7副六百度的眼镜。『利益扳机』,eg『这之所以对您重要,是因为…』。

听众喜欢:1)喜欢互动。2)喜欢与自己有关的内容。3)喜欢喜欢自己的讲者。建立与听众的情感联系:幻灯使用听众单位的图片、logo;引述当时当地的话题,与听众职业相关的流行话题;寻找与听众中的KOL(关键意见领袖),事先调查听众背景,引述听众中KOL的观点。

结尾:总结,并适当煽情。演讲好坏关键在于听众带走了多少。

关于光场成像的听课笔记:Envisioning a light filed ecosystem

今天在北影听了Lytro的CTO Kurt Akeley的讲座:Envisioning a light filed
ecosystem。接下来是一组笔记。其中不全是Kurt
Akeley所讲,有部分是我融合自己以前学习的信息。错误之处请指出。感谢@王春水Charles 老师组织此讲座

目前的3D显示技术有两个大问题,一个是离轴观察,一个是调节集合反射分离。

离轴观察,off axis viewing。虽然是立体电影,但是你偏头看一下东西,发现整个景物随着一起旋转,并未看见物体的侧面。

调节集合反射是说,你对焦清楚时看到的物体面和双眼视线相交的面应该是同一个面。在真实空间是默认的,你看一个物体,是用双眼去看这个物体。但在3D电影是不一定的。你的焦点定在银幕上,而电影中表现的景物位置是在银幕前或者后。

用光场成像理论进行采集图像。该理论基础是Intergral imaging,在1908年由Gabriel
Lippman提出。不过即使到了现在技术发展仍然还没有达到实时采集视频的能力。受限制于图像处理的数据量。

光场的理论是去采集物体发射出的每一个光线的方向。要在空间中标记一个射线方向,(三维矢量)需要4个变量,通过第一个观察平面的xy坐标,和第二个观察平面的xy坐标,(观察平面位置确定)即所谓4D光场,如果考虑强度是5D数据。

如果能够记录物体发出的所有光的光场数据,就可以重建出物体发光的所有信息。这应该和记录波前的全息是等价的,只不过是用法线方向表示wavefront而已。

如同阿贝成像定理所限制,有限光瞳只能采集到有限范围内的wavefront。光场相机也是如此。光场采集后,可以通过运算生成一个虚拟相机,或者虚拟观察点。这个观察点可以是在入瞳以后的任意一个位置。比如24mm直径的光场相机,可以产生瞳距最大24mm的景深感。

光场相机使用微镜头阵列来成像。微镜头阵列相当于4D数据中的第一个观察面,其后的CCD/CMOS相当于第二观察面。(貌似是)两个成像面的间距=微透镜的焦距。数值孔径F#=f/a,a为镜头直径。

除了微透镜阵列之外,光场相机在其前面还加入了一组成像透镜,可等效于一个主透镜。主透镜的F#与微透镜相同,这样保证在微透镜对应的CCD上没有图像采集的重叠。

主透镜的意义在于,一是通过F#避免图像采集的重叠,二是可以调整光场相机所采集的baseline,我认为就是入瞳的wavefront的位置。比如要两倍直径,只需要更换主透镜的部分(F#不能改变),微透镜阵列不变。(换镜头的单反?)

通过在主透镜上的zoom或者变焦,可以改变光场采集的“物体空间”。从前相机是二维成像,所以只要考虑物平面,但光场相机是三维成像,所以要考虑前后的范围。

相机的分辨率目前由微透镜阵列的分辨率决定,比如微透镜阵列是1080*1080的,那么像素就是1080*1080,每个微透镜阵列对应一组N*N的CCD像素,N的数值决定重聚焦的能力,或者说在景深内采集的物平面数量。注意物平面的分布对于屈光度是线性的,但对于距离是非线性的。

Kurt Akeley提到现在已经可以超越微透镜的分辨率,也就是说虽然微透镜阵列仍然可能是1080*1080,但是像素可以比这个高。我猜算法相当于通过对应的CCD数据重建通过微透镜的每个分量wavefront,然后再拼接出整个面的wavefront。

增大分辨率也可以减小微透镜。随着微透镜的减小,并不会增强衍射效应,因为衍射是由数值孔径F#决定的。(解决我之前一大疑惑,我学问不扎实啊,Airy斑的直径不就是跟f/a有关么)

Kurt Akeley讲到光场渲染,就是将光场采集到的数据,重新在2D平面上显示出来,不过这时要追踪观察者的视点。这里有个有趣之处,他是在北影讲,但是如果摄影机都采用光场成像了,意味着不会再有电影院。因为坐在中间的观众和周边的观众看到的是完全不同的。跟话剧差不多了。他建议是头戴显示器。

关于相机:

* 主透镜的可以选择成像“物体空间”的范围,比如1m-无穷远,或是3m-8m之类。也可以改变角放大率。
* Kurt Akeley现场演示时用的是win系统。印象中他们网站上说只有Mac版本的,看来win下的也可用了。
* 目前软件只能做到重聚焦,也就是拍摄完成以后,选择哪里,哪里清楚。理论上可以变换视角(只要在baseline的光瞳范围之内)。但这一版本还不行。买东西果然要买偶数代啊。不知是否能帮众geek拔草。
* 目前还不能实时采集图像。看每次照相,图形处理要好几秒。目前图像完全是RAW的,一张要十几兆,进入电脑的数据未经压缩。瓶颈在于CPU/GPU和数据带宽限制。(这就是1908年搞不出来的原因吧)

询问了光场相机MTF的计算。他表示商业公司对此不甚关心。有paper,唉,自己查吧。