杠杆(leverage)大概是近两年来出现在大众视野里比较高频的一个词.
一个是去年的股灾源因,基本认同是由于加杠杆和去杠杆造成的.
另一个大概就是各种互联网金融消费,即是花呗白条之类的信用贷款.
特别地是后者,在对待信用卡方便还比较谨慎或者相对有门槛的人,也因此走上了信用消费的道路.
虽然通常来说,这个并不认为是杠杆,或者至少不是狭义层面的杠杆.
本质上来说,杠杆是一种对时间的风险压缩函数.
尽管,在一般体现上,对应的可能是资本的信贷倍数.
但如果从投资角度上来看,加杠杆的行为可以认为是对某种行为的相对确定的预期回报所做出的策略.
比如对于某项投资,有着10%利润预期,那么自然从纯数学上来说,基数越大越好.
如果把这种预期投资展开,作为一种类似久期或者永续债券方式看待的话.
那么对于给定基数funding和杠杆系数leverage,和固定的每期return on investment ROI.
则加杠杆的总投入为funding * leverage.
则等价于在固定ROI n年之后的本息投入.
即使(1+ROI)^n = leverage.
相当于是把未来几年的收益提前兑现.
当然,实际精确些的还要考虑risk free interest rate等.
但直观的说,就相当于把这么一个n年的时间周期压缩到当下.
同时,如果把这种duration的看法还原成原来的投资行为.
那么对应的,投资失败带来的lose也就可以认为是被压缩的风险的兑现.
从这个角度看的话,加杠杆无非是把未来N年的某种固定投资回报几率的行为的兑现集中在同一时刻兑现而已.
这会带来什么问题呢?
概率上来说,lose/gain的几率应该是不变的,对应的数量也自然不会变.
但考虑到杠杆压缩之后,多次的相对独立时间变为单次实验,那么自然有存在的比较大的variance.
所以,就可能存在要么资本快速扩张,要么快速湮灭的情况.
于是,以这个思路考察信贷扩张的话.
也就不难理解,为什么信贷扩张有时候能产生一些经济高速发展的奇迹,同时也可能发生各种各样的问题.
当前的信贷扩张是种什么情况呢?
大概就是十几亿人忽然明白了杠杆这种玩法,然后遇上一个市场的上升周期.
于是纷纷加杠杆意图缩短自身的财富累计时间周期.
这一点没什么值得评论的.
问题在于,这种杠杆/压缩能无限进行下去么?
即使抛弃单次概率事件的variance,使得leverage之后的mean return保持不变.
那么,因为时间/兑现周期被压缩了N年,从某种层面上来说就是资本在当下被扩张了N年发展应有的数量.
在这个基础上看到话,也就是资本规模也随着杠杆而做了巨量的扩充.
有多少增长的资本在流动市场,那么也就意味这有多少对应的货币.
资本无限扩张带来的自然就是对应的应量计量货币的增长.
不考虑其他情况的话,也就是通货膨胀的对应增长.
但如果对于的消费能力和工资水平没有增长的话,那么就存在一个错级和断裂的可能.
错级是因为非资本运作带来的收益赶不上通胀的速度.
换句话说,就是"实业"相对来说就是亏损状态.
没有实际利润存在,也就意味着没有存在的价值.
当然,管制行业是另一回事.
但从社会层面上来说,实业的萎缩直接的结果就是终端消费的萎缩.
即使不做过度推演,很自然的一个结果就是资本虚热,而消费停滞.
一旦没有生产在作用,即使资本层面没有问题,社会层面的运转也会随之断裂.
一个简单的说明模型就是,两个人互相买卖房屋.
以为存在信用/信贷扩张关系,所以价格可以不断上扬.
但实际上并没有对应的生产实物以支持这种不断攀升的货币/资本水平.
与此同时,由于信贷出口的关系,名义上的流动货币和实际的流动货币时间就存在一个差值.
以为增长的货币实际是互相买卖的账面流动,而非实际的消费促使的.
所以,一方面是信贷扩张带来的账面通货膨胀.
一方面是消费水平维持不变而总货币超发带来的畸形的流动性缺失/经济萧条,以及可能的实际的通货紧缩状态.
因为实际消费所需要的货币量并没有改变.
于是,从这个角度来说,信贷扩张带动经济增长的模式并不是能一直无限延伸下去的.
而是应该存在一个理论的计量式或者定量限定,将扩张带来的时间压缩函数控制在一定范围内.
保证某种程度上的合理的预期收益/风险兑现.
直觉是,这个杠杆均衡点的函数,应该是一个相对简单的跟收益率相关的函数.
放大到普世尺度的话,就是某种行业相关的加权函数或者多维向量了.
2016-03-19
2016-03-10
一点发散
大概是下午还是晚上时候的一个思路.
不知道还接不接地上.
某种程度上来说,neural network有点像数字电路里的基本逻辑.
尤其如果把一个trained network看作一个single unit的话.
DNN实际上就是一堆unit的组合.
从程序语言的角度来说,有点像low level machine code和high level programing language.
把一些基础的底层抽象作为某种形式的feature,去构建更高纬度的描述.
就像一个简单的例子.
一个NN识别长方体,一个NN识别个数,一个NN识别角度关系.
组合一下,差不多就能够描述一张桌子了.
剩下的其实就是这么调参和组合/加权的问题.
而想想,人意识到是一张桌子的过程和采用的feature可能也差不多.
只不过会更复杂一些.
比如context里有屋子,有椅子.
然后概率性地会把对"桌子"的识别的搜索限定到"桌子"的范围内.
就像AlphaGo的policy network.
本质上就是把一些常规棋谱的模式encode进来,提供给value network做一些"常规"的"符合人类直觉"的选择.
只不过这里比较tricky的地方是,policy network encode的模式是一个snapshot.
下子之间不具有关联关系.
所以某种程度上来说,容易出现实际超长步数的策略建议.
回到NN的问题上.
既然一个DNN是一种NN的叠加和组合产生的高阶描述.
那么理论上来说,只要堆叠的NN足够多.
在不考虑运算力和存储等现实约束的前提下,进化出"智能"/"意识"也不是不可能的.
毕竟,人类的所谓学习/创造能力也不过是一些在现有learned feature上组合出来的.
尤其是如果数学推演能描述人类绝大多数甚至全部构成和行为的话.
那么在这点上,两者是完全没有区别的.
即使是matrix里提到的"感情"这种不等式存在.
在形式上来说,也是可以被精确描述和还原的.
所以,在这个层面上来说,讨论AI和人类的区别是没有意义的.
而实际上,这种堆叠不可能是无限细化和实时的.
某种程度上来说,人类对于NN based的AI来说,就是某种形式的laplace's demon.
至少从目前的技术角度来说,类DNN架构里,NN的数量相对于人类的神经系统来说还是非常有限的.
但是,如果换个角度来说,这里就可能存在某种形式的商业逻辑.
也就是一开始所说的数字电路/编程语言的思路.
考虑,如果把所有NN开放到互联网上,以某种公共协议的方式进行数据交换/交互的话.
那么就有可能把这种AI的智能程度提高一个层次.
就像桌子的例子.
通过全网的某种类RPC形式的交互调用可以得到某种encode比较丰富的feature vector.
它的dimension数量可能是想关于NN的数量的.
这么考虑的话,一个集中全网范围的存储和算力的类DNN架构,其"智能"程度也就可能超出现在的想象.
而对于"自主思考"这类问题,本质上来说不过是一些细化的feature组合之后,产生发现一个新的比较有区分度的sub space的过程而已.
比如对于一个自然数的加法group.
某个NN或者DNN能够infer/encode出5+5+5,3+3+3+3这类相同数字的连续加的结果的一些模式.
然后另外某些能够infer/encode出这里有连续数的+操作.
那么两者结合一下就有可能出来关于*的一个NN/DNN.
apply 回去的话,就是一个比较完整的关于*的创造性/学习/新的描述了.
实际上,AlphaGo的reinforced policy network就类似于对supervise policy network的一些模式encode.
对应与+操作的一些high level abstraction.
在基于此上的value network就是类似于infer出来的*操作了.
所以,从这个角度上来说AlphaGo确实是一种比较完整的对于人类思路的复刻.
某种程度上来说,大概所有DNN都是这种模仿方式.
只不过在实现上,由于各自选择的对于low level information的abstract角度不太一样罢了.
而在某些问题领域上,可供选择和考虑的抽象并不是特别多样化,所以是可能存在一定程度的重复工作的.
于是,以这个角度考虑一些做ML方案/平台的各种startup的话,方向倒也没错就是了.
从狭义上来说,都是各自提供了一些自己的pretrain的model给人做二次开发的.
如果能够推广一下,以某种公共协议或者调用方式对各种异构的NN做一个数据交换的话,大概人类文明能有一个比较大程度的飞跃.
尤其如果能推动到数学推演上面的话,以AlphaGo这种搜索方式的话,大概会有相当一部分问题能得到解/证明/证伪.
从这点上来说,AlphaGo的意义还是相当时代性的.
至少也是给通俗世界提供了一种新的思路.
就像前几年把DNN带到工业界的意义一样.
尽管,可能这些东西在学术界躺了几年甚至几十年了.
但终归,总会有像Google这种有能力有威望的人,把它带到人们面前.
创造或者提供一种全新的角度审视一些问题/东西.
不知道还接不接地上.
某种程度上来说,neural network有点像数字电路里的基本逻辑.
尤其如果把一个trained network看作一个single unit的话.
DNN实际上就是一堆unit的组合.
从程序语言的角度来说,有点像low level machine code和high level programing language.
把一些基础的底层抽象作为某种形式的feature,去构建更高纬度的描述.
就像一个简单的例子.
一个NN识别长方体,一个NN识别个数,一个NN识别角度关系.
组合一下,差不多就能够描述一张桌子了.
剩下的其实就是这么调参和组合/加权的问题.
而想想,人意识到是一张桌子的过程和采用的feature可能也差不多.
只不过会更复杂一些.
比如context里有屋子,有椅子.
然后概率性地会把对"桌子"的识别的搜索限定到"桌子"的范围内.
就像AlphaGo的policy network.
本质上就是把一些常规棋谱的模式encode进来,提供给value network做一些"常规"的"符合人类直觉"的选择.
只不过这里比较tricky的地方是,policy network encode的模式是一个snapshot.
下子之间不具有关联关系.
所以某种程度上来说,容易出现实际超长步数的策略建议.
回到NN的问题上.
既然一个DNN是一种NN的叠加和组合产生的高阶描述.
那么理论上来说,只要堆叠的NN足够多.
在不考虑运算力和存储等现实约束的前提下,进化出"智能"/"意识"也不是不可能的.
毕竟,人类的所谓学习/创造能力也不过是一些在现有learned feature上组合出来的.
尤其是如果数学推演能描述人类绝大多数甚至全部构成和行为的话.
那么在这点上,两者是完全没有区别的.
即使是matrix里提到的"感情"这种不等式存在.
在形式上来说,也是可以被精确描述和还原的.
所以,在这个层面上来说,讨论AI和人类的区别是没有意义的.
而实际上,这种堆叠不可能是无限细化和实时的.
某种程度上来说,人类对于NN based的AI来说,就是某种形式的laplace's demon.
至少从目前的技术角度来说,类DNN架构里,NN的数量相对于人类的神经系统来说还是非常有限的.
但是,如果换个角度来说,这里就可能存在某种形式的商业逻辑.
也就是一开始所说的数字电路/编程语言的思路.
考虑,如果把所有NN开放到互联网上,以某种公共协议的方式进行数据交换/交互的话.
那么就有可能把这种AI的智能程度提高一个层次.
就像桌子的例子.
通过全网的某种类RPC形式的交互调用可以得到某种encode比较丰富的feature vector.
它的dimension数量可能是想关于NN的数量的.
这么考虑的话,一个集中全网范围的存储和算力的类DNN架构,其"智能"程度也就可能超出现在的想象.
而对于"自主思考"这类问题,本质上来说不过是一些细化的feature组合之后,产生发现一个新的比较有区分度的sub space的过程而已.
比如对于一个自然数的加法group.
某个NN或者DNN能够infer/encode出5+5+5,3+3+3+3这类相同数字的连续加的结果的一些模式.
然后另外某些能够infer/encode出这里有连续数的+操作.
那么两者结合一下就有可能出来关于*的一个NN/DNN.
apply 回去的话,就是一个比较完整的关于*的创造性/学习/新的描述了.
实际上,AlphaGo的reinforced policy network就类似于对supervise policy network的一些模式encode.
对应与+操作的一些high level abstraction.
在基于此上的value network就是类似于infer出来的*操作了.
所以,从这个角度上来说AlphaGo确实是一种比较完整的对于人类思路的复刻.
某种程度上来说,大概所有DNN都是这种模仿方式.
只不过在实现上,由于各自选择的对于low level information的abstract角度不太一样罢了.
而在某些问题领域上,可供选择和考虑的抽象并不是特别多样化,所以是可能存在一定程度的重复工作的.
于是,以这个角度考虑一些做ML方案/平台的各种startup的话,方向倒也没错就是了.
从狭义上来说,都是各自提供了一些自己的pretrain的model给人做二次开发的.
如果能够推广一下,以某种公共协议或者调用方式对各种异构的NN做一个数据交换的话,大概人类文明能有一个比较大程度的飞跃.
尤其如果能推动到数学推演上面的话,以AlphaGo这种搜索方式的话,大概会有相当一部分问题能得到解/证明/证伪.
从这点上来说,AlphaGo的意义还是相当时代性的.
至少也是给通俗世界提供了一种新的思路.
就像前几年把DNN带到工业界的意义一样.
尽管,可能这些东西在学术界躺了几年甚至几十年了.
但终归,总会有像Google这种有能力有威望的人,把它带到人们面前.
创造或者提供一种全新的角度审视一些问题/东西.
订阅:
博文 (Atom)
爽文
去看了好东西. 坦白说,多少是带着点挑刺的味道去的. 毕竟打着爱情神话和女性题材的气质,多多少少是热度为先了. 看完之后倒是有些新的想法. 某种程度上来说,现在的年轻人或者说声音就像小叶. 只要说点贴心的话就能哄好. 也是那种可以不用很努力了. 留在自己的舒适区避难所小圈子抱团就...
-
最近尝试了下海淘. 当然,方向上来说是从国内到新加坡. 先是买了个iPhone,算上运费和双重征税,到手比官方还是便宜个一两百新的. 换算回来也不多事10%的纯粹价格因素差异. 当然,之类有电商促销的因素. 也有比较基准是新加坡Apple Store售价的原因. 但如果同样比较A...
-
这两天看完了Netflix版的三体. 某种程度上来说,完成度还是不错的. 尽管开始的时候对于第一集片头有些争论,但整体如果带入当下去看的话,还是有些梗的. 比如三体对于地球科技的发展速率的担忧,由此衍生的智子. 以及现有力量对比上的压倒性优势. 如果带入中美关系以及各自的历史阶段...
-
前几天Sora出来后才仔细看了下diffusion,发觉确实算挺取巧的. 按照naive的intuition或者说不那么现代的方式的话,可能需要segmentaion为基础的composite的方式去生成图片,即使扯点deep learning/network的,可能也是类似一些...