显示标签为“逻辑”的博文。显示所有博文
显示标签为“逻辑”的博文。显示所有博文

2018-10-09

由一个基本逻辑谈起

一个定义.
A=>B := !A||B .

考虑给定A=>C,C=>B.
如何得出A=>B.

(A=>C)&&(C=>B) => (A=>B)

因为(A=>C) => (!A || C)
(C=>B) => (!C || B)

那么,当C := true的时候
(A=>C)&&(C=>B) => (!A||C) && (!C||B)
->
(A=>C)&&(C=>B) => B --- F.1A

当C := false的时候,类似地.
(A=>C)&&(C=>B) => !A --- F.1B

于是,不管C取值为何,则有
(A=>C)&&(C=>B) => !A || B
->
(A=>C)&&(C=>B) => (A=>B) --- F.2

这里有几个有意思的地方.

F.1A/1B是通过带入归纳出来的.

那么,用X_1,X_2,...X_N分别表示上面的A,B,C.
考虑有这么一个代数空间S,是由
X_N和诸如=>,&&,||等算子构成的.

把S考虑为一个有向图的话.
则诸如A=>C)&&(C=>B) => (A=>B)
就可以看作是这个S当中的某两个vertext/代数表示存在edge.

那么一个代数系统就是这个S的一个有向联通的子集.

在这个视角下考虑F.2的意义.

F.2并不是经过某个有向图的基础/基本替换/变换得到的.
也就是,在原有的图基础上,这两点本来是不直接关联的.
是穷举归纳使得这两点产生了一种直接联系.

或者这么考虑.
(!A||C) && (!C||B) 实际上是
(!A||true) && (false||B)

(!A||false) && (true||B)
的两条有向路径.

它们存在一个共同的交点(!A||B).

那么换个思路考虑值代入的形式.
即是.
(!A||C)&&(!C||B)有50%的概率走P1路径.
另外50%的路径走P2路径.
而P1 P2的延展方向上存在一个共同vertxt (!A||B).

扩展一下的话.
就是对于一个f(x_n...,c).
c值服从某种分布.
可能存在一个变换是
f(x_n...,c) => g(x_n...)

或者更一般地.
f(x_n...) => g(x_m...)
其中x_m \subseteq x_n.

也就是说,一组高维向量可能存在一个较低维度的向量的代数演算系统描述.

其实就是一组高维描述向低维的投影变换.

考虑神经网络的分类.
看作是feature先高维化,然后低维投影到一个演算系统区域的过程.

如果它是准确的.
那么说明feature张成的有效维度应该是>=m的.

而实际上对于一个特定问题,m其实是未知或者说无从可知的.

对于张成的维度来说,就有几种结果.
大于等于和小于.

大于等于是没什么问题的.

小于的话,则肯定是有缺陷的.
因为如若不是的话,那么原问题的多余维度就是无意义的.

那么,如何确保或者知道张成维度是不是满足呢?

考虑f(x_n...) => g(x_m...)成立的条件并不在于m维的具体取值.
因为本来做的就是拟合/推测/推导一个代数系统.

它成立的核心在于额外的n-m维度的充分概率描述.
也就是c的准确的取值概率分布.

或者说,对于特定的x_m来说,x_{n-m}是充分穷举的.

就像前面例子的C的代入归纳一样.
如果存在一个这样的代数变换的话,那么对于C的穷举路径之间就必然会有一个交点.
C的取值越充分,那么这个交点的准确性就越高.

相对地,如果在做张成维度的时候,如果x_{n-m}各个维度的可取值越多的话.
那么计算可能就越复杂.

因为需要归纳搜索的路径就越多.

这么想的话,如果把每一层网络的非线性变换局限在二值分类上面,可能更容易有相对合理的可解释的结果?

2015-09-04

所谓事实

考虑一个简单的ROI形式,即:
return = f(investment).

对于一个人的主观决策,也即就是其expected return则是:
E(return) = f(investment).

考虑到之前提过的实际过程中,人决策过程中irrational/overconfident的量化形式,那么实际上应该是:
E(return) = f(investment) + g(bias)

也就是说,实际上,人做一个事情或一个决定的时候,对结果的期望是一个加上个人偏好的修正结果.

而实际的一个事情的结果往往是个人投入加上其余环境影响的一个综合结果.
即:
Fact(return) = f(investment) + H(environment).

那么,通常说一个事情不如预期的话,实际上是指:
delta(return) = E(return) - Fact(return)
也即
delta(return) = g(bias) - H(environment).

现在考虑一个问题.
如果一个人能够forecast所有事情,那么能否让预期结果和实际结果一致.
也即让delta(return) = 0呢?

考虑delta(return) = 0
->
g(bias) - H(environment) = 0

如果把环境因素简化为一个多人参与的同质描述的函数.
即,
H(environment) = \sum h(f_i(investment) + g_i(bias)) 的形式.

也即是说,把环境因素考虑为其他人决策的一个实际结果的某种加权形式.
则有
g(bias) = \sum h(f_i(investment) + g_i(bias))

这个意思就是为了使得个人决策结果与预期一致,或者说使得forecast的偏差为零的话.
决策的代价的依据是其他人的预期结果.

通俗地说就是在realize objective的时候,通过协调其他人的给定的已知的决策依据做调整.
也就是所谓的顺势而为.

这里对其他人的expected return是没有做任何限定的.
也即是其预期可以是任何形式.

考虑其他人决策的目的也是minimize delta(return).

因为delta(return) = g(bias) - H(environment).
对于单个个体来说,minimize的objective function是一个跟自身投入(investment)无关的一个函数.
而个体的delta(return) = 0 也就因为着对任意一个个体i,
g_i(bias) - H_i(environment) = 0
也即
g_i(bias) = H_i(environment).


H(environment) = \sum h(f_i(investment) + g_i(bias))
->
H(environment) = \sum h(f_i(investment) +H_i(environment))

由于
Fact(return) = f(investment) + H(environment).
->
f_i(investment) = Fact_i(return) - H_i(environment)

于是
H(environment) = \sum h(Fact_i(return) - H_i(environment) +H_i(environment))
->
H(environment) = \sum h(Fact_i(return))
也即
g(bias) = \sum h(Fact_i(return))

也就是说在一个人要使得自己的做法完全符合预期的调整函数是一个跟其他人的实现有关的一个函数.

这里隐含的一个条件是其他人的实现跟预期也是一致的.
即delta_i(return) = 0.
也即Fact_i(return) = E_i(return).

所以,实际上这个bias function其实是跟其他人的预期有关的一个函数
g(bias) = \sum h(Fact_i(return)) = \sum h(E_i(return))

重新rewrite一下ROI函数的话,就有
E(return) = f(investment) + g(bias)
->
E(return) = f(investment) + \sum h(E_i(return))

另外,
Fact(return) = f(investment) + H(environment)
->
Fact(return) = f(investment) + \sum h(Fact_i(return))


delta(return) = E(return) - Fact(return)
->
delta(return) = (f(investment) + \sum h(E_i(return))) - (f(investment) + \sum h(Fact_i(return)))
->
delta(return) = \sum (h(E_i(return)) - h(Fact_i(return)))

也就是说,个体决策的结果偏差是一个跟其他人的预期E_i和实际结果Fact_i有关的一个函数.
也就是形式上的
delta(return) = F(E_i,Fact_i).

那么问题就来了.

最初的假设是一个人可以forecast所有事情.
也就是说,对于某个时间点,Fact_i是通过forecast已知确定的.

而同时,E_i这个跟各个单独个体相关的预期函数可能不知道.
但基于个人预期是确定的这一假设,其值应该是固定的.

那么,也就是说
delta(return) = F(E_i,Fact_i)
在forecast的时候是已经确定了的.

换个角度来说,就是即使能够forecast,那么也无法改变什么.
因为delta(return)是一个跟自身无关的函数.

也就是说,即使你全知全能,但也无法改变什么.

当然,这里基于的一个假设是E_i是确定不变的.
或者说一个与forecast的个体无关的函数.

所以,如果E_i是一个跟forecast个体有关的函数呢?

重新考虑
delta(return) = F(E_i,Fact_i).

对于一个特定的forecast,Fact_i可以认为是一个常数项.
把它eliminate掉,就有:
delta(return) = G(E_i)

如果E_i是一个与forecast个体的某要素x有关的函数的话.
则有
delta(return) = G(E_i) = G(y(x)) = Y(x)

也就是说,如果一个人在能forecast所有事情的前提下,并且能够依此满足自己的任何需求的话.
那么,对于这个人,存在一个要素x,使得这个要素x能够影响其他人的先期预期.
使得通过其他人先期预期的调整,造成环境因素的contribution的变化,以转化为bias function的效用.

然而,如果这个成立的话.
那么就说明两点,
一是其他人的预期/决策模型/模式的改变不会改变任何forecast的事实,也就是说其他人的"主观能动性"是零.
二是做forecast的个体,可以在不改变其他结果的情况下,通过某种要素x实现对个人愿望结果的偏差操纵.

而这两点是互相矛盾的.
在基于个体都是平等的前提下.

当然如果这个个体是一个系统外的超越性存在的话,就另当别论了.

既然这两点是矛盾的.
那么对于给定的描述:

"如果一个人在能forecast所有事情的前提下,并且能够依此满足自己的任何需求的话.那么,对于这个人,存在一个要素x,使得这个要素x能够影响其他人的先期预期."

就是不存在逻辑关联性的.

也就是说,对于命题:
存在一个要素x,这个要素满足能够影响别人的先期预期.
是不成立的.

也即
delta(return) = Y(x)
是并不reasonable的.

所以结论回退到:
delta(return) = F(E_i,Fact_i)

即,即使能够forecast所有事情的发生,那么也无法操作自己的期望结果与实际事实的偏差.

即使E_i是一个random variable,但也是一个与forecast个体无关的函数.

也就是说,即使能够预知未来,但也无法确切地改变什么.

所谓事实.













人类本质是LLM

最近看到一些比较有意思的新词. 比如苹果小区. 还有一些就是比较热点的话题. 比如预制菜. 然后发散了下,想到了解构主义这个词. 本质上来说,之前的所谓互联网黑话体系,其实也是某种解构主义. 甚至往大了说,短视频以及互联网本身都是依靠某种形式的解构主义支撑的. 用某种冲击性,或者...