2023-05-12

廉颇老矣

昨天看了下今年的Google I/O.

虽然说近几年没什么亮点了,无非就是All in AI的题材,外加还有点创新的Android部分.
但多少还是看了.

今年也确实还是AI,而且Android方面也缺乏亮点了.
不同的是可能刚好前有OpenAI的ChatGPT,所以展现的功能更多的是一种模仿和追随.

这么说可能也不太准确.
毕竟单纯说ChatBot的话,Google Duplex/Assistant也算前几年的产品了.
加上之前说LaMDA有意识而fire了一个工程师的事情.

就这类生成式对话来说,技术上可能也不是什么新鲜的东西.

但是市场就是这么一个奇怪的存在.
有时候也很难用常理,或者是常识去推断.

回想ChatGPT当初也只是谨慎地宣称了codegen的功能.
更多的是将copilot/codex和nlp的chatbot形式做了个新的结合推出来的一个概念性的产品.

爆火的原因可能是因为意外的conversation的体验门槛降低使得更多的人接触而产生的一个算是网络效应或者是social virus的一个结果.

当然,不能否认的是确实把prompt这种交互方式泛化了.

毕竟之前可能确实没人想到过用continual prompt的方式做context building.
midjourney也只限于类似context binding的单次生成方式.

所以从这点来说,确实OpenAI算是误打误撞地创造了一种新的模式.

那么反过来看,为什么Google这个从基础模型到架构再到交互方式和应用的先驱却没有产生这种商业层面的领先优势呢.

当初LaMDA事件的争议就在从纯技术上来说,这种generative AI算不算General AI.

毕竟你可以说只是概率统计结果.

但从更广泛的一个范围来说,相当一部分所谓人类的经验甚至语言也多多少少是一种依循过往经验构造的一种反应过程.

所以从这种decision的角度来说,也不能否认它确实是一种类意识到存在.

尽管还没有证据能够证明它有推理的能力.
但是也并不能否认在某些方面,确实有某种公认的common sense.

对于这种可能略显模糊的边界感,Google当时还是选择了一个比较保守的态度.
也就是公开场合并不认定这是一种general AI.

可以说,可能正是因为在这方面做得比较久投入比较多,所以关于理论和伦理的边界感可能变得更为高尚或者说负责.
毕竟科学或者技术之外,还需要一些伦理ethics来保障.

可能是从Deepfake的工具化开始,AI ethics就成为了一个算是前沿但也不那么前沿的一个方向.

说前沿自然是指跟随技术发展的道德法制约束研究.

不前沿则是因为说到底这是一个类似accessibility的东西.
有则属于锦上添花,没有也并不影响商业化.

某种程度上来说,这也可以成为OpenAI以及微软的一个criticism就是这种道德约束边缘的东西吧.

当然,也可以类比前互联网时代的pirate bay.
作为一种技术流行优先的开放性代名词.

盗版和open source确实破坏了当时的一些现有生态.
正如现在copilot和各种generative AI带来的素材和版权争议,尤其对创作者带来的侵害.

尤其在今天自由职业或者半自由职业比当年多的情况下,个体利益被侵害的总体社会影响应该是比那时候大的.

所以回过头来看,这届Google I/O可能更有价值和更细微地方在那些关于ethics的地方.

一个是对提供generative AI生成的图片的watermark功能,以帮助人能够独立识别哪些是生成的哪些不是.

看的时候倒是对这个的原理和实现程度比较好奇.

毕竟往深了说,可能需要的技术支持并不简单.

如果只是针对自身生成的图片来说的话,那可能需要有一种invariant的fingerprint方式.
因为图片可能经过裁剪加工,如果没有一种能容忍这种变化的fingerprint能力的话,那其实算不上是一个可以拿出来说的feature.

而如果是要针对未限定的AI技术生成的更广泛的识别能力的话,这个可能就更有挑战性一些了.

虽然目前对于StableDiffusion类方式生成的可能有比较简单的识别方式,但要做到前瞻性的话,技术投入还是比较需要持续性的.

当然,现在看着好像还主要是溯源的方向,即用现有的图片搜索技术回溯源头以帮助判定.
从功能宣传角度来说,倒也不是不行.

只是还是没那么理想.

另外一个可以说得上的亮点就是前面说的溯源.

Bard的演示里有关于生成的代码来源的一个连接展示.
某种程度上可以说是对copilot的一个恶作剧讽刺.

当从实际角度来说,至少它说明了这项技术本质上还是一种统计概率的预测借鉴.
而展示出来的这项功能可能更多的是Google自身对于ethics的一个技术上的突破的小应用吧.

毕竟如果没有regulate和traceable能力的话,也没办法对生成的token/pattern来源做一个比较清晰准确confident的回溯.

背后可能更多的是对于这类模型的可解释能力方面的一个工程化表现.

如果是这样的话,可能Google在AI商业化方面步伐慢的原因可能更多的是这种道德负担.

当然,从这届I/O也能看出Google对于AI的商业化速度也是不太满意或者说焦急焦虑的了.

如果排除这些ethics方面的东西,其他的创意和新意是谈不上的.

再联想Google Brain和DeepMind的合并走向,可能在AI ethics方面,Google也坚持不下去了.

或者说,确实在没有增长的年代,焦虑是每一家公司会面临的问题.

尤其现在大多数都是创始人退休,职业经理人执掌的局面.
一些理想主义的情结和因素是比较难再体现在公司文化和走向上的了.

有时候也不知道是年龄问题还是时代问题.
常常想的是尚能饭否.

没有评论:

发表评论

爽文

去看了好东西. 坦白说,多少是带着点挑刺的味道去的. 毕竟打着爱情神话和女性题材的气质,多多少少是热度为先了. 看完之后倒是有些新的想法. 某种程度上来说,现在的年轻人或者说声音就像小叶. 只要说点贴心的话就能哄好. 也是那种可以不用很努力了. 留在自己的舒适区避难所小圈子抱团就...