【随感:大数据时代的信息茧房和“自洗脑”】

信息时代的网络是个好东西,也是个坏东西,总体上的功过真不好说。

我倾向于认为坏处大于益处。感觉这与人的懒惰本性有关。这就好比营养过剩的年代肥胖症难以避免一样,现如今过食而死的人(肥胖引发的病亡)远远多于饿死的人。

人在多数情况下难以抵制快餐的诱惑,同理也难以抵制信息快餐的诱惑,其结果就是社会撕裂、个体在自己舒适的信息茧房中作茧自缚,变得越来越狭隘偏执。

所有大受欢迎的信息工具,包括微信、抖音、搜索、推荐,在绝大多数的使用场合都在加剧人类与生俱来的惰性和偏见。在即刻满足和麻痹人类神经的同时,人类为自己创造了“自洗脑”最为有效的环境。很少有人可以对此完全免疫。

另一方面,同样是这类工具也极大加速了知识的穿透力,这是好处。当一位研究者对某个课题保持足够的好奇心和专注度的时候,没有任何时代可以提供如此广泛、密集、交错的瞬时可得的免费信息搜集和覆盖能力。信息时代给研究人员提供了黄金环境。这会[i] 大力加速科技的发展,[ii] 也可能提供识别与打破信息茧房的方法。

但是好处 [i] 从长远来看是福是祸,很难说。悲观主义认为,人类的科研进步(包括AI)越加速,就像飞蛾扑火一样,人类就更加快速地走向文明终结,很难给任何补救措施(例如好处[ii])以挽回的时间和余地。聪明反被聪明误。由此看来,AI 应该缓行,以popularity和眼球经济为基础的信息工具不能野蛮发展,都不是没有道理的。

【外一篇:人类会自“作”而亡吗,但愿不是杞人忧天】

关于普京发动核大战的现实威胁,先有化石级哲人乔姆斯基的警告,也有很多其他相关新闻报道:《赫鲁晓夫孙女:现在比古巴导弹危机更接近核战争》,《传普京将进行胃癌手术 权力暂转移给他》。

文明的毁灭对于人类来说自然是一个比天还大的问题。面对如此巨大的问题,即便是万一的万一,也是令人不寒而颤的。作为蚂蚁一样的个体,面对完全无法预测和影响的全人类命运和前途的大事,可以聊以自我安慰的说法具体说来,觉得有三点。

这个世界有那么多人比咱们“高”许多,无论钱、权、貌、才能、情怀、品德还是任意其他指针,大限来临,他们也都玩完儿。作为沧海一粟,我们又有什么值得大惊小怪,惶惶不可终日呢。所谓天塌下来有高个顶着。对于我们个体,即便这种威胁是真实的,也可以拿“不必杞人忧天”来聊以自慰。这是其一。

老友说得有意思:忘了哪个电影,但一直记得,主人公解除核弹时很紧张,旁边一哥们鼓励他,don't worry if you screw up,you won't know it. 

其二是,看人类文明的发展趋势,感觉人类迟早是自己把自己“作死”,这种自作而死的概率毛估估远远高于小行星毁灭恐龙那种外力事件的概率。无论是发明核武器、AI的加速度推进、环境污染、全球暖化、种族仇恨和灭绝、意识形态的敌视,等等等等,都给人一种不作死不罢休的感觉。这样一看,感觉文明终结就是一种宿命,好似宇宙冥冥之中不可突破的 great filter 绑定了人类似的。既然是宿命,明天灭亡,还是10代、100代人以后灭亡,又有何区别。

第三,我们每个人都是要死的。从个体而言,反正永生是不能指望的,一起与文明随葬也就不足畏惧了。

Again,这一切但愿都是杞人忧天,虽然目前的局势下,天塌下来的概率远不是0。

 

 

【相关】

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

预告:李维等 《知识图谱:演进、技术和实践》(机械工业出版社 2022)

推荐Chris Manning 论大模型,并附上相关讨论

【立委按】强力推荐。非常好的 review。曼宁教授深厚的计算语言学学识反映在他的综述和展望中,具有历史厚度和语言本质的理解深度。最后的那个点也很好:当前的一锅煮的超大模型实际上是一个可行性研究,已经初见成效;将来的大规模的领域场景应用,会召唤相对来说小一些但更加领域数据密集和纯化的基础模型,可以展望其革命性前景。至于这算不算 AGI,曼宁说的也很有分寸:看上去算是在通向 AGI 的路上。短板主要是 semantics 还不够直接面向真实世界,而是源自符号世界、囿于符号世界(所谓 distributional semantics),等于是绕了一个弯儿,语义的深度以及语义结构本身就显得太扁平 太浅 难以消化人类深厚的知识积淀。但即便如此,也堪称一个伟大征程的坚实脚步,是激动人心的NLP新时代。从分布角度看意义,如果说人是社会关系的总和(马克思),那么也可以说,语词基本上是语词间篇章关系的总和。很多年来,我们 NLPers 一直挣扎在如何把 context 合适的模型化,因为语言符号的歧义和微妙很大程度上可以在 context 中予以消解。context 最直接有效的对象就是 sentences/discourse,而恰恰在这一点,深度学习注意力机制为基础的大模型展示了其几乎神奇的表示能力。

刘群老师:同意@wei,深度学习和预训练方法取得的进步非常惊人,超出想象。原来感觉不可解的一些问题,现在似乎都看到了曙光,解决路径隐隐约约能看到了。虽然对AGI仍然质疑,但对这个领域的前景真是非常看好。

算文解字:是的 同一个模型prompt一下就能完成各种nlp任务 就算不是agi 也是更g的ai了[Grin] 而且即使是从denotational semanrics的角度看 加入多模态的预训练模型也算是部分和间接的grounding到真实世界了的物体了。

刘群老师:是的,原来觉得一般意义上的grounding几乎不可能,除非是特定领域。现在看越来越可能了。

立委:感觉上,意义表示(A)落地到客观世界(B)可以看成是人类与生俱来的本能,不需要特别的模型化,如果A本身比较充分的话。 那么这个 A 是个什么东西呢?A 可以看成是一个平面的表示,其中 X 轴就是 discourse/context,而 Y 就是 ontology 甚至还带有 pragmatics 因素的世界知识和推理体系。

目前的大模型的长处是 X 模型化,短处依然在 Y。因此虽然从分布角度貌似也总结出了一些常识,以及浅层的推理能力,但这些能力没有足够的深度和逻辑性,缺乏推理的链条性和一致性。

符号知识图谱以及人类探索积累下来的本体知识库、领域知识库,这些东西都是非常浓缩的、高度结构化的知识体系,本质上具有严谨的逻辑性和推理能力。分布式学习学到了这些知识的皮毛,但总体上,对于这些知识精华还很陌生, 难以系统性直接兼容并蓄。

刘群老师:当然离解决这些问题还远,只是说能看到曙光了。以前感觉根本没希望。虽然还不怎么样,但不是没希望。日拱一卒[ThumbsUp]

算文解字:还有这两年出现的基于预训练模型的常识推理(如Yejin Choi组的工作)也让人眼前一亮。即使五年前,还是说研究common sense一般反应都是敬而远之[Facepalm]

立委:大数据为基础的分布学习可以反映相当多的常识,这个是没有疑问的。我们在本群中讨论过很多案例,也有这种反映:所谓大数据支持的“相谐”性,其实与常识中的特征匹配,吻合度很高。

刘群老师:把符号融入到神经网络里面不是解决这个问题的正确方法,还是分阶段处理,来回迭代才是正途。

立委:方法论上也许的确如此,但 intuitively 感觉是一种知识浪费。就是说,从我们DL外行的角度来看,明明人类已经世代努力提炼了精华,都规整得清清楚楚,可模型就是没法利用。一切必须从头开始。让人着急。

刘群老师:我说的来回迭代不是人机交互,是符号和神经来回迭代,可以自动化的。

立委:哦,那就是我希望看到的深度耦合/融合。这种融合是革命性的方向,有望发生新的AI突破与下一代的范式转变。但不久前,还普遍被认为是一种乌托邦,觉得符号和神经,就跟林黛玉与焦大似的,打死也不兼容。

算文解字:刘老师,这个方向上近期有哪些比较亮眼的工作呀?

刘群老师:WebGPT, AlphaCode等。还有周志华老师反绎学习的工作。

算文解字:恩恩 的确 webgpt这种都可以看做是 大模型 和 离散/黑盒系统(可以是规则)交互迭代的方案

立委:前面提到,对于大数据,人比起机器,有时候好像蚂蚁比大象。有老友不满了,说不要这样说,这是“物种”歧视。

其实,很多事儿,人比起机器,还不如蚂蚁比大象......

1. 计算

2. 存贮/记忆

3. 下棋

4. 知识问答

5. 翻译

6. 做对联

7. 格律诗

8. ......... 可以预见的未来清单还很长很长,都不是遥不可及的  ......
(自动驾驶、自动咨询、自动陪护、自动培训、自动写作、自动音乐、自动绘画 ...........)

事实在那里摆着。不服不行。

回顾历史,人类第一个被蒙圈的就是计算。以前的那些心算大师,算盘顶级快手,现在很少有宣传了,因为干不过一个小小的计算器。

紧接着是存贮量和记忆力。当年我们最崇敬的人物就有不少是过目不忘 博闻强记的大师们。社科院流传着很多大师的传奇故事,社会上也有很多周总理的超凡记忆力的故事,都是能记住非常细节的东西,可以在记忆的大海捞针。现如今,谁敢说任何大师记忆的信息量能比过一个U盘。哪个大师还能在谷歌百度面前夸口自己的大海捞针的信息检索能力?

下棋不用说了,电脑完胜,两次载入计算机历史的里程碑。知识问答也进入了计算机历史博物馆,IBM 沃伦的高光时刻。机器翻译我一直在用,我本人就是机器翻译出身的,目前的翻译水平高过普通翻译,注意:不是指速度。对联、写诗 也有过大赛。自己试试就知道了:你可以尝试在家苦学格律诗n年,然后即兴写诗,与机器比试比试?

面对超大数据的基础模型,人类脑壳里的“小”只会越越来露怯,想藏拙也藏不住了。

当然,严格说来这不是一场完全公平的实体之间的比试。一边是单个实体的人(例如世界围棋冠军),另一边是消化了人类整体知识积淀的实体机器人。好比一人对无数人,自然是蚂蚁遇上了大象。但是,另一方面看,每个碳基生物的人也在不断学习人类的知识才能成为专家或冠军,并非一张白纸。关键在于学习能力,碳基实体无法与硅基实体的电脑比试自动学习的能力,因为后者占尽了时间(速度)与空间(存贮)的优势。超人的出现不会是人,而是机器人,这应该是用不了50年就可以做实的现实。

新摇滚歌手汪峰曾经唱到:我该如何存在?

面对汹涌而来的大数据大模型,人类准备好了吗?

与曼宁教授在斯坦福合影(2017.07.18)

斯坦福Chris Manning: 大模型剑指通用人工智能

from 算文解字 算文解字 2022-04-30 03:06

著名NLP学者斯坦福大学的Chris Manning教授近期在美国人文与科学学院期刊的AI & Society特刊上发表了一篇题Human Language Understanding & Reasoning的论文。

文章在简单回顾了NLP的历史发展的基础上,分析了预训练的transformer模型何有此威力,探讨了语义和语言理解的本质,进而展望了大模型的未来,对新手还是老兵都颇有启发。本文就聊一聊论文的要点。顺便提一句,论文谈的是NLP,但本质也是在说或许我们已经在通用人工智能(Artificial general intelligence, AGI)上迈出了坚定的一步。

  1. NLP领域的范式转移

文章先简要回顾了自然语言处理(NLP)的几个阶段,这对于新一代炼丹师可能过于遥远,所以我们也一笔带过:

  • 第一阶段,发轫于冷战时期1950-1969的机器翻译工作,以现在的观点看数据和计算量都小的可怜,同时没太多语言结构或者机器学习技巧介入。

  • 第二阶段,1978-1992的符号主义,没错,约等于规则,那种很系统且elegant的规则。

  • 第三阶段,1993-2012的,实证主义,也就是基于语料库的机器学习时代。

  • 第四阶段,2013开始一直到现在,深度学习时代。

深度学习本身当然意义巨大,但2018年出现的大规模自监督(self-supervised)神经网络才是真正具有革命性的。这类模型的精髓是从自然语言句子中创造出一些预测任务来,比如预测下一个词或者预测被掩码(遮挡)词或短语。

这时,大量高质量文本语料就意味着自动获得了海量的标注数据。让模型从自己的预测错误中学习10亿+次之后,它就慢慢积累很多语言和世界知识,这让模型在问答或者文本分类等更有意义的任务中也取得好的效果。没错,说的就是BERT (Devlin et al, 2019)和GPT-3之类的大规模预训练语言模型,large pretrained language model (LPLM),中文世界也常称之为大模型

  1. 为什么大模型有革命性意义?

用Manning自己的话来说,在未标注的海量语料上训练大模型可以:

Produce one large pretrained model that can be very easily adapted, via fine-tuning or prompting, to give strong results on all sorts of natural language understanding and generation tasks.

从此,NLP领域的进展迎来了井喷。

Transformer 架构(Vaswani et al., 2017) 自2018年开始统治NLP领域。为何预训练的transformer有如此威力?论文从transformer的基本原理讲起,其中最重要的思想是attention,也就是注意力机制。

Attention其实非常简单,就是句子中每个位置的表征(representation,一般是一个稠密向量)是通过其他位置的表征加权求和而得到。Transformer模型通过每个位置的query, key以及value的表征计算来预测被掩码位置的单词。网上有很多介绍transformer的资料,不熟悉的同学可以自行搜索,大致过程如下图所示:

     

为什么这么简单的结构和任务能取得如此威力?

此处颇有insight。Manning认为通过简单的transformer结构执行如此简单的训练任务之所以能威力巨大的原因在其:通用性

预测下一个单词这类任务是如此简单和通用,以至于几乎所有形式的语言学和世界知识,从句子结构、词义引申、基本事实都能帮助这个任务取得更好的效果。因此,大模型也在训练过程中学到了这些信息,这也让单个模型在接收少量的指令后就能解决各种不同的NLP问题。也许,大模型就是“大道至简”的最好诠释

 

基于大模型完成多种NLP任务,在2018年之前靠fine-tuning(微调),也就是在少量针对任务构建的有监督数据上继续训练模型。最近则出现了prompt(提示学习)这种形式,只需要对任务用语言描述,或者给几个例子,模型就能很好的执行以前从未训练过的任务 (Brown et al, 2020).  

  1. NLP的大模型范式

传统的NLP是流水线范式:先做词法(如分词、命名实体识别)处理,再做句法处理(如自动句法分析等),然后再用这些特征进行领域任务(如智能问答、情感分析)。这个范式下,每个模块都是由不同模型完成的,并需要在不同标注数据集上训练。而大模型出现后,就完全代替了流水线模式,比如:

  • 机器翻译:用一个模型同时搞多语言对之间的翻译

  • 智能问答:基于LPLM微调的模型效果明显提升

  • 其他NLU任务如NER、情感分析也是类似

更值得一提的是自然语言生成 (natural language generation,  NLG),大模型在生成通顺文本上取得了革命性突破,对于这一点玩过GPT-3的同学一定深有体会。

这种能力还能用在更为实用的医学影像生成任务上。大模型能在NLP任务上取得优异效果是毋庸置疑的,但我们仍然有理由怀疑大模型真的理解语言吗,还是说它们仅仅是鹦鹉学舌?

  1. 大模型能真正理解人类语言吗?

要讨论这个问题,涉及到什么是语义,以及语言理解的本质是什么。关于语义,语言学和计算机科学领域的主流理论是指称语义(denotational semantics),是说一个单词短语或句子的语义就是它所指代的客观世界的对象。

与之形成鲜明对比的是,深度学习NLP遵循的分布式语义(distributional semantics),也就是单词的语义可以由其出现的语境所决定。Manning认为两者可以统一起来,用他的原话来说,就是:

Meaning arises from understanding the network of connections between a linguistic form and other things, whether they be objects in the world or other linguistic forms.

用对语言形式之间的连接来衡量语义的话,现在的大模型对语言的理解已经做的很好了。但目前的局限性在于,这种理解仍然缺乏世界知识,也需要用其他模态的感知来增强,毕竟用语言对图像和声音等的描述,远不如这些信号本身来的直接。这也正是很多大模型的改进方向。

  1. 大模型的未来

大模型在语言理解任务的成功,以及向其他数据模态,比如图像、知识、生物信息等的拓展巨大的前景指向了一个更通用的方向。在这个方向上,Manning本人也参与提出了近期大火的foundation model(基础模型)的概念。

基础模型是指百万以上参数,通过自监督学习在预料上训练的,可以轻松适配到多种下游任务的大模型(Bommasani et al., 2021)。BERT和GPT-3就是典型的例子,但最近在两个方向上涌现出不少的拓展性工作:

  • 大模型连接知识,无论是以连接知识图谱神经网络,还是实时搜索文本知识的形式。

  • 多模态的foundation model,比如DALL·E模型,这个方向也更激动人心。

Foundation model仍然在早期,但Manning描绘了一个可能的未来:

Most information processing and analysis tasks, and perhaps even things like robotic control, will be handled by a specialization of one of a relatively small number of foundation models. 
These models will be expensive and time-consuming to train, but adapting them to different tasks will be quite easy; indeed, one might be able to do it simply with natural language instructions.

AI模型收敛到少数几个大模型会带来伦理上的风险。但是大模型这种将海量数据中学来的知识应用到多种多样任务上的能力,在历史上第一次地非常地接近了(通用)AI的目标:对单一的机器模型发出简单的指令就做到各种各样的事情

这类大模型可能只拥有非常局限的逻辑推理能力,但是大模型的有效性会让它们得到非常广泛的部署,在未来数十年它们会让人们领略通用人工智能的一瞥。

 

Reference

Ashish Vaswani, Noam Shazeer, Niki Parmar, et al., “Attention Is All You Need,” Advances in Neural Information Processing Systems 30 (2017).
Tom Brown, Benjamin Mann, Nick Ryder, et al., “Language Models Are Few-Shot Learn- ers,” Advances in Neural Information Processing Systems 33 (2020): 1877–1901
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova, “BERT: Pre-train- ing of Deep Bidirectional Transformers for Language Understanding,” in Proceedings of NAACL (Stroudsburg, Pa.: Association for Computational Linguistics, 2019), 4171–4186.
Rishi Bommasani, Drew A. Hudson, Ehsan Adeli, et al., “On the Opportunities and Risks of Foundation Models,” arXiv (2021), https://arxiv.org/abs/2108.07258.
点击"原文链接",读原始论文。

from https://mp.weixin.qq.com/s/pnd2Q-5duMtL0OLzrDJ2JA

 

【相关】

斯坦福教授曼宁AAAS特刊发文:大模型已成突破,展望通用人工智能

《我看好超大生成模型的创造前途》

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

预告:李维等 《知识图谱:演进、技术和实践》(机械工业出版社 2022)

 

《我看好超大生成模型的创造前途》

最近,盘古群(一个围绕中文超大生成模型盘古的技术交流微信群)里的朋友在谈 open AI 最近发布的文字转图片的 Dalle2 应用,吸引了成千上万的人想要先睹为快。据介绍,Dalle2 可以根据你的自然语言的描述,随机生成任意图片。从发布的样例看,很多生成的图片超出人的想象,很像艺术品,当然也有次品,但都是唯一的。下面随手摘取几张样本:

Dalle 的出现是出版界的福音。出版界为了插图的授权问题,常常弄得头晕脑胀。我们在互联网上发帖子比较随意,需要插图的时候就搜索一幅用上再说,遭遇纠纷的时候撤下就好,但出版界最怕引起这些纠纷。现在好了,通过 Dalle 可以整出来各种插图可供选择,而且保证了这是唯一的“揉合创造”,不会侵权。

商务出版我的《NLP答问》的时候,建议为了回避可能的插图侵权,建议我找艺术家重新描画。无奈之下,我让女儿做了两张素描,她以我和她自己作为原型“再创作”,终于绕过了这个问题。LOL

回来说生成模型。我相信在“机助创作”这个大方向上,超大生成模型今后几年会有接地气的应用出现,Dalle 就是一个苗头。对于创业者,找准市场角度、收获千万用户的杀手级独角兽的出现,也不是小概率事件。因为市场需求是存在的。(据说现在美国有 300 多家初创团队或个人正在寻找利用 GPT3 模型的落地场景。)

这背后的原理,值得说一说。我们知道,计算复杂性研究中有个著名的 P vs NP 问题。简单说就是(在有限时间内)问题分为可解与不可解两类。搜索空间指数增长,组合爆炸,就是不可解的问题。而很多判定性问题具有确定性推理算法,不需要搜索,那就是可解的问题。

超大生成模型的出现就好比是提供了一个把不可解问题转化为可解问题的路径。当然,任何比喻不是跛腿就是夸张,严格说来,应该是超大模型为艺术家和匠人打开了次优解集合的大门。生成模型最大的为人诟病之处是其不稳定性:结果时好时坏,有时候让人拍案叫绝,有时候让人无语。这就是为什么网上对其前景争论不休的主要原因。粉丝报喜不报忧,批评者揭露其背后的缺乏理性或灵性。

这种情况下的最佳搭配其实就是人机耦合(让 human in the loop):人的归人,机器的归机器;各自发挥所长,取长补短。这在创造性应用中最为明显。创造需要消化前人的历史积淀,然后加入个人的灵感,才能成事。但消化类似于搜索,这一步对于人及其有限的脑容量、记忆力和时间,挑战实在太大了。而人作为万物之灵,“灵感”其实人人都有。

现在好了,超大生成模型几乎无限延伸了人的搜索消化的能力,在很多细分领域甚至可以对历史做到一网打尽。深度学习的革命现在可以让消化了的东西重新符号化(包括语言符号、音频符号和视频符号),提供给人选择。这是千载难逢的绝佳组合:人只要判定就好了。判定是灵感参与的线性决策过程,n 挑 1 也就是 n 倍的判定,依然是线性的。对于文学艺术创作,这个太高效了。人类进入“艺术大爆炸”、“艺术个性化”时代,百花齐放,人人皆为艺术家,不是不可以想见的。

熟读唐诗三百首,以前是成为古典诗人的必由之路,被认为是必要的苦功夫。现如今,300 就是个笑话,整个古典诗词喂进模型去也是个小 case。总体而言,消化大数据,人比起机器,就好比蚂蚁比大象。

对于稳定性弱波动性大的生成模型,应用的开花结果不要指望全自动。人机耦合条件下,纵然你n个结果有9成垃圾,我只取一瓢。一样会产生前所未有的价值。目前的问题是,艺术家群体不懂计算,计算界的人艺术敏感度不够,所以二者耦合所能发现的市场角度不容易确定。但假以时间,没有理由不对这个前景看好。

更何况不少创造性应用并不一定要专门针对艺术家或工匠的群体,有相当场景是普罗百姓都有需求的。例如应用文写作、秘书2.0, 编辑2.0, 确保出版插图永无侵权烦恼,等等等等。

 

 

【相关】

DALL·E 2

推荐Chris Manning 论大模型,并附上相关讨论

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

预告:李维等 《知识图谱:演进、技术和实践》(机械工业出版社 2022)

我的前老板的企业家创业访谈

【立委按】我的前老板(NetBase 创始人兼CEO Jonathan)最近有访谈,谈到他的连环创业的过程,带回来公司创业初期的很多回忆。Netbase 目前是美国社会舆情(social listening)B2B 赛道的绝对领跑者,早已站稳了脚跟。我是五号员工,首席科学家,带进来 NLP 落地大数据的硬核技术。当年与两位创业者融洽相处,共同奋斗的生活是我职业生涯的愉快时光。我在Netbase 的10年见证了技术改变商业情报的成功案例。访谈中提到的最出彩的创业环节是客户顾问委员会的成立,保洁等巨头公司作为早期客户愿意投资新产品,根据他们的需求和痛点参与制定产品方向,这是创业公司梦寐以求的情况。其实,这是因为此前我们已经用NLP技术开发了另一款科技文献的搜索产品(最终由 Elsevier 独家代理发行 illumin8),可以瞬时发现任何问题的现存解决方案,是回答how难题的利器。这款产品的第一期客户就有保洁公司,是这款产品的出色表现及其背后的NLP挖掘大数据的能力展示,使得保洁公司的客户情报部门愿意出钱出力帮助我们制定开发一款面对社交媒体的客户情报挖掘产品,最后成就了我们的 B2B 事业。这里面的创业故事还有很多有趣的细节。记得有一次陪同 Jonathan 去保洁公司总部见他们的VP,路上他跟我回忆他们第一次去保洁公司总部试图联系时候的冷遇,前后对比,不胜唏嘘。我们终于凭着技术创新的实力成了他们的座上客。他当时的感慨和对于新产品的兴奋,非常具有感染力。

将 AI 应用于潜在客户生成:Rev.AI 首席执行官乔纳森·斯皮尔

发表于 2022 年 4 月 26 日星期二

我在 1998 年创办了一家初创公司,将 AI 应用于潜在客户生成和资格问题。时间还早,当年数据还不够丰富。

现在,数据就在那里。问题最终能否以适当的复杂程度得到解决?

米特拉:让我们回到你旅程的开始。你在哪里出生和长大?

乔纳森·斯皮尔(Jonathan Spier):我是在圣地亚哥长大的加州人。我来这里是为了在伯克利上学。我再也无法逃脱。

米特拉:你在伯克利之后做了什么?

乔纳森·斯皮尔:我曾短暂从事咨询工作,然后进入了一家名为 Ariba 的公司。我是 85 号员工。几年之内,我们就有了 3,500 人。这是一个有趣的地方。

米特拉:我们有Ariba案例研究。基思·克拉赫(Keith Krach)参加了该系列。

乔纳森·斯皮尔:他是一位伟大的领袖。整个团队都很棒。我是他们雇用的最年轻的人。我加入时,他们已经是一支非常资深的团队。我对成长型企业非常着迷。

米特拉:你是哪一年离开阿里巴的?

乔纳森·斯皮尔: 2002。

米特拉:那之后会发生什么?

乔纳森·斯皮尔:硅谷经历了整个核冬天。恢复花了很长时间。期间我去接受了我的“脑叶切开术”,哈佛的 MBA。那是一次很棒的经历。我打算最终创办一家公司。2004年离开商学院,我违背自己的意愿创办了一家公司。

米特拉:为什么说违背你的意愿?

乔纳森·斯皮尔:当时他们会说的是先向其他人学习,然后创办公司。这已经改变了。现在鼓励人们立即创办公司。更多的人在他们职业生涯的早期就这样做了。

米特拉:我在麻省理工学院的研究生院创办了我的第一家公司。我没有上商学院。

乔纳森·斯皮尔:有很多人这样做吗?

米特拉:第一批互联网企业家,很多人都在这样做。我在 1994 年创办了我的第一家公司。然后在 1997 年我的第二家公司和 1999 年的第三家公司。当时,人们这样做。你所描述的时期是核冬天。

乔纳森·斯皮尔:我记得我去硅谷银行存入我的种子资金。我记得他们很惊讶有一位企业家在那里。我对这个想法很兴奋。我的联合创始人是麻省理工学院的人。他发明了一个概念。我对此感到非常兴奋。

米特拉:什么是想法?

乔纳森·斯皮尔:基本想法是着眼于世界上巨大的数据爆炸和关联信息的数量,并说这些信息对于企业挖掘非常有价值。与基于少数人的旧方法不同,我们可以在一毫秒内了解整个舆论网络。这是一款非常高端的社交上市产品,在一些大型财富 500 强公司中表现出色。

我们发展了大约七年半。我们已经筹集了超过 2000 万美元的资金,并且收到了一家大型企业软件公司提出的以九位数出售的报价。其中一位董事会成员不想出售。好消息是这是一家好公司。它仍然被认为是企业分析类别的领导者。

米特拉:公司的名字是什么?

乔纳森·斯皮尔: NetBase。它有大客户。我经常遇到使用这个软件的人。当我们收到报价时,我赞成出售它。于是,我与公司分道扬镳。

米特拉:你当时是首席执行官?

乔纳森·斯皮尔:我担任创始人兼首席执行官七年半。然后我和 Ho Nam 在 Altos 做了一个 EIR。

米特拉:谁是不想卖的投资者?

Jonathan Spier:这是一家名为 Thomvest 的风险投资公司。这是汤姆森家族的风险投资部门。

米特拉:那太不合理了。

乔纳森·斯皮尔:他们不是不理性的。他们只是想要一个更大的出口。

米特拉:你在Altos有没有想出一些新的东西?

乔纳森·斯皮尔:我喜欢桌子的那一边,但我就是太喜欢运营了。我在看一些机会。在 NetBase,当SAAS软件落地时,我们就在那里。我们有机会建立适当的 SaaS 销售动议。我从 Marketo 的人们那里得到了很多很好的建议。我和他们的团队一起度过了愉快的时光。

我真的很喜欢 B2B 销售流程的演变方式。作为一名 EIR,我在研究这个问题。具体来说,我是在看售后。似乎需要一个新类别来管理客户的售后管理方式。Gainsight刚刚开始。我以为我有点晚了,但我一直很喜欢那家公司,并跟踪他们,看看他们去了哪里。

米特拉:你提到的两家公司,MarketoGainsight,都参加了我们的企业家之旅系列。

Jonathan Spier:我与 Marketo 的 Phil 取得了联系,并与他讨论了目前的公司。我从来没有和 Gainsight 的 Nick 谈过话。他也是门洛帕克的人。

米特拉:你有什么收获​​?

乔纳森·斯皮尔:我朝不同的方向急左转。我遇到了一位在零售领域非常出色的创始人。我最终创办并经营了一家零售业务。我从未想过我会去 B2C,但我非常喜欢这项业务。我被营销过程和弄清楚消费者营销所吸引。

米特拉:你卖的是什么?

乔纳森·斯皮尔:童鞋。这家公司叫普莱。它在门洛帕克拥有非常高的市场份额。

米特拉:我想你想花时间谈论Rev,但请给我一些 NetBase和Plae的亮点,它们确实具有战略意义。

Jonathan Spier:亮点通常来自客户互动和客户增长。我们在 NetBase 做过的最好的事情之一就是成立了一个客户顾问委员会。

我们开始与宝洁公司就我们的新产品进行对话。宝洁公司同意帮助我们做到这一点。他们会坐在房间里帮助我们设计产品。在产品出现之前,他们在财务上做出了承诺。然后他们还帮助我们招募了可口可乐、雀巢和卡夫等其他公司。他们都是顾问委员会的成员。在我们推出产品之前,所有资金都已承诺。

米特拉:那太了不起了。

Jonathan Spier:在编写一行代码之前,我们已经获得了数百万的预订。

Google MT from

Applying AI to Lead Generation: Rev CEO Jonathan Spier (Part 1)

Applying AI to Lead Generation: Rev CEO Jonathan Spier (Part 2)

 

【相关】

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

预告:李维等 《知识图谱:演进、技术和实践》(机械工业出版社 2022)

立委NLP talk 幻灯及音频:《老司机谈NLP半自动驾驶》

NLP talk 音频如下:

slides: Wei-NLP-talk-20220312

 

【相关】

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

预告:李维等 《知识图谱:演进、技术和实践》(机械工业出版社 2022)

编译 Gary Marcus 最新著述:《深度学习正在撞南墙》

【按】推荐 Gary 最新文章对于深度学习的批评。非常有历史感和使命感的文字。他首先指出,几年前深度学习吹牛说不再需要培训放射科医生了,因为机器几年内可以取代这个职业。几年过去了,没有一个放射科医生被机器取代。现在的情形是: 医生与机器协力。Gary 对深度学习极端派批评的新文章一再强调了符号与神经的结合,并对于符号被排斥的历史做了批评性回顾。他的符号论有点意思。其实,除了极端派,多数人并不反对符号与神经的结合尝试,只不过这一对冤家本性上脾性不合,不是轻易可以结合的。昨天紧接在我的 talk 后,屠教授(他是朱纯松的弟子)给了一个很有意思的研究报告,他就把正则表达式规则转换成了神经网络,在规则与神经之间构建了一座桥梁。

让我先说几件看似显而易见的事情,”深度学习的“教父”、我们这个时代最著名的科学家之一 Geoffrey Hinton 在 2016 年多伦多的一次领先的人工智能会议上说:放射科医生,你就像已经越过悬崖边缘但还没有往下看的土狼。他推断,深度学习非常适合读取 MRI 和 CT 扫描的图像,人们应该“现在停止培训放射科医生”,而且“很明显,在五年内深度学习会做得更好”。

快进到 2022 年,没有一个放射科医生被替换。相反,现在的共识是放射学机器学习比看起来更难;至少目前,人类和机器是互补的。

(评一下:这是说难度被低估了。但其实,长远来看,趋势应该是明显的:1. 由于机器性能的提升,放射科医生的需求量会降低;2. 幸存下来的放射科医生都会是与机器协作的好手,这就好比以翻译为生的人,需要熟练掌握使用机器翻译工具一样。)

当我们只需要粗略的结果时,深度学习处于最佳状态。

很少有领域比人工智能更充满炒作和虚张声势。它十年又十年地从一个时尚到另一个时尚,总是承诺月亮,但只是偶尔能够兑现交付。前一分钟是专家系统,接下来是贝叶斯网络,然后是支持向量机。2011 年,IBM 的 Watson 曾被标榜为医学领域的一场革命,而最近则以拆散贱价出售。如今,事实上自 2012 年以来,深度学习一直被青睐,作为一种价值数十亿美元的技术,它推动了当代 AI 的发展。Hinton 帮助开创了这一技术:他的论文被引用了惊人的 50 万次并与Yoshua Bengio 和 Yann LeCun 一道荣获 2018 图灵奖。

像他之前的 AI 先驱一样,Hinton 经常预示着即将到来的大革命。放射学只是其中的一部分。2015 年,在 Hinton 加入谷歌后不久,《卫报》报道称,该公司正处于“开发具有逻辑、自然对话甚至调情能力的算法”的边缘。2020 年 11 月,Hinton告诉MIT Technology Review,“深度学习将无所不能。”

我对此严重怀疑。事实上,我们距离真正理解人类语言的机器还有很长的路要走,与科幻片的机器人 Rosey 的日常智能相去甚远,Rosey the Robot 是一个不仅可以解释各种人类请求的科幻管家,而且可以安全实时地采取行动。当然,埃隆马斯克最近表示,他希望制造的新型人形机器人 Optimus 有一天会比汽车行业市场更大,但就在特斯拉宣布该机器人的 2021 年人工智能演示日,它只不过是一个穿着服装充数的真人。谷歌对语言的最新贡献是一个系统(Lamda),它是如此的轻浮,以至于它自己的一位作者最近承认它很容易产生“废话”。 扭转局面并获得我们真正可以信任的人工智能绝非易事。

随着时间的推移,我们将看到,如果我们想要获得值得信赖的人工智能,深度学习只是我们需要构建的一小部分。

深度学习从根本上说是一种识别模式的技术,当我们需要的只是粗略的结果时,它处于最佳状态,其中必须要求出错的风险很低,同时,完美的结果也不是必要的。前几天我用 iPhone 找了一张我几年前拍的兔子的照片。即使我从未给照片贴上标签,也立即给我找到了。它之所以有效,是因为我的兔子照片与其他带有兔子标签的照片的大型数据库中的其他照片足够相似。但基于深度学习的自动照片标记也容易出错。它可能会遗漏一些兔子照片(尤其是杂乱无章的照片,或者用奇怪的光线或不寻常的角度拍摄的照片,或者兔子被部分遮挡的照片);它有时会混淆我两个孩子的婴儿照片。但即便出错也风险很低。我不会因为它出错就扔掉我的 iPhone 的。

但是,当风险更高时,例如在放射科或无人驾驶汽车中,我们需要对采用深度学习更加谨慎。当一个错误可能会夺去生命时,它还远不够好。当涉及与训练对象大不相同的“异数”(outliers)时,深度学习系统尤其成问题。例如,不久前,一辆特斯拉在所谓的“全自动驾驶模式”下遇到了一个人在路中间举着停车标志。汽车未能识别出该人(部分被停车标志遮挡)和停车标志(训练数据中的停车牌通常是在路旁的);人类司机这时候不得不从自动驾驶手上接管过来。场景离训练数据库太远了,系统不知道该做什么。

40年来第一次,我终于对人工智能感到一些乐观。

【谈到关于超大规模数据的预训练可以解决AI问题...】也许是,但也许不是。关于超大数据训练的立论有严重的漏洞。首先,仅仅是大尺度并没有抓住我们迫切需要提高的东西: 真正的理解。内部人士很早就知道,人工智能研究中最大的问题之一是我们用来评估人工智能系统的测试标准。众所周知的图灵测试旨在衡量真正的智力,结果却很容易被表现得偏执或不合作的聊天机器人所欺骗。扩大卡普兰和他的OpenAI同事所观察的衡量标准——关于预测句子中的单词——并不等同于真正的人工智能所需要的那种深度理解。【他这是说,语言模型,甭管多大规模,并不是理解意义上的语言能力。这与乔姆斯基对于经验主义的经典批判是一致的。】

此外,所谓的大数据定律并不是像万有引力那样的普遍定律,而是可能不会永远成立的纯粹观察结果,就像摩尔定律一样,这是计算机芯片生产中的一个趋势,持续了几十年,但十年前开始放缓。

事实上,我们可能已经在深度学习中遭遇规模限制,可能已经接近收益递减点。在过去的几个月里,DeepMind和其他公司对比GPT-3更大的模型进行的研究表明,在某些方面,如毒性、真实性、推理和常识,一味增加训练数据使系统开始变得不稳定。谷歌2022年的一篇论文得出结论,将类似GPT-3的模型变大会使它们更流畅,但不会更可信。

这些迹象应该给自动驾驶行业敲响警钟,该行业在很大程度上依赖于规模化,而不是开发更复杂的推理【尤其是特斯拉马斯克所依赖和指望的技术路线】。如果规模化不能让我们实现安全的自动驾驶,数百亿美元的规模化投资可能会付诸东流。

我们还需要什么?

除此之外,我们很可能需要重新审视一个一度流行、但辛顿似乎非常总想粉碎的做法: 操纵符号的做法——计算机内部的编码,比如表示复杂概念的二进制位符号串。操纵符号从一开始就对计算机科学至关重要,至少从艾伦·图灵和约翰·冯·诺依曼的先驱论文开始,现在仍然是几乎所有软件工程的基本要素——但符号在深度学习中被视为一个肮脏的词。

然而,在很大程度上,这就是目前大多数人工智能的进展。辛顿和其他许多人曾努力尝试完全摒弃符号。深度学习的希望——似乎不是基于科学,而是基于一种历史怨恨——是智能行为将纯粹从海量数据和深度学习的融合中产生。经典计算机和软件通过定义专用于特定工作的符号操作规则集来解决任务,例如在文字处理器中编辑一行或在电子表格中执行计算,而神经网络通常试图通过统计近似和从示例中学习来解决任务。因为神经网络在语音识别、照片标记等方面取得了如此之多如此之快的成就,许多深度学习的支持者已经放弃了符号。

他们其实不应该这样。

2021年底,一场名为NetHack Challenge的大型比赛给深度学习敲了警钟,这场比赛部分是由脸书(现为Meta)的一个团队发起的。NetHack是早期游戏Rogue的扩展,也是Zelda的前身,是1987年发布的单用户地牢探索游戏。图形是用的纯ASCII字符;不需要三维感知。玩家选择一个有性别的角色(如骑士、巫师或考古学家),然后去探索地牢,收集物品和杀死怪物以寻找护身符。2020年提出的挑战是要让人工智能玩好这个游戏。

对于许多人来说,NetHack对于深度学习应该是易如反掌,它已经掌握了从Pong到Breakout到(借助于树搜索的符号算法)Go和Chess的一切。但在12月,一个纯粹基于符号操纵的系统以3比1的比分击败了最佳深度学习系统——令人震惊。

失败者是如何取得胜利的?我怀疑答案始于这样一个事实,即地牢在每个游戏中都是重新生成的——这意味着你不能简单地记住(或近似)游戏棋盘。要想赢,你需要对游戏中的实体以及它们之间的抽象关系有相当深刻的理解。最终,玩家需要思考在复杂的世界中他们能做什么,不能做什么。特定的移动顺序(“向左,然后向前,然后向右”)太肤浅,没有帮助,因为每一个动作本质上都依赖于新生成的上下文。深度学习系统擅长在他们之前见过的具体例子之间进行插值,但在遇到新事物时经常会出错。

任何时候大卫击败歌利亚,都是重新考虑的信号。

“操纵符号”到底是什么意思?最终,它意味着两件事: 用一组符号(本质上只是代表事物的模式)来表示信息,并以特定的方式处理(操作)这些符号,使用代数(或逻辑,或计算机程序)之类的东西来操作这些符号。该领域的许多困惑来自于没有看到两者之间的区别——拥有符号,并用代数方法处理它们。要理解人工智能是如何陷入这种困境的,有必要了解两者之间的区别。

什么是符号?它们基本上只是代码。符号提供了一种有原则的外推机制: 合法的代数程序,可以普遍应用,独立于已知案例的任何相似之处。它们(至少目前)仍然是手工制作知识的最佳方式,也是在新奇的情况下处理抽象概念的最佳方式。挂有“停”字的红色八角形是司机停车的标志。在现在普遍使用的ASCII码中,二进制数01000001代表字母A,二进制数01000010代表字母B,依此类推。

基本的想法是,这些二进制数字串,即所谓的比特,可以用来编码各种各样的东西,例如计算机中的指令,而不仅仅是数字本身;这至少可以追溯到1945年,当时传奇数学家冯·诺依曼概述了几乎所有现代计算机遵循的架构。事实上,可以说冯·诺依曼对二进制比特可以被象征性地操纵的方式的认识是20世纪最重要的发明之一的核心——实际上你曾经使用过的每一个计算机程序都是以此为前提的。(神经网络中流行的“词嵌入”看起来也非常像符号,尽管似乎没有人承认这一点。例如,通常任何给定的单词都会被赋予一个唯一的向量,这种一对一的方式非常类似于ASCII码。称某物为“嵌入”并不意味着它不是一个符号。)

由图灵和冯·诺依曼以及之后的所有人实践的经典计算机科学,以一种我们认为是代数的方式操纵符号,这才是关键所在。在简单代数中,我们有三种实体,变量(如x和y),运算(如+或-),绑定(例如,它告诉我们,为了某种计算的目的,让x = 12)。如果我告诉你,x = y + 2,y = 12,你可以通过将y绑定到12,然后加上这个值,得到14。事实上,世界上所有的软件都是通过将代数运算串联起来,组装成更加复杂的算法来工作的。例如,你的文字处理器有一串符号,收集在一个文件中,用来表示你的文档。各种抽象操作会将符号从一个地方复制到另一个地方。每个操作都是以这样的方式定义的,即它可以在任何位置处理任何文档。从本质上说,文字处理器是一种应用于变量(如“当前选定的文本”)的一组代数运算(“函数”或“子例程”)的应用程序。

符号操作也是数据结构的基础,如字典或数据库,它们可能保存特定个人及其属性的记录(如他们的地址,或销售人员最后一次与他们联系的时间),并允许程序员建立可重用代码库和更大的模块,从而简化复杂系统的开发。这种技术无处不在,是软件世界的面包和黄油。

如果符号对于软件工程如此重要,为什么不在人工智能中也使用它们呢?

事实上,早期的先驱,如约翰·麦卡锡和马文·明斯基,认为人们可以通过扩展这些技术来精确地构建人工智能程序,用符号来表示个体实体和抽象概念,这些符号可以组合成复杂的结构和丰富的知识库,就像它们现在在网络浏览器、电子邮件程序和文字处理器中使用的一样。他们没有错——这些技术的扩展无处不在(在搜索引擎、交通导航系统和游戏人工智能中)。但是符号本身有问题;纯粹的符号系统有时工作起来很笨拙,在图像识别和语音识别等任务上表现不佳;大数据生态从来都不是他们的所长。因此,人们长期以来一直渴望其他东西。

这就是神经网络的用武之地。

也许我见过的最明显的例子是拼写检查,它说明了在经典的符号操作方法之外可以使用大数据和深度学习。帮助建议未识别单词拼写的旧方法是建立一套规则,该规则本质上指定了人们可能如何出错的心理。(考虑无意中重复字母的可能性,或者相邻字母可能被调换,将“teh”转换为“the”)正如著名的计算机科学家Peter Norvig著名而巧妙的指出的,当您拥有Google大小的数据时,您有了一个新的选择: 只需查看用户如何更正自己的日志。如果他们在查找“teh book”之后查找“the book”,您就有证据表明“teh”可能有更好的拼写。不需要依靠拼写规则。

对我来说,很明显你希望这两种方法都有。在现实世界中,拼写检查者倾向于两者都用;正如厄尼·戴维斯所观察到的,“如果你在谷歌中输入‘cleopxjqco’,它会更正为‘cleopxjqco’,即使没有用户可能会输入它。谷歌搜索整体上使用了符号人工智能和深度学习的务实混合,并可能在可预见的未来继续这样做。但是像辛顿这样的人一次又一次地反对符号的任何作用。

像我这样的人支持融合深度学习和符号操作的“混合模型”,辛顿和他的追随者一次又一次地将符号踢到路边。为什么?没有人给出过令人信服的科学解释。相反,也许答案来自历史——阻碍这一领域发展的敌意。

事情并不总是这样。读到沃伦麦卡洛克(Warren Buffett)和沃尔特皮茨(Walter Pitts)在1943年写的一篇论文《神经活动中内在思想的逻辑演算》(A Logical Calculus of the Ideas in neural Activity)时,我仍会潸然泪下。这是冯诺依曼认为值得在他自己的计算机基础论文中引用的唯一一篇论文。他们的明确目标是创建“一种对(神经)网络进行严格符号处理的工具”,我仍然认为这是有价值的。冯·诺依曼晚年花了很多时间思考这个问题。他们不可能预料到很快出现的敌意。

到20世纪50年代末,出现了一个从未愈合的裂痕。人工智能的许多创始人,如麦卡锡、艾伦·纽厄尔和赫伯·西蒙,似乎很难给神经网络的先驱们任何关注,神经网络社区似乎已经分裂,有时它自己也得到一些惊人的宣传:1957年《纽约客》的一篇文章承诺,弗兰克·罗森布拉特的早期神经网络系统避开了符号,是一个“非凡的机器……[它]能够进行相当于思想的事情。”

认为我们可以简单地放弃符号操作就是对漠视怀疑他们的人的一个回应。

事情变得如此紧张和激烈,以至于《计算机进展》杂志刊登了一篇名为“神经网络争议的社会学历史”的文章,强调了早期在金钱、声望和压力方面的斗争。当时可能已经存在的任何创伤都在1969年被大大放大,当时明斯基和西蒙·派珀特发表了一类神经网络(称为感知机)的详细数学批判,这些神经网络是所有现代神经网络的祖先。他们证明了最简单的神经网络非常有限,并对更复杂的网络能够完成什么表示怀疑(现在看来过于悲观)。十多年来,对神经网络的热情冷却了;罗森布拉特(两年后死于一次航海事故)失去了部分研究经费。

当神经网络在20世纪80年代重新出现时,许多神经网络倡导者努力与符号操作的传统保持距离。这种方法的领导者明确表示,虽然有可能建立与符号操作兼容的神经网络,但他们不感兴趣。相反,他们真正感兴趣的是建立替代符号操作的模型。众所周知,他们认为儿童的过度规则化错误(如goed而不是went)可以用神经网络来解释,这与经典的符号操作规则系统非常不同。(我的论文提出了不同的观点。)

当我在1986年进入大学时,神经网络有了第一次重大的复兴;辛顿帮忙收集的两卷本集子在几周内就销售一空。《纽约时报》在其科学版的头版报道了神经网络(“比以往任何时候都更像人类,计算机正在学习学习”),计算神经科学家Terry Sejnowski在《今日秀》中解释了它们是如何工作的。深度学习当时还没那么深入,但它又开始行动了。

1990年,Hinton在《人工智能》杂志上发表了一期特刊,名为Connectionist Symbol Processing,明确旨在弥合深度学习和符号操作这两个世界。例如,它包括大卫·图尔茨基的BoltzCons体系结构,这是一个创建“动态创立和操纵复合符号结构的连接主义(神经网络)模型”的直接尝试。我一直觉得辛顿当时想做的事情绝对是正确的,我希望他能坚持这个项目。当时,我也在推动混合模型,尽管是从心理学的角度来看。(Ron Sun和其他人也在计算机科学界内部大力推动,但从未得到我认为他应得的关注。)

然而,出于我一直无法完全理解的原因,辛顿最终对和解的前景感到失望。当我私下问他时,他拒绝了我寻求解释的诸多努力,并且从来没有(据我所知)对此提出任何详细的论点。一些人怀疑这是因为辛顿本人在随后的几年里经常被解雇,特别是在21世纪初,当时深度学习再次失去了人气;另一种猜想是,他被深度学习的成功迷住了。

当深度学习在2012年重新出现时,它带有一种不放过任何囚犯的态度,这是过去十年大部分时间的特征。到2015年,他对一切符号的敌意完全具体化了。他在斯坦福大学的一个人工智能研讨会上做了一个演讲,将符号比作以太,说是科学最大的错误之一。当我,一个研讨会上的发言人,在喝咖啡休息时走到他面前想得到一些澄清,因为他的最终提案看起来像是一个称为堆栈的符号系统的神经网络实现(这将是对他想要消除的符号的无意确认),他拒绝回答并让我走开。

从那以后,他的反象征运动愈演愈烈。2016年,Yann LeCun、Bengio和Hinton在科学最重要的期刊之一《自然》上发表了一篇关于深度学习的宣言。文章最后直接攻击了符号操作,呼吁不要和解,而是要彻底取代。后来,辛顿在欧盟领导人的一次聚会上说,在符号操作方法上投入更多资金是“一个巨大的错误”,将其比作电动汽车时代对内燃机的投资。

贬低尚未被充分探索的不流行的想法不是正确的做法。辛顿说得很对,在过去,人工智能研究人员试图——急于——埋葬深度学习。但是辛顿今天对符号操作正在做同样的事情,自然也是错误的。在我看来,他的敌意既破坏了他的遗产,也损害了这个领域。在某些方面,辛顿反对人工智能中符号操作的运动取得了巨大的成功;几乎所有的研究投资都朝着深度学习的方向发展。他变得富有,他和他的学生分享了2019年图灵奖;辛顿的宝宝几乎得到了所有的关注。用艾米丽·本德的话来说,“对像GPT-3这样的模型的过度承诺会吸走所有其他种类研究的氧气。”

具有讽刺意味的是,辛顿是乔治·布尔的玄孙,布尔代数是象征性人工智能的最基本工具之一,也是以他的名字命名的。如果我们最终能把辛顿和他的高曾祖父这两个天才的想法融合在一起,人工智能可能最终有机会实现它的承诺。

至少有四个原因,混合人工智能,而不是单独的深度学习(也不是单独的符号),似乎是最好的前进方式:

世界上如此多的知识,从食谱到历史再到技术,目前主要还是以符号形式存在。试图在没有这些知识的情况下建设AGI,像纯深度学习的目标那样从零开始完全重新学习一切,似乎是一个过度和鲁莽的负担。

即使在算术这样有序的领域,深度学习本身也在继续挣扎。混合系统可能比任何一个单独的系统都更强大。

在计算的许多基本方面,符号仍然远远超过当前的神经网络。他们能够更好地在复杂的场景中推理,能够更系统、更可靠地进行算术等基本运算,能够更精确地表达部分和整体之间的关系(这对解释三维世界和理解人类语言都是必不可少的)。它们在表示和查询大规模数据库的能力方面更加健壮和灵活。符号也更有利于形式验证技术,形式验证技术对于安全性的某些方面至关重要,并且在现代微处理器的设计中无处不在。放弃这些优点而不是将它们利用到某种混合架构中是没有意义的。

深度学习系统是黑匣子;我们可以看到它们的输入和输出,但是我们很难看到内部。我们不知道他们为什么做出这样的决定,如果他们得出错误的答案,我们也不知道该怎么办(除了收集更多的数据)。这使得它们天生笨拙,难以解释,并且在许多方面不适合与人类一起进行“增强认知”。让我们能够将深度学习的学习能力与符号的明确、语义丰富性联系起来的混合体可能是变革性的。

因为通用人工智能将肩负如此重大的责任,它必须像不锈钢一样,更坚固、更可靠,而且就此而言,比它的任何组成部分都更容易使用。没有任何一种人工智能方法是足够的;如果我们要有任何希望的话,我们必须掌握把不同的方法结合在一起的艺术。(想象一个世界,在这个世界里,制铁者喊着“铁”,碳爱好者喊着“碳”,从来没有人想到要把这两者结合起来;这就是现代人工智能的历史。)

好消息是,我一生致力于鼓吹的,也是辛顿曾在1990年左右(虽然短暂)尝试过的神经与符号的象征性和解,从未完全消失,而且最终还在积聚势头。

阿图尔·加塞兹和路易斯·兰姆在2009年为混合模型写了一份宣言,名为《神经符号认知推理》。最近在棋盘游戏(围棋、国际象棋等等,主要由Alphabet的DeepMind领导)中取得的一些最著名的成功是混合型的。AlphaGo将符号树搜索与深度学习结合使用,符号树搜索是20世纪50年代后期的一个想法(并在20世纪90年代通过更丰富的统计基础得到加强);经典的树搜索本身不足以用于围棋,深度学习也是如此。DeepMind的AlphaFold2是一个从核苷酸预测蛋白质结构的系统,也是一个混合模型,它将一些精心构建的表示分子三维物理结构的符号方式与深度学习的强大数据搜索能力结合在一起。

像乔希·特南鲍姆、阿尼玛·阿南德·库马尔和叶筋·崔这样的研究人员现在也朝着越来越多的神经符号学方向发展。IBM、英特尔、谷歌、脸书和微软等公司的大批员工已经开始认真投资神经符号方法。Swarat Chaudhuri和他的同事们正在开发一个名为“神经符号编程”的领域,这个领域对我来说就像音乐一样美妙。

40年来第一次,我终于对人工智能感到一些乐观。正如认知科学家Chaz Firestone和Brian Scholl雄辩地指出的。“没有唯一的思维方式,因为思维不是一个东西。相反,大脑是有部分的,大脑的不同部分以不同的方式运作: 看到一种颜色与计划度假不同,与理解一个句子、移动肢体、记住一个事实或感受一种情绪不同。” 试图把所有的认知都塞进一个圆孔里是行不通的。随着对混合方法的逐渐开放,我想我们终于有机会了。

面对伦理和计算方面的所有挑战,以及语言学、心理学、人类学和神经科学等领域所需的知识,而不仅仅是数学和计算机科学,将需要整个村子一起提高人工智能。我们永远不要忘记,人脑也许是已知宇宙中最复杂的系统;如果我们要建造一个与之大致相当的东西,坦诚的合作将是关键。

 

借助搜狗MT编译自:

Deep Learning Is Hitting a Wall (by Gary Marcus, March 10, 2022)

Gary Marcus 是一位AI科学家、畅销书作家和企业家。他是 Uber 于 2016 年收购的机器学习公司 Geometric Intelligence 的创始人兼首席执行官,并且是 Robust AI 的创始人兼执行主席。

very sharp, well articulated, and still largely true today!

【相关】

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

老司机谈NLP半自动驾驶,北京时间3月12号下午一点半,不见不散!

做个小广告 老司机谈谈NLP半自动驾驶的心得和展望 欢迎各位老师和同学光顾切磋  我是3月12号下午1点半,美国西海岸这边是3月11号晚上九点半 开聊。不见不散!

立委NLP talk 幻灯及音频:《老司机谈NLP半自动驾驶》

【相关】

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

立委随笔:机器翻译,从学者到学员

学了神经翻译网课,感慨良多。回想一下觉得有些好笑:30多年前好歹也是科班机器翻译出身(社科院语言所研究生院机器翻译专业硕士,1986),大小也可以说是个学“者”。河东河西,现在乖乖成了机器翻译学“员”了。机器翻译翻天覆地的变化是有目共睹的。如果NLP其他方面的变化也达到机器翻译的程度,那才真叫不废江河万古流。

机器翻译课讲义编得真心不错。这一段讲解有点意思:

3. Trained model
During the training of the Teacher-Forced model, you provided the French sentences to the decoder as inputs. What are the decoder inputs when performing a new translation? You cannot provide the translation as an input because that's what you want the model to generate.

4. Decoder of the inference model
You can solve this by building a recursive decoder which generates predictions for a single time step. First, it takes in some onehot encoded input word and some previous state as the initial state. The GRU layer then produces an output and a new state. Then, this GRU output goes through a Dense layer and produces an output word. In the next time step, the output and the new GRU state from the previous step become inputs to the decoder.

就是说在训练神经翻译模型的时候,源语与目标语都在,都作为 decoder 的 inputs 来帮助模型训练。但是到了应用模型来翻译的时候,目标语作为 input 的条件不在了,那么怎么来保证目标语的影响呢?

讲义中所谓 recursive decoder 就是把目标语的语言模型带入翻译过程。这时候与训练的时候有所不同,不再是具体的目标语的句子来制约,而是用目标语预测下一词的语言模型来介入。这就是为什么神经翻译可以通顺地道的主要原因。因为有了目标语语言模型的引导。

神经翻译常常通顺有余,精准不足。这其实是一对矛盾的反映,本质上是因为 decoder 解码的时候,有两股力量在影响它,一个是源语encoder 编码的输入(上下文的 vectors),另一个是目标语语言模型(next word prediction)的输入,这两个因素一个管精准,一个管通顺,协调起来难免出现偏差或偏向。

尝试把上述讲义自动翻译(谷歌MT)后编辑说明一下:

培训模型在“教师强制”模型的培训过程中,提供给译码器的法语句子作为输入。当执行新的翻译时,解码器的输入是什么?您不能将翻译作为输入来提供,因为这是您希望模型生成的结果。推理模型可以通过构建一个递归解码器来解决这个问题,该递归解码器可以生成针对 “单个时间步长“(即:词) 的预测。首先,它接受一个热编码的输入词(这是指的源语输入文句的词)和一些以前的状态(这是指该词的上文隐藏层的内部表示)作为初始状态。接着,GRU 神经层生成一个输出(指的是下一词的向量表示)和一个新状态。然后,这个 GRU 输出通过全连接稠密层产生一个输出词(这是目标语下一词)。在下一个时间步长中,前一步骤的输出(目标语的词)和新的 GRU 状态成为解码器的输入。

目标语的语言模型是生成模型,生成模型本性就是发散的,可能步步走偏。制约它不走(太)偏的约束来自于根据源语文句编码的上下文状态。这里面还有个魔鬼细节,那就是原文句子的启动是反向的,reverse=True,就是说,原文句子的输入做了逆序操作:

sos we love cats eos --> eos cats love we sos

这样一来,当 sos(句首标志)作为解码器启动的初始单元的时候,伴随它的前文(上下文中的上文部分)不再是空(没有逆序的原句,前文是空的),而是整个句子的浓缩状态来支持它。这就说明了为什么一个 sos 的启动操作,可以依据前文生成下一个词,与 we 对应的 nous,后面就是“链式反应”了,直到生成句末标志 eos,完成一个句子的翻译。在这个递归的链式反应的每一步,每生成一个词,“前文” 就少了一个词,前文的状态因此也在步步更新作为下一步的输入,而所生成的目标语词也作为下一步的输入带入了目标语的生成模型,二者的相互作用造成了精准和通顺的妥协和平衡。目前看来,目标语的生成模型对于翻译的作用容易大于前文状态的作用,造成错译(张冠李戴、指鹿为马,人间蒸发,鬼影乍现等等问题)。但原则上,应该有办法去做平衡配置,就好比在精准和召回之间做平衡配置一样。

这一段讲义讲得蛮明白:

11. Generating translations
Now you can start recursively generating French words. First you define a variable fr_sent to hold the full sentence. Then for fr_len steps in a loop you do the following. First you predict a word using the decoder. Remember that, the inputs to the decoder are, a word from the French vocabulary and the previous state of the decoder. In the fist step, the input will be "sos" and the input state will be the context vector from the encoder. This model then outputs a word, as a probability distribution and a new state. The new state will be recursively assigned to de_s_t. This means, at every time step, the previous decoder state will become an input to the model. Then in the next step you get the actual word string using probs2word() function. probs2word() is a function that accepts a probability distribution and a tokenizer and outputs the corresponding French word. After that, you convert that word to an onehot encoded sequence using the word2onehot() function. This is assigned back to de_seq which becomes an input to the model in the next step. And you keep iterating this process until the output word is "eos" or, until the end of the for loop.

这是最后的实际译文的(词循环)生成过程。利用浏览器Chrome自带的谷歌翻译(plu-g-in)如下:

给点说明:

11. 生成翻译
现在您可以开始递归生成法语译文了。首先,您定义一个变量 fr_sent 来保存完整的译文句子。然后对于循环中的 fr_len 步骤,您执行以下操作。首先,您使用解码器预测一个单词。请记住,解码器的输入是法语【即目标语】词汇表中的一个单词和解码器的先前状态【即源语的前文】。在第一步中,输入将是“sos”【句首标志】,输入的状态将是来自编码器的(源语文句的)上下文向量。然后该模型输出一个(目标语)单词【在目标语词汇表中的概率分布】和一个新状态【上下文动态更新】。新状态将递归赋值给 de_s_t。这意味着,在每个(单词生成的)时间步,之前的解码器状态都将成为模型的输入【这是译文精准的源头】。然后在下一步中,您使用 probs2word() 函数(从所预测的词的词汇概率分布)获取实际的单词字符串。probs2word() 是一个接受概率并输出相应法语单词的函数。之后,您使用 word2onehot() 函数将该单词转换为 onehot 编码序列【把生成的词重新编码以便模型下一步使用:这是引入目标语生成模型的关键输入,它是译文地道通顺的保证】。这将被分配回 de_seq,后者将在下一步中成为模型的输入。然后你不断地迭代这个过程,直到输出单词是“eos”【句末标志】,或者直到 for 循环结束。

是不是很有意思?

欣赏一下课件的图示:

 
课程最后的讲义总结如下:
Got It!
1. Wrap-up and the final showdown
You've learned a great deal about machine translation and maybe a little bit of French as well. Let's have a look back at what you've learned.

2. What you've done so far
First, in chapter 1 you learned what the encoder decoder architecture looks like and how it applies to machine translation. You then played around with a sequential model known as GRU, or, gated recurrent units. In chapter 2 you looked more closely at the encoder decoder architecture and implemented an actual encoder decoder model in Keras. You also learned how to use Dense and TimeDistributed layers in Keras to implement a prediction layer that outputs translation words.

3. What you've done so far
In chapter 3, you learned various data preprocessing techniques. You then trained an actual machine translation model and used it to generate translations. Finally in chapter 4 you learned about a training method known as "teacher forcing" which gives even better performance. You trained your own model using teacher forcing and then generated translations. At the end, you learned about word embeddings and how they can be incorporated to the machine translation model.

4. Machine transation models
In this course, you implemented three different models for an English to French translation task. Model 1 was the most basic model. The encoder consumed the English words as onehot encoded vectors and produced a context vector. Next the decoder consumed this context vector and produced the correct translation. In model 2, the encoder remained the same. The decoder in this model predicted the next word in the translation, given the previous words. For model 3, we replaced onehot vectors with word vectors. Word vectors are much more powerful than onehot vectors and enables the model to learn semantics of words. For example, word vectors capture that a cat is more similar to a dog than a window.

5. Performance of different models
Here you can see the performance of those three models. You can see that the models trained with teacher forcing give the best results. You should note that the model that uses word vectors gets to a higher accuracy much quicker than the model that is not using word vectors.

6. Latest developments and further reading
Though you used the accuracy to evaluate model performance, there is a better metric known as BLEU which tries to imitate how a human would assess the translation. Another important thing to know is how out-of-vocabulary words are treated in productionized models. For example, Google cannot simply replace unknown words with a special token. To address this problem these models use a word piece model. A word piece model will identify most frequent sub-words in a corpus. For example, if the model has seen the words "low" and "newer", and has learned the sub-words "low" and "er", the model can represent the unseen word "lower". One of the most important developments in the field of NLP is the Transformer. Transformer is based on the encoder-decoder architecture. However it does not use any sequential models like GRUs. Rather, it uses something known as attention which is more light-weight than a GRU.

7. All the best!
I hope this has been a fruitful journey about machine translation and I wish you all the best.
 
【相关】
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

立委随笔:上网课也可以上瘾吗?

可以的 -- 如果所学刚好是你的兴趣和热情所在。

马斯克说,university 主要不是学知识。如今的信息社会,知识不需要上大学。知识是免费的,只要你愿意学,它永远在那里等你。

那大学干啥呢?马斯克说,大学主要是玩(fun),还有社交和关系(connections)。顺带一个用作业和考试磨炼一个人耐心的副作用:证明你能抗造。

现在想来,老马说的有些道理。在线的免费或低费课程 by nature 比大学设置的课程平均水平高,因为它可以不断迭代,精心设计,personalize 根据学生的表现因材施教。

最近试了几门网上的电脑软件课程,虽然网课也有参差不齐,但总体感觉这是教育的大方向。其中的优秀者,从教学内容和方式上,几乎超出了我对于“理想教育”的一切想象。没想到这几年在线教育进步这么快。

真地 very impressed。才100 多美元的年费,我注册了一个有几百门课程的网站 Datacamp,发现里面很多宝藏,让人流连忘返。它会根据你的进度、错误,自动调整给你的建议,针对性补缺。再笨也能被提升。无材不可教。完成一门课,发个小红旗,美滋滋的,跟过年吃上牛轧糖一样,吃了还想吃。

certificate5-OOP

看来,教育扁平化、优质教育普及到每个角落的愿景,不是梦。穷乡僻壤也一样可以够得着一流的教育,至少从知识传播的角度看是如此(至于心智情操的教育,可能较难离开人类教师的参与)。

这两天在寻思信息时代的学费问题:不少学校是按照课程收费,一个学期一门课收费 x 美元等等。伯克利这样的公立学校是按照学期收费,无论选几门课,学费是固定的。有一次我问:那多选课的学生岂不是占了大便宜?如果一学期选个七八门课,岂不是两年的学费就毕业了。得到的回答是:是的,可以这样做,如果你不怕死。还的确有极少数人做成了的。但到了期末的 dead week,脑容量不够装那么多东西来应付考试。

到了网课时代,成本趋近于零。那天我算了一笔账,年费100多美元的网站,有几百门(还在增加中)精心准备的课程 offering,如果凭着兴趣专心去学,一年下来学50门课没有问题。这样算下来的学费,每门课不到一杯咖啡钱。不禁有点心痒:这个大便宜不占,不是太亏了吗。网站也赚,因为是规模化经营,每门课都成千上万源源不断的生源。也因此他们可以聘请最好的老师,编制特别讲究的课件,配以精心设计的个性化动态配置的学习环境。

certificate-7

学完这门课,讲师超级棒。学到的技巧包括对 code 做 profiling,找到时间、空间瓶颈。本来这些工程优化的细节问题不是我感兴趣的点,但是无奈这个讲师讲得太好了,开始听了就停不下来。可以体会和观察到优秀讲师与课件的高明之处在哪里。

学 RNN 课程的时候,记下了零星的笔记:

多层神经训练跟玩积木似的,原来可以这样大杂烩地堆积起来(见课件中的下图),弄得跟化学制剂的配方似的。某教授说,就跟码字的人一不留神就整出个《新红楼梦》一样,码农也可能一不留神就弄出来个数据质量特牛逼的系统出来。

据说,meta training 就是这么个思路。就是说,不仅仅训练模型自动化,连模型本身的结构和超参数的选择也自动化了。如果可以控制组合爆炸,那就让机器来玩积木,保不定玩出一个模型是人想不到的。

这几天跟着RNN课程玩模型也跟小孩玩积木一样,让人着迷。着迷其过程,可以暂时不问结果,权当是 fitness 健身。

还学了神经翻译课程,感慨良多。回想一下觉得有些好笑:30年前好歹也是科班机器翻译出身,大小也可以说是个学“者”。河东河西,现在乖乖成了机器翻译学“员”了。机器翻译翻天覆地的变化是有目共睹的。如果NLP其他方面的变化也达到机器翻译的程度,那才真叫不废江河万古流。

两分钟讲解,10分钟练习这种迭代方式很赞。神经翻译课程与其他电脑课程类似,大约分 10-20 次讲解,说是4小时的课程。机器翻译课讲义编得真心不错。

Did you know that in 2017, Google translate served more than 500 million users daily? 原来 2017年谷歌机器翻译就每日服务5亿人次,超出想象。也许是仅次于搜索服务人次的第二大应用了。网上的语言屏障基本被扫除,现如今任何网页都是点击之间便化为母语。

这个必须晒一晒:

哈哈 疯了啊。前几天给我个notice 说我的疯狂coding的效率超越了社区的95%,今天接到的 note 更新为 超越 100% 这也太夸张了吧 : 社区成千上万的学员,怎么就全超越呢?再者:100% 中包括自己吗?

无论如何 积分远远高出一般 是得到认可的。统计不骗人吧。好,再接再厉,keep coding:老夫聊发少年狂,码农学员coding忙。想起来师姐曾经写过一篇《疯狂世界语》,描述我当年学习世界语过分投入的疯狂,有如昨天。

【相关】
 
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

关于NLP 落地以及冷启动的对话

友:我比较好奇一个问题,方便的话请教一下李老师。像您开发的那一套parser或者引擎,一旦您离开了,还有人能持续提升么?我个人感觉能有人维护好就不错了。毕竟那套涉及很多语言学的东西,想深入到里面去改进或者维护,应该不容易。

李:基本不能,但是在NLP落地所需要的抽取层面可以继续。就是 NLP-core 一般人不要动。但是 NLP-IE 是可以的。

友:明白,就是如何利用nlp core的输出,这是和业务紧密联系的

李:IE 那些下游任务,可以假设 NLP-core 为空,选择不利用 NLP-core 的结果,也是可以的:那就成了大号的正则表达式。但比正则表达式还是强得多,因为内部有本体知识库对于词的特征支持,可以泛化。而且,虽然不要动 NLP-core,但是下游可以选择去 leverage 其潜力,因为可以根据 core 的输出结构来决定部分利用结构。就是说 core parser 不必预设它是正确的,只要其中有一些正确的部分 下游就可以选择利用。这样的灵活性都 build in 在引擎里面了。

友:nlp-core为空,那就是不要那些词之间细节关系了?然后大号的regex是否可以理解成一种所谓的end2end,给一个句子,得到整体大概是个什么意思。

李:同一条 IE 规则也可以一半用物理上下文(窗口距离限制),一半用结构,例如宾语比主语可靠。宾语就可以作为条件利用,而主语可以通过窗口限制找前面的合适的词。

友:不过话说回来,这个可能就是李老师的方法和统计的方法最大的区别了,李老师这个讲究积累迭代,统计方法训练完模型就结束了,要新的,加数据重新来。

李:其实也有很多类似。我的方法论中 可以半自动开发迭代,这与深度学习里面的梯度下降是相通的。只不过我的迭代开发过程有 human in the loop,去判断迭代效果是否符合预期。因为是冷启动,没有标注数据,只能靠 human 做判官。实质是把开发者从 coder 解放为 judge。这是一个创新,可以大大加快开发并降低门槛。当然我这边的“梯度”是预先确立的离散的路径(否则会爆炸,只有根据以前的 best practice 找到离散的泛化路径),由开发者(知识工程师)选择执行迭代的步骤。

友:嗯嗯,明白。这个感觉是更抽象层面的统一。都需要manual work,但是在不同的阶段,统计方法里的manual work就是标注,一旦标注完成,后续不会再有明显的manual work了。但是李老师的方法尤其在前期需要持续的manual work,稳定之后也很少了。

李:就是,我的方法更靠近常规软件工程方法:低代码数据驱动迭代。而机器学习/深度学习实际是一种极端主义的方法论,因为本质上 机器学习就是要实现自动编程,追求的是全自动开发(即训练)。等于是说,要消灭码农。因为深度学习在有些地方作出了突破进展,是主流,结果其极端主义的一面 一般人看不到了,被广泛视为理所当然。

友:是的是的。统计方法的模型更适合做产品系统里的某个模块,而不是产品系统本身。李老师有没有考虑过自己干?提供这种nlp-core的服务。

李:太费力,因为提供这种小众服务有擦不完的屁股。

友:哈哈,也是,最好还是套到某个具体赚钱的业务上。

确实,人们其实并不在意机器怎么理解具体句子,人们只在意怎么指导具体的业务,也就是下游的任务。这个我想也是统计方法的优势,不在细节里纠结,直接建模输入和输出。

李:end to end。

能够端到端的前提 是有大量的标注冗余数据,但这个条件在很多领域应用场景中都不存在。这就是冷启动做业务目前的难以取代的价值所在。理论上,预训练可以代替 Parser 来节省对于大量标注数据的依赖。但是 预训练+下游 这种 transfer approach 的规模化工业落地 还有很多沟沟坎坎。如果真有大的突破,parser 的价值就会降低了,也许整个符号路线会被终结。但现在判断其前景,还是有点为时过早。

友:哈哈,所以nlp的创业公司都做不了toB,因为没数据;做toC又做不过有用户的大厂,所以nlp创业公司挣不到钱,做不大。

李:EXACTLY

 

【相关】
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

《李白梁129:新年快乐的符号逻辑》

白:新年快乐!

李:有意思。形式逻辑表达式?

两个tokens,嵌套演算6次,请白老师给讲解一下其语义计算。intuitively 感觉就是 “时间”和“性状”的交集。性状作为谓词,存在一个缺省的宿主,就是祝愿的对象。当然也缺省了“祝愿”,就是说性状有一个 hidden 的虚拟语气。

白:(1)定义谓词“快乐”。它带两个约束变元,一个是时段,一个是当事主体。(2)话题化。“快乐”的当事主体不在原位,说明向外层发生了移位,在我的体系里就是管挖坑不管填坑,不饱和的坑被托管给外层。(3),用一个摹状词定义了“新年”,它是由属于“新年”的所有时点构成的时间连续统(区间)。(4)在“新年”与“快乐”结合时,把新年所界定的时段用来对“快乐”进行周遍性描述,说明是在这样一个时间连续统里当事主体都快乐。(5)把这个空缺的当事主体(萝卜)构拟出来,赋予他空缺论元(萝卜)的一切已知特性。(6)回到语境,确认这是一个祈使句(祝福语),填坑的萝卜默认为语境中的听话人。还应当有个(7),就是萝卜(语境中的听话人)一路反填回最内层的坑位,也就是当初谓词“快乐”所挖之坑。所谓话题化,只是不饱和论元向外层托管残坑而已。未必处在C-Command位置(中心词对中心词/非中心词拉飞线),也完全可以处于我们定义的M-Command位置(非中心词对非中心词拉飞线)。

李:? 新年第一语义。

句法上 英语 Happy NY 中 Happy 是定语(快乐的新年),中文 “新年快乐” 感觉上 “新年” 就直接是(拟人化的)宿主。但英语的定中结构落脚在时间实体上,而中文无论是解析为主谓结构还是状谓结构,落脚在性状(谓词),都是围绕这个谓词中心,对它做约束。其他东西(包括真正的宿主)都是身外之物。

梁:不饱和最好[ThumbsUp] 有“可延展性”! Actually 空的坑越多越好,待定状态最好!

我觉得,不同的想法(框架)不应该混。 主谓宾定状补是一种语言体系。 萝卜-坑 是另一种语言体系。

李:前者是句法,后者是(逻辑)语义。形式逻辑的演算和表示是后者的算法化。

语用角度,感觉中心概念是时间,谓词降格成为渲染情绪的性状来描述这个时间,“新年快乐” 描述的是一年中有这么一天,空气中飘荡着快乐的氛围。这刚好与英语句法是一致的。

梁:语用层面,主要是 “新年” 这个词 触发了一连串想象,一幅很有特色的图画(场景),快乐是说明这个场景的。

白:我这处理是:名词降格为副词,做状语。

李:这是时间词的常规做法。甚至可以不降格,就是兼类。

白:这不是兼类,是活用。

李:兼类的说法不宜滥用,但时间是个例外:几乎在所有语言中,时间词都是名词为本,状词为表,作状语拿来就用。这是因为,时间在 entity 的频谱中,具有极其重要的特殊性和抽象性:无事不在时间内。

白:涉及到aboutness的时候,也管不了那么多。之前我们讨论过的“这场火多亏消防队员来得及时”就是。

李:分布上看,时间词作状语是压倒性的,而作为本体被议论描述则比较罕见。所以与其降格,不如说就是副词,偶然升格为名词/实体。换句话说,如果原子性符号标注不允许兼类,也不允许分层(降格升格),那么索性标注为 RB(副词),大体齐是过得去的。

白:这个我们还是根据原理来的。名词降格为副词,语义上是有一个未命名的格标记(隐介词)以这个名词为介词宾语。我们的升格操作对应于脑补这个隐介词。如果这个名词本身具有#Time的本体标签,则隐介词为“在(时间)”就很顺畅。

李:实践中,兼类也不是一个什么要不得的做法,不过就是所谓“包容”策略的一个捷径而已。绝大多数词典都是如此标注的,无论这些符号是兼容还是不兼容,大多是混杂在一起的。这带来了简便,实际运行中虽然不完美,有逻辑破绽,但多数时候是管用的。新年:RB NN,上下文要谁给谁。(其次是只给 RB,必要时“升格”为名词)。

白:说起词典,有一个很有意思的问题。“home”有一个义项被标注为副词,因为可以说“go home"。“home”还有一个义项被标注为形容词,因为可以说“on the way home"。其实,只要把home理解为缺省了隐介词"+X/N"的介词宾语N,就不难理解这两个home其实是一个,只不过隐介词既能导向状语、也能导向定语罢了。

李:那是因为定状一家,PP 是 adjunct,无论限制什么对象。

白:对,+X向左,既可以修饰N,也可以修饰S。介词就是吃一个N,吐一个+X。

祝大家新年快乐!

 
【相关】
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

《李白荀舟詹128:从专名的层次纠缠谈到NLP前路漫漫 一缕曙光》

舟:新闻标题:“球员明天昨日与爱妻举行婚礼,武汉队官方送上祝福” 如何解析?

白:爱妻一个坑,球员一个坑,武汉队反填球员坑,球员反填爱妻坑。明天做专有名词。什么都能做专有名词,明是一个姓,更能。昨日倒是只能做状语。再加上一个矛盾的时间状语,优先级折损,让专有名词义项露出来。

“明天”本来就是名词,组成同位结构和降格成为状语两个可能性,在句法层面本来都是存在的。只不过,同位结构是NN合并,需要白名单制。进入白名单的条件之一就是“类型相谐、一称呼一实例”。现在,是要在句法标签同为N的情况下,解决本体标签由Time向Human转换的问题。

舟:@白硕 谷歌百度,都没有搞定翻译![Tongue][Scream]

球员明天昨日与爱妻举行婚礼,武汉队官方送上祝福。

百度:The players will have a wedding with their beloved wife tomorrow and the Wuhan team will send their best wishes to them.

谷歌:The player held a wedding with his beloved wife yesterday, and the Wuhan team officially sent blessings.

谷歌还是聪明一些,把明天扔掉了……[Tongue][Grin][Shhh]

詹:这个得有篇章处理能力才好。正文第一句“武汉队球员明天与爱妻举行婚礼”。这个“明天”还得继续是专名。

荀:从工程角度看,类似这样的极端例子,不是现阶段NLP能力所及,处理对了也未必理解了上下文。可以愣是迎着困难上,很可能得不偿失,灌入更多类似语言现象数据,或者引用更多语言知识,这句对了,可能受伤大批句子。

学理上可以深入讨论,能得到以点带面的结论是非常好的,但是那这些句子去测试机器翻译,测试大模型的能力,没有意义。

李:荀老师所言极是。

有过教训的。极端例子的处理很难“包圆”,这往往造成副作用远大于正面作用。这是因为极端例子统计上属于极小概率。对于极小概率的现象,最有利的工程策略是选择忽略它,与噪音过滤同理。

可以探讨原则性的解决方案,实现的时候需要小心与现架构或pipeline小心对接。例如,专有名词的任意性是一类现象,虽然每一个具体案例都是小概率,但这类现象可以探讨一种原则性的出路。出路往往出现在另一个层面,例如应用场景的动态词典层面:一个与常用词同形的专名在 discourse 或某个数据源中反复出现,当它远远高于它作为常用词的正常出现频率的时候,它作为专有名词的小概率就变成了现实可能性。动态词典或用户词典可以收录它,增加它作为专名的权重。把动态词典与系统核心词典融合,可望帮助解决这类层次纠缠。但这种融合还是需要格外小心。比如,动态词典不仅仅要适合的时机融入处理,也要在合适的时候退出,以免对于变化了的场景产生持续的副作用。

通常的 NLP 只针对局部字符串。现在出现了更大的场景约束: dicourse、data source(source 本身也份不同层次)、domain 以及用户词典。为这些场景规划范围,以及资源进出的条件边界,是一个远远超出常规NLP处理流程的更高层面的控制逻辑。很不容易处理妥帖。

弄巧成拙的坑,不知道栽进去多少回了。

很多年前,还是在跟随刘倬老师做MT的时候,我们做过一个动态领域词典帮助确定领域场景的简单实现,有动态加入和忘记的功能:就是建立一个有限长度的先进先出的队列,当进入某个 discourse,有足够多领域A的词汇时候,就认定为A领域场景。当数据源源不断进入系统处理,领域B的词汇进来会冲刷领域A词汇,系统就进入领域B的场景。

这是为了解决WSD的领域问题,很多常用术语是跨好几个领域的,不同领域的译词不同。当时的办法就是希望动态决定,实际上就是 domain 词汇 propagation 的效果。取得了局部成功。当然,现如今的神经系统对于更大的上下文有表示记忆,这类当年的难题原则上在 discourse层面已经解决。超越 discourse 层面的,很多翻译软件(例如搜狗)允许用户自己设定一个大的领域。

另:现在对预训练的好感越来越浓,彷佛看见了一道曙光。隐隐觉得 预训练+下游NLP落地 可能是人间正道,可望碾压 parser+落地,但在当下的时间点,还不好说这条道路在规模化领域落地方面的可行性究竟如何。觉得时间窗口是 5-10 年。按照现在的科研进步和资源投入,5 年左右还做不到遍地开花,那就是遇到了真麻烦。否则,有可能终结符号路线。

荀:深度语义解析,离不开符号和结构,但不会是之前合一运算那样暴力使用知识,而是跟模型结合,处理好符号和参数方法的适用边界和做好两者融合是关键。我们在这个方向探索了多年,有了一些经验和体会,正在努力地把它写出来并开源。

李:looking forward to it ....

有时候,我也有建设开源社区的冲动,一直没有机会和精力。同时也觉得真开源了,也是门可罗雀。不知道要经营多久才有可能形成社区效应。但有一些积累如果总不开源,一辈子的思索和闯荡,也就老死手中了,想想也挺悲催的。

荀:是的,有心理准备,学习代价就是最大障碍。在努力地做到简单易学易用,届时各位老师多指教。

李:学习代价是个拦路虎。无论怎么简单易学,实现低代码,符号NLP 还是很难普及。

内部曾经说过,正则和 Excel 够简单了吧,真学好还是要费力气的。我说我定义的语言script 比正则还要简单,为什么说难呢?被告知:正则学了,Excel 学了,到处可用,那是万金油。学这个 哪里认呢?

想想也是。这不是简单降低门槛,把设计做到极致简单就可以普及的事情。

荀:不管效果如何,算是多一些不同的声音和思路。不过还是小有信心的,在北语,可以部分放在课程体系中,几轮下来,辐射面挺乐观的。

李:嗯,学校环境有所不同,可以渐渐辐射。工业界不一样,前场救火似的,很难有耐心和动机坐下来学一门偏门的东西。

荀:nlp往深里做,不可能不结合语言知识,只是找到好的做法。逼到墙角了,不得不学,不得不用,现在还没到墙角,还可以发论文,还可以拿到项目。

白:script的服务对象是程序员,那是最难伺候的用户群。

学一套特殊的表示如果能赚许多钱,没人跟钱过不去。有了钱,把这套特殊的表示传承下去也不是问题。否定别人的时候用百年老店的思维,肯定自己的时候用急功近利的思维,这叫双标。恐怕掌握特殊表示的人是否稳定,才是真正需要解决的问题。

李:好绕 lol

表示无所谓,不过就是面子而已。但是没有面子,也不知道如何传达里子。魔鬼在里子。

这种矛盾的确道可道非常道。

朋友圈刚看到这篇:Yann LeCun:发现智能原理是AI的终极问题 | 独家对话

很有意思的对话,其中谈预训练和自监督 从 raw corpus 学习所谓先验知识/结构,LeCun 信心满满认为这是AI的革命性转折。

在 raw corpus 里学习知识/结构,这与人们跳到水中学会游泳同理,与孩子在语言环境中自然学会说话同理。学校里学文法(成为 parser)是明着学结构,而预训练是暗着学结构。 表示不同,目标和原理一致。

白:其实明暗还可以细分,明着学what暗着学how是一种选择,what和how都暗着学是另一种选择。目前主流做了后一种选择,我看不出来除了商业考量(标注成本)之外有什么科学上的依据证明“明着学what”有何不妥。

李:没有不妥,主要是消化不良。主流还没有 figure out 如何接受明学的结构。既然消化不了,索性禁食,另有所食,发现还原到热量和维生素差不多是等价的。

这里有一个断裂。主流其实某种程度上 figure out 了如何生成显式结构,例如谷歌的 SyntaxNet 和 斯坦福 parser,都是深度神经训练出来的,在新闻类标准测试集上表现优异(但对于数据太过敏感,一旦换到领域数据,质量悬崖式下跌),可以媲美专家系统。但是,这是为 parsing 而 parsing,因为主流 parser 的结果主流自己也不知道如何消化和落地。

 

 

 

【相关】
 
 
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

立委随笔:面对快餐文化,要牺牲一代人吗?

Peter Wang: Python and the Source Code of Humans, Computers, and Reality | Lex Fridman Podcast #250

今天看了这个访谈,很有感慨。访谈很长,可以跳着看:

是自媒体大V,采访天下名流,尤其是IT和AI界大牛。Peter Wang 是 Anaconda 的联合创始人兼首席执行官,也是 Python 社区中最具影响力的领导者和开发人员之一。此外,他还是一位物理学家和哲学家。
 
https://www.youtube.com/playlist?list... 剪辑播放列表: https://www.youtube.com/playlist?list... 大纲: 
0:00 - 介绍 0:33 - Python 4:04 - 编程语言设计 24:07 - 虚拟性 34:07 - 人的层次 41:05 - 生活 46:29 - 想法的起源 49:01 ——埃里克·温斯坦 54:00 - 人工源代码 57:58 - 爱 1:12:16 - 人工智能 1:25:39 - 意义危机 1:48:12 - 特拉维斯奥利芬特 1:54:38 - Python 续 2:24:21 - 最佳设置 2:31:39 - 给年轻人的建议 2:40:12 - 生命的意义

访谈提到人抗不过环境,尤其是 teenagers。面对以抖音和脸书为代表的流量商业和快餐文化(包括游戏和色情)的潮水般冲击,年轻一代毫无抵挡之力。这就好比从忍饥挨饿缺乏热量时代走来的人,面对食糖完全没有抵抗力。

 
食糖造成肥胖症和种种疾病的后果,是经过很长时间才为社会群体意识到,这才有如今的低糖饮食(包括各种低糖饮料)的健康生活方式的逐渐流行。同理,移动互联网快餐文化的恶果也需要一代人的牺牲和教训才会逐渐为社会意识到。
 
堕落是容易的,站起来却很费力气,这符合熵增原理。但人与万物之不同,就是最终还是会选择站起来,只是在这种选择之前和之中,要牺牲多大的问题。快餐文化攻击的是人的软肋,开始的时候,没有人可以抵挡。但人在低层次满足和麻痹的过程中,会逐渐产生麻木和空虚。麻木让人变得皮实,不再那么容易深陷其中。空虚是对低层次的反动。最终会产生更高层次的服务和追求,限制快餐文化的蔓延,这算是乐观主义。否则,悲观主义视角看后现代的趋势,这个世界是无药可救了,科技越发展,人类越堕落。
 
群里讨论这个话题,马老师深有感慨:快餐文化渗透到各个方面,以前我这博客,现在根本不写了,只发微博和微信。
 
我也有同感:没几个人愿意深入思考。再说,认真写了博客,也缺乏受众。很少人有那个耐心。全民浮躁的社会,人的注意力宽度(attention span)是渐行渐窄。坐冷板凳的成为珍稀物种。
 
毛老说:不是越堕落,而是越两极分化。
 
梁:绝大多数人任由环境支配,顺流而下,极少数人反之,逆流而上。生命是一种小精灵,它抗拒熵增,尽量推迟与大自然达成平衡(死寂)。
 
我的问题是:面对快餐文化,要牺牲几乎整整一代人吗?你看现代的年轻人,多少人沉迷于游戏、毒品、memes。所谓元宇宙,各大资本巨头加持,汹涌呼啸而来。这是像哦米克隆病毒一样,到底是加速这种牺牲还是结束这种文化疫情?
 
但愿物极必反。
 
另:这个访谈真地精彩,摘录一些访谈后读者的反馈如下:
 
我对 Peter Wang 一无所知,但我绝对被他的洞察力、批判性思维和引人入胜的哲学思想所震撼。我非常喜欢这个人说话的方式。再次感谢 Lex,为我们带来这种类型的对话。
 
学习 Python 是成为办公室“Excel 专家”的下一步。我用无能的意大利面代码自动化了这么多重复性任务。
 
这场辩论比标题所暗示的要深入得多。来自计算机编程的思维逻辑和原则对于各种问题都非常具有说服力。在这样一个瞬息万变的时代,有着如此多的可能性,哲学比以往任何时候都更加重要,可以帮助我们找到人类前进的道路。非常感谢您进行这些对话。
 
伙计。Peter Wang 是一个处于底层的海德格尔主义者。这个播客是传奇。
 
我很高兴我们现在有机会免费聆听这些珍品。Lexs Podcast 是一种智力乳清,适合喜欢提升思想的人。
 
我很感激这一点,彼得的内容气息是一种现象,涵盖了很多主题。这可能是最好的之一,在 2 小时内,这感觉像是最短但也是最长的采访!请更多被低估的客人!
 
顺便说一句,令人惊叹的采访和真正非凡的观点。从我的内心深处喜欢这次采访。
 
谢谢你,Lex,给我们带来这些采访。这就是我(我们)在 90 年代从哲学专业毕业的那一天,在西班牙马德里,互联网还没有出现的时候所渴望的。有一些有趣的电视节目,但它们总是达不到我们的期望(由于电视节目时间表的时间有限,缺乏解决主题的深度等),并且总是让我们想要更多。您频道的质量非常出色,确实有助于弥补我所指的电视上的不足。再次感谢并祝愿 2022 年。
 
我 85 岁了。我发现自己有感恩的时刻,因为我活得够久了。例如见证这次谈话。谢谢你俩。
 
这是迄今为止我在 YouTube 频道上看到的最聪明、最有趣的频道。
 
Lex 我希望你问一下通过技术导致人类灭绝的可能性。程序员更有可能成为实现这一目标的途径。比病毒学家更是如此。
 
多么雄辩的采访,详细阐述了如此广泛的主题。喜欢最后给年轻一代的建议以及创造的术语“闷闷不乐”。干得好,莱克斯。
 
32:05我们必须在这里推理的一件事是,社交媒体是我们第一次遇到技术系统,该系统围绕我们自己的认知和注意力运行一些循环。这不是最后一个——它远非最后一个,它触及了西方哲学体系的一些哲学阿喀琉斯之踵的核心,即每个人都可以做出自己的决定;每个人都是一个个体,在他们的代理和主权方面是神圣不可侵犯的。这些系统的问题在于它们能够集体管理每个人,因此每个人都在做出自己的决定,但是,更大的系统使它们成为一个群体动力,这对人们来说是非常有利可图的。
 
要点:TikTok 正在给我们带来社交糖尿病。
 
才发现这家伙的名字叫“王彼得”——他别无选择,只能是才华横溢。
 
 
【最近博客】
 
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

 

立委随笔:王力宏的危机处理

2021年公关危机事件中,处于事业巅峰的王力宏事件虽然时间跨度不长,但凸显了信息时代的公关灾难,不亚于当年罗胖子怒砸西门子冰箱门的公关危机。

短兵相接,轰然倒下,王力宏处理失当,造成无法挽回的结果。毛估估,他的事业至少要停滞五年,其实际影响远远不止今后五年。除了名誉损伤与创作停滞以外,直接经济损失可达数亿,甚至数十亿。

这一切都是从家庭争端开始。导火索就是离婚,以及前妻对离婚协议的不满,虽然她还是签了字。最大的不满是她没有得到自己带孩子居住的豪宅的房产权。清官难断家务事。前妻既然在协议上签了字,她在法律上想要得到豪宅是不可能了。于是一不做二不休,她诉诸自媒体爆料。

王力宏前妻李靓蕾在离婚协议签字后没几天,就写下4538字自媒体长文,控诉王力宏爱约炮、劈腿,遭王家人冷暴力、羞辱、签下不合理的婚前协议书等罪状。该篇文章在新浪微博阅读量达23.2亿,超过《哈利波特》小说的总销量。网络时代,23亿流量,这是什么级别?自媒体核弹。

王力宏被迫应战,发文回应前妻指控:“我没有对我们的婚姻不忠。5年又8个月时间,我活在恐惧,勒索和威胁之下。” 王力宏说:“被逼结婚那天觉得最无奈,没想到比起今天,那是小菜”。妻子以孕逼婚,后来在家的强势,大概不是子虚乌有。虽然在外面,前妻一直非常配合各种秀恩爱。

分居两年,谈判长达一年,好容易把离婚协议签字了。据说王力宏家财总共约7亿,前妻得到超过一个亿(洛杉矶豪宅以及一些投资的分成),但是前妻居住的台北豪宅却不归她,种下祸根。王力宏这边觉得终于熬出头了,可以重返单身自由生活。刚要舒口气,离婚第三日,多年来保持沉默的前妻终于火山爆发。

离婚协议的谈判要不是那样寸土必争,本不至于如此。可是话说回来,他也不知道退守到哪条线不会引起火山。王力宏死活不愿意把台北一个亿的豪宅给她,也有个中苦衷。这个豪宅在他母亲的名下,当时的安排就是王家尤其是王母为防止财产流走的一个处心积虑的操作。以王母的强势,王力宏岂能违背?网上有人评论说,王是孝子,性格软弱,一直听他妈的。他妈肯定是寸土不让那种。这下好了,他在娱乐界吃的就是青春偶像饭,靠的就是自己的道德楷模人设,以后还怎么红下去。前不久还与谭维维合作唱《寸心》,风靡乐坛呢,这下子不知何时能翻身。

老友说:“钱能摆平的都不是事。现在可倒好。社死。事业算完了,没有大陆市场,唱中文歌没法红。损失岂止几个亿。”

王本来没想结婚,就做个娱乐界的黄金王老五,到处风流。在娱乐界,他有钱更有压力,还到处是美女帅哥各种诱惑。他那种私生活紊乱,娱乐界其实不鲜见。

面对突发公关危机,王家被迫应战,却是一系列烂操作。王先是矢口否认,拒不道歉。紧接着,王力宏老爸手写信帮儿子反击,数落李靓蕾的不是,力挺王力宏是好孩子,没有婚内出轨。李靓蕾嗤之以鼻,责令王力宏发声道歉,否则将起诉王力宏父子诽谤。王力宏再上场揭露前妻不是开始说的不求钱财,而是已经拿了一个多亿。

李靓蕾亮离婚协议,怒飙王力宏:读者不是傻子,强调那一个多亿财产本来就是夫妻共同名下她应得的部分,并不是离婚补偿。李靓蕾连续发文,要求王力宏回应婚内出轨、冷暴力。

感情早已破裂。这事说到底不过是离婚分割财产让李觉得不公。勉强签字了,但这个不平埋在心里,终于爆发。王作为娱乐一哥,这些年挣钱很拼,积攒家财大约7个亿,离婚的时候,房产股票加在一起给了李1.5个亿。王觉得不少了,还有孩子们今后的开销,菲佣、司机种种,对于李与孩子们住的台北豪宅(1.2亿RMB)不舍得分割,但三个孩子的妈,又无法赶人家出户,离婚协议中写明是暂住18年。

什么话?孩子长大了,前妻也就老了,到时候滚出去。人家怎么能忍呢?你不是偶像明星吗,人家有的是料,看你跋扈。王为了保住这一个亿,把自己从事业巅峰炸飞下来。

这场烂仗,明眼人一看就知道你王家再觉得委屈,也没有用,选择辩白,只会越描越黑。王说自己没有那么烂,说会对出轨嫖娼的虚假指责一一回应。李说好哇,那就对细节一一辩诬吧。

事已至此,王家乱了方寸,前妻步步紧逼。舆论站在她这边,她不怕事大。还好,也许有高人,也许自己觉悟了,王终于意识到,互联网上的“道德法庭”,他没有任何胜算,只会在网民的口水谩骂中遍体鳞伤。终于公开道歉,并且承诺把房子转给前妻。一路来,只有这一步走对了。看来不大出血,他不知道止损。

此事终以王力宏道歉,交出豪宅,李靓蕾宣布休战,落下帷幕。王力宏最新发文:"不再做任何辩解"。同时会把1.1亿人民币的“吾疆”转户到李靓蕾名下。这个结果对王力宏而言,全盘皆输。李靓蕾事后受访也表示:“不会告了。”

前互联网时代,女的再强势、聪明,也只得忍了,没有渠道。现在不同了,一个微博就能搞死你。明星的悲剧在于,你自己再有能耐,也是可以被替代。一个倒下去,后面无数候补冲上来。范冰冰多么光芒万丈,最耀眼的时候,说下来就下来,很多年就是爬不起来。

可以理解李女士的愤怒。但是仔细读她,发现下手真狠毒。她把婚前婚后、交往前交往后的很多年的事情(“劣迹”)罗列在一起,成功塑造一个渣得不能再渣的小人形象,让人百口莫辩。这个女人不简单。

这是一场不对等的博弈。天平反而向无权无势无资源的一方严重倾斜。王的权势和名声成了累赘。大概属于所谓超限战。

理论上,王力宏可以告前妻诽谤,要求赔偿天文数字的名誉损失,他的确也遭受了难以估量的财产损失。但实际上完全不可行,只会把事情弄得更糟。这是因为打铁需要自身硬,王力宏并不硬,可以说娱乐圈染缸里浸染的多数渣男的所为,他都沾边了。前妻的指控并非空穴来风。更多是两人对于事件的不同角度以及感受的差异,远非黑白分明。事情闹大对于他将来的事业复出会雪上加霜,对他的实际损害只会更严重。真上了法庭,他也不见得能赢。何况即便赢了他也得不到可以补偿其损失万一的实际好处,无论物质的还是精神的。再者,她是你孩子的母亲和监护人,孩子们最亲的人,你把她逼垮逼疯,整得她一无所有,你如何面对孩子,面对自己。

乍一看,李女士立于不败之地。王力宏不得不道歉,也不得不公开表示把房子转给她。她似乎得到了她想要的一切。但其实还是两败俱伤。前妻非公众人物,没有自己名誉的实质损伤,但是她把她的三个宝贝孩子的父亲搞得名誉扫地,将来如何面对孩子的成长。互联网是有记忆的,孩子是要长大的,父子之间的感情和关系是割不断的。这种阴影对她孩子的伤害,会是很残酷的。

事情爆发以来,王力宏的危机处理实在不敢恭维。好在此事终于以王的撤退消停了。

一切缘于人性的贪婪寡情,见利忘义。好说好散,存有起码的同理心,本来可以不这样的。

人啊人。

 

 

原载 汉阳一江水《立委:王力宏的危机处理

 
【相关】
 

科学网-【社媒挖掘:大数据时代的危机管理】-李维的博文

 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

 

立委随笔:祝各位老友新朋 Have a “Good Next” Year!

快过年了,做了个奇怪的梦,趁着还记得,记下:

不知为啥事,一位专业人士老友开车带着我在外奔波了一天,说,晚饭时间了,咱们进去吃个饭。车就开到了一个熙熙攘攘的餐厅聚集区(肯定不是北京就是上海、南京啦),好容易找到 parking,然后带着我进了家高档餐厅。

我进门见餐厅高档豪华,一个个都西装革履,这才发现自己匆忙间光着脚,尴尬极了。于是老友陪我回去找我拉在车座位下面的鞋子、袜子,也都是满是灰尘。找个角落赶紧穿鞋。为打破窘迫尴尬,老友说:我们老了。我问:一直不知道,你多大了?(我心里估计他是50左右。)他神秘地蹦出带着中文口音的两个英文字出来,说:GoodNext。

我困惑: good next 啥意思?知天命还是耳顺?

他说:就是不够好,过了年富力强。

感觉我还一直在琢磨 next??就醒了。醒来后,赶紧查网络,用了双引号查谷歌,“good next”,结果除夕了,都是展望未来的话:good next year 之类。

至少确认了“good next” 不是一个固定用法或网络语,为什么在梦中表示老朽,不得而知。但愿这不是讽刺,而是新年吉语,祝各位老友新年快乐!Good next year, good next luck, good next plan, good next  ......

根据“梦的解析”的说法,语言学家梦中的“新词创造”应该有某种元宇宙造词逻辑,如果是自嘲的味道,我想也许是 “good,next” 的来源: good 是应酬,重点是 next.  就好比在挑拣一个对象或物体,一个个候选上来,大部分看不中,说: good,next(please)。就是 pass 掉的意思,不合格,人家要看下一个,下一个永远是最好的。

想起看过的李永乐老师的一个视频,讲女神挑对象如何做到最优的数学原理。追求者太多,眼花了,如果总是 good,next,那肯定不行,最后一不留神自己成了“剩女”。他提出的数学,精神上与华罗庚的黄金分割点理论相通,细节忘了,就是pass了三四成的候选以后,遇到比前好的,就绝不放过,不能再等 next best or next better one 了,这才能保证统计最优。

扯远了,反正除夕了,扯一扯无妨。国内大概都在看跨年晚会了吧。

祝你我新年快乐!

记于2021年12月31日早晨7点,苹果镇

 

【相关】
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2022)

 

《朝华午拾:创业之路》

已有 10314 次阅读 2009-12-11 04:23 |个人分类:立委科普|系统分类:人物纪事| 泡沫, 创业, 华尔街, 高科技, 问答系统

1996年11月来到B城,发现自己是公司的第二号员工。第一号是一位富有经验的瑞典籍的软件工程师,为人朴实,是很好的合作伙伴。印度女老板是大学教授,很有修养和风度,待人热情和气。当时正赶上美国网络热潮,股市狂涨,高科技项目成为宠儿。网络泡沫最盛的时候,总使我想起国内的大跃进。不怕做不到,就怕想不到。各种概念型公司如雨后春笋,只要有个主意,加上三寸不烂之舌,就有可能弄到钱。然后就是大把地烧钱,不需要有真正意义上的产品,不需要顾客,也不需要盈利,只要你能吸引眼球,在这个所谓注意力经济的年代,你就被认为有了潜力,在风险投资家精心策划的媒体抄作后,股票上市就会身价百倍。在这样的美国式大跃进的环境下,一个项目如果确实有点技术含量和后劲,就更加被追捧,跟我们自然语言技术有关联的askjeeves.com 的迅速窜红就是一个典型例子。

 

AskJeeves声称可以回答用户用英语提问的各种问题,IPO后股票一路上扬,成为大红大紫的华尔街宠儿。我认真研究了他们的做法,发现他们技术含量并不高,只用了一点粗浅的自然语言技术,对英语问句做自动分析,而网络文本是大头,那方面基本没有自然语言的应用。他们的聪明之处是以不变应万变,把千变万化的用户问句归类到相关的预先设置好的问题模板,再由用户点击选择,这样就保证了对用户问题的确认。至于答案,他们采用人海战术,雇佣了几百个分析员,收集常见问题和热点,更新问题模板,手工录入存在答案的链接。AskJeeves的成功为自然语言技术扬了名,为我们后来者开辟了道路。

当年我们运用自然语言和信息提取技术,研制了一个自然语言问答系统的雏形(prototype),在美国国家标准局比赛中获奖。该系统可以回答一些简单的问题,诸如:“谁是1995年物理诺贝尔奖获得者”,“中国哪一年加入联合国”,等等。这一新的研究开发方向,被广泛认为是下一代智能搜索引擎的希望所在,在工业界和投资界引起狂热。当时我们想注册一个跟ask/question有关的域名,凡是我们能想到的,比如 answer.com, exact-answer.com, this-is-answer.com, 1-800-question.com, etc. 几乎全部被人抢先注册了。在这样的形势下,寻找风险投资不仅是诱惑,而是势在必行。

老板联系上一位华尔街投资家。这层关系刚接通,老板就让我尽快给这位投资家提供我们系统的架构图和系统简介。我手头有一张为了写政府项目最后报告而准备的架构图,前后修改了不下十遍了。可是,投资人不是技术人员,所以我必须做进一步修饰,深入浅出,力图给人一种技术艰深,而用途广泛的印象。我的苦心没有白费,我早上送出材料,中午就收到回音,请我们尽速去纽约面谈投资合作事宜。后来,投资人告诉我们,这是他见到的最激动人心的项目之一,我画的那张架构图,经过他们进一步润饰,后来在华尔街投资人中间反响很大,被誉为 million-dollar slide,我们后来的主要投资人跟我说:“I love it, I just love it”。一幅好的图画胜过文字千行,我是亲身经历了这种威力。(前知识图谱钩沉: 信息抽取引擎的架构)

于是,老板跟我动身去华尔街,拜访Park Ave豪华公寓的主人,我们的投资联络人。这位投资人早年是物理博士出身,自称其师是诺贝尔奖获得者。他现在是华尔街的亿万富翁,已经成功地把30家左右的创业公司推向IPO,早已赚得钵满盆盈。Park Ave. 是纽约华尔街不远处的著名高档住宅区,濒临中央公园,这条街上住满了银行家和金融大亨,也有一些影视娱乐出版界的名人。这是我第一次走进亿万富翁的家,这个家占据了一层楼,从外面看并不很起眼。内部却极尽奢华,到处点缀着艺术收藏品。有两个佣人在默默收拾和擦洗。女主人很热情,招呼我们坐下,让佣人给我们预备早餐,她告诉我们她丈夫每天看材料,谈项目,总是工作到后半夜,现在尚未起床。餐后,投资家已经起来了,出来跟我们握手寒暄,留下一些需要我们填写背景资料的表格。他自己却走进房间,去做他每日必做的半小时晨功,念经似的朗朗有声。我不懂这是什么功,还是什么宗教仪式,只是觉得有点滑稽,不过在他这样紧张惊险的生涯里,这样的晨功应该是有益的精神调剂。

他后来跟我们谈了两个小时,可以看出在见我们前,他已经做了一些专业背景调研,问了一些技术问题,特别要求我们详述我们的技术和AskJeeves技术的异同。当他确认了他原先的猜想,AskJeeves 的技术含量只相当于我们所做的一个部分以后,当即拍板,由他个人先给天使基金100万(所谓天使投资是风险投资的最早期,天使投资家冒险最大,但投资得当,回报也最高),三个月后帮助我们寻找第一期投资。他对我们信心十足,说是他经手的公司之中第二个最有希望的(此前他还有一家特别中意的公司,跟AskJeeves类似,早已红透半边天)。

拿到天使基金的这三个月,我们做了两件大事,首先是把我们的系统和PDA无线连接上,这样就可以现场展示通过象手机一样的PDA向系统用英语提问,并立即得到系统的答复,这在当时对于投资人有震撼性的效果。另一项工作,是跟天使投资人紧密合作,数月磨一剑,精益求精,撰写设想如何赚钱的生意计划书(business plan),并在此基础上制作寻找投资的幻灯片。要想给投资人好印象,开始阶段用文字是没有用的,他们根本没有时间和兴致研究什么深奥的技术。所以,幻灯片要做得明白易懂,图示要简洁有力,需要有广告式的夸张,要的就是wow的效果。其实,在这个圈子里,大家都在夸张,推销自己,所以,投资人已经习惯对听到的夸张之词本能地打个折扣。对于不熟此道的技术人员,即便手头有很好的项目,不能有效地推销自己,也很难引起注意。我们很幸运,一开始就找到了独具慧眼,又谙熟华尔街之道的天使投资人。

三个月后,二闯华尔街。我身背一个死沉的膝式电脑,随时准备现场展示我们的问答系统,老板口才很好,负责向投资家利用幻灯片介绍我们的技术和商业前景。天使投资人不放心,要求老板事先多次演练,确保最佳效果。我也几乎一夜没睡,测试系统。说句老实话,我对现场演示很担心,因为当时的系统对于任意的一个问题,即便档案里面有答案,也只有70%左右的机会可以找出来。这个压力很大,因为只能成功,不能失败。投资人相信的是直觉,一旦测试失败,再怎么解释也很难挽回印象。何况他们也少有耐心,一般也就测试两三个问题,基本上是一锤子买卖。因为无法预料他们会测试什么问题,所以实际上只能听天由命。我就是这样胆战心惊地走进华尔街投资公司的大门。到系统演示时,我先介绍我们的资料库存的是以前的新闻存档,并演示了一个预先测试过的问题和系统答案。投资商中有一个看到我们的新闻存档包含有尼克松访华事件,于是提问道:“When did Mao meet Nixon?”,我录入问题后,系统立即显示如下答案和文句:

Answer: February 21, 1972
On February 21, 1972, President Nixon went to China to meet with Communist Party Chairman Mao Zedong and hold discussions with PRC Premier Zhou Enlai.

投资人的震惊可想而知,他们知道 Yahoo 和 Google 是无能为力的,就是AskJeeves也只能显示比较准确的链接,难以给出精确答案。我们趁热打铁,把 PDA 拿出来,请他们自己现场输入问题,通过无线连接我们在水牛城的服务器,其中一个问题是 “how to make chocolate chip cookie?” 这个问题其实超出了系统设计的范围,因为所问不是时间、地点、人名和机构名之类的实体,而是一种方法和配方,在自然语言中的表述形式往往很长,难以把握。幸运的是,存档里面刚好有一段提到制造巧克力cookie的技巧,系统因为无法断定什么是答案,就干脆把最相关的那个段落给提取出来,居然获得喝彩。

过了这一关,投资人的胃口已经给吊起来了,我们掌握了讨价还价的主动权。当然还要经过一系列手续,包括所谓 due diligence, 由投资人聘请资深专业人士对我们的技术做出鉴定,以减少投资失误。然后是双方律师的很烦琐的 paper work,最后终于达成协议,成功引进1000万美元的风险投资。

鉴于我对公司技术发展和资金引进的贡献,老板在引入风险投资前夕任命我为研究开发副总裁,就这样我阴错阳差成为公司第一位,也是在位最久的高级主管。这是我三年前来美创业时从来没有想到过的。

记于2006年六月二十四日

【相关】

《朝华午拾:用人之道》
《朝华午拾 - 水牛风云》
《朝华午拾:知识图谱的先行》

前知识图谱钩沉: 信息抽取引擎的架构

~~~~~~~~

创业九年祭 (60160)
Posted by: liwei999
Date: February 24, 2007 01:43AM

今天收到消息,说Cymfony明天正式出售给英国一家大公司,售价不足以收回投资(不包括政府的近千万投资)。终于运行近10年的公司有个不算最糟的了断。我的股权比水漂还不如。

想想高科技公司也不容易。现在经济形势比较好,尚可以卖个价钱,不至于血本无归,形势不好的话,连买家也找不到。

Cymfony 将成为历史名词。

此祭。

【置顶:立委科学网博客NLP博文一览(定期更新版)】

http://blog.sciencenet.cn/blog-362400-277738.html

上一篇:mirror - 有人又提起了“李杨”的问题
下一篇:《朝华午拾:用人之道》

 

7  李宇斌 黄仁勇 武夷山 吕喆 蔣勁松 韩健 yyfy105

发表评论评论 (3 个评论)

IP: 125.46.48.*   删除 |赞[2][游客]jiaomei   2010-10-19 16:11
做地好,写得好,照得好___欲与金牛试比牛!
删除 |赞[1]蔣勁松   2009-12-12 19:32
寫得真好,祝賀博文被編輯部推薦!
博主回复:还要多谢您的引荐。

《AI 随笔:从对张医生的综述抄袭指控谈起》

网友爆张文宏医生博士毕业论文涉嫌抄袭,有图有证据。这是最近闹得沸沸扬扬的大事件。主要是张医生在疫情期间由于言论大胆独特而成为争议人物。爱的爱死,恨的恨死。张黑要掘地三尺,粉丝要誓死捍卫,背后有许多社会学的因素在。但这不是我考察此热点事件的角度。

我的角度是AI,得出的结论是,综述抄袭的指控跟不上时代了。随着AI语言模型的进展,不仅是对张医生,对任何人的综述抄袭的指控很快就会无效。 改写别人写好的综述,经过机器变换算自己的,实践中是无法从技术上做抄袭指控的。

目前学术界的要求是综述的文字必须是自己的文字,可如何定义“自己的文字”呢?说到底就是不要被目前“查重软件”揪出来就算自己的了,那简直不算事儿。除非把“自己的文字”定义为必须符合这个个体一辈子文风的平均值,这一点虽然技术上是可以想象的,但没有意义。最终,人还是要拼内容,而不是拼形式。而现代的技术可以某种程度上做到把内容与形式分开。

举报说:

张文宏论文第79页至82页,从被抄袭文章的第一节开始全文照抄,只是去掉了小节编号。

这是据举报的张医生综述抄袭的第一页

把它自动转成 text 如下:

kat6 基因是 MTB 染色体中的一功能区段,虽然 MTB 全基因序列目前尚在研究中,但 katG 基因的结构已很清楚。它的上游相隔 44个碱基与 furA 基因相连51,下游相隔 2794 个碱基与 embC 基因相连,应用 kpnI 限制性内切地MTB INH 教感标准株 8 Rv 进行消化后,得到一个大约 4810bp 的 DNA 片段,它作为开放可读框架存在被分析时,具有高度编码概率价值.KatG 基因就位于该片段的第 1979 - 4201位,全长 2223bp,其中 A428bp,C696bp,C740bp,T359bp,C+C 占64. 6%。将此片段转玉到一个能在 500hg/ml INH 中生长的耻垢分支杆菌 ML, smegmatis) 中,结果使后者获得了对 INH 的敏感性 (MIC为 8- 32hg/ml ),而对其他药物的 MIC 不变,证实了此 DNA 序列确是katG基因,它与 MTB 对 INH 的耐药性至直接相关0加。Cooderill以及lin 等对MTB 的 ATCC25618 株的 katG 基因含圾 2223 个核巷酸,除了第 700 位一个碱基由乌嗓叭取代了胞喀喧【它们的产物均为甘氨酸] 之外,与 RY 株的核苷酸种类和顺序都是一样的,但当他们对MTB 的 HRv-MC 株和 ATCC27294 株进行 kat6 基因分析时,则发现它们与 HRv 株的 katG 基因序列至少存有 16 个破基的差异,因此,在进行 katG 基因的研究,选择 MTB 标准对照柏时,应充分考虑不同菌株间基因差异的可能性, 尽量选用通用的标准析 HRv 株。 在对 katG基因进行分子学检测,尤其名聚合醇馆反应 (PCR ) 或 DNA 杂交检测时,其引物和探针的设计应尽可能地各开 kat6 的变异区域。

kat6 基因的同源性和功能

许多微生物都含有 xatG 基因,它们与 MTB 基因有较高的同源性-Heymiy直等用一个找带着来自 MTBkatG 基因的探针进行杂交分析,,结果 MTB H Rv 株和麻风分支持菌等 6 株分支杆菌均可见有亮度不同的杂交带,应用氨基酸序列分析显示,MTBkatG 基因编码的过氧化氢- 过氧化物酶,与胞内分支杆菌、大肠杆菌和沙门氏菌、和芽孢杆菌属的嗜热脂肪杆菌编码的过氧化所 - 过氧化物酶,其氨基酸残基符合率为 60% 、53. 3% 、45.7% ,与来自啤酒酵母菌的细胞色素 5也有部分同源性,表明 kat6 基因的分布是非常广泛的。Kat0 基因编码产生 hene-conting 酶,也称为过氧化气 - 过氧化物酶,醇分子量为 8000,在细菌的氧化代谢过程中发挥重要作用。虽然 katG 基因广泛存在于其他微生物中,但众所周知,INH 通常只对 MTB 野生株有效,MIC 多在 0. 02hg/ml1; 对绝大多数的其他分支杆菌的效果就......

我们用seq2seq语言模型自动改写试试:

kat6基因是MTB染色体中的一个功能片段。虽然MTB的整个基因序列仍在研究中,但katG基因的结构已经变得清晰。其上游相隔44个碱基与furA基因51相连,其下游相隔2794个碱基与embC基因相连,用kpnI限制性内切酶MTB INH教义标准菌株8 Rv进行消化后,得到约4810bp的DNA片段,当以开放可读框分析时,编码概率值较高的KatG基因位于该片段的1979-4201位,全长2223bp,其中A428bp,c6996%.将该片段转化为能够在500hg/ml INH生长的耻垢分枝杆菌ML,导致后者获得对INH的敏感性(MIC 8- 32hg/ml),而对其他药物的MIC没有变化,证实该DNA序列确实是katG基因,其与MTB对INH的抗性直接相关。Cooderill和lin等人的MTB ATCC 25618株的katG基因含有2223个核酸,除了700位的核苷酸被Wusangpa取代(他们的产物是甘氨酸)外,核苷酸类型和序列与RY株相同。然而,当他们分析MTB HRv-MC株和ATCC27294株的kat6基因时,发现它们与HRv株的katG基因序列至少有16个片段差异。因此,在研究katG基因和选择MTB标准参比柏树时,应充分考虑不同品系间基因差异的可能性,尽量选择通用标准HRv品系。在katG基因的分子检测中,特别是著名的聚合酶链反应(PCR)或DNA杂交检测中,引物和探针的设计应尽可能分离kat6的变异区。

kat6基因的同源性和功能

许多微生物含有xatG基因,与MTB基因具有高度同源性-heymie等人使用携带MTBkatG基因的探针进行杂交分析。结果显示,6种分枝杆菌,分别为MTB H Rv株和麻风分枝杆菌等。,具有不同亮度的杂交条带,氨基酸序列分析的应用表明,MTBkatG基因编码的过氧化氢-过氧化物酶与芽孢杆菌属的胞内分枝杆菌、大肠杆菌和沙门氏菌以及嗜热乳酸杆菌编码的过氧化物酶的氨基酸残基符合率分别为60%、53%。分别为3%和45.7%。与酿酒酵母细胞色素5的部分同源性也表明kat6基因的分布非常广泛。Kat0基因编码产生hene-conting酶,也称为过氧化物酶,其醇分子量为8000,在细菌的氧化代谢中起重要作用。尽管katG基因广泛分布于其他微生物中,但众所周知,INH通常仅对MIC大于0的MTB野生菌株有效。02hg/ml1。对大多数其他分枝杆菌的影响是......

以上是全自动改写版本,免不了有瑕疵,但是意思应该接近。对于专业人士,在机器辅助生成的基础上做一些必要的后编辑是自然而容易的事情,基本上就是通读一遍,顺它一顺就行了。

不知道“查重软件”能不能发现改写版本是抄袭的文字?不知道如果经过软件自动改写以后的综述,还会不会陷入“综述抄袭”的指控?

指控的抄袭对象的原文也附上作为比对:

搞不清楚在张医生毕业的年代,科研规范的平均水平如何,关于科研规范的教育和风气如何。

在我们入行的80年代,我知道是没有什么严格规范的,论文中只有极少数留洋归来的人才遵循国际规范,每个该有出处的地方都会注明。大部分论文,包括我的导师辈的权威们的论文,大多不严格注明出处。只在论文最后,有个【参考文献】列表,但这个列表与论文没有 coreference,根本搞不清哪个部分是哪个参考文献来的,哪个部分是原创思想。当时我们觉得这就是论文该有的样子。所以,如果以现在的规范回去检查80年代的论文,可能会打倒一大批名人,甚至泰斗。我说的80年代某些领域不规范,是指的引用出处不规范,不是说抄袭。导师辈论文其实很多干货,但是还是有很多引用不规范的问题。当时的圈子没人意识到这是不规范。那还是中国学术圈与国际学术圈没有接轨的年代。很多事情都有个时代局限性的。

当然,张医生的年代应该大有改进,与国际学术规范开始接轨了。但现在与20年前到底改变多少,不得而知。就事论事,我相信按照现在的注定短命的学术规范看,张医生的确是抄袭了。这种综述抄袭在当时(上个世纪末)估计是个有一定普遍性的问题?

什么是现在的学术规范?对于综述(或科普),对抄袭的理解是,文字相同就算。如果idea一样,文字不同,不算抄袭,因为综述和科普都是介绍别人的工作,而不是自己的原创思想。

这个标准貌似有理,但我想指出的是,这个标准落后于时代,已经难以为继了。

因为 AI 领域有一种东西叫“生成语言模型”,最著名的要算是 openAI 推出的 GPT-3 与国内华为等多家研究团队协作推出的“盘古”,二者都是超大规模的语言模型。

GPT-3 参数高达1750亿,据传光训练更新一次模型,就需要两千多万美元的投入,这是AI领域的核武竞赛似的算力和算法的大竞赛。盘古模型有千亿参数,训练数据量也是天文数字,高达40TB,是全球最大的中文语言(NLP)预训练模型。在生成文本时,这类模型非常强大。生成的文本与人类生成的文本从形式上看是难以分辨的。除了辅助写作(包括改写 paraphrase)外,这类模型最大的特点是真正解决了 open-domain 的问答难题,它们所涵盖的知识实在太大了,远远超过曾经名噪一时的打败人类的IBM沃森问答系统。

关于综述抄袭的问题,过去是不规范的问题;将来也不是问题,因为可以利用NLP模型来改写。过去与将来之间才是问题。综述内容相似,说法必须不同的要求,要用自己的字句组织来表达类似的内容,有了AI语言模型的助力,不会成为问题了。特别值得强调的是,生成模型的本质具有随机性,因此同样的内容trigger出来的生成品从字面上看每次都不相同,根本无法查证最终结果来自机器还是人,还是二者的协作。将来对于综述的规范标准势必要改,不能是查字句的相似度。除非是说综述也要求内容完全不同:这怎么可能呢?既不能查内容,也不能查字句,到底综述还能不能确立标注都成了难题。虽然理论上讲,综述是需要功力的,能反映一个人对学科的宏观理解和最新进展的把握,但是制定可以执行的规范标准,可能是一个巨大的挑战。

道理上可以从综述的段落组织、逻辑线条等角度去要求不同,但总是越来越难于量度,无法 enforce,也难以服人。也许未来最终的结果是,综述文章不算发表,至少比原创要打个折扣。将来让机器做综述,让专家做一点后编辑,可以批量而及时地生成种种综述,也不是不可想象的。

有老友说:综述是指对一个领域一个时期的工作的综合评述,并指出当前热点,存在的关键问题,今后的发展方向。在好的刊物,通常是邀请行内权威来撰写的。学生改文字不改结构,还是算抄袭。即使结构改了,不加引用地叙述某个已发表的观点,而且逻辑相似,还是算抄袭。

道理是如此,可是怎么落地执行呢?怎样定义综述的结构是抄袭的呢?而且如果避免了文字雷同后,谁有精力去查对、指控 并且可以证实这种指控而且服众呢?没有可行性。

现在 GPT-3 故意神秘兮兮的,说不敢公开发布,怕模型被滥用、误用或恶意使用,譬如用来制造机器水军。但是武器已经造出来了,怎么挡得住人们的使用呢?如果只有部分人有使用特权,其他人排除在外,这不是在滥用之上又增加了一层不公平么?

而且的而且,一个有 access 的人使用模型生成了结果,结果本身是没有追踪痕迹的(除非带上区块链 LOL)。这是生成模型的随机性质决定的。

小结一下:现在看重的所谓综述抄袭的学界标准很快就会跟不上时代了。因为世界上没有什么“自己的文字”才算原创,内容重复不算抄袭这码事儿。现在的同学不会那么傻和懒,他们其实不费吹灰之力就可以利用电脑生成,来规避这个综述文字抄袭的指控。这项指控不久将来估计就会成为历史。

重要的是他的论文本身的含金量,到底如何,外行无从知道。而当前的综述抄袭是软件和傻子都可以挖掘的。同时,用语言模型以毒攻毒,如果学界规矩不做改变,综述抄袭将来连权威都难以做实指控了,更不用说naive的“查重软件”了。也可以换个角度来看这件事:在没有电脑和打印机的年代,我们中小学交的作业都是手写的,那么字写得好看可以加分,不好看减分,也就是理所当然的明规则或者潜规则了,虽然字好看不好看纯粹是形式,与内容没有一毛钱关系。现在还有老师批改作文的时候考虑字的好看与否吗?你想这样做也没条件了,大家都是电脑交作业,好看程度拉平了。

 

【相关】
 
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2021)

《李白梁严127:神经的要害在数据瓶颈与定点纠错盲区》

李:我觉得,神经的要害在数据瓶颈与定点纠错盲区,而不是非符号化或可解释性。

这几天在琢磨可解释性的问题。可解释性与性能是两码事,道理上,产品讲的是性能,可解释性最多算是客户友好,让人感觉舒服一点而已。(可解释性的基础是与用户共享的符号系统。不共享的符号也不具有可解释性。这就好比我买了个吸尘器,你给了我一份我不认识的外语说明书。或者接待我的客服以为我是日本人,叽里呱啦跟我说了一通,没带机器翻译的话,虽然也是符号系统,对我是完全不具有可解释性。)

好,回到NLP。

我们追求NLP系统的可解释性,好像是说,程序做什么、怎么做的,算法背后的那条逻辑线索,你需要让我明白,否则我不舒服。这实际上有点强“机”所难。说老实话,就是设计者本人,如果系统变得复杂了,也很难总是搞明白算法的每一个逻辑线条,更遑论对用户解释了。如果容易搞明白,也就没有 debug 的繁难了。

严:可解释性,是指从输入到输出的推理路径可显示,而不是算法自身。

李:输出是输入的函数。可以脱离算法来解释吗?路径不是算法的产物或表现?

感觉粗线条的可解释性 目的是为用户友好。细线条的可解释性不可行 也没意义 很像一个伪问题。

特斯拉为了这种用户友好 不得不花力气在屏幕上显示机器 “看” 到了什么物件。用户见到机器看见了障碍物,障碍物渲染的图片越逼真,心里就觉得越心安。如果机器没看见,屏幕上没有那个障碍物,就不放心。但是从看到环境中用户聚焦的物件到驾驶决策,路径很长也非确定性,可是人的这种心理需求不能不照顾。

我的主要意思是说,应该把开发重点放在“用户友好”范畴下的可解释性上,而不是一味追求过程的透明性。

接着“神经网络短板”的话题讲,迄今为止,神经网络基本上不能落地领域,在NLP领域场景无所作为,这是基本事实。原因也很清晰,就是绝大多数领域场景应用,只有 raw corpus,缺乏或根本就没有大规模带标数据。神经网络无法做无米之炊。于是给符号路线的冷启动应对留下了空间。

白:不能落地是因为没有带路党,而带路党很可能切走很大一块蛋糕。

李:冷启动就是一种带路党。

白:带路党不需要懂符号,只需要懂客户。带路党可以把数据补完全。

李:神经网络主流认知把带路党简单定义为标注,然后就撒手不管了,大不了就是砸银子 找成百上千的标注大军去标注。我可以对任何领域一窍不通 也一样做领域的应用。这个策略对于可以简单明确定义任务又有资源标注的场景,的确是普适的。

梁:数据只是说“有”,没有说“无”,that's the problem

李:这也是那位挑战神经网络的老教授的口头禅。来自数据的知识不全,完成不了认知理解过程。

白:没有的数据你怎么标注?

李:说的是NLP,没有数据就没有NL对象了,哪里有 P 的问题。

白:带路党可以让数据从无到有,所以,挑战毫无意义。带路党牛就牛在他们是活的数据,我觉得老教授在用一种外行的方式挑战内行。

李:老教授对机器学习很了解,不是外行。传统机器学习肯定做过很多,大概没亲手做神经网络研究,但总是拿别人的神经系统“玩耍”。他不是看不懂神经奥秘,而是认知定位决定了他的批判角度。想起来毛说的知识越多越反动。老教授涉猎太广,知识太多,反而牵累了他。

白:王朔书里的小混混在街上喊“谁敢惹我?”一个人高马大的主儿过来说:“我敢惹你。”混混马上搂着人高马大的主儿说:“那TM谁敢惹咱俩?” 我觉得,老教授应该向小混混学习,混成“咱俩”之一。否则啥也不是。

李:有时候做一个事儿,少一点知识也许更加有利,无“知”一身轻。现如今做NLP的后学,连语言学基本教程也不看的,为多数。今天的气候,这显然不影响成为NLP专家。今天是NLP专家,一转身就是图像专家,再转身就是华尔街金融模型专家。神经网络横扫专家的架势。

白:这是落地之前,落地时不是酱紫滴。落地时有太多不适应,当然跟缺数据有关,跟缺知识不直接有关。知识不能直接变成缺失的数据,知识处理的工具也无法拿来处理大模型已经消化了的数据。

李:话说回来,缺乏专业知识也不是长久之计。前面提过的那个NLP后学 傻傻地问 it 为什么跟形容词 wide 那么强相关,就是因为缺少语言学的常识。词与词相谐是普遍的,绕一个弯就糊涂了,不是语感差,而是基本专业知识不够。

白:长久之计就是语言学知识和带路党深度结合,不着痕迹地把语言学知识灌注在带路党的工作环境之中。

梁:其实,我们能够交流,我们共现于同一个时代,那就是我们已经共享很多知识了。

李:这也是老教授立论的基础,共享的知识是理解和认知的外在前提,不是数据里面的东西,因此光靠数据是不行的。

还有个有意思的发现,密集听了一批最新神经网络的讲座,发现用的最多的几个词是 meaning / information,这就是共同语言了。句子来了,embedding 转成 vectors,vectors 在里面做种种变换计算,就成为 meaning (的载体)了。从 information 的流向和处理角度来看,vectors 对于 information 的各种处理空间大,灵活度高,里面可以有足够的余地尝试各种信息叠加、抵消、门槛等等操作来验证效果。

相比下来,符号基本上是 1-hot coding 的表示,处理 info 就远远不如 vector 的高效和灵活。Not even close,实际是天壤之别。符号主要的好处就是用户友好,看着似乎容易懂,“感觉”比较容易掌控。另外一个好处就是,符号可以外加一个 hierarchy或图谱,进行透明的“过家家”一般的逻辑推理。

白:符号带优先级不就行了?

李:优先级如果是离散的少数参数的调控,也不好敌大数据落地训练出来的种种 weights。

白:符号外挂啊,瓤还是神经。

information一万个人有十万个定义,躲着走为妙。

李:还好啊,反正有个信息论的精确定义做底,信息也是现代物理的基本对象。虽然讲的时候不一定按照数学定义来,但多数人觉得自己的定义离开它不远。

白:用到语义的时候,怎么着都不对味儿。

李:在讯飞的时候,与同事大牛讨论过,我说你的神经网络是个黑盒子,同事说,我觉得一点也不黑。现在比较理解他了。你可以说具体的参数和权重 难以从细节上一一说明白含义,但是总体上的逻辑线条对于设计者是相当透明的。很多时候 学到的巨大的向量表示看上去难以理解 只要结果对了 就不去究竟了。但是真要做一些用户友好的符号化翻译或可视化努力,可解释性是可以不同程度显示出来的。这些都是聪明绝顶的人,模型绝不是瞎撞出来的黑盒子。所以 可解释性作为一个批判要点,更多是从用户友好层面来说 说他们做得不够 还有些道理,而作为对神经系统的总体批判 有失公允。

与其批判机器学习“欠缺可解释性”,不如批判“难以定点纠错”,后者对于大型工程的确是个痛点。

白:外挂可以解决定点纠错问题。批判它干啥,你带路党悄悄把外挂做了,啥都有了。

李:例如,我用自动驾驶每次在相同的几个地点 总是犯错 莫名其妙刹车,我没有办法让特斯拉去做定点纠错,你就是把这个问题录频了 n 次反复提交上去,然后每两周一次软件更新,你盼啊盼,多数时候你的 bug 是泥牛入海,永无改期。这也不能怪特斯拉,它只能收集规律性问题,然后扩大训练,希望下一个 release 整体好一些。客户个体的痛点他不仅是没时间照应,而且也没有有效的办法去定点改正。

 

 

【相关】
 

《李白126:神经 attention 机制搞定代词指代的案例》

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2021)

《李白126:神经 attention 机制搞定代词指代的案例》

李:看到 attention 机制一个图示:

这可算是 attention 机制可视化以后,明确显示其解决了 pronoun coreference 的难题。看前后两句 it 与 animal 和 street 的关联强度就明白了:

1. The <animal> didn't cross the street because [it] was too tired.
2. The animal didn't cross the <street> because [it] was too wide.

这只是过程中其中一幅 attention 的图示化,图中没有显示其他两两 attentions 的图示(包括 it/animal/street 与 wide/tired 的两两关联度),看完就知道形容词(wide/tired)与 host noun(animal/street)之间的相谐性,是如何对 it 的 coreference attention 的影响力了。

这种两两配对的机制 简直令人发指地有效 而且有解释性,也不怕爆炸,反正所谓 multihead self-attention 机制都是可以并行计算的,大不了多上GPU,费些电而已。

白:怕不怕干扰?

李:不知道 不过就看到的这个结果,已经让人嫉妒得咬牙。好玩的插曲是,下面留言貌似还有个“理呆”傻傻地问:老师 为什么 it 与不相干的词 wide 有很强的关系?这位学生理解了 it 与名词的关系 却不能理解与形容词的关系,哈。

白:我们的观点是,it与其所指建立关系时,会把所指的本体标签复制到it这里来,然后跟tired/wide检查相谐性就是邻居之间的事情了。飞线不是白拉的,是有本体标签输入的。

特别是,飞线的建立,是在各个chunk内部的萝卜填坑都搞定的情况下才会发生。而内部填坑就意味着,it的分子萝卜已经被chunk内部的坑所同化,不相谐的百毒不侵。相谐的一路绿灯。

李:感觉是 如果句子处理满足下列条件,能穷举两两关系 而且有足够数据训练去计算这种关系,那么我们引以为傲的结构,其桥梁价值就会趋近于零,因为位置信息加语义相谐的 attentions,应该可以搞定这种 hidden correlations。这样说来,attention is all we need 即便从字面上看 也说的不错。

自然语言说复杂也复杂 但说简单也简单。简单在于,有无穷无尽的语料,预训练可以发掘很多语言知识。到下游应用的时候 单位开始变小,小到一句一词 大也不过一篇文章 对于 attention,这都不算事。(也有人现在尝试把 input 扩大到一组文件,来做跨文件自动摘要,结果也让人开眼)。

白:NN容纳了结构,正常。

李:可几年前,我们是不相信神经系统可以搞定 long distance(hidden) correlations 的,当时觉得非符号结构不能的。这个不服不行。 

白:

在这个模型看来,光刻机是“我们的”了。其实是“它的”。“我们”的间接宾语角色没有被揭示出来。如果没有那个“给”,这一切本来都是说得通的。

谁没告诉别人?

李:是 he,不是 we。嗯,这两例的确没搞定,也更 tricky 一些,有间接宾语干扰项。再等两年,等最新机制和方法慢慢渗透消化部署到商用神经翻译系统后再看看搞定了多少。总之,总体方向上是向好的,我觉得。越来越多的“非低枝果实”正在被神经吞噬,一个幽灵在地球徘徊......

 

 

【相关】
 

《李白梁严127:神经的要害在数据瓶颈与定点纠错盲区》

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2021)

《AI 随笔:观老教授Walid的神经网络批判有感》

昨天在 YouTube听了一个数小时的批判深度学习的小圆桌会,有点意思:

NLP is not NLU and GPT-3 - Walid Saba (可惜国内需要翻墙才能看youTube,我截屏如下)

是三个名校中青年学者对一位学富五车的老年教授,大家抱着尊重老专家的尊敬之心,与这位批判者深入交谈究竟神经网络的短板在哪里。

Walid 教授对于领域一边倒极为不满,凭着他对于电脑科学(早年好像是伯克利电脑博士)、传统机器学习和现代神经网络、符号AI、心理学、语言学等多学科的了解,讲述自己对于所谓 Bertology(就是 Bert 这类神经方法论)的批判,他的博客也有系列点评和批判。他是真有学问,所以批判中不时有闪光金句和洞见,但总体而言,说老实话,他的批判显得无力。

说来说去 他批判的焦点就是 embedding 词向量这样的数据结构虽然是伟大的发明 因为语言单位可以做各种信息计算了 但是说到底会遭遇无结构的天花板。他所谓的结构 不是指的文法结构 而是说 向量本身算来算去 无论求和 求product 还是 concatenate 这些信息操作的结果 他认为还是平面的 没有结构的。最终无论模型多大,也只是对于语言数据中可以观察到的词与词之间的某种角度的 similarity 计算而已,尽管可以捕捉语言中的 long distance dependency。

但是 语言理解有两个部分,他说,一个是说出来的 可以观察到的部分 一个是没说出来的脑补的 “我知道你知道(I know you know)”的部分。二者缺一不可,但是纯粹通过大数据训练的模型没办法得到后者,因此是跛脚的。

这个论点有其闪光之处,但是他说的太绝对了。

所谓数据里面学不到的后者 听了半天就是指的某种 ontology(本体知识),他有点遮遮掩掩,说自己几十年探索的最新创新还不想马上公布于众,又忍不住说其实就是一个 type ontology,并不复杂,规模也不大,2000 个基本概念,是四岁儿童都具备的先验知识。这其实就是 HowNet 的头部 features,也是 Longman 词典中用来定义所有词汇的大约 2000 基本词汇的某种映射物,他也许会有些不同的组织方式,不会相差太远。

总之,这些基本概念或 types 所构成的常识(他称 type checking,和 type unification)在语言理解中一直在下意识中起到脑补作用,否则人类的交流难以进行。既然人类是这样利用二者理解和交流的,电脑单单凭借大数据怎么可能模拟人类的语言能力呢?

我来批判一下他的批判(其实三位后学中的一位也不断礼貌地在反驳他的系列批判)。

蕴含常识的基本ontology确实有脑补作用,这个我们在白硕老师的语义计算群讨论过的无数案例中都有体现,但是铁口说这些东西是不可能从大数据学出来的,感觉偏差很大。他举例说 want 需要的 agent 是 human,这是四岁小孩子都知道的常识。其实大数据里面这种主语谓语的 type correlation 太普遍了,不可能不在大数据(预)训练中反映出来。

他还举了两个图片的例子,一个是女老师辅导学生的照片,一个一家三口的全家福,他说这两张图片的数据本身是没有区别的,都是成年人与孩子在一起的合照。他挑战说,因为数据本身没有区别,所以系统学不出来前者是辅导员与学生 后者是父母与孩子的关系。这个笑话闹大了 因为后学马上把两幅照片输入谷歌图片理解系统。结果是:第一张图 tutoring 的概率最高,第二张图 family 概率最高。

他实际上是犯了同样的错误 他以为数据中不存在的某种知识 其实在大数据的雷达上是有反映的。如果是小数据 可能的确找不到区别性特征或规律 数据大了就不同了。老教授这时候不得不说 你不能拿我举的个别案例说事,总之是有一种数据里面不存在的知识在起作用。这么说自然也有一些道理 但是感觉他批判的力度太弱,而且留给自己的批判空间也越来越小了。

说他有一点道理 是说大数据即便学出来常识 这些常识也是支离破碎的 没有内部的组织性和严格的结构 hierarchy,学出来的 onology 和人头脑里的 ontology (以及语义学家精雕细琢的ontology模型)总是有区别的。这一点需要承认,但很难说在语言应用现场前者的效果比后者差,本体知识与其他知识一样最终还是要落地的,要以落地赋能效益作为最终衡量。

他还举了一个有意思的例子,他说大学校园(campus)与大型商场群(mall),从物理角度观察几乎没有区别。但是人类的认知很容易区别二者。既然没有物理区别,机器怎么能够区别它们?这实际上是 tutoring 与 family 的放大版,实际上也经不起质询。二者的区别即便在物理层面也还是有蛛丝马迹。

总之,老教授的道理越来越难验证,他费了很大力气找出来的批判反例,其实大多不能构成神经网络的真正挑战。

他还举了一个 product 的例子,他说人类的ontology中有 product 的概念,可是千差万别的几乎任何东西都可以是 product,数据中怎么能区分这样的概念呢?人怎么认知的呢?人是把 product 与 manufature(制造) 结合起来的,“制造”的结果/宾语 就是 product,不管结果如何不同。同理,teacher 这样的概念离不开 teaching,先有 teaching 才会有其 agent 来做 teacher,形成这个概念的 type。这样的先验知识 他认为纯粹数据是学不出来的。因为学不出来 所以需要用到这种知识的认知理解过程 神经网络就是无能为力的。

总之,不能说他的批判完全没有道理,但是力度很不够,不足以批判神经系统的潜力。有些知识目前的神经系统也许没有捕捉,因此表现不出来,但很难说以后就没有。关键是,坚持 ontology 只能先验,不能反映在大数据中,这个论点是有问题的。常识在个例中通常是不说的,人吃饱了撑的,不会总是说出来人人都知道的常识:人要吃饭;枪可以杀人,等等。但是既然是常识,大数据的趋向中就会有反映,而捕捉这种趋向,是多维度的向量空间的拿手戏。常常是系统其实捕捉了,但因为向量表示如果不做可视化的用户友好努力,不变成人可以理解的符号或图示,我们不知道模型已经捕捉了。

他的有道理之处可能是在常识的深度推理、长链条的推理方面,目前的神经架构纯粹靠大数据可能局限于框架而学不出来,也用不起来。但大数据深度学习是一个进展变化迅速的上升领域,今天的无能就是明天的突破口,很难说推理这条路它一定跨不过去。这就好比几年前我们都觉得 coreference 和其他篇章的关联,神经网络应该是无能的,直到今天我们亲眼看到了神经系统在篇章方面的成就,这才改变成见。

这才十年左右的功夫,从CNN,到 RNN,到双向RNN,到LSTM,到 transformer,到各种 attention机制,深度学习的进步让人眼花缭乱,而每次进步都是真实可测的。以前看不上所谓的 transfer learning,觉得有点不实在,但超大规模预训练落地以后,产生了GPT3和盘古这样的庞然大物,NLP方面的 transfer learning 一下子变得触手可及了。今后几年这方面可以预见有越来越多的应用实践出现。

老教授还反复质问:心理学家、语言学家、逻辑学家这么多学者这么多代人艰苦探索语言和思维的奥秘,做了那么多的工作,难道这些人都是做无用功吗?你凭着大数据,一招打天下,只靠神经网络就搞定了人类认知?come on,give me a break

这种质询诉诸感情大于讨论问题,没多大意义。不同的路线和方法论虽然理论上不可能完全覆盖和超越另外的路线和方法论以及先贤,以此说一边倒对科学发展是不健康的,盲目迷信神经网络是不智的,两条路线可以取长补短,这些道理都没问题,但是以此来挑战新方法 还是需要拿出更加实在的立论和案例。老教授给人的感觉“虚”了些,有些倚老卖老,又有点像堂吉柯德战风车。精神可嘉。毕竟这种声音已经很少听见了,即便发声了,也很快淹没。乔姆斯基也多次批判过经验主义路线和机器学习,谁把他老人家当回事呢?都是我干我的,供着他或无视他,敬而远之。

时代大概就是这么前进的。连坚信“上帝不掷骰子”的爱因斯坦反对量子不确定性固执了一辈子,物理界还是达成共识认定老爱错了,普遍接受了现代量子理论。人不会因为曾经伟大,就可以改变潮流方向。

老教授的批判,其实还不如我们的批判深刻。我看到的神经网络的短板很简单:迄今为止,神经网络基本上不能落地领域,在NLP领域场景无所作为。

这是基本事实。原因也很清晰:就是绝大多数领域场景应用,虽然有数据,但是多是 raw corpus,缺乏或根本就没有大规模带标数据。皮之不存毛将焉附?神经网络除了预训练的语言模型以外(其实也是监督学习,只不过不需要人工标注而已,无数的语料本身就是自然标注的语言模型训练集),全部的拿得出手的应用成功都源于标注数据的监督学习。不管怎么神经,无米之炊是做不到的。于是符号路线就有了用武之地,就是这么简单。

我们可以做领域NLP的无米之炊。符号NLP在建立了平台和parser以后,就可以用“冷启动”快速结构开发来弥补领域应用的空档。无米(labeled corpus)可以,有稻(raw caorpus)就成,parser 就是碾米成稻的机器,结构就是一种通用标注,在此基础上的领域落地不过就是配置调适到最终目标,这条路经过多领域的实践证明是快速有效的。(但是,预训练也许是个竞争性威胁,在此基础上的 transfer learning 可能是个领域落地的替代品。我们当翘首以望。)

往深里说,除了带标数据的知识瓶颈外,老教授提到的外在知识,譬如领域知识图谱,等也是一个因素:不能说大数据完全学不了,但学得不系统不完整链条没有深度和结构的确是目前的神经局限。

关于领域场景冷启动,可以从我们最近的电力场景知识图谱的实践得到一些启发。这个落地尝试我体会特别深。那真是冷启动,比冷还要冷,是冻启动。平常的冷启动,产品经理至少还能给一个 完整的 specs,里面给出领域知识抽取的样例,定义的每一种类至少给一个 input-output 对照的例子,作为种子去启动冷知识的开发过程。

回顾一下背景,电力NLP落地一直想做,但觉得很棘手,主要是行业太深,看不明白。而客户自己也说不清楚需求的细节,只是感觉有必要首先把这个场景的知识学习出来才好。这次是我们自己与电力客户做沟通了解,我们的一位 leader  临时充当产品经理的角色,给了一个电力图谱的初步 schema 设计图,有原始文档作为参照,完全没有时间去做例示化 specs 定义。我们要自己消化去启动知识工程。等于是把产品经理的任务转移到我们开发人员了。几天后做出的结果与做知识融合的后处理模块开发人员接口。知识融合需要做一些 dirty work,不仅仅是应对NLP抽取的碎片化知识结果,同样要应对半结构化表格抽取出来的碎片化结果,这个过程所化的时间远多于NLP冷启动抽取(现在看来语言parsing和抽取不是真正的瓶颈,后面的融合目前是瓶颈,这方面我们需要一些时间抽象和总结,来提高平台化的融合能力)。不久,做出来的图谱原型看上去有模有样,符合 schema 的设计要求。

电力领域的数据很各别。这与我们以前尝试过的金融文书、法律文本完全不同,因为金融法律虽然是领域风格的文字,但读起来与新闻类还是有不少类似的地方,起码外行也能大体读得懂,因此消化理解图谱里面的关系,心里感觉有谱。可是到了电力,虽然其实行文很规范(没有风格,完全的机械性文字表述,力求精确),但是没有领域基本知识,很难看懂,无从下手。

刚拿到薄薄的一页 schema 设计图,也是一头雾水,一组抽象的概念连接起来,到底想表示什么领域知识呢,不确定。但是几个小时对着原始文档的对照讲解和讨论,很快就冰释了这个领域知识的壁垒,有点豁然开朗的感觉。

说这是一次奇妙的NLP领域落地的产研经历,是很真实的感受。今后遇到其他暂新的领域,也不要被表面的“黑话”形式所吓倒。只要冷启动的方法论过硬,感觉困难的领域知识理解问题,也许实际落地操作层面就是一层没有捅破的窗户纸。

我们主打的RPA(Robotic Process Automation,机器人过程自动化)是普适的,可以触达各种各样的不同领域场景。由此带来的更加“高深”的领域知识抽取任务就会五花八门。这拓展了我们对于不同领域数据的视野。方法论和NLP平台的威力和意义就在于,任你千变万化,万变不离其宗。这个宗不仅仅是指背后的语言结构(这个高深一点,培训难度也大一些),也包括从原始数据自动做领域词汇习得(关键的一环)、上下文约束机制(线性的、结构的,线性的约束比较简单,能很快培训一线人员做低代码开发)、多层松绑机制、冷启动质量保障控制流程(没有大量标注数据也可以对精度和召回做系统性控制)等一系列配套工具,这些就是可以普适的NLP的平台工具。

这样的零标注数据的领域场景,神经纵然三头六臂,奈其何也?

 

 

 

【相关】
 
 

李维 郭进《自然语言处理答问》(商务印书馆 2020)

预告:李维《巴别塔影:符号自然语言处理之旅》(人民邮电出版社 2021)

《成长花絮:小鬼子成为共产主义者》(留存)

《成长花絮:小鬼子成为共产主义者》

屏蔽已有 2160 次阅读 2011-10-14 06:13 |个人分类:成长花絮|系统分类:生活其它| 历史, 马克思, 共产主义

陪女儿研究马克思主义
 
早上起床,甜甜告诉我:Dad, I had a weird dream.  The last sentence I remember saying to somebody is:
 
"If there is anything that I know, communism is for you."
 
看来,这个学期学世界历史,甜甜是对共产主义学说着迷了。
 
前几天,女儿回来告诉我,说她的世界历史课程要求介绍一位历史名人,其他同学有选卢梭、拿破仑、教皇保罗二世等,她选的是卡尔马克思,要求我帮助她了解马克思主义。我说那没问题,我从小就学习马克思,谈马克思主义如数家珍。女儿说,首先要了解马克思的生平事迹,然后主要是介绍马克思对下面两个问题的论点:马克思怎么看人性?马克思怎么看政府?
 
马克思的人性论,我这个当年的学马列小组积极分子也不大了解。人性在我们的少年时代是塔布(taboo),学习马克思也要绕开它:当年我们强调的是阶级性,而不是人性。改革开放以后,在老邓发动反自由化之前的思想解放年代,曾经有过对青年马克思异化理论的大讨论,印象深刻。顺藤摸瓜,上了维基百科 wiki,发现还真有专题论及青年马克思的人性论及其异化论。马克思的生平、其他论述,包括政府,wiki 上都有很好的概述。互联网上的百科wiki是人类新技术时代的一个创举,女儿已经养成习惯了,凡事查 wiki,我也鼓励她做这类研究项目尽可能参照 wiki.
 
生吞活剥看了维基百科的马克思条款,甜甜对马克思佩服得五体投地,整理了不少笔记。笔记上交给老师前,必须用自己的话综述改写,这样就对有些问题需要深入理解。譬如人性,维基的讲解围绕马克思对于人的自然性、创造性以及天赋才能的肯定,反衬生产关系对于劳动者创造本性的异化,显得太过抽象。女儿问:马克思到底是说人性是好,还是坏啊?我根据自己的理解,回答说:马克思是持肯定态度的,他要说的是,其所以产生阶级斗争等残酷的事件,那是人的社会环境和地位决定的。资本家作为人,并不是生来就要压榨无产阶级的坏蛋,但是他的阶级地位决定了他必须剥削无产阶级,以追求最大利润。资本家作为人格化资本的本质,是他的资本家身份决定的,不是他的本性问题。一个无产者,无论多么善良,一旦成了暴发户,变成资产阶级以后,他一样要被异化,成为资本的代表。
 
女儿最感兴趣的是共产主义,说我们从小被洗脑了,以为共产主义导致独裁和邪恶,其实共产主义是多么地美好。
 
"we were brain-washed to believe that communism is associated with dictatorship and leads to evil. But according to Marx, communism is a beautiful society, no class. no class struggle, work is fun and not a burden, one can satisfy his most potential with his gifted talents.  But why the countries experimenting with communism all failed?
 
"They failed for a good reason.  The reason is clearly stated in Marx's works but the followers did not take it seriously.  That is, an ideal society like communist needs to be supported by the maximum productivity."
 
女儿说:马克思了不起,资本主义太臭了(sucks),你看这两年的金融风暴,目前席卷欧洲资本主义国家的政府倒债危机,处处说明资本主义必然灭亡,共产主义必然胜利。
 

女儿说,我觉得我现在已经是共产主义者了,资本主义太烂,一定要被共产主义所取代(Dad, by now, I think I am already a communist.  Capitalism sucks, got to be replaced by communism.)

 
我乐了,这话怎么与四十年前我们的信仰如出一辙呢。

http://blog.sciencenet.cn/blog-362400-496571.html

上一篇:《成长花絮: I love me too》
下一篇:《每日一歌: Savage Garden - I knew I loved you》

 

3  武夷山 全嬿嬿 吴吉良

发表评论评论 (2 个评论)

删除 |赞[1]武夷山   2011-10-14 08:05
四十年前是被灌输的,现在她是自己得的结论----尽管还处于结论常变的青春期.

《成长花絮:Hi, I’m Karl Marx》(屏蔽留存)

《成长花絮:Hi, I’m Karl Marx》

屏蔽已有 2458 次阅读 2011-10-14 07:15 |个人分类:成长花絮|系统分类:生活其它| 历史, 马克思, 课堂, 华盛顿

几周前,甜甜世界历史课的项目《与思想家见面:卡尔 马克思》终于完工了,接着是要在课堂上给老师同学讲演。首先,要着装成学者马克思的样子。马克思的形象甜甜很熟悉,还在她很小的时候,她就从我小时候的临摹素描中看到了马恩列斯毛,还有华盛顿(见《成长花絮第一期:学画》)。服装好办,她就穿我的长衫西裤凑合,主要是马克思的大胡子。我陪着孩子转了好几家店铺,她都不满意。幸好由于万圣节将临,湾区临时增加很多化妆店,里面充满了稀奇古怪的服饰、骷髅,当然也有面具和大胡子。最后找到的胡子倒是很像马克思,就是颜色太黑了点儿,印象中马克思是花白胡须的。我安慰甜甜说,这是青年马克思的大胡子,完全没有问题。何况你讲演中的人性主题确实是青年马克思的思想,老年马克思更加激进和革命,远离了人性的主题。

就这样,甜甜上场了,讲得激情昂扬,特别是结句“全世界无产者,联合起来!” 甜甜先是用的德语,然后用英语重复,掷地有声。受到老师的赞许。下面是讲演稿的纲要:
Meeting of the Minds: Karl Marx

Hi, I’m Karl Marx, a middle class, 18th century German scholar, who was born at the beginning of the Industrial Revolution, when Capitalism was just starting and not yet mature. There were no social welfare programs (such as healthcare or pension) or worker unions, and everything was a class struggle between the rich, Bourgeoisie, and the working class, Proletarians. My theory, Marxism, is about the ultimate government, Communism, in which the property of a society is owned by all members, and peoples’ talents are utilized to their full potential, so that people enjoy their work while working toward the common good. Capitalism is a corrupted system in which the Bourgeoisie have all the power and exploit the Proletarians, while the Proletarians are unfairly treated, wage-earning robots. Even in democracy, when people vote, they are affected by mass media, controlled by the Bourgeoisie. All humans are naturally creative and talented. So I say to you all, everyone is equal. We should overthrow the dictatorship of the Bourgeoisie, "Proletarier aller Länder vereinigt Euch!" Proletarians of the world, unite!

http://blog.sciencenet.cn/blog-362400-496578.html

上一篇:《成长花絮: I love me too》
下一篇:《每日一歌: Savage Garden - I knew I loved you》

 

5  武夷山 吴飞鹏 张玉秀 曹聪 吴吉良

发表评论评论 (1 个评论)

删除 |赞[1]武夷山   2011-10-14 07:32
共同经历。我小学在美术课自选作业上画马克思头像,得了100分!

小鬼子的马克思研究笔记(屏蔽留存)

小鬼子的马克思研究笔记

屏蔽已有 2566 次阅读 2011-10-14 08:16 |个人分类:成长花絮|系统分类:人文社科| 马克思

Notes on Karl Marx and Communism
 


1. Bio

Karl Marx was a German philosopher, sociologist, and communist in the 18th century. He developed a famous theory, called Marxism, that fundamentally influenced the human history. In fact, Karl Marx is among the most quoted scholars in history and is one of the most influential figures of all time. His two most famous works are: The Communist Manifesto published in 1848, mainly a political statement for the communist movement, and Das Capital, a book he devoted his life to on the nature of the capitalist system. In the last century, following his revolutionary theory, there were communist movement and revolutions in many countries to form a communist group of states, led by Soviet Union in 1922 and led to the founding of Red China in 1949. However, since the collapse of Soviet Union towards the end of last century, the communist movement suffered a big retreat and even the post-Mao China turned to market economy, a system closer to the capitalist economy than the communist economy. Marx's predictions that the global revolutions will end the capitalist system in the world are not proven right.

2. Marx's view on government

Marx has a theory of social development involving 5 major social types, from lower stages to upper stages, i.e.

Primitive Communism --> Slavery system --> Feudalism --> Capitalism --> Socialism --> Communism.

He regards the capitalist government as an inhuman government which only protects the capitalists (bourgeoisie) while oppressing the working class (proletarians). He believes that despite the name of democracy, a capitalist society is in essence based on Dictatorship of Bourgeoisie. He concludes that capitalist government should be overthrown by the working class and replaced by the socialist government based on Dictatorship of the Proletariat. Eventually socialism transitions to communism when the productivity gets to the highest level. Communism is the ideal society in Marxist theory in which every one enjoys his work, which brings job satisfaction and fulfillment of his creativity, at the same time producing the products to meet the needs of all the society. In communism, there is no distinction of class, no class struggle and everything is in harmony.

3. Marx's theory of human nature:

Contrary to the popular view that human is selfish by nature, Marx thought that human is a naturally creative animal. Accordingly, an ideal society creates a condition for the whole development of human nature. But capitalism is an evil society which turns humans into wage slaves.

Marx's theory of human nature plays an important role in his criticism of capitalism and his ideal of communism. A closely related and even more influential theory of Marx is about alienation from human nature caused by the capitalist system.

4. Marx's theory of alienation

By alienation, Marx refers to the social separation of people from their "human nature" which is supposed to be decent and creative. Marx believed that alienation is a systematic result of capitalism. He believed that it is the alienation that deformed human nature, making people behave differently depending on one's social status. The nature of capitalists becomes exploiting and oppressing the working class purely for the seeking of profits. The working class becomes wage-slaves like robots working in inhuman conditions.

Only in the communism can all men gain freedom and be liberated from wage-slavery, enjoying the full nature of their creativity.

5. why he thinks that way

Marxism was formed in an age when the capitalism was not mature and there were waves and waves of class struggle and society conflicts : there were no social programs, no unions and other forms of laws as seen in the modern society. For example, there were no minimum wage law, child labor law, income tax regulations and social welfare to protect the lower working class and to balance the interests between the capitalists and the proletarians. Out of deep compassions for the lower working class who has been struggling for very basic living, and out of the anger towards the early capitalists who were after profits by forcing the working class to work long hours with very low pay and very poor working conditions, Marx concluded that the capitalist government is inhuman and will be overthrown by the proletarians and replaced by the socialist and then communist government.

Works Cited

“Karl Marx.” Wikipedia: The Free Encyclopedia. 19 Sep. 2011. Wikimedia Foundation. 21 Sep.

2011 http://en.wikipedia.org/wiki/Karl_Marx

“Marx’s Theory of Alienation.” Wikipedia: The Free Encyclopedia. 26 Aug. 2011. Wikimedia

Foundation. 21 Sep. 2011 http://en.wikipedia.org/wiki/Marx's_theory_of_alienation

“Marx’s Theory of Human Nature.” Wikipedia: The Free Encyclopedia. 22 Jun. 2011.

Wikimedia Foundation. 21 Sep. 2011 http://en.wikipedia.org/wiki/Marx%27s_theory_of_human_nature

http://blog.sciencenet.cn/blog-362400-496591.html

上一篇:《成长花絮: I love me too》
下一篇:《每日一歌: Savage Garden - I knew I loved you》

 

2  杨华磊 曹聪

叛逆期的小鬼头(屏蔽留存)

叛逆期的小鬼头

屏蔽已有 1826 次阅读 2012-2-19 21:44 |个人分类:成长花絮|系统分类:生活其它| 叛逆

女儿到了叛逆期,脑后有反骨,凡事逆向思维,不仅总是与父母对着干,对很多传统认知、社会共识也很 不屑。

在学校,她在初中和高中最喜欢的个别几个老师也都是对时政冷嘲热讽的,或者特立独行的那种。其中一位大谈地球变暖是政客和媒体危言耸听,虚拟出来糊弄百姓的乌龙,女儿极为信服。

后来学历史,他选择写毛泽东。在西方的教科书和大众话语中,毛和希特勒斯大林是一类独裁者,反面人物。可女儿觉得自己被洗脑了,她要挣脱出来,一定要找出毛泽东和毛泽东时代正面的东西来写自己的作业。于是跟我谈,开宗明义,阴暗的、反面的、残暴的一面,我看到的很多,你不必谈。你专门给我列一个清单,具体谈谈毛和毛时代的亮点。我说,对于这么复杂的历史人物和历史阶段,自然是正反两面都有。你要正面的材料和论据,我就给列出一个清单来,清单的最前一条就是毛的医疗制度的革命,使得最贫困的农民得以享受几乎是免费的最基本的医疗服务(见  【老爸:毛时代的送医下乡制度】 ;老爸:毛时代的王一千美谈 )。

另一位教语文的老师极度自大,宣称自己永远不会错,他擅长语言结构分析,教孩子画句法图,做主谓宾分析,有语言天赋的女儿在语法分析方面是他最好的学生。后来女儿看到我让机器自动分析,再复杂的句子,也被分析出很漂亮的句法树出来,终于承认她的老师是天下第二,山外有山,还有语言学博士的老爸在他老师之上(女儿知道这位老师正业余攻读语言学硕士)。看来,逆反如女儿,也还是信服权威,我的博士头衔显然比她老师候选硕士的头衔让她相信我的语言学要高出她老师一头。女儿表明她最大的愿望之一就是,跟老爸学一手,哪天去当面找老师的茬子,证明他语法分析错了,他并不是如他自己标榜的那样伟大光荣正确。我说,这很容易,你把他的分析拿给我看,我总可以找出错误或者不合适的分析出来,但是不要指望他承认错误。文科的东西,测不准原理在作祟,并非黑白分明的。

http://blog.sciencenet.cn/blog-362400-539237.html

上一篇:看铁匠打铁
下一篇:【老爸:毛时代的送医下乡制度】

 

8  吴飞鹏 曹聪 武夷山 肖重发 刘立 李宇斌 吴吉良 杨正瓴

发表评论评论 (1 个评论)

删除 |赞[1]肖重发   2012-2-20 00:03
毛时代,总体上还是有干劲、有理想、有自信。不像现在,大家都只剩下性和钱了。要整倒高级干部,也只能拿性和钱来说事!

社会媒体是言论自由的天然突破口 (屏蔽留存)

社会媒体是言论自由的天然突破口

屏蔽已有 2239 次阅读 2012-5-11 23:18 |个人分类:成长花絮|系统分类:科研笔记| 人权, 突破口, 言论自由, 古巴, Yoani

  [立委按]

 

女儿历史课要求写一篇 research paper,选取一个对社会发展有影响的当代人物或机构,论述其成就和意义。社会发展的领域包括政治、经济、教育、卫生、慈善和人权。虽然技术领域不在列表上,女儿还是选了她心目中的 传奇偶像人物 Steve Jobs,因为他 made a ding in the universe, 可以从教育或其他领域谈他的技术革命带来的影响。可是选题提交上去,没被老师批准,说 Steve 前不久刚去世,铺天盖地都是关于他生平事迹的资料,使这个选题具有不对称的优势。于是女儿转选即将上市的社会媒体巨头 Facebook 的创始人 Mark Zuckerberg,还是技术改变世界的传奇人物,结果以同样理由不得通过。

女儿有点扫兴,这两位是她读得最多,最有兴趣研究的人物,其余的人物和机构大多提不起兴趣来,少数有意思的名人如诺贝尔奖获得者南非的曼德拉和美国前副总统戈尔都已经被其他同学抢占了。想了半天说,那我就写盘尼西林的发明者弗莱明吧,说明医药的革命性突破在偶然里面包含了必然,伟大发现是预备给有准备的心灵的(prepared mind)。可是弗莱明不算当代人物,也不行。

最后老师把一个古巴人权斗士 assigned 给她了,算是命题作文。于是上网查资料,做笔记,折腾半个多月,终于写出了这篇研究文字,其主旨就是“社会媒体是言论自由的天然突破口”。特转载于后,与各位分享。虽然只是一个美国中学生的粗浅笔记,可能对转型期的当代中国也许也有些意义。

 

论述这篇的主题并不难,高技术支撑的社会媒体成为言论自由的平台和突破口是自然而然的事儿。除非当政者退回到前数字时代,废除互联网,任何长城都不可能完全阻挡信息的自由流通。古巴的人权英雄 Yoani Sánchez 女士抓住了时代的机遇,以其勇敢智慧和不屈不挠成为世界人权史上第一批利用技术对抗独裁的先驱之一,因此成就一世英名(以她的国际名声和影响,有望获得明后年的诺贝尔和平奖)。美国这边的论文训练,除了 thesis (中心思想)要鲜明突出外,还要求承转起合(transition)到位,段落要有 topical sentence,人物和事件要有背景介绍,材料来源必须详细标注来源,最后的总结概括阐述其意义和价值后,还需要几句话谈 so what,即从长远的角度预示其历史意义。女儿问:她很了不起,已经为人权做出了很大贡献,so what?我给她提示了两点:一是星星之火,榜样的力量是无穷的,等群众都觉悟了,追随她的结果就会演变成改变世界的力量。第二点就是和平演变,追求自由是人类的天然权利和本性,钳制言论自由和基本人权的反动力量和独裁政权,终将为保护自由的民主社会所替代。但这个过程不一定要伴随流血和革命,和平演变对国家和人民最为有利。女儿有些懵懂,但还是把这两点融合进去了。

 

 

不知她的老师买不买账?

 

 

11 May 2012

Blogging Through Silence

Living with a fear of speaking is not easy, while the free world takes for granted the freedom of speech, the citizens of Cuba are still deprived of this basic human right.  Yoani Sánchez, who uses the power of Wordpress blogging to air her views freely, is one of Cuba's best-known human rights activists to fight for free expression.  Sánchez manages to use her blog as a forum to exercise free speech in the totalitarian reign of Castro in Cuba.  Her use of Internet and technology to blog through silence pioneers a new direction for the movement of human rights in the world.

The end of The Cold War twenty years ago did not end entirely the communist dictatorships.  Today, there are still a few extremist regimes such as Cuba and North Korea.  The communist Cuba, founded by Fidel Castro half a century ago, still continues the system of Stalin in which free speech is a political taboo: "Stalinism with conga drums," says Ms. Sánchez as she compares it to the former totalitarian Soviet Union (“Cuban Revolution”).  The press in Cuba is under strict government censorship.  The traditional media such as newspapers and television act as a propaganda device for the government to control the people who also cannot elect their own leaders.  The current leader, Raúl Castro, was not elected but was appointed by the former leader, his brother, Fidel Castro.

Born in 1975, Yoani Sánchez spent her childhood worry-free at a time when Cuba was fully supported by the former Soviet Union.  However, her generation had to go through the time of hardships when the Soviet Union collapsed and the soviet aid was discontinued.  Soon there was severe food shortage along with difficulty for all necessities.  Disappointed and disillusioned with her home country, she moved to Switzerland in 2002 where she got used to the life of style in the free world.  Her husband ended up not being able to find a professional job in Switzerland and the couple decided to return to Cuba in 2004.  After studying computer science, Ms. Sánchez later started her career as a freelance writer and was determined to be a free person.  Starting from 2008, she began signing her blog with her real name, a brave move in Cuba. (“Generation Y: My Profile”)

Yoani Sánchez’s blogging enters a taboo area in Cuba.  Time magazine comments about Sánchez saying, "under the nose of a regime that has never tolerated dissent, Sánchez has practiced what paper-bound journalists in her country cannot: freedom of speech" (“The 2008 Time 100: Yoani Sanchez”). Traditionally, journalists who dare to break the silence are punished -- even sent to jails!  This has happened to a number of dissidents and journalists, including Yoani’s husband who used to be a journalist and was sent to prison (“Desde Aqui: The Year of Yoani”).  The regime controls the people through fear and terror and using the police to enact these efforts to brainwash the citizens. Saying what you think in Cuba can be dangerous. In 2002, Cuba imprisoned dozens of journalists, who declared themselves dissidents and published criticisms of the regime. Many are still in prison (“Desde Aqui: The Year of Yoani”).  Most Cubans are so afraid of being labeled a critic that they are reluctant to utter the words "Fidel Castro" in public.  Sánchez believes that the fear of Cuba's own secret police is the main reason why the vast majority of people choose to keep silent. “Fear leads Cubans to restrict what they say and do,” Sanchez states (Sánchez xii).  Worse still, people who live in a totalitarian country for too long tend to generate an "internal policeman," for subconscious self-censorship (“Cuban Revolution”).

To break the silence as well as the internal fear, Sánchez started exercising free speech by blogging in the cyberspace.  The use of blogs and twitter allow her to publish her opinions and report events in Cuba any time she gets access to the Internet.   The digital revolution, also referred to as the information age, helped to provide a platform for Yoani to change the society, in her own way, as part of the worldwide human rights movement.  In April 2007, Sánchez launched her blog, Generación Y (Generation Y: My Profile).  Within a short time, "her name passed from anonymity to popularity" in 2008 (“Desde Aqui: The Year of Yoani”).  Thanks to her honesty in describing the true life of Cubans under the communist regime, and her excellent writing ability, her blog was an instant hit and has become internationally influential.  Generación  Y has about 14 million hits a month and is now translated into seventeen languages by volunteers (“In Cuba, the Voice of a Blog Generation”). In fact, her blog becomes a must-read for any serious researcher who needs to study contemporary Cuban society (“Cuban Revolution”). Her numerous awards, recognizing her pioneering work, include Time magazine's “One of the 100 Most Influential People in the World” in the "Heroes and Pioneers"  category, “Spain's Ortega y Gasset Prize” for “Digital Journalism”, and the prize for “Best Weblog” in “The BOBs” contest (“The 2008 Time 100: Yoani Sanchez”).

Sánchez’s work shows that freedom can only be earned by people who strive for it.  Freedom is not a gift one can expect or beg for from a dictator.  The Internet provides a new platform for all people to take freedom into their own hands.  With her knowledge of computers and the web, Sánchez is grasping this historical opportunity.  Her voice is instantly carried over the country and around the world.  The Internet is a new space, a gray area where the Cuban regime does not yet have explicit regulations, nor can it enforce practical means to stop people from expressing and publishing.  While many people still choose to blog only anonymously, Yoani broke the silence in signing her blog and commenting on any subjects to which she turns her attention, including taboo subjects like corruption, political systems, and democracy.  Her description of Cubans' daily lives provides a true picture of their society, which is not depicted in the official journals of the country.   "You have to believe that you are free and try to act like it," she says. "Little by little, acting as though you are free can be contagious" (“Cuban Revolution”).

Yoani Sánchez is wise to move one step at a time, trying not to break explicit laws, only pushing the limits in the gray area.  She chooses not to associate herself with existing dissident groups.  Under the pressure from the international community, Cuba has to be cautious in handling her.  It has blocked her blog within Cuba, trying to stop her words from spreading and impacting the Cuban people; but it cannot block many of her mirror sites hosted outside the country.  From time to time, her blogs are also made into CDs and smuggled back to Cuba (“Cuban Revolution”).  This is the power of The Internet: unless the government abandons The Internet and goes back to the pre-digital age, the government cannot block the free information flow.  When Sánchez cannot directly reach her blog site, she asks her foreign friends to help publish the posts she has emailed them.  (“Desde Aqui: The Year of Yoani”)  Over time, other Cuban writers have begun to follow her example and the Desde Cuba website, famous for hosting her blog, has since seen an increase of Cuban bloggers, including her husband Reinaldo's and several other popular writers’ blogs.  In 2009, President Obama wrote a letter to compliment her great efforts in using technology for free speech.  "Your blog provides the world a unique window into the realities of daily life in Cuba.  It is telling that the Internet has provided you and other courageous Cuban bloggers with an outlet to express yourself so freely, and I applaud your collective efforts to empower fellow Cubans to express themselves through the use of technology" (“Generation Y: My Profile”).  

With her pioneering work, Sánchez’s free speech is now a fact of life in Cuba albeit only in a limited space.  Sánchez’s effort has made a lasting difference in the human rights campaign. Her persistence and sense of responsibility have earned her a great reputation in the world.  She is a symbol in the digital age for fighting for freedom of speech under a dictatorship.  Gradually, governments in totalitarian countries may have to face the fact of free expression as more and more people follow her example in publishing in social media and exercising their freedom of speech.  When a variety of voices are heard in cyberspace, the same process will eventually occur in the traditional media, sooner or later.  As freedom of speech is exercised long enough, it will become a natural style of living, and there will be no way back.  It is imaginable that a democracy, which protects people's human rights, will eventually replace the existing totalitarian governments.  As an old saying goes, a single spark can start a prairie fire.  Sánchez is just that spark.  Everything she has done is only a beginning in Cuba, but a remarkable breakthrough in human history.

 

Works Cited

"Cuban Revolution." Wall Street Journal. Wall Street Journal. Web. 11 May 2012. <http://online.wsj.com/public/article/SB119829464027946687-2qWBoM9EpwF1S0_7hn6prJNeJqo_20080121.html?mod=tff_main_tff_top&apl=y&r=139874>.

Escobar, Reinaldo. "The Year of Yoani." Desde Aqui / From Here. Wordpress, 31 Dec. 2008. Web. 11 May 2012. <http://desdeaquifromhere.wordpress.com/2008/12/31/the-year-of-yoani/>.

Hijuelos, Oscar. ""The 2008 Time 100: Yoani Sánchez"" Time Specials. Time Inc., 30 Apr. 2009. Web. 11 May 2012. <http://www.time.com/time/specials/2007/article/0,28804,1733748_1733756_1735878,00.html>.

Rohter, Larry. "In Cuba, The Voice Of a Blog Generation." The New York Times. The New York Times, 06 July 2011. Web. 11 May 2012. <http://www.nytimes.com/2011/07/06/books/yoani-sanchez-cubas-voice-of-a-blogging-generation.html?_r=1>.

Sánchez, Yoani. "Generation Y » My Profile." Generation Y: My Profile. Wordpress. Web. 11 May 2012. <http://www.desdecuba.com/generationy/?page_id=108>.

Sánchez, Yoani. Havana Real: One Woman Fights to Tell the Truth about Cuba Today. Brooklyn: Melville House, 2011. Amazon.com: Havana Real: One Woman Fights to Tell the Truth about Cuba Today (9781935554257): Yoani Sanchez, M. J. Porter: Books. Amazon.com, Mar. 2011. Web. 11 May 2012. <http://www.amazon.com/Havana-Real-Woman-Fights-Truth/dp/1935554255>.

 

转载本文请联系原作者获取授权,同时请注明本文来自李维科学网博客。
链接地址:http://blog.sciencenet.cn/blog-362400-569854.html

上一篇:互联网有史以来最大的IPO:Facebook 眼看就要上市了,怎么玩?
下一篇:自来水和地沟油的话题

收藏修改删除|

当前推荐数:4 推荐人: 王亚娟 曹聪 李银生 李宇斌

推荐到博客首页

发表评论评论 (1 个评论)

 

删除 |赞[1]mirrorliwei   2012-5-12 11:11说到当代、现代和近代的区分,镜某的孩子说:自己出生后的事情是当代,父辈的事情是现代,爷爷辈以前的是近代。或者干脆说,自己出生前的事情都是“历史事件”。这也是个分类方法。

选人物,看上去好写,实际上难写。而选择某些(国际)组织、机构,看上去不好写,但是写起来会比想象要容易。比如说联合国及其下属的组织,科教文组织、粮食机构、难民问题、国际标准等等的。甚至各类的体育运动的组织,比如国际奥委会、足球等也都可以写。

Tian (Age 15): Karl Marx in Tanya's eyes

Tian (Age 15): Karl Marx in Tanya's eyes

屏蔽已有 2251 次阅读 2013-4-27 01:54 |个人分类:Little Stories of Tian Tian|系统分类:生活其它| Tanya, Karl, Marx

This is Tanya's history course project, researching an influntial thinker and then making a presentation in the form of addressing the world with his ideas.  Tanya chose the communist god-father Karl Marx, who she thinks is an intriguing figure with a great dream but failed in the practice.  

(1) Meeting of the Minds: Karl Marx

Karl Marx addressing the world

(Tanya was dressed like an old scholar wearing a grey wig and white thick beard just like Marx and made the following speech passionately, with the ending sentence first in German and then repeated in English, word by word, very powerful.  The teacher was impressed and gave her an A.)

Hi, I’m Karl Marx, a middle class, 18th century German scholar, who was born at the beginning of the Industrial Revolution, when Capitalism was just starting and not yet mature. There were no social welfare programs (such as healthcare or pension) or worker unions, and everything was a class struggle between the rich, Bourgeoisie, and the working class, Proletarians. My theory, Marxism, is about the ultimate government, Communism, in which the property of a society is owned by all members, and peoples’ talents are utilized to their full potential, so that people enjoy their work while working toward the common good. Capitalism is a corrupted system in which the Bourgeoisie have all the power and exploit the Proletarians, while the Proletarians are unfairly treated, wage-earning robots. Even in democracy, when people vote, they are affected by mass media, controlled by the Bourgeoisie. All humans are naturally creative and talented. So I say to you all, everyone is equal. We should overthrow the dictatorship of the Bourgeoisie, "Proletarier aller Länder vereinigt Euch!" Proletarians of the world, unite!

 

(2) The U.S. is a land of free speech.  Despite the bad association with communism in the media, Tanya shows keen interest in Karl Marx and his theory of communism.  The other day when she got up, Tanya told me, "Dad, I had a weird dream.  The last sentence I remember saying to somebody is: If there is anything that I know, communism is for you."  

Looks like she really got intrigued by communism during the study of World History.  This was quite a surprise to me, as we have seen and experienced too much of "communism".  Tanya told me that kids in America had been brain-washed to believe communism is evil, leading to dictatorship, but after research, she now realizes that communism is a very nice dream of mankind, perhaps too nice to be practical.  

"we were brain-washed to believe that communism is associated with dictatorship and leads to evil. But according to Marx, communism is a beautiful society, no class. no class struggle, work is fun and not a burden, one can satisfy his most potential with his gifted talents.  But why the countries experimenting with communism all failed?

"They failed for a good reason.  The reason is clearly stated in Marx's works but the followers did not take it seriously.  That is, an ideal society like communist needs to be supported by the maximum productivity."

Tanya continued, "Marx is a great man, and capitalism sucks.  Look at the financial storms in recent years that spread from US now to Europe, all the signs show that capitalism is doomed and communism will most likely conquor the world, if made practical. "

She smiled, "Dad, by now, I think I am already a communist.  Capitalism sucks, got to be replaced by communism."

 

I was really shocked, at the fact that her speech was almost identical to my thinking when I was her age.  It took us years to get out of it.  Nevertheless, I still like the fact that free thinking and speech enable Tanya to research and understand the world in her own way and pace.   Like all teanagers, the existing reality is always the worst, the ideas from the other world look so much better and beautiful.  

(3) Research Karl Marx

Notes on Karl Marx and Communism
1. Bio

Karl Marx was a German philosopher, sociologist, and communist in the 18th century. He developed a famous theory, called Marxism, that fundamentally influenced the human history. In fact, Karl Marx is among the most quoted scholars in history and is one of the most influential figures of all time. His two most famous works are: The Communist Manifesto published in 1848, mainly a political statement for the communist movement, and Das Capital, a book he devoted his life to on the nature of the capitalist system. In the last century, following his revolutionary theory, there were communist movement and revolutions in many countries to form a communist group of states, led by Soviet Union in 1922 and led to the founding of Red China in 1949. However, since the collapse of Soviet Union towards the end of last century, the communist movement suffered a big retreat and even the post-Mao China turned to market economy, a system closer to the capitalist economy than the communist economy. Marx's predictions that the global revolutions will end the capitalist system in the world are not proven right.

2. Marx's view on government

Marx has a theory of social development involving 5 major social types, from lower stages to upper stages, i.e.

Primitive Communism --> Slavery system --> Feudalism --> Capitalism --> Socialism --> Communism.

He regards the capitalist government as an inhuman government which only protects the capitalists (bourgeoisie) while oppressing the working class (proletarians). He believes that despite the name of democracy, a capitalist society is in essence based on Dictatorship of Bourgeoisie. He concludes that capitalist government should be overthrown by the working class and replaced by the socialist government based on Dictatorship of the Proletariat. Eventually socialism transitions to communism when the productivity gets to the highest level. Communism is the ideal society in Marxist theory in which every one enjoys his work, which brings job satisfaction and fulfillment of his creativity, at the same time producing the products to meet the needs of all the society. In communism, there is no distinction of class, no class struggle and everything is in harmony.

3. Marx's theory of human nature:

Contrary to the popular view that human is selfish by nature, Marx thought that human is a naturally creative animal. Accordingly, an ideal society creates a condition for the whole development of human nature. But capitalism is an evil society which turns humans into wage slaves.

Marx's theory of human nature plays an important role in his criticism of capitalism and his ideal of communism. A closely related and even more influential theory of Marx is about alienation from human nature caused by the capitalist system.

4. Marx's theory of alienation

By alienation, Marx refers to the social separation of people from their "human nature" which is supposed to be decent and creative. Marx believed that alienation is a systematic result of capitalism. He believed that it is the alienation that deformed human nature, making people behave differently depending on one's social status. The nature of capitalists becomes exploiting and oppressing the working class purely for the seeking of profits. The working class becomes wage-slaves like robots working in inhuman conditions.

Only in the communism can all men gain freedom and be liberated from wage-slavery, enjoying the full nature of their creativity.

5. why he thinks that way

Marxism was formed in an age when the capitalism was not mature and there were waves and waves of class struggle and society conflicts : there were no social programs, no unions and other forms of laws as seen in the modern society. For example, there were no minimum wage law, child labor law, income tax regulations and social welfare to protect the lower working class and to balance the interests between the capitalists and the proletarians. Out of deep compassions for the lower working class who has been struggling for very basic living, and out of the anger towards the early capitalists who were after profits by forcing the working class to work long hours with very low pay and very poor working conditions, Marx concluded that the capitalist government is inhuman and will be overthrown by the proletarians and replaced by the socialist and then communist government.

Works Cited

“Karl Marx.” Wikipedia: The Free Encyclopedia. 19 Sep. 2011. Wikimedia Foundation. 21 Sep.

2011 http://en.wikipedia.org/wiki/Karl_Marx

“Marx’s Theory of Alienation.” Wikipedia: The Free Encyclopedia. 26 Aug. 2011. Wikimedia

Foundation. 21 Sep. 2011 http://en.wikipedia.org/wiki/Marx's_theory_of_alienation

“Marx’s Theory of Human Nature.” Wikipedia: The Free Encyclopedia. 22 Jun. 2011.

Wikimedia Foundation. 21 Sep. 2011 http://en.wikipedia.org/wiki/Marx%27s_theory_of_human_nature

http://blog.sciencenet.cn/blog-362400-684386.html

上一篇:Tian Tian (Age 10): Tanya's Amazing Life (4/4)
下一篇:Age 9, Age 10 and Age 16: Father's Day Gifts

从人类认知谈AI融合之不易

听了一些深度学习的大神们的各路演讲,有些感触。

他们的科普类演讲大多有个共性,就是哲学味道很浓,有上帝视野,或干脆自己做上帝状。这是可以理解的情绪和姿态,也是一种自然的表现。在AI寒冬走过来的这些人,面壁N多年,终于迎来了扬眉吐气的深度网络横扫AI的各种奇迹和荣誉,不俯视天下反而是不可能的。

面对新闻记者的采访,有时候会给人一种自己被自己的成就吓倒了的极端自豪感,很有趣也很人性的一种表现,这种时候最容易天马行空。记者问,你认为什么时候神经网络可以自主意识呢?回答是,我认为已经自主意识了啊。

不过他们的长篇演讲还是有很多让人启发的思考,他们都在寻找下一个突破口,并不满足于小修小补。小修小补,模型越做越大的渐变式成功,他们认为是年轻人的事儿,水到渠成。他们希望自己能带领AI迎来下一个范式转变或者根本性突破。这种心理非常强烈,也是很自然的。人的本性都是,无论多大的成就,盛筵过后总是要追求下一个更大的辉煌。

其中思考最多的问题之一是,人用小数据就可以高效训练自己的技能,可是深度神经却需要大了好几个数量级的数据才能训练好。图像识别是最典型的例子,儿童开始识别猫啊、狗啊,见过的实例非常有限,但识别率则很高,什么机制?为什么机器只能蛮力去学,不能像人类一样?

在与人的认知机制的比较中,他们出现了两极的表述,很有意思。上面是强调人和机器的不同,思考如何弥合这种不同,或者如何更加逼近人的认知过程来提高机器学习效率。另一个方面说法却是强调深度神经就是人的神经。敢于这么说我觉得主要是因为生物领域的大脑机制研究很多年陷入泥潭。有人说这不怪生物学家,因为人的认知和意识是世界上最难解开的谜,目前人类对它的认知只是冰山一角。既然脑神经系统是怎么工作的留下太多的空白,AI 神经系统的大神们就理直气壮认为深度神经网络就是人脑机理的最完美模型就可以理解了,毕竟这套模型在很多认知任务(语音、图像、翻译等)的表现中已经接近或超过人脑的水平。

AI神经与生物认知这两个领域以前大多处于老死不相往来的状态。有意思的是,由于AI的高亮度,现在越来越多的生物界人士开始关注神经网络系统的进展。听过一些生物学家的看法,认同AI的不少,大概是看到了AI的表现,有点信服的意思。

谈点自己的观感。人脑的认知和决策比较复杂,大概其中有些部分的机制的确很像是各个节点互相连接以不同权重互相影响的神经网路,特别是那些我们称为“本能式反应”的下意识过程(例如遇到紧急路况的驾驶反应,在水中学会的游泳技能等),这些反应人也说不清,有些甚至已经固化到我们的条件反射里面,但这些反应是有效的生存策略。

但是,人的确有非常有逻辑条理和清晰的认知过程存在,包括我们所熟知的语言理解过程,虽然说 native speaker 似乎都可以“本能”学会说话和理解,但是其中绝大多数理解过程细细琢磨是可以找到背后的逻辑脉络的。这种认知通常是符号化(概念化)的,往往非常抽象而高效,不依赖大数据,只需要有限量数据做微调。这方面的理性认知与目前流行的神经网络很不相同。

能够清晰梳理出来的语言理解案例,在白硕老师的语义计算群里有过无数案例、讨论或解说,【语义计算:李白对话录系列】对此有所记录。其特点是:1. 符号化的;2. 多层面的较量;3. 就事论事都可以讲清楚哪个层面哪个因素主导了最终的理解,如果出现歧义,歧义背后的脉络也是清晰可见的。这些层面其实并不多,列举下来:第一是词汇概念及其背后的本体知识(常识),也包括情感分析的因素;第二是形式制约(句法、形态等);第三是篇章上下文;第四是领域性行业知识;第五是说者和听者的社会关系影响。大概就这几项了。原则都是有限的符号体系可以勾画、模拟和演算的。

符号AI在这方面的尝试已经很多,创新在悄悄发生,虽然听不到太大动静。这一路更像是真实逼近或模拟的高级认知功能。感觉到的痛点不是高度抽象的符号化概念化本身的问题,而是以上各种力量对比在语言理解过程中如何较量的问题。这正是符号化规则的短板,压下葫芦浮起瓢。也正是在这点上,神经系统或统计模型应该可以助力,主要是要找到合适的接口来做对接。这方面白老师也说过多次。我的理解是,符号系统画出骨架,血肉可以让大数据神经/统计模型来填写。

可是这种对接和融合的构想,不是神经系统 leaders 所要的。这也可以理解,每个人有不同角度。他们的角度总是,确立神经的骨架,在神经网络的延长线上,希望其他知识系统用某种方式融入。但迄今为止也大多想不出来如何融入“异质” 的知识资源,毕竟这看上去是不兼容的怪物。不少人不是不想深度融合,但困于不兼容的感觉是普遍的。

宏观上看是两条路线的不兼容,根本就没有起码的共同语言与词汇,只不过恰好面对的问题领域重合了而已。一边是离散的符号,一边是各种向量/参数,怎么交融?这就好比物理学家、化学家和生物学家很多时候不兼容一样,物理面对的是基本粒子,化学玩的是分子,生物研究细胞,不同层次的体系,如何交融。

~~~~~~~

有生物医学老友评论说:

“人用小数据就可以高效训练自己的技能”, 不知道这有啥证据。

人从生下来就在学习。把猫狗图像识别用于刚出生 的婴儿试一试,估计还不如机器快。

人的认知过程本质是环境输入信号和大脑已有模型的拟合过程,而人脑的已有模型是通过学习建立的。这个模型的建立过程归记忆的机制在研究。很显然目前还不能在分子和细胞水平进行解释。

AI识别和人脑识别最大的不同是AI没有情绪成份。人脑情绪成份的加入会严重影响记忆建模过程,并因此影响模型和环境信号的拟合过程,也就是影响对环境信号的识别。情绪成份是生物上亿年进化出来的东西,和个体生存和种系繁衍有关。情绪的逻辑和AI的数理逻辑差异巨大。

说不准算不算小数据认知。只是感觉认识物体与学习语言类似,并不需要海量样本。

我们教孩子认识一个物体,也就是给有限的几个样本,他们就认识了。后去这些物体的各种变形,基本上一样可以认出来。

类似的过程在学习语言这种复杂的系统中最为明显。所以乔姆斯基认为,人生下来就有一个普遍语法机制在头脑,这个机制有一些参数需要数据去训练,但人在学语言的时候,其实面对的并不是海量数据,也不是完整无误的数据。就是这些片段的有限数据,让最傻的孩子也可以自如学会母语。

可是机器学习不同,最新的深度学习的语言模型的预训练规模是:

GPT-3 is a very large language model (the largest till date) with about 175 billion parameters. It is trained on about 45TB of text data from different datasets

当然,现在的语言模型的语言生成能力包括流畅度和合法性,已经超越普通人的水平。

乔姆斯基批评这种学习是蛮力,没有科学意义,因为不能揭示人类的认知过程。

的确,关于生物演化而来的喜怒哀乐情绪,在人机对比中更具有区别意义。

本来情绪这种东西,看上去是非理性的 比较低级的心理过程,因为一些高级动物也会有某些情绪的表现。而理性思维和智能被认为是人类独有的高级认知功能。

但是,现在看来,机器在不断压缩或逼近人类的智能空间,原先以为人类独有的很多智能活动,逐渐被机器学习超越了。反而是情绪这种东西,成为人机的真正鸿沟。

教会机器“谈”恋爱并不难,但是让机器堕入爱河是不可能的。让机器呼天喊地哭鼻子叫苦叫疼也可以做到,但证明他是因为痛苦而哭现在看来是天方夜谭。自主意识和自主感情是科学幻想所热衷的话题,但是至少迄今没有任何可信的迹象表明,生物科技(基因工程)与电脑科技会真正深度融合人机,以至于可以创造出具有情绪的超级机器人。担心自主的机器起来造反或谋杀人类,是相当可笑的。AI如果有灾难,是人自己把自己玩死了,是某种 bugs 没消除就部署造成的意外灾难,这是可能的,但绝不是机器人犯上作乱。

图灵测试不是人机不可逾越的界限,情绪证明才是。

 

【相关】