这两天(11日-12日)在我校办的一个和 AI 有关的会议, 题目就是“计算机到底能做什么?——人工智能的理论限度”。 因为觉得很有趣,趁还有点记忆,极为散乱地记录如下。


说是辩论,自然有辩论双方。 因为没有正反方一说(虽然明显有是否主流的区别……),所以称之为攻守方。 攻的是认为人工智能可实现的王培教授(美国天普大学), 守的是认为人工智能永远不可能实现的周昌乐教授(厦门大学)。 当然,在两人介绍彼此观点后的一开始,反而感觉攻守完全反过来了;不过到第二天又觉得攻守方向又重新转回来了……

两位主辩经历颇为传奇,一位是侯世达的弟子,一位是马希文的传人;一位专注一个方向数十年,一个每年做十个方向(雾,不过也可能不是误,因为周连中医都有博士生的……)。 两位非常清楚下面一桌围观群众和一排不明真相的围观群众对他们彼此掐架喜闻乐见,因此纷纷表示会把自己做成一个大靶子供大家射击,主持人和众围观群众也竭尽全力试图让两人互掐,事实也证明俩人掐人能力都不错……


行程上,第一天上午除了一些致词外,就是两名主辩亮明自己观点。下午讨论了前两个问题。第二天上下午讨论后四个问题。在讨论每个问题前会有一个教授做一个简单的专题报告。

必须得说,茶歇的食品很受欢迎,虽然每次茶歇的质量单调下降……另外贵校学生请自行解决午餐晚餐bgm38……

P.S.: AC100 太给我面子了,第二天我开了它将近7小时(虽然关了无线),还剩 25% 的电力……


几位教授的观点都比较鲜明,比如:

  • 周昌乐教授:

    果然是禅宗大师,在介绍自己的观点的一开始就讲心识和古印度的唯识学,比如意识的五蕴(色 行 想 受 识)什么的,我们几个不明真相的围观群众纷纷表示虽不明但觉厉……

    擅长地图炮,比如“我反对一切语义学”、“搞哲学的都是胡说八道”什么的,虽然后来为了照顾在场的哲学系教授把第二句修正成了“我是说你们没事瞎创造啥理论没啥意思,你们应该搞批判”……

    周的观点更像纯哲学观点。总的来说,周相信,

    1. 真正的“意义”是不可由符号表达的,因为一但表达出来,就已经是符号而非原本的意义了;

    2. 更特别的,一定存在一些道理是“只可意会不可言传”的,是需要“体悟”的——比如禅宗。

  • 王培教授:

    这学期在旁听王培教授的课,所以对他的观点相对熟悉,关键是一些实现细节也知道。对他的理论持保留态度,但是总的来说,他的很多哲学思想我是信服的。 所以写完发现自己基本主要记录的都是王培的想法,因为他的想法我容易补出来233

    这次辩下来,我是觉得王培更胜一筹的,当然哲学系的没准会有分歧。

    王的观点是基于其工程背景的,对我们来说更贴切些。王的观点一直是:

    1. 智能是在有限资源的情形下根据已有经验适应环境的能力;

    2. 我们应该承认存在人类之外的智能形式;

    3. 智能是一个层次上的问题。王培反对“归根结底”这类的词汇,比如“人工智能归根结底就是一堆01”.实际上智能是体现在观测的层次上的。我很赞同这种观点。比如说,人归根结底还是一堆细胞,从这个层次看是看不出智能的,智能恰恰体现在更高一层的组织结构上。

  • 老板:

    “这个问题(有时会加上限定领域的话)是一定可以形式化的!” 老板几乎每次都会重复这个观点,以至于后来每次他要开口大家都替他说了233

    本次会议老板充分展现了他随风而来随风而去的特点……不过按老板的原话,“我们搞 AI 的就是想来听听你们搞哲学的的观点开拓开拓思路,你们那些玄学啥的咱都不感兴趣”,所以基本上对那些过于哲学的问题老板都懒得发表看法,只要老板说话,基本都是谈实际解决方案,除了形式化外最常用的词汇就是 search/planning/decision/...

    另外老板掐架绝对一流——倒不是主动拉人出来战个痛,老板属于在发表观点的时候能面不改色地顺便把你的毛病纠出来会心一击然后好像没事一样继续说……


主要围绕六个问题,下面按六个问题分开记录,它们是:


1. 如果要构建像人类一样思维的机器,成功的标准是什么?图灵测验吗?

智能科学系的王立威教授做的专题报告《人工智能所需要的要素》。

首先他认为智能是一种相对环境的实现目的的能力。 他认为图灵机是无智能的,因为图灵机适应的环境过于简单。 下棋程序也是无智能的,因为其环境也相对稳定。

我觉得“图灵机适应的环境简单”这句话是很奇怪的。 作为一种抽象机,它的纸带能表达数字,其实也能表达各种环境。

这一点我用王培的观点来解释,“是一个看问题的层面的问题”。 比如从神经元的角度看,我们是看不出人的智能的,尽管智能最终还是靠它们构成的。我们只有从更高的角度才能看到智能。 我想图灵机也是一样。

他还强调图灵机的限制在于其带符号等结构是固定不可增长的(表达),且具有局部计算性(计算)。 他认为局部计算性是不应抛弃的,但表达应有所提升,应允许有限但可任意增长的符号集、状态等。

但这种扩充仍然不会改变图灵机的能力。

周和王一致同意,应该并且只能通过行为判断机器是否具有智能。 这是由于他心知的原因,即“子非余,焉知余……”的问题。 我们只能通过行为主义检测机器是否有智能。

分歧点在于,周认为图灵测试是足够好的行为测试,周认为只要通过巧问,总可以问出有无智能的差别。 比如一个经典的例子:问人/机器TA的年龄。 问一次,计算机和人难以区分;问多次,人可能会不耐烦;问更多次,人感到不耐烦的表达也不见得相同。 而计算机难以实现——当然,计算机可以故意模拟这种情况,然而人总可以更改提问的方式,让计算机设计者被动的跟着问题跑,这时候机器就已经输了。 所以周认为,图灵测试是足以评价机器是否有智能的,关键还是出问题的人问问题的方式。

而王认为图灵测试实际上是假设机器的智能和人一样,而不把与人类不一样的智能当作智能。比如外星智能的例子,刚到地球上的外星人不能正常与人交流,我们仍然可以通过其举止能力判断它们是有智能的,尽管它们的思考方式和人类可能区别很大。 所以王认为,计算机表现的和人像不像不是问题,关键是它的行为是不是有道理的。

实际上,后来讨论其他问题的时候,有教授曾举过章鱼保罗与球王贝利的例子。人工智能不是求真的,就算保罗总是预言成功,贝利总是预言失败,也不是就可以这样断定贝利的智能比保罗差。图灵测试屏蔽了这个问题。

智能应该是通用的(即不是面向单一问题类的),不是针对一个个问题而是一个学习的过程——我们允许智能犯错,但是它应该能从中学习。

另外,图灵测试的对比对象是机器和人,裁判是人,这本身就是以人为尺度。 再举个外星人的例子,假如有一种外星人,它们智能高度发达,看到我们觉得我们傻透了,与我们交流(抛开语言障碍)觉得我们和它们没法比。若按图灵测试,以外星人评判,我们就成了没有智能的了。 或者我们评判外星人,外星人的想法对于我们来说过于超前,我们完全不能理解,我们做图灵测试也会觉得它们没有智能。

另外一个例子是鸟和飞机都可以飞,然而它们采用的方式完全不同。 当然,它们背后都是空气动力学。 但是假若人工智能和智能无论从表现还是机理都和人类有很大不同,我觉得也没有什么可奇怪的。

王培还强调,在图灵原始论文中早已说明,图灵测试应该是智能的充分而非必要条件。因此,王培坚决反对以通过图灵测试为人工智能的准绳与目标。

另外,周提倡我们应当遵循摩根准则,即一个现象如果能用简单的方式解释,就不应该选择复杂的解释。比如说看到一条狗在落泪,如果能用风吹进沙子来解释,就不应该用它在伤心来解释。

我觉得这还是一个视角问题。作为创造者会(自以为)清楚机器的原理和历史,对他而言可能用机器内部的运算等描述更为简单(真的么233),而外在观察者来说不见得如此。


2. 计算机是个形式系统,而哥德尔不完全性说明形式系统不能证明某些真命题。这是否说明人的某些知识是计算机永远不能得到的?是否所有知识都能形式化?自指性知识呢?

首先哥德尔不完全性定理是经常被外行人拿来棒打人工智能的棒子,不过在场的辩手和围观群众(应该也包括全部不明真相的围观群众)没人认为认为这对 AI 有什么问题。

  1. 是机器不可知的人不一定可知;
  2. 某个一致的形式化公理系统不可知的不一定所有形式化系统都不可知;
  3. 哥德尔定理作为定理自然有可以被应用的前提条件。哥德尔定理恰好告诉我们经典逻辑对人工智能是不够的,而其他一些形式化系统不一定满足哥德尔定理所需要的前提条件,比如王培的非公理系统,比如超协调逻辑。

周强调哥德尔定理的重点在于体现了矛盾的必然。比如审美中的复调艺术,体现的是一种矛盾中的美。而机器是没法从这种矛盾中理解的。而像禅宗这种只可意会不可言传的道理更是无法形式化的。

关于可形式化,老板抱持着强烈的“知识皆可形式化”的信念。 不过老板的形式化似乎宽广了些,把数字化也包含进去了。

在老板(以及王培,这方面他俩一个战线,老板更执念)看来,主要问题不在于能不能而在于好不好。 这一部分一开始的专题报告是陈钢博士(第二天没有出现,希望不是因为被老板会心一击了……)在讲利用他们实验室(Lingcore Laboratory)搞的一套程序验证用的 Coq 系统来统一的描述知识。 老板的评价是程序验证的工具不是不好(以防直接打对方脸),但是和 AI 基本是两条方向。程序验证是严格的,而 AI 最关键的是常识推理,是充满矛盾的。 Coq 一定是严格满足哥德尔定理的前提的,而 AI 系统往往不是。 所以说关键还是要选择一个好的形式系统

对于陈刚博士的报告,老板也批评这种方法论。关键在于 AI 的目的是研究智能到底是什么,而我们现在不知道,因此需要各种不同的逻辑从不同的角度去分析。 一个试图统一它们的框架,实际上除了统一了它们的语法之外没有其他的功能,对最终目标没有贡献,反而会模糊每种形式系统的特点,对深入研究没有好处。

当然关于矛盾处理我们是有形式化逻辑的,比如超协调逻辑,比如王培的非公理逻辑。

周对于王培系统的自指能力持怀疑态度。因为我听过王培的课,我觉得是周想偏了。 王培的系统自指是没有问题的。虽然王培有一个虽然小但确实存在的不可变动的元逻辑层,但是这并不妨碍自指的能力。

比如说,就像人的语言与物理世界(这是我在下面讨论的时候常用的比喻)。 客观物理世界的规律是定死的,是不可更改的——这对应于王培的元语言和元逻辑。 但我们依然可以用语言——对应于王培的目标语言——和逻辑——对应于王培的目标语言上的新的一层推理——来描述物理世界的规律。我们还可以在这个规律上继续描述规律,变成周昌乐口中的元语言、元元语言、etc. 我们的目标语言已经足够强大,可以描述其他的系统,比如自己。因此虽然我们的讨论局限在目标语言上,我们的表达能力仍然是足够的。 而事实上,我们总是需要一个定死的(王培意义下的)元语言和元逻辑的,就好比客观物理世界一样。

类似的还有实体计算机和上面运行的虚拟机和虚拟机里的虚拟机的关系。


3. 计算机能处理符号,但它能真正理解符号所代表的意义吗(意义指称能力问题)?如果人的概念依赖于人类的躯体和动机(涉身性认知),那计算机怎么可能掌握它们?

复旦大学哲学系的徐英瑾教授做的专题报告, 指出了语义学的外在论和内在论,即语义是通过内心与客观世界的指称表现的,还是通过内在世界中概念的关系表现的。 他认为,如果我们接受内在论语义学,那么语义是可能被计算机理解的。 外在论语义学也被人支持,但外在论预定一个预设的眼光——即“上帝”——他具有认识世界全部信息的能力。 至于涉身性,徐教授认为这不是颠覆性的问题。

王认为涉身性仍然是一个通讯和学习的过程。

在王的NARS系统中,一个词的意义通过这个词与系统中其他词的关联体现出来 (当然,周认为“这根本不是意义”,王坚持“这就是这个智能心中的意义”),也就是说王实际上也是支持内在论语义学的。 至少,王坚决反对将指称语义(模型论观点,Tarski 语义)视为唯一的语义论。 王的 ppt 上有两张很形象的图,可惜我手头自然没有…… 简单的说,指称语义中,“花”这个符号的语义通过它指称现实世界中的花来体现; 而在王的系统中,“花”这个符号通过它与“植物”、“叶子”(花不是叶子)、“花盆”等符号以及以前观察到的图像等符号之间的关系体现出来。 在王的系统中,一个词的语义来自于这个智能体的经验,与外在世界无关,自然也不要求与外在世界符合。在王培的世界里,形与义是统一的。所以王培说自己是一元论者,认为物质世界和精神世界是可以统一为符号的;但也是二元认识论者,即对概念的认识和客观世界本身不是完全对应的。

王培特别提及一个捷克斯洛伐克(没听清不确定)的研究,是有人将他的 NARS 系统应用到声音识别上的。即在对语音处理部分使用传统的模式识别方法,但是在识别出语素后作为符号进入 NARS 推理。所以关于涉身性,王不认为是个问题。

对我来说最感兴趣的是 NARS 真的被应用了…… 之前我一直觉得 NARS 背后的哲学很有趣,但是 NARS 自己除了实现通用人工智能之外,似乎干什么都并不方便(王培自己的观点,凡是有特定领域的算法的地方,肯定比针对更一般问题的 NARS 要有效)……

周强调意向性问题,人的语言总是伴随着体验。

周认为意义指称的难点在于自然语言是元语言与对象语言揉合的(混合指称)。周教授举的例子是一个古诗,古诗的开头是“长亭……”,然而教授写的时候只是把“亭”字写的很长,这种隐含的表达人是可以理解的。

关于对元语言与自指的观点我直接记录在上一个问题里了。

周坚持真正的意义不是能说的,尤其是所谓终极指称能力——悟(周教授是禅宗宗师),是“只可意会不可言传”的,所以周“反对一切语义学”。

呃,但是我觉得,对于不论是搞理论的还是搞工程的人,都会认为这句话类似于 “这事你们做不了,因为这事做不了”……233


4. 如果计算机只能遵循给定的程序运行(预先设定的程序),那它怎么可能有创造性和灵活性?

来自北航的林允清教授做了专题报告:人类先天机制与计算机模拟。 他强调了先天机制的作用。 康德和乔姆斯基都认为人类智慧与其先天知识有关(乔姆斯基的语言天赋论)。 林教授认为意识、创造力等也是由先天机制导致的,所以关键在于找出这些先天机制,以及如何实现它们。

林教授在后来的讨论中还提了一个很有趣的问题: 几何证明机器在证明欧氏几何中著名的驴桥定理时给出了比前人给出的证明简单的多的证明,这是否算创新?

王培认为,如果这个定理证明器是通过暴力穷举的方式得到证明,就不算。如果是通过经验认识到的,就算有智能。其区别在于,如果经验变了,可能就不会被经验启发而想到这么巧妙的办法了。 而经验得到与启发搜索的区别在于,对特定问题,算法是否是固定的。 王培认为智能主要不是体现在解决问题类(算法)上,而关键在解决具体问题实例(“具体问题具体分析”)上。

中科院自动化所的王珏教授还强调了一个问题,就是时空复杂度到更一般的能量复杂度的问题。他举了一个欧洲项目的例子,该项目试图模拟人脑的一小部分,最后发现需要全球电力才能运作。这是否说明当前数字计算机本身机理上就不适合人工智能。

所以就有问题:

  1. 人的先天是什么?困难在于界线,到哪里是先天的,婴儿刚出生?脑容量稳定?
  2. 这种先天能力是否有能力用计算机实现?一方面在于理论是否可能,一方面在于不同的表达带来的不同的能量复杂性。

周还强调创新应该是一种非线性的过程。而这种过程可以是没有解析解的。

创造力有好坏的区别的。王认为无论好坏,都是创造力,因为好坏实际上是由环境变化决定的,不是智能所能预先断定的,正如我们认为智能必定会犯错一样。

王培强调,所谓创新不是创造全新的东西(没有真正意义上的创新),它可能早就存在,关键是谁先发现。这也体现了根据经验与暴力穷举的区别。

王培系统里的创新、灵活性、灵感等都是基于这种想法。NARS 中的词项组合生成新概念我觉得是自然的,的确,我能想象到的每一个新想法,都不可能是凭空而生的,一定是之前我曾经经验过的事实产生的。

另外,外行人和内行人对创造力的标准不同。比如我们看起来很厉害的东西,在专家眼中可能就毫无创新。最经典的应该是深蓝等机器,认为深蓝是人工智能的基本都是非行业人士,而行业人士从不认为它是人工智能。 这也是 AI 界著名悖论“只要一种技术在 AI 领域发展成熟,它就不被认为属于 AI 领域了”的一种解释……(笑) 这就是所谓上帝视角的问题,假如我们能知道一个人的原理和历史,那他一样也没有创造性(我想还是有不可预测的问题的,总之重点是视角和先验问题)。

这个问题的分歧最终归结到信念问题,然后大家都认为信念问题是没有必要讨论的。


5. 计算机是理性的,而情感和其他非理性因素在人的思维活动中扮演重要角色(倾向性指导作用)。这是否说明计算机不能像人一样思维?

哲学系逻辑学博士王彦晶报告了《关于问题的问题》, 主要分析了问题本身,认为提问比回答更需要智能,能为达到目的发现并提出好的问题是智能的一部分。 一个有趣的想法是改进图灵测试为机器问人答。

当然似乎离题远了点,不过本来专题报告和题目就是分别想好再分组的……

周认为情感是方向,理性是动力。 机器是没有情感的,因为它只有行为没有……呃,好吧,回到语义和意识的问题了233……

王培的想法一直是计算机作为物种和人类可以不同,行为理性即可。 所谓情感和情绪,就是资源的全局调配。 比如所谓恐惧,就是将资源全局调配到最适合躲避的状态。 这时因为资源调配问题,就可能无法做出理性判断,比如看到黑暗中的物体感到恐惧,就可能不去仔细观察那到底是什么而直接逃跑。

王认为计算机可以有自己的情感,目的也不是为了蒙人。这种情感实际上就是机器内部形成的对一定状况采取的快速全局资源调配的反应。

当然,周当然是不承认这种东西叫情感的XD

另外还有自闭症和老好人的例子,自闭症可能内心情感丰富,但并不乐于与人交流(我感到中枪了233);老好人也许对外界总是抱着接受的态度,就好像总是同样的反应一样。它们都是有情感的。

关于情感,关键是对情感的理解,以及造机器的目的。


6. 意识的本性是什么(特别是自我意识)?机器能够拥有意识能力吗?

这一片我觉得接近信念之争了XD

王认为主观意识实际上来自于先验。

王坚决反对还原论,在前面提及王反对“终归结底”处已经解释了。

王认为所谓身心问题实际上是外部感受器和内部感受器的分隔的问题而已。

王认为机器是可以自省的,例如它能意识到自己之前想到了什么,能整理出自己的思路——在 NARS 中是(可)能做到的。

周是坚决认为机器是只能做到有意向性的意识的——虽然他的无意向性的意识被老板称之为玄学233


总的来说,我认为:

  1. 很多问题是概念问题:比如什么是智能、什么是创新、什么是情感、什么是(自我)意识等等本身就有很多争议;
  2. 很多问题是信念之争:周坚信“确有不可言说之物”,而王认为“认识源自经验”,老板则认为“一切皆可形式化”233;
  3. 很多问题是目标之别:周希望人工智能近似/超过人类,而王认为人工智能和人的智能完全可以有别,不管是原理还是经验;
  4. 很多问题是层次问题:当我们在微观角度观察的时候,一切智能都被还原到不复存在;而当我们以宏观角度观察的时候,智能会表现出来;
  5. 很多问题是角色问题:当我们以机器的制造者的上帝视角来看机器时,我们理解(其实很可能只是自以为理解)其原理,通晓其历史,便不认为它有智能;而当我们从外部行为来看,就变成了智能。

comments powered by Disqus