文章
生活

【更新中】哲学中的思想实验(更新至问题四)

爱狗却养猫 饭丝

一. 纽科姆悖论(Newcomb's paradox)

这个思想实验在《哲学家们在吵什么?》中提到过(问题19),也称为“纽科姆问题”,因为严格来说不算一个“悖论”。

图片来源

假如有两个箱子:A和B。A箱是透明的,你可以看到里面有1000元;B箱是关闭且不透明的。

B箱有且只有两种可能:空的,或者有一百万元。

现在你有两个选择:(1)只打开B箱;(2)同时打开两个箱子。你可以拿走你打开的箱子里的钱(如果有的话)。

假设有一个超级AI,它可以预测人类的行为,并且根据过去的记录,百发百中。这个超级AI已经对你的行为做出了预判,并且做出了相应的反应

  • 如果它认为你只会打开B箱,则会在B箱中放入一百万元。

  • 如果它认为你会打开两个箱子,则不会在B箱中放入任何东西。

你的选择是什么?

二. 玛丽的房间

TED做的视频,有中文字幕

图片来源

玛丽是一位出色的神经科学家,但是她从小到大,都生活在只有黑白两色的房间里,通过黑白显示屏调查世界。

玛丽知道人类已知的所有有关视觉、颜色的所有物理、生物学等知识和信息。例如,她知道不同颜色的波长组合是怎样刺激视网膜,视觉信号是怎样通过中枢神经系统使人辨认出不同颜色的。然而,玛丽从来没有亲身体验过色彩。

有一天玛丽的黑白屏幕出了问题,屏幕上出现了一个红色的苹果。这时候,玛丽能从中学到新的东西吗?

三. 莫利纽兹问题

维基链接

youtu.be/1TdFAHtqPbs

问题:有一个人天生眼盲,但可以透过触觉来分辨物体形状,如她可以摸到球形的感觉、立方体的感觉,等等。假设有一天这个人突然恢复了正常视力,眼前放了一个球体和立方体,她能不能够单纯以视觉来分辨出哪个是球体,哪个是立方体?

根据医学经验(对于先天性白内障的治疗),病人在复明后并不能单纯以视觉分辨不同的形状,必须通过体验和学习才行。但是也有人argue目前的医疗条件无法在手术后100%恢复视觉,因此无法达到思想实验中的条件。

四. 中文房间问题

维基链接。感谢libgen提出。

youtu.be/TryOC83PH1g

一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

约翰·希尔勒认为,尽管房里的人可以以假乱真,让房外的人以为他说中文,但事实上他压根儿不懂中文。在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答复(输出)。

那么,房中人究竟能不能理解中文?

菜单
  1. 刘慈欣 反共复民
    刘慈欣   反共复民

    第二个,让我联想到一辈子生活在干旱炎热的沙漠里,从来没有感觉过冷的非洲土著第一次摸到冰块的情景:他感觉自己摸到了一块滚烫的石头。

    所以我觉得玛丽很可能会把屏幕上的红色当成一种“特殊的灰色”,而不会意识到这是红色。

  2. libgen 图书馆革命
    libgen   天堂应该是图书馆的模样。一个阅读诗歌的人要比不读诗歌的人更难被战胜。创造是一种拯救。创造拯救了创造者本身。

    第二个让我想到人工智能里的思想实验「中文房间」:

    中文房间的实验过程可表述如下:

    一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

    约翰·希尔勒认为,尽管房里的人可以以假乱真,让房外的人以为他说中文,但事实上他压根儿不懂中文。在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答复(输出)。

    那么,房中人能不能理解中文?

  3. 希格斯玻色子  

    一、如果在我之前,只有很少人(比如10人以下)参与过这个实验,并且他们都知道在自己之前有多少人参与过这个实验,那么我会选择只打开B箱。

    但,如果在我之前有很多人参与过这个实验,AI分析过很多人的选择(比如10亿人),那么我会选择打开两个箱子。

    因为,第一个参与的人,大概率会打开B箱;第二个参与者,当他得知在自己之前只有一个人,那么他会认为风险可控,他的想法是 “只要第一个人不是超级蠢,那他就会只打开B箱”,因此第二个参与者也大概率只打开B箱…… 以此类推

    当参与人数很少时,我就能相信前面的人。但是,当参与人数越来越多,林子大了什么鸟都有,有的人可能根本不思考随便选,有的人可能故意损人不利己,有的人可能不懂AI或不相信AI,只相信摆在面前的钱…… 总之,人多了,就很难相信全部人都那么坚定选择B箱。

  4. 希格斯玻色子  

    二、其实我们已经经历过很多次类似的事情。

    现代人从小就通过文字和视频去学习很多远方的东西,要等十几年、几十年后才会亲眼看到那个曾经学习过的、非常了解的东西。

    比如大海,在内陆地区生活的人,也许从小就从影视作品了看过无数次大海,但若干年后,当他有机会亲身面朝大海,我想,他很大概率会有新的感受、新的认识。

    比如我们都看过从太空俯瞰地球的样子,我们都知道在月球上轻轻一跳就能离地很高,但如果有机会真的去到太空,我觉得,对大脑的刺激会完全不一样,会激发出一些新的想法。

    比如异性的胴体,书本与视频的学习,就算假设讲解的极度细致,但与亲眼所见,差别太大。(我是男人,不管在知识上如何学习、或不管看过多么高清的视频,与亲眼看见面前一个活生生的女人脱衣服相比,那怎么能说没有新东西)

    比如一些20岁前没看过雪的南方人第一次亲眼看下雪,不管他曾经多么了解关于下雪与雪花的一切知识,但亲自站在飘雪之中,怎么能说没有新的感受呢。

    回到实验本身,如果一个人明知道世界是彩色的,明知道自己被困在黑白世界之中,那她本身就会渴望看见其它颜色,当真的看见时,也很可能对大脑有很强的刺激。

  5. Lhermitte 到家打我电话
    Lhermitte   一歪脖子背就痛

    第二个,其实我怀疑她由于从小到大都没有使用过相关的脑区,分辨颜色的脑区早就没有用了。也就是说,她没有办法感受到那一道光频率方面的信息,只能感受到亮度方面的信息。所以只会感觉到一种灰色。很可能和她以前见过的某一种灰色是一样的。

    (不知道为什么想到了日本人的r和l)

  6. Lhermitte 到家打我电话
    Lhermitte   一歪脖子背就痛

    @libgen #138127 感觉这两个例子里面,问题都是什么能算是“理解”或者“学到”。如果按照小学生考试的做法。例如,在见过红色之后,能在一堆颜色里面挑出红色,那就算是学到了。如果是色盲,分辨不清楚蓝色和红色,那就算是没有学到。或者,在学了中文量词之后,能做出来填空题一( )鹿儿该填什么,那就算是学到中文量词了。

    不过,我觉得,我们一般说“学到”的时候,对不同的东西,要求是不一样的。例如说,我们说一个人学到了“加法”的时候,我们就会指望他知道1+1或者85+142的答案,即和对一个合格的计算器要求是一样的。但是我们说,学到了中文的时候,我们除了希望他能做出一( )鹿儿的填空题,还会有其他希望。那个翻阅问答指南的人,只能根据指南上的来回答(像机器一样),但是是没有创造新的词汇、词汇组合和语法规则的能力的。这种情况下,我们一般会说,这人的中文学得不够好。

  7. 爱狗却养猫 饭丝
    爱狗却养猫  

    @刘慈欣 #138111 Interesting.理论上来说确是一种可能……

    我觉得“玛丽房间”的问题有一个漏洞,就是人体本身不是黑白色调的。玛丽只要能看到自己,就能体验到彩色。

  8. 钦明方泽忘了密码 习特厚
    钦明方泽忘了密码   习特厚:习近平特别受到人民厚爱

    我认为第二个讲的其实是“个人感觉是不是知识”,还有就是“还原论是不是科学的全部”。悖论假设玛丽已经从还原论的角度完全理解了“人看到红色”这一神经过程的动力学,那么她第一次看到红色时能否得到新的“知识”?这是知识论的范围问题吧?

    我认为“个人感觉是知识”这一点是无可置疑的,和“神经过程完全是物理过程”也并不矛盾。稍微追溯一下,又会触及到如何看待“意识”的问题…… 在我看来,哲学问题追根究底要么是意识(还有自由意志)与物理过程的关系,要么是语言问题,然后我就会就此打住,不再深究了。

    (嗯,看了下ted talk,确实是知识论的问题。)

  9. 钦明方泽忘了密码 习特厚
    钦明方泽忘了密码   习特厚:习近平特别受到人民厚爱

    @爱狗却养猫 #138145 “房间”是指玛丽的全部感官,不是指物理意义上的房间。叫做“玛丽的眼罩”更合适一些。

  10. natasha 饭姐
    natasha  
    内容已隐藏
    内容已被作者本人或管理员隐藏。 如有疑问,请点击菜单按钮,查看管理日志以了解原因。
  11. natasha 饭姐
    natasha  

    玛丽的房间,让我想起古典艺术与印象派的艺术的区别。

    17世纪以前的艺术家,不管是乔托,达芬奇,杨凡艾克,欧洲从南到北的艺术家,调色的时候,色彩只有深浅变化。比如一个褶皱,阳面通过加入白色变浅,阴面要么用原色,要么加入同色系深色或灰色。这样调出的颜色虽然美,但是没有灵动。

    17世纪从伦勃朗开始,调色开始考虑环境色和光线的影响。到了18世纪末十九世纪初,印象派将这种调色理念发挥到顶峰,即便是黑白色,也会由于光线的照射在视网膜中的反射,而出现类似于其他波长的颜色。最典型的是修拉,也就点彩派大师,他更是认为,只要用严格排列的点点,人的视网膜就可以合成画家想要达到的色彩和形状。

    因此,我认为,即便玛丽生活在黑白空间里,但是由于光线的影响,她看到的不会仅仅只有黑白灰,因此她会其他颜色也是有感知的。

  12. 爱狗却养猫 饭丝
    爱狗却养猫  

    @libgen #138127 很有意思的情景。我会加入正文中。

    房中人能不能理解中文?

    我认为这主要在于“理解”究竟是什么。我同意Lhermitte的说法,根据“理解”的是什么东西,相应的检验标准会有不同。人类“理解”事物的高级标准,往往是能应用到不同的场景上,甚至产生“创意”(创意本身的涵义也值得深思),从旧有事物中生出新事物来。

    以下纯属我的假设:AI“感知”的外部世界是信息(一串数字),人“感知”到的也是信息(神经信号);AI的理解过程是将感知信息作为input并跟随固定的程序产生output,人也是将感知信息作为input根据某种程序产生某种output。可能(目前的)AI和人类思维的重要区别,在于input信息的形式以及处理信息的程序非常不同,因为生物过程与机械过程有很多区别。还有就是AI的output即使是概率性的,依然是一列事先设置好的可能结果;人的output结果序列则有“意外性”,而人类历史上“质”的变化往往就来源于这种小概率却难以预测的“意外性”——当然也有可能后者只是出于人本身的认知限制,因此无法对自身进行完美建模。

  13. 爱狗却养猫 饭丝
    爱狗却养猫  

    @SuperMild #138132 很有趣和非传统的思路!您的阐释,我的理解类似于对其他人和AI决策过程的推测和博弈。

    从传统思路来讲,纽科姆问题主要是这样的博弈:

    • 由于B箱里有没有钱已经是一个固定的结果,从收益情况来讲,同时打开两个箱子肯定是更优的策略(见下表)。
    情况 AI预测选择 实际选择 收益
    1 两个箱子 两个箱子 1000
    2 两个箱子 B箱 0
    3 B箱 两个箱子 1001000
    4 B箱 B箱 1000000
    • 但是这种选择逻辑是否已经为AI所预料?若是如此,则上表中唯一可能的结果就是情况1。

    • 所以我认为并不是收益表或者决策原则出了问题,而是对每种情况概率为何的判断。在考虑怎样可以最大化收益时,应该考虑到每种情况的概率,最大化预期收益。例如,每行出现的概率是多少?特别是,第二三行的情况出现的概率是否为零?AI是怎么思考的?是根据过去的数据推测,还是一个能确定地预知某个确定的未来的存在?

    • 从另一个角度来讲,这牵涉到自由意志和决定论的问题。

  14. 爱狗却养猫 饭丝
    爱狗却养猫  

    @SuperMild #138136 我同意这种说法。我打算在正文中加一个思想实验“Molyneux's Problem”,作为与“Mary's Room”相应证的例子。

    @钦明方泽忘了密码 #138147 确实是认识论的问题。

    @钦明方泽忘了密码 #138148 Good point. 我认为这里还牵涉到一个问题,就是“思想实验”中的条件本身,是否就蕴含了对认知的假设。

    @natasha #138150 是的,所以“思想实验”本身,有绝对的、不现实的条件,类似于自然的真空。

  15. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    一. 纽科姆悖论. 问题一中矛盾的地方在于:1、超级AI在预测了我会打开B箱并把钱放入B箱之后,我同时打开2箱得到所有钱的选择,与超级AI的预测相违背。

    所以,同时打开两箱获得所有钱这个选择,与超级AI精准的预测相矛盾。

    也就是说,在尊重AI%100预测准确这个前提下,同时打开两箱这个选项是不应该存在的。

    矛盾的点是这个选项存在,因为预测在前。

    所以考虑这个问题有问题,也就是要么%100预测准确的超级AI不存在,要么同时获得2箱钱这个选项不存在。

    因为如果同时获得2箱钱,则超级AI%100预测准确的前提就错了。

    如果超级AI%100预测准确,则不会有同时获得2箱钱这个可能存在。

  16. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    2、预测未来与被预测的未来相矛盾。 %100精准预测后的未来应该像一部已经拍好的电影一样不会有任何改变的可能性存在, 而还没有发生的未来,理论上至少应该存在发生任何选择的可能性。

    比如说,两个箱子都不开。

    我对这种问题往往会反思我们的语言本身,我们创造的这个工具往往会被错误的使用:比如“A是B的爸爸,B也是A的爸爸,请问到底谁是谁的爸爸”这种不合逻辑的问题轻轻松松就可以用语言提出来。

    又比如“如果上帝是万能的,那么他就可以创造出一个他举不起来的石头,而如果他举不起这个石头,那么他就不是万能的。”

  17. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    我们已经用语言把上帝定义成了无限,我们的语言又偏偏可以组织出“比无限更大”这种反逻辑的词汇。 所以也经常会有这种类似无限和比无限更大到底谁大的问题。

    我们一旦没有识破这种问题本身有问题,就很容易陷入到很像逻辑悖论但实际上是假象的困境里。

  18. 邹韬奋 外逃贪官CA
    邹韬奋   虽然韬光养晦,亦当奋起而争(拜登永不为奴:h.2047.one)

    @淸雲 #138516 无限当然和无限不一样了,Big O notation了解下。

  19. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    @消极 #138537 跟大o符号无关,无限个苹果和无限个橘子也不一样,我这里表达的是我们语言本身对无限两个字的定义是否定超越无限的存在的。

    在数学中1+1未必等于2,在现实中左手一个苹果右手一个苹果加起来必然是两个苹果。

  20. 邹韬奋 外逃贪官CA
    邹韬奋   虽然韬光养晦,亦当奋起而争(拜登永不为奴:h.2047.one)

    @淸雲 #138566 无限这个在日常语言里其实是没有好的定义的,只是直观的多,“恒河沙数”,只有近代数学发明微积分和极限理论之后才有了严格的定义。

  21. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    @消极 #138571 语言中的无限即是“无限”的意思,区别于“有限”,直观的多是有限,“恒河沙数”也是有限。 我上边的例子主要是用来揭示“最大”与“更大”之间的矛盾性。 如果探讨无限,我们必须先承认人类是“有限”,“有限”之于“虚无”是“无限”,而“有限”之于“无限”等于“虚无”,继而承认作为“有限”的我们无法理解“无限”。

  22. 淸雲 萌新
    淸雲   谷歌“品葱”的时候,由“品葱是什么垃圾”这一条目误入2047,折服于诸位的渊博同时感叹此地空气的稀薄。

    我们追求真理,但是很可能我们理解不了真理,数学是我们追求真理的工具,并非真理本身。

  23. 沉默的广场  

    中文房间这个思想实验是为了驳斥【思维可以用形式符号表示】的观点,塞尔认为:

    Searle emphasizes the fact that this kind of symbol manipulation is syntactic (borrowing a term from the study of grammar). The computer manipulates the symbols using a form of syntax rules, without any knowledge of the symbol's semantics (that is, their meaning).

    塞尔的思想实验里面隐含了假设:(1)语言是表示思维的符号体系;(2)语言用来表示思维是充分的。

    现在认为如果把语言当作符号来看待,它表达思维是不充分也不精确的,也就是说【将相应的中文字符组合成对问题的解答,并将答案递出房间】这样的规则根本不存在。比如:

    I met Erika with flowers

    可以表达意思(I met Erika) with flowers或者I met (Erika with flowers)。脱离词背后的意义和上下文,syntax就不足以表达思维。

    现在普遍认为语言中的记号不是完全符号性的,大多数记号还可以继续分解到亚符号这个层面。现代NLP技术,比如word embedding,就是用了这样的哲学思想:每个词(记号)用一个向量表示,而表示词的向量又可以分解成很多分量,每个分量在亚符号的层面上表示记号的意义。

    Symbolic vs.subsymbolic representation in cognitive science and artificial intelligence (slides)

  24. observerEDGE 废物
    observerEDGE   始终坚持图书馆革命,星星之火,终会燎原

    @爱狗却养猫 #138182

    中文这个好像我想起来另一个更好理解一点的问题,就是说如果有一个人在一个机器里,全程用钢琴键盘操作这个机器的机械臂,机械臂又用来在波音747里操作飞机,当飞机摔了无数次以后经过足够多的练习以后,这个人大概也会用钢琴操作飞机平稳运行。甚至极端一点,用一些音乐来映射飞机的情况,这个人照样可以用钢琴开飞机。但是貌似大部分人都不认为这个人会开飞机这个技能。

    中文房间的迷思大概在此,其实我觉得图灵测试也有点陷入了这个误区。语言很重要,但归结到底不是全部。会一种语言,会按照书的要求写答复,会操作钢琴和会开飞机都是技能。或许第二种不是,因为这个任务是人类无法实现的。

  25. 爱狗却养猫 饭丝
    爱狗却养猫  

    @observerEDGE #152055 操纵钢琴->机械臂->飞机这个例子很有意思。从效果上来讲,只要某个input能稳定地带来某个特定的output,这个input是什么,以及中间过程是什么,似乎无关紧要;但人们在说某种“技能”的时候,有时会假设了此技能包含了input, process and output。

    所以或许问“AI是否真的能理解人类语言”,或许类似于问“人类是否真的能飞”,有刻舟求剑之嫌——用人类的“理解”过程来要求AI,正如用鸟类的“飞行”的方式来要求人类;AI无法像人类一样思考,人类无法像鸟类一样飞行,但AI和人类都能达到“理解”和“飞”产生的output。

    突然想到,人类的习惯性视角其实相当自我中心,因此在流行文化中,“外星人”具有人类的特点,“人工智能”也好像要有对应的人类器官甚至人类特性才算完整。但其实并没有这个必要。