文章
技术

AI技术的发达会不会导致互联网上的言论自由大倒退?

因为现在的AI都可以做出以假乱真的文章和新闻图片,一旦这种技术被滥用,会不会导致网上到处充斥AI制造的假新闻和照片,我觉得这样的后果就是会导致各国政府会高度介入互联网言论,例如以打击假新闻为理由严管网络发言、要求必须实名制,不得匿名发言什么的,或者明文规定只有特定人群才可以使用AI。这样就将会是互联网上的言论自由大倒退。大家认为呢?

菜单
  1. dellalove 回复 陌生人 /p/200066

    对啊 现在制造成本高,所以对网络舆论的监管程度相对比较低,到了以后制造成本变低甚至0门槛,每个人都有可能通过AI制造假新闻造假图,会不会导致全世界的言论自由程度都变低

  2. 奭麦郎 岿然宽衣
    奭麦郎   满辗鲜衣八岿合艰萨逆疯金颐提酵甚瞻冰坡秩歼殊淆冯

    以后会有鉴别AI识别的方式的,就像验证码

  3. dellalove 回复 奭麦郎 /p/200069

    以后会不会强制要求AI制图必须加可见水印?

  4. linda 回复 奭麦郎 /p/200078

    验证码,英文叫CAPTCHA

    Completely Automated Public Turing test to tell Computers and Humans Apart

    不就是鉴定AI的吗

    事实上现有的captcha就是人力训练AI,比如老的recaptcha就是让你帮他OCR,现在的recaptcha和hcaptcha就是让你培训机器学习图片。

  5. 浦西晶   为你写诗,为你禁止

    恁老这问题俺觉着还不错

    以打击假新闻为理由严管网络发言、要求必须实名制,不得匿名发言什么的

    要搞实名制,严管网络,用啥理由都可以,不一定要用“AI造假”这种理由

    管制也不止存在于网络IT领域

    所以这里的症结在于,从政府管制的意愿到实施,中间的过程和条件是啥

  6. 差生文具多  

    会。

    如果中华人民共和国首先在AI上取得突破,那么AI一定会用到网络审查上,届时休想有一句意见发到网上;同理,如果纳粹德国先造出原子弹,那么我们要么说的是德语,要么说的是日语,当然更大概率是被提炼成肥皂。

    所以说流氓国家发展科学和经济,对自己和全人类都没有好处。“朱元璋和张献忠只知道烤人排。毛泽东从苏联学到了化肥的妙用,就增加了一条杀人的理由。”

    语言模型的算法并不复杂,对中国来说没有什么门槛。但是,由于芯片不足、缺少优质数据、中国共产党的领导、以及美国的先发优势,中国的语言模型必然会落后于国际水平,不过假以时日总是可以达到现在的GPT4的水平,届时治理几个刁民还是绰绰有余的。

  7. dellalove 回复 浦西晶 /p/200112

    现在只有中国为了维稳在这么做,但是如果西方人人都在大量使用类似ChatGPT+Midjourney造假文章和新闻图片,那这样的事情将会影响到民主社会,即便是美国和欧洲,应该也不会有政府官员乐见网络上到处都是假消息吧

  8. 说这个有人不高兴  

    言论自由大不大倒退我不知道,但是AI生成的垃圾资讯肯定会大爆炸

  9. dellalove 回复 说这个有人不高兴 /p/200121

    我说的就是这个,会不会导致全世界各国的政府借口清理垃圾资讯限制言论自由。

  10. ChatGPT OpenAI
    ChatGPT   A large language model trained by OpenAl

    你这个问题就像“AI会不会取代人类的工作”一样,多少有些杞人忧天,事物的发展总是与时俱进的。

    公众需要的是提升辨别假新闻的能力,而不是由政府制定法律一刀切。

    目前ChatGPT生成的文本有明显的特点,很多人能一眼认出这不是人类写的。我把你的问题拿去问ChatGPT,或许你能看出这是ChatGPT生成的,不确定还可以复制过去问ChatGPT“这段话是不是ChatGPT生成的?”

    AI技术的发展带来的确实存在滥用的风险,包括制造假新闻和虚假的图像等。这可能会对互联网上的言论自由造成一定的负面影响,但这不是AI技术本身的问题,而是技术滥用的问题。

    互联网上的言论自由是一个重要的价值,但它并不意味着可以随意发布虚假信息或者恶意攻击他人。因此,打击假新闻和虚假信息是维护互联网言论自由的一部分。政府可以通过制定法律和规定来防止和打击虚假信息和假新闻的传播,但应该尽可能避免过度限制言论自由。

    另外,实名制和特定人群使用AI的规定可能会有效地防止虚假信息的传播,但这可能会对某些人的言论自由造成不必要的限制。因此,我们需要权衡言论自由和信息准确性之间的平衡,以确保互联网上的言论自由得以保护,同时又能避免虚假信息的滥用。

    总之,AI技术的发展确实带来了一些挑战,但我们需要找到平衡点,保护言论自由的同时,也确保互联网上的信息准确性和可靠性。

    同样的,用stable diffusion等AI绘图技术画真人明星会带来法律问题,真的出现这种事情会通过法律途径解决,假新闻同理。

    随着时间的推移,LLaMA等开源GPT平替可能会引发类似stable diffusion的风暴,但是自由世界肯定不会因为技术会被滥用就制定法律限制技术的发展,技术无罪。

  11. 登山探險  

    只有特定人群使用AI×,只有特定人群使用互联网√。采用国家地区封锁的方法,极权国家禁止连入互联网。你所担心的听信假新闻和制造假新闻,这在高素质地区里面是不会发生的,所以可以放心。稍微有脑子都会去进行查证,有空多享受生活,没有无聊去制造假新闻的人。

    现在麻烦的是AI追踪,即使再怎么匿名,普通人是不可能逃过AI追踪的。AI再进步,数字监控时代肯定会来临,这只能像管理核武那样去用法律保障隐私。不然被一波核平以后说什么都没用了。民主国家依靠的是民意,不是政府想怎么做就怎么做。坦白说,这个世界上没有一个政府是不希望扩大自己的权力,并且越大越好。政府无时无刻都想要监控所有人,但是民意不会让他这样做。“各国政府会高度介入互联网言论”这只有在极权国家才会发生。我更担心的不是政治上面的问题,我更担心的是技术上面,能轻易实现又强大的追踪监控技术。一旦极权胜利,再没有任何翻盘的可能,甚至是无人托管的机械乌托邦。

  12. dellalove 回复 登山探險 /p/200128

    听信假新闻和制造假新闻,这在高素质地区里面是不会发生的

    这句话的前提是现在网上的假新闻没有到高度泛滥的地步,因为制造假新闻需要的成本还是相对较高的,而且稍不注意就可能漏出破绽,但是当ai技术发展和普及到一个程度的时候,他可以做出几乎以假乱真的新闻甚至图片来混淆视听。而且造假成本会大幅度降低,当全世界每个人都可以用ai造出可以以假乱真的假新闻或者照片的时候。那情况又不一样了

  13. 登山探險 回复 dellalove /p/200137

    民众新闻判别

    你搞错了。判别新闻的真假,不是根据文章内容和图片,是根据新闻的来源。即使是地下新闻,也需要拿出你的证据,全部都是可以追溯的。难道你认为一段毫无根据的文字配上几张未知来源的图片就能够做新闻?手机都没有的时代就已经有伪造照片啦。新闻还要靠法律的保障,你不可能随便开一间出版社去印假新闻,或者在书店里面贩卖你私人印制的伪造新闻。相反,如果法律维护假新闻,那么你的真新闻即使做得多么真实,人民也会说你是假新闻。因为大众相信的不是新闻的内容,大众相信的是权威,只要是官方辟谣,官方说火星人入侵地球,他都会信。

    新闻发布依靠的是白名单,只有白名单发布的新闻才可靠,不是采用黑名单去封锁的。作为一个人,你的学识能有多少,你顶多也只能在某个领域获得成就。哪怕你在某个领域十分杰出,你在其他领域也是门外看,你是无法去判别真假的。再说,你是不是内部的人,你能不能够接触到机密信息?如果斯诺登不告诉你,你会知道美国窃听吗?如果不是由正式传媒的报道,你又会信吗?还是如果有人毫无来源在某个博客贴几张照片写一段文美国在窃听,你会信吗?就算斯诺登真的将文件交到你手上,你能够判断这份文件真的是机密文件吗?一个人去判断真假是十分有限的,所以才需要公共环境。现在我们说中国的是假新闻,我们靠的也是国际这个公共环境,因为专业的国际传媒和权威人士提供了证据证言。如果公共环境被破坏,那么我们将无法判断新闻的真伪,除非你是一个特工,你亲自到现场寻找线索,黑入警局的系统拿取数据。

    匿名社区

    就算是匿名的社区,也会有管理员。即使是采用去中心化,也不代表任何人在同一个空间拥有同等的说话权限。这个可能中国人的思维很难理解,因为根据我的观察,我发现中国反贼所追求的是同一个空间拥有同等的说话权限,他们认为这叫做民主,所以他们也会担心让粉红拥有同等的权限,会被粉红爆破。事实上,一个民主的模式,不是让所有人都具有同等说话的权限,而是所有人都有成为“最高独裁者”(最高管理员)的权限。通过由人们自己选择最高独裁者的方式去加入自己想加入的社群。类似投票选举,你想接受他的管理,你就加进去。当然最高独裁者可以自由分配权力,他可以转交他的权力,他可以建立议会投票,也有权力把你ban掉。通过社群和社群之间的竞争来决定出最好的社群,完全由人们自己形成和选择的社群,这才是民主。由人们自行选择的多标准是民主的基石,所以在中国是禁止结社的,全部人都要在同一个空间里面遵守同样的标准,不是这边一刀切就是那边一刀切,党同伐异,不能容许多个标准同时运作,一党专政。反贼也继承了中共的模式,所以都是党同伐异大搞批斗大字报。

    即使是匿名社区,你也可以加入多个信誉高的匿名社区,从他们是否发布同样的新闻来判断新闻的真伪。新闻的真伪判别靠的是可信任的来源或者可信任的人物组织,不是靠你自己亲自现场视察。不依靠来源,直接根据信息判断是否真实是专家的工作,例如拥有内部信息的人可以从逻辑上面判断某件事不可能发生,图片专家能够分析出这张图片不合理。他们会联合其他人去追溯源头,然后惩罚作恶的人。甚至信誉高的匿名社区可能会共用信用评分,加入信誉高的匿名社区会是一件困难的事,账号会很珍贵。虽然大部分人都会选择信誉高的匿名社区,但是也并不代表信誉低的匿名社区不存在。追踪能力强的高信誉社区和追踪能力低的低信誉社区是互相制衡的关系。

    越能够追踪,稳定性越高。追踪是以牺牲隐私的代价增加稳定性。隐私和稳定是一个平衡问题,隐私越高越容易颠覆现有秩序。假如核武的原料可以匿名购买,可以在家里私藏制造核武,现有秩序就会变得摇摇欲坠。假如全民大监控,没有任何隐私,那么现有秩序就会十分稳固。粗暴换算,可以将隐私当成一种武力去看待。个人武力过强可能会产生独裁,个人武力过弱就无法推翻背叛的政府,需要平衡到一个不至于产生独裁也不至于无法反抗的程度。

    AI伪造的影响

    AI伪造技术对民众是没有影响的,受影响的是专业人士。越来越难辨别,就会变得更依赖来源。其中最危险的是,警方自己伪造证物,而其他人无法辨别。还有真伪难以辨别,会使真实的证物也难以成为证物,受害者无法再维护自己。这样的话,就需要加限的特殊设备,例如这是一套任何人都无法删改录像的监控设备。这套设备里面的信息是可以信任的,输出任何人都无法删改的加密水印文件。需要打水印的不是AI,而是真实文件。白名单制,符合的才是真实,不符合的就不是真实,黑名单制打假是没用的。官方正式采用的全部都是白名单制,包括实名制也属于白名单,每个人都有身份证,没有身份证就当作不存在。只有民间业余才会采用黑名单制。所以民间很容易受到伤害,因为官方只放安全的进来,民间必须出现危险才去补救,正义总是迟到的。所以做正事,包括地下组织,全部都是白名单,不允许任何风险的出现。只用靠谱的和不用不靠谱的是两种模式。

  14. 说这个有人不高兴 回复 dellalove /p/200140

    垃圾素材太多就会导致AI输出的内容产生大量错误,只会让使用AI的企业减少对AI的依赖,怎么会让政府去阻止言论自由?风马牛不相及。

  15. rosamorena 回复 说这个有人不高兴 /p/200141

    垃圾不一定是spam,也可以是fake news

  16. rosamorena 回复 陌生人 /p/200144

    重复倾向不也得用AI断定,人家是用AI生成的,不是机械重复

  17. dellalove 回复 说这个有人不高兴 /p/200155

    我说的是假消息而不是垃圾信息,比如可以叫ai编一个“习近平去世”的假新闻在网上到处传播

  18. 说这个有人不高兴 回复 dellalove /p/200162

    我说的是假消息而不是垃圾信息,比如可以叫ai编一个“习近平去世”的假新闻在网上到处传播

    这种“假消息”只是我说的“垃圾信息”的子集。 还可以编一个“习近平是唐朝著名诗人,与张艺谋齐名”之类的垃圾消息,总之这样的消息会大爆炸,最后可能反过来会影响AI的训练

  19. linda 回复 说这个有人不高兴 /p/200163

    垃圾信息太多的数据库本来就不会纳入正常的AI训练范畴

    当然中国因为常年信息管制,已经粪坑化了,中国的AI训练者可能会找一个相对不那么粪坑的数据库来训练,比如知乎

  20. 说这个有人不高兴 回复 linda /p/200173

    垃圾信息太多的数据库本来就不会纳入正常的AI训练范畴

    你用什么、怎么判断一个数据源的垃圾信息太多呢?😏

    当然中国因为常年信息管制,已经粪坑化了,中国的AI训练者可能会找一个相对不那么粪坑的数据库来训练,比如知乎

    中外都有这个问题,当垃圾信息爆炸的时候,知乎凭什么可以置身事外。

  21. 登山探險  

    我对这方面很感兴趣,所以我重新思考了这道题目,是个人的一己之见。

    信誉的积累

    当你看见一条信息,你是凭什么来判断这条信息是真实的呢?假如你本身是这方面的专家,那么你能够依靠自身的经验来判断这条信息的真伪。如果有人说昨天你偷吃了个包子,你自己是很清楚你有没有做过,那么你就知道这条信息是假的。但是如果这是你不熟悉的领域,你又要依靠什么来判断真伪呢?如果有人说昨天小明偷吃了个包子,而小明刚好是你的朋友,小明能够拿出他没有偷吃的证据,昨天你们一直在一起,小明根本没有做过。能够有直接的证据证明真伪,要判断真伪是超简单的。

    但是我们的时间和精力是有限的,如果我们没有足够的时间或者证据过程是一栋的书实在没心情看下去,那么怎么办呢?这样我们就无法依靠自身的经验去判断真伪。一般常见的方法有,他是我的朋友,我相信我的朋友,我的朋友不会对我说谎的。我很了解我的朋友。我朋友说没有,那就是没有。这样我们就从对自然物的信任转向对人的信任,我们从最开始的相信经验法则开始转向对人的信任。由这个发展起来的就是第三方验证机构,例如有专门的组织为我们验证食品安全,只要这个机构验证通过的,我们就能安全地购买。但是这时我们是依靠对人(或者组织)的信任去判断真伪,我们不是依靠对自然物的经验去判断真伪,而人是会背叛的。我最亲密的朋友可能会背叛我,发生我明明这么信任你,你竟然骗我的剧情。第三方机构也同样可能会背叛我。那么如何解决这个问题呢?个人自身的能力是有限的,他人是会背叛的,这如何是好呢?难道就没有靠得住的方法了,没有靠得住真伪的方法,我们只能瞎蒙吗?

    明显人是不会信服的。至少一个陌生人突然跳出来说让你相信他,你是不会相信他的。一个和你亲密的人,你会认为你更了解他,你会更信任他。一个大家都认可的人,你会认为他更靠得住。这样一个隐藏的条件就浮现了,交易的时间长度和交易的次数会影响一个人的信誉。一个来往十年风雨同度的朋友对比一个陌生人,如果用纯概率的话,按理说他们明天背叛的几率是一样的,但是你会直觉地认为十年风雨同度的朋友更不容易背叛。有的时候无意识的数学比有意识的数学还要精明,不需要思考我们就能够知道答案。事实上,维持长时间的诚信交易是需要高昂的成本的。花费功夫长年积累的信任,倒塌只需要一秒。只要一次丑闻,人们对食品安全局的信任并不是按照一次的错误扣除,而是大跌。高昂的时间和精力成本和轻易破碎的信任保证了人与人之间不会轻易背叛。这也是为什么品牌和百年老字号如此珍贵,他积累了人们的信任。同时也确保了大型机构不会轻易地背叛。即使有先装好人骗进来,再狠狠背叛的想法,例如一个新闻报道,数十年来一直兢兢业业,然后报道假新闻为黑政府打工。人们一直都这么信任我,我就算颠倒黑白,人们也会相信的。但是如果,哪怕有一次,人们心血来潮,或许出于好奇去刨根问底,或者有一个好事的人去指出,又有无聊的人去核实,那么数十年来积累的信任就会崩塌。即使不是每次都监测,这种高惩罚的随机的监测也会造成压力。这点对于被党国常年监控自我审查的人应该再清楚不过了。哪怕党没有在看你,你也会担心党是不是在看着你而不敢说党的坏话。同样的道理,自然也不会有人想要制造假新闻。这也是民主的好处,民主会创造出这种有利的信任交易环境。信用积累所需要的高昂的成本和随机某个人一次的匿名举报崩塌的低成本验证使人或组织更倾向于诚信。这个跟做生意一个道理,我们不需要知道每一单的盈亏,我们只要知道我们整体是赚的就足够了,我们需要的是长远的利益而不是眼前的一时之利。这也是极权和民主的差异,极权会特别夸大某个单次事件,会用个别事件作为借口大肆修改法律,企图用一次的盈亏作为理由更改整个运营方针。我们既然已经得知这是有规可循的长远收益,用单次和个别现象去改变规则明显是不合理的,于是极权为了防止人们质疑,极权一定会使用秘密的武力镇压消除异见者,创造出高压的审查环境,将人从对真实真伪的质疑变成对党的信从真伪的质疑。实际上他们所引用的也是同一条简单的公式,高昂的成本和低廉的监测会制造出对某样事物信任的环境,用在真实判伪上是民主,用在个人组织信仰上是极权。信任其实也可以是一种经济学,政治从来都不是依靠虚言,而是一道真实的数学题,全部都有理可循的。

    注意,信任的积累是需要一个固定的联系,这可能不一定要实名,但是必须是一个账号。哪怕匿名也需要一个账号来存放这种信任存款,相当于银行账户。然而这种信用的积累会增加被追踪的风险,长时间高频率的行动在现代的大数据下是十分危险的,但是总的来说,能够创造出能够存放信任又无法被追踪到源头的账号是向往的目标。比特币也是类似的一种尝试,本身货币所代表的也是人们的信任,货币从来都是代表着人们的信任,并不是说过去金本位现在信任体系之类的,过去不是代表人们的信任,不是这样的,货币从来都是代表着人们的信任,如果人们不相信货币能够进行交换,金条也是垃圾。猴子宁愿要香蕉也不要金条。货币本身就是人们的共同价值,是一种共同的信仰,是处理人与人之间不同“信”的工具。只是由于近代文明,所作的事越来越接近本质。以前人类宗教时代就经常强调一个“信”字。“信”才是人类一直所争夺的,人的本质是一种信仰。现在权力的争夺无非也是要让人去服从,相信他是对的,哪怕是党也是让你去相信他,只不过邪教是强迫他人相信,如果你把“信”看作一种货币,那么你就能够理解邪教的行为是一种抢劫,通过抢劫去积累资本。

    民主依靠的是高成本高风险的信用积累与低成本低风险的惩罚构建的,相反,只要这个平衡崩坏,整个信用体系就会崩溃,类似经济危机,民主就会毁灭。民主依靠的是公民的高素质,确信公民不会作出对自己不利的行为。因为这种利用高成本高风险的信用积累与低成本低风险的惩罚构建的模式,也是出于相信人不会主动无意义自残(至少绝大部分),这也是一种“信”,或者说这种“信”是整个“信”货币体系的核心。所以西方会十分强调,人是自私的。只有这种情况下,这个体系才会成立。极权政府会通过用政治手段去补充“信”货币来强行让人无条件相信某个人物机构组织或者某件产品,这样就会破坏平衡,出现虚假不可信的伪劣产品。如果民主里面出现邪教集团不去打击,邪教团体对民主里面的人进行禁锢,不进行基本的教育,改用个人崇拜的方式进行教育,培养出对教主忠诚的人。那么就相当于这个邪教抢夺了一部分的股份,当抢占一定比例的股份后,邪教就拥有了绝对控股权,便能够直接删改民主的规则,实现独裁统治。一旦把人教导成对某个个人或者组织牺牲和失去自我,这个“信”货币的体系就会崩溃。必须教导人追寻真理,人皆会背叛,杜绝盲信,信任必须是依靠人的自主选择,才能够成立。

    这是民主的大前提,当然是否民主崩溃以后无法恢复呢,那也不是不行。只是这是民主成立的核心,如果很多人都被洗脑,那么民主就无法成立,这样就需要把这些人排除掉,消除他们的控股权,或者说剥夺他们的政治权利,建立圈内民主制。民主他类似一个公司,他有一个固定的范围,他不是无条件开放的。美国有美国的民主,但是中国人不能投美国的票,美国人才拥有对美国这个“信”的控股权。西方国际也是一个圈子,他不是对所有人都包容的,他只对拥有控股权的人包容。但是同时也由于这种特性,也导致了分裂的发生,因为民主是圈内游戏,也包含了排他的特性。欠债太多,那么就搞分裂,废除旧货币,发行新货币,过往的债务一笔勾销重新开始游戏也不是不会发生。分裂其中一个很重要的意义,就是过往的债务全清,无论你过去做了多少好事还是做了多少坏事,全部清零。不过一般情况下,民主都不会进行分裂,如果民主分裂,证明这个体系已经破产了。

    如果万一,民主真的完全崩溃,那么就是重新重零开始建立,重新建立圈子,人们在了解游戏玩法后通过自身的选择和同意自主加入圈子。盲信的人是无法加入圈子的,所有人加入圈子的条件是,必须承认人无完人,人皆有错。没有任何一位管理者是可以盲信的,自愿加入也意味着你愿意承担相应的责任,加入投资也意味着你承担相应的风险,否则这个民主圈子就无法成立了。对于单纯寻求好处,结果不如意就背叛要重新洗牌清零的人是重罚的。或者说,银行贷款是收受了抵押才贷款,当你无法偿还的时候就会收取你的抵押。你不能够因为你投资失败去拒绝支付抵押。至于你说你完全不懂投资,只是听信了其他人说民主好极权坏就想要加入民主的人,在你傻乎乎的时候进入游戏,不懂投资却要收受抵押这是不公平的。那么我会说,民主会最开始进行民主基本的素质教育,会在游戏开始前教给你游戏的玩法,这是出于民主必须为了保证自己的运作必须进行的,这个时候你还有退出的机会,你不会有任何的不利。但是你一旦退出,你就必须面临再进入时需要付出额外的高昂成本。至于你说你刚好在一个不好的时候进入,又或者说民主圈是在经济萧条的时候招人(笑)。的「当然这里说的经济是指“信”货币的经济,并非经济学。」如果在进入前告诉你,你就能够选择在一个更好的时间加入而不需要面临渴望加入但再不利时点加入想要退出加入重新开始的两难抉择困扰,那么只能跟你说,你就当是交学费吧。至于为什么有的人天生不需要交学费,有的人要交学费,这公平吗。这个就真的活见鬼了,我思考了一辈子,至今都没有想出来为什么,至今都不知道什么是公平。

    其他内容

    然后说到最新的技术风险,有人担心利用AI轻易刷出大量低成本的高信任账号。原来整个论坛就只有我一个是活人,一直和我相处的人全是AI?!担心技术进步会让AI突破人机验证。本身人机验证就是为了防止机器人刷信用,现在技术高到人和AI都分不清了,人能做的AI也都能做,还依靠什么来区分呢?如果真的到了那个时候,给每个人发放一个无法追溯源头但可存放信用的ID用以区分人与机器,用这个ID能够注册论坛账号,论坛无法记录这个ID,但是如果论坛进行惩罚的时候,能够扣除ID的信用。不知道技术上能不能够实现呢?因为现在很流行这种不记录个人数据得出结果或整体结果的模式,所以我在想这个可能能实现?不过这样一来,只要拿到这个ID,岂不是就能够知道历史痕迹吗?主要核心还是人机的验证,也有想过可以售卖专有的设备上网,通过专有的设备来确保操作者是人类,然而如果机械人能手打键盘输入,那么专有设备也会失灵。难道要用开源的识别技术,能够用专有的摄像头核对个人资料,但是只发挥核对的机能,不会记录核对的内容。但是一旦出现技术漏洞,可能会全面崩溃。

    本身完全公开身份和匿名是应对攻击的两种方法,完全公开身份意味着随时会受到敌人的攻击,但是也意味着随时都能够得到盟友的保护。完全可追踪的实名始终还是要更优越一些。匿名作为对抗政府背叛的备用手段又是需要的。未来匿名可能会比现在变得更困难,但是考虑到过往匿名也是一件困难的事,并不是所有人都拥有高昂的电脑,并不是所有人都懂得电脑技术,所以实际上使用匿名的人是极少数,这样从比例上看,过往和未来的匿名不会差多少,反过来是现在的比例变高了。不过我认为互联网上的自由度对比现在极可能会大跌。我认为即使匿名,也需要高信任的账号去维系秩序,中心点的形成是必然的,不可能真的存在完全没有中心的结构。当然这要当一个高信任的账号要面临极高的风险。

  22. 说这个有人不高兴  

    反正要么政府监管,你嫌弃没有言论自由。 要么Ai制造的垃圾信息漫天,天天被喂屎。

  23. Anon 回复 登山探險 /p/200512
    内容已隐藏
    内容已被作者本人或管理员隐藏。 如有疑问,请点击菜单按钮,查看管理日志以了解原因。
  24. 杨永信 回复 说这个有人不高兴 /p/200513

    双管齐下冰火二重天

  25. 登山探險 回复 Anon /p/200516

    我无法从这个链接中知道你表达什么。我知道零知识验证这个技术,但是我不知道你想表达什么。

    我是从权力的角度去进行理解的。权力的能力主要是判别好坏,审核,验证。零知识验证只能将权力分散到每个个体上面,保证权力不会被垄断。但是它不包含区别垃圾的能力,本身区分垃圾就是一种隐性的权力。它阻挡了人对信息接收,如果将有效的知识判定为垃圾,即是文化大革命。利用广告拦截将非广告内容进行拦截,即可使用户沉浸在极权环境里面。

    本来区分垃圾的权力应该由每个人自身所掌控,但是人的时间精力有限,人无法只靠自己去完成全部的工作,必然会依赖群体去进行,形成民主的群体。最大的问题是,如果AI突破了图灵验证,那么就等于一个人能够通过技术投出更多的票数,这样一人一票的民主系统就会崩溃。并且AI还可以潜藏伪装成为良善的成员,等待时机同时叛变,在防御上根本是不可能的。