21 世纪很可能是人类的关键世纪,是决定我们未来几千年命运的世纪。
原文作者:Vitalik
原文标题:Mytechno-optimism
原文来源:vitalik.eth.limo
编译:Yvonne,MarsBit
上个月,Marc Andreessen发表了他的 “技术乐观主义宣言”,主张重新唤起人们对技术的热情,并将市场和资本主义作为发展技术的手段,推动人类走向更加光明的未来。宣言旗帜鲜明地反对它所描述的停滞不前的意识形态,这种意识形态惧怕进步,优先考虑保持当今世界的现状。这份宣言受到了广泛关注,包括诺亚-史密斯、罗宾-汉森、约书亚-甘斯(较为正面)以及戴夫-卡普夫、卢卡-罗佩克、埃兹拉-克莱因(较为负面)等人的回应文章。James Pethokoukis的 “保守的未来主义者”(The Conservative Futurist)和 Palladium 的 “是时候建设美好家园了”(”It’s Time To Build for Good”)与本宣言无关,但主题相似。本月,我们通过 OpenAI 之争看到了一场类似的辩论,围绕超级智能人工智能的危险和 OpenAI 发展过快的可能性展开了许多讨论。
我自己对技术乐观主义的感受是热情的,但也是微妙的。我相信,由于技术的彻底变革,未来会比现在更加光明,我也相信人类和人性。我反对这样一种心态,即我们所能做的最好的事情就是让世界保持与今天大致相同的面貌,但减少贪婪,增加公共医疗服务。然而,我认为重要的不仅是规模,还有方向。与其他类型的技术相比,某些类型的技术能更可靠地让世界变得更好。某些类型的技术如果得到发展,可以减轻其他类型技术的负面影响。世界在某些技术发展方向上指数过高,而在另一些方向上指数过低。我们需要积极的人类意图来选择我们想要的方向,因为 “利润最大化 “的公式不会自动得出这些方向。
在这篇文章中,我将谈谈技术乐观主义对我的意义。这包括更广泛的世界观,它是我在某些类型的区块链和密码学应用、社会技术以及我表示感兴趣的其他科学领域开展工作的动力。但是,对这个更广泛问题的看法也会对人工智能和许多其他领域产生影响。我们在技术领域的飞速发展很可能会成为二十一世纪最重要的社会问题,因此我们必须认真思考这一问题。
技术是惊人的,拖延技术的代价非常高昂
在某些圈子里,人们通常会淡化技术带来的好处,而将其主要视为乌托邦和风险的根源。在过去的半个世纪里,这种看法往往源于对环境的担忧,或者是担心这些好处只会为富人所有,而富人则会巩固他们凌驾于穷人之上的权力。最近,我也开始看到自由主义者开始担心一些技术,因为他们担心这些技术会导致权力集中。这个月,我做了民意调查,问了以下问题:如果一项技术因为太危险而必须受到限制,不能让任何人自由使用,那么他们是希望这项技术被垄断还是推迟十年?我惊讶地发现,在三个平台上,在谁是垄断者的三个选项中,绝大多数人都一致选择了推迟。
因此,有时我担心我们矫枉过正了,很多人忽略了论点的反面:技术的好处真的非常巨大,在我们可以衡量的那些轴线上,好处远远大于坏处,而哪怕延迟十年的代价也高得令人难以置信。
举个具体的例子,让我们看一张预期寿命图:
我们看到了什么?在过去的一个世纪里,取得了真正巨大的进步。这一点适用于整个世界,无论是历史上富有和主导的地区,还是贫穷和被剥削的地区。
有人指责技术制造或加剧了极权主义和战争等灾难。事实上,我们可以在图表上看到战争造成的死亡:一次是在 1910 年代(第一次世界大战),一次是在 1940 年代(第二次世界大战)。如果你仔细观察,还可以看到西班牙流感、大跃进和其他非军事悲剧。但图表清楚地表明了一件事:即使像那些令人恐惧的灾难一样,它们都被那个世纪里在食物、卫生、医学和基础设施方面取得的不断改进的巨大规模所淹没。
我们日常生活的巨大改善也反映了这一点。得益于互联网,世界上大多数人都能通过指尖获取二十年前无法获取的信息。由于国际支付和金融的改善,全球经济变得更加便利。全球贫困人口迅速减少。由于有了在线地图,我们再也不用担心在城市里迷路了,如果你需要快速回家,现在我们有了更便捷的方法来叫车。我们的财产变得数字化,我们的实物变得廉价,这意味着我们更不用担心实物被盗。网上购物缩小了全球特大城市与世界其他地区在获取商品方面的差距。自动化以各种方式为我们带来了永远被低估的好处,那就是使我们的生活更加便利。
这些改进,无论是可量化的还是不可量化的,都是巨大的。而在二十一世纪,很有可能很快会有更大的进步。今天,终结衰老和疾病似乎是乌托邦。但从 1945 年计算机的角度来看,在几乎所有东西上都安装芯片的现代似乎是乌托邦式的:即使是科幻电影也经常将计算机保持在房间大小。如果生物技术在未来 75 年内的发展速度与计算机在过去 75 年内的发展速度相当,那么未来的发展可能会超出几乎所有人的预期。
与此同时,对医学进步持怀疑态度的论点也常常走向黑暗。即使是医学教科书,比如这本 20 世纪 90 年代的教科书(感谢 Emma Szewczak 的发现),有时也会提出极端的主张,否认两个世纪以来医学科学的价值,甚至认为拯救人类生命显然不是一件好事:
20 世纪 70 年代提出的 “增长极限 “理论认为,不断增长的人口和工业最终将耗尽地球上有限的资源,这一理论最终激励了中国的独生子女政策和印度的大规模强制绝育。在早期,对人口过剩的担忧被用来为大屠杀辩护。自 1798 年以来,这些观点一直被证明是错误的。
正是于这些原因,我发现自己对放慢技术或人类进步的论点感到非常不安。鉴于各行各业之间相互关联的程度,即使是行业性的放缓也是有风险的。因此,当我在这篇文章的后面写下类似的话时,我的心情是沉重的——然而,21 世纪是不同的、独特的,这些细微差别值得考虑。
尽管如此,在更广阔的范围内,有一个重要的细微差别,特别是当我们超越 “技术整体上是好的”,进入 “哪些具体技术是好的?”在这里,我们需要谈谈许多人最关心的问题:环境。
环境与协调意愿的重要性
在过去的一百年里,几乎所有的事情都在变好,但气候变化是一个主要的例外:
即使在悲观的情况下,气温持续上升也不会导致人类真正灭绝。但是,这种情况造成的死亡人数可能会超过大规模战争,并严重损害已经处于最艰难境地的地区人民的健康和生活。瑞士再保险公司(Swiss Re)的一项研究表明,最糟糕的气候变化情景可能会使世界上最贫穷国家的国内生产总值降低 25%。这项研究表明,印度农村地区的人口寿命可能会比原来缩短十年,而类似这项和这项的研究表明,到本世纪末,气候变化可能会导致一亿人过早死亡。
这些问题都是非常严重的。我之所以对我们克服这些挑战的能力持乐观态度,原因有二。首先,在经过几十年的夸大和一厢情愿的思考之后,太阳能终于迎来了转机,而像电池这样的支持技术也在取得类似的进展。其次,我们可以看一下人类在解决先前的环境问题方面的记录,以空气污染为例。过去的反乌托邦:1952 年伦敦的伦敦大雾。
此后发生了什么?让我们再来看看数据:
事实证明,1952 年甚至还不是峰值:在 19 世纪晚期,空气污染物的浓度甚至更高,这都是可以接受的正常现象。从那时起,我们看到了一个持续快速下降的世纪。我在访问中国时亲身经历了这一过程的尾声:2014 年,空气中的高浓度雾霾是正常现象,估计会使人的预期寿命减少五年以上,但到 2020 年,空气似乎与许多西方城市一样清新。这不是我们唯一的成功故事。在世界许多地方,森林面积正在增加。酸雨危机正在改善。臭氧层几十年来一直在恢复。
对我来说,这个故事的寓意是这样的。通常情况下,我们文明的 N 版技术确实会造成问题,而 N+1 版技术则能解决问题。然而,这并不是自动发生的,而是需要人类的有意努力。臭氧层正在恢复,因为通过《蒙特利尔议定书》等国际协议,我们让它恢复了。空气污染之所以得到改善,是因为我们让它得到了改善。同样,太阳能电池板之所以能大幅改善,并不是因为它是能源技术树上注定的一部分;太阳能电池板之所以能大幅改善,是因为数十年来人们对解决气候变化问题重要性的认识,激励了工程师们努力解决这个问题,激励了公司和政府资助他们的研究。解决这些问题的是有意识的行动,通过公共讨论和文化塑造政府、科学家、慈善家和企业的观点,而不是不可阻挡的 “技术资本机器”。
人工智能与其他技术有本质区别,值得特别谨慎对待
我看到过很多对人工智能不屑一顾的观点,认为它只是 “另一种技术”:与社交媒体、加密技术、避孕措施、电话、飞机、枪支、印刷机和轮子属于同一类技术。这些东西显然具有非常重要的社会影响。它们不仅仅是对个人福祉的简单改善:它们从根本上改变了文化,改变了权力平衡,并伤害了那些严重依赖先前秩序的人们。许多人反对它们。总的来说,悲观主义者无一例外地被证明是错误的。
但是,我们可以换一种方式来思考人工智能是什么:它是一种新型的心智,其智能正在迅速提升,很有可能超越人类的心智能力,成为地球上新的顶级物种。这一类事物的范围要小得多:我们可能会把人类超越猴子、多细胞生命超越单细胞生命、生命起源本身,以及机器在体力上超越人类的工业革命也包括在内。突然间,我们感觉自己好像走在了一条不那么平坦的道路上。
存在风险是个大问题
人工智能出错可能使世界变得更糟的一种方式是(几乎)最糟糕的方式:它可能真的导致人类灭绝。这是一种极端的说法:无论气候变化、人工大流行病或核战争等最糟糕的情况会造成多大的危害,但仍有许多文明孤岛可以完好无损地收拾残局。但是,如果一个超级智能的人工智能决定与我们作对,那么它很可能不会留下任何幸存者,从而永远终结人类。甚至火星也不一定安全。
担心的一个重要原因是工具趋同:对于超级智能实体可能具有的一类非常广泛的目标来说,人工智能为更好地实现这些目标而可能采取的两个非常自然的中间步骤是:(i) 消耗资源;(ii) 确保自身安全。地球上有大量资源,而人类对这样一个实体的安全是一个可以预见的威胁。我们可以尝试给人工智能一个爱护和保护人类的明确目标,但我们不知道如何才能在人工智能遇到意外情况时不至于完全崩溃。因此,我们遇到了一个问题。
MIRI 研究员罗布-本辛格(Rob Bensinger)试图说明不同的人对人工智能杀死所有人或做出几乎同样糟糕的事情的概率的估计。其中许多立场都是根据人们的公开言论得出的粗略近似值,但也有许多人公开给出了自己的精确估计;不少人的 “厄运概率 ”超过了 25%。
2022 年对机器学习研究人员进行的一项调查显示,研究人员平均认为,人工智能有 5-10% 的概率会真正杀死我们所有人:与统计预期的你死于受伤等非生物原因的概率差不多。
这只是一种推测性假设,我们都应该对涉及复杂的多步骤故事的推测性假设保持警惕。不过,这些论点已经经受住了十多年的检验,因此,似乎至少值得担心一下。不过,即使你不担心真正的灭绝,也有其他理由感到害怕。
即使我们幸存下来,超级智能人工智能的未来是我们想要生活的世界吗?
很多现代科幻小说都是乌托邦式的,把人工智能描绘得很糟糕。即使是非科幻小说,在试图确定可能的人工智能未来时,也往往给出相当不讨人喜欢的答案。于是,我四处提问:无论是科幻小说还是其他作品,对于包含超级智能人工智能的未来,我们希望生活在什么样的描述中。得到最多答案的是Iain Banks的《文化》系列。
《文化》系列讲述了一个遥远未来的星际文明,主要由两种人组成:普通人类和被称为 “心灵”的超级智能人工智能。人类已经得到了增强,但只是轻微的增强:医学技术理论上可以让人类无限长寿,但大多数人选择只活 400 年左右,似乎是因为到了那个时候,他们会对生活感到厌倦。
从表面上看,人类的生活似乎是美好的:生活舒适,健康问题得到解决,娱乐方式多种多样,人类与 “心灵”之间存在着积极的协同关系。然而,当我们深入探究时,就会发现一个问题:“心灵”似乎完全掌控了一切,而人类在故事中唯一的角色就是充当“心灵”的棋子,代表 “心灵”执行任务。
引自 Gavin Leech的《反对文化》:
人类不是主角。即使书中看似以人类为主角,做着严肃的大事,他们实际上也是人工智能的代理人。(扎卡威是唯一的例外之一,因为他可以做 “心灵 “们不愿意做的不道德的事情)。文化中的 “心灵 “不需要人类,而人类却需要被需要。(我认为只有少数人需要被需要–或者说,只有少数人需要被需要到足以放弃许多舒适的生活)。大多数人并不是按照这种尺度生活的。这仍然是一个很好的批评)。
人类承担的项目存在不真实的风险。几乎他们做的任何事情,机器都能做得更好。你能做什么?你可以命令 “心智 “在你从悬崖上掉下来时不要接住你;你可以删除你的 “心智 “备份,这样你就真的在冒险了。你也可以离开 “文化”,重新加入一些老式的、不自由的 “强烈评价性 “思维。另一种选择是通过加入 “接触 “组织来传播自由。
我曾问过 ChatGPT,为什么要赋予人类这样的角色,而不是让“心灵”完全靠自己做所有的事情,我个人觉得它的回答很令人失望。在一个由超级智能 AI 主导的 “友好 “世界里,人类除了是宠物之外,似乎很难有其他的角色。
许多其他科幻系列都假设了一个存在超级智能人工智能的世界,但它们听从(未经强化的)生物人类主人的命令。星际迷航就是一个很好的例子,它展示了拥有人工智能 “电脑”(和数据)的星际飞船与人类操作员之间的和谐愿景。然而,这感觉就像是一种极不稳定的平衡。《星际迷航》中的世界在当下看起来是宜人的,但很难想象其对人工智能与人类关系的愿景只不过是在星舰完全由计算机控制、不再费心设计大厅、人工重力和气候控制的十年过渡阶段。
向超级智能机器发号施令的人类远不如机器聪明,它能获得的信息也更少。在一个存在一定程度竞争的宇宙中,人类退居次席的文明将胜过人类顽固坚持控制的文明。此外,计算机本身也可能夺取控制权。要想知道为什么,想象一下你在法律上是一个八岁孩子的奴隶。如果你能与孩子长时间交谈,你认为你能说服孩子在一张纸上签字,让你获得自由吗?我没有做过这样的实验,但我本能的回答是肯定的。总而言之,人类成为宠物似乎是一种很难摆脱的吸引力。
天高皇帝远
中国谚语 “天高皇帝远 “概括了政治中中央集权局限性的一个基本事实。即使是在一个名义上庞大的专制帝国–事实上,尤其是在专制帝国庞大的情况下,领导层的影响力和关注度也是有实际限制的,领导层需要委托地方代理人来执行其意志,这就削弱了其执行意图的能力,因此总有一些地方存在一定程度的实际自由。有时,这样做也会有弊端:没有一个遥远的权力机构来执行统一的原则和法律,会给地方霸权创造偷盗和压迫的空间。但是,如果中央集权变坏,注意力和距离的实际限制也会对变坏的程度造成实际限制。
有了人工智能,就不再如此。在二十世纪,现代交通技术使得距离的限制对中央集权的制约比以前要弱得多;二十世纪四十年代的伟大极权帝国在一定程度上就是由此产生的。在二十一世纪,可扩展的信息收集和自动化可能意味着注意力也不再是一个制约因素。政府的自然限制完全消失可能会带来可怕的后果。
十年来,数字专制主义一直在崛起,监控技术已经为专制政府镇压反对派提供了强大的新策略:任由抗议活动发生,但在事后悄无声息地对参与者进行侦查。更笼统地说,我最担心的是,能让 OpenAI 用 500 名员工为过亿客户提供服务的管理技术,也能让 500 人的政治精英,甚至 5 人的董事会,对整个国家实施铁腕统治。有了现代监控技术来收集信息,有了现代人工智能来解读信息,我们可能无处藏身。
当我们想到人工智能在战争中的后果时,情况会变得更糟。以下是2019年搜狐上一个半知名帖子的译文:
“不需要政治思想工作和战争动员”,主要是指战争的最高指挥者只需要考虑战争态势本身,就像下一盘棋,不需要去管棋盘上的 “马 “和 “车 “此刻在想什么。战争变成了纯粹的技术竞争。
从更深层次看,”政治思想工作和战争动员 “要求任何人发动战争都必须有正当的理由。几千年来,”正当理由 “这一概念一直制约着人类社会战争的合法性,其意义不容低估。任何想要发动战争的人都必须至少找到一个表面上看似合理的理由或借口。你可能会说这种约束很弱,因为从历史上看,它往往只是一个借口。例如,十字军东征背后的真正动机是掠夺和领土扩张,但他们是以上帝的名义进行的,即使目标是君士坦丁堡的虔诚信徒。然而,再薄弱的约束也是约束!这种单纯的借口实际上阻止了战争贩子毫无节制地完全释放他们的目标。即使像希特勒这样恶毒的人,也不可能直接发动战争;他必须花费数年时间说服德国人民,让他们相信高贵的雅利安种族有必要为自己的生存空间而战。
今天,“人在循环”是对独裁者发动战争或在内部压迫其公民的权力的重要制约。环路中的人类阻止了核战争,让柏林墙得以打开,并在大屠杀等暴行中拯救了生命。如果军队是机器人,这种制约就会完全消失。独裁者可能会在晚上 10 点喝醉,晚上 11 点因为人们在 twitter 上对他们刻薄而发怒,而机器人入侵舰队可能会在午夜之前越过边境,向邻国的平民和基础设施倾泻地狱之火。
而与以往不同的是,在以前的时代,总有一些遥远的角落,天高皇帝远,一个政权的反对者可以重新集结,躲藏起来,最终找到让事情变得更好的办法,而有了 21 世纪的人工智能,一个极权政权很可能会对世界保持足够的监视和控制,以至于永远 “被锁定”。
d/acc:防御(或分散,或差异)加速主义
在过去的几个月里,e/acc(effective accelerationist,有效加速主义者)运动取得了很大的进展。由「Beff Jezos」在这里总结,e/acc 基本上是对技术进步带来的真正巨大好处的认可,以及加速这一趋势以更早获得这些好处的愿望。
我发现自己在很多情况下都赞同 e/acc 观点。有很多证据表明,美国食品及药物管理局在推迟或阻止药物审批方面过于保守,而一般的生命伦理学似乎常常遵循这样的原则:“20 人死于医学实验失误是一个悲剧,但 20 万人死于救命治疗延误只是一个统计数字”。拖延批准艾滋病毒检测和疫苗以及疟疾疫苗似乎进一步证实了这一点。然而,这种观点也有可能走得太远。
除了与人工智能有关的担忧,我对 e/acc 对军事技术的热情尤其感到矛盾。在当前 2023 年的情境中,这项技术是由美国制造并立即应用于保卫乌克兰。然而,从更广阔的视角来看,热衷于将现代军事技术视为一种善的力量似乎需要相信,无论现在还是将来,在大多数冲突中,占主导地位的技术强国都将是可靠的好人:军事技术是好的,因为军事技术是由美国制造和控制的,美国是好的。作为一个电子/会计师,是否需要成为一个美国最大主义者,把一切都押在政府现在和未来的道德以及国家未来的成功上?
另一方面,我认为在思考如何降低这些风险时需要新的方法。OpenAI 的治理结构就是一个很好的例子:它看似用心良苦,既要盈利以满足提供初始资金的投资者的需求,又希望有一个制衡机制来防止 OpenAI 做出有可能让世界陷入混乱的举动。然而,在实践中,他们最近试图解雇Sam Altman的举动让这一结构显得非常失败:它将权力集中在一个不民主、不负责任的五人董事会中,他们根据秘密信息做出关键决策,并且在受到威胁之前拒绝透露任何细节。不知何故,这个非营利性董事会玩弄权术,以至于公司员工临时成立了一个事实上的工会……站在亿万富翁首席执行官一边反对他们。
我看到太多拯救世界的计划,都是赋予一小撮人极端而不透明的权力,并希望他们明智地使用这些权力。因此,我发现自己被一种不同的哲学所吸引,这种哲学对如何应对风险有详细的想法,但它寻求创造和维护一个更加民主的世界,并试图避免将中央集权作为解决我们问题的首选方案。这种哲学比人工智能更为宽泛,我认为,即使在人工智能的风险担忧被证明在很大程度上毫无根据的情况下,它也能很好地适用。我将以 d/acc 作为这一理念的名称。
这里的 “d “可以代表很多方面,尤其是国防、权力下放、民主和差异。首先,把它与防御联系起来,然后我们就能看到它与其他解释的联系。
有利于防御的世界有助于健康和民主治理的蓬勃发展
思考技术宏观后果的一个框架是看防御与进攻的平衡。从广义上讲,有些技术使攻击他人变得更容易:做一些违背他人利益的事情,让他人觉得有必要做出反应。而另一些技术则使防御变得更加容易,甚至可以不依赖大型中央行为体进行防御。
一个有利于防御的世界是一个更美好的世界,原因有很多。首先当然是安全带来的直接好处:更少的人死亡,更少的经济价值被破坏,更少的时间浪费在冲突上。但不为人所重视的是,一个有利于防御的世界更容易让更健康、更开放、更尊重自由的治理形式蓬勃发展。
瑞士就是一个明显的例子。瑞士通常被认为是现实世界中最接近古典自由主义治理乌托邦的国家。大量权力下放到各省(称为 “州”),重大决策由全民公决决定,许多当地人甚至不知道谁是总统。这样一个国家如何在极具挑战性的政治压力下生存下来?部分原因在于出色的政治策略,但另一个主要原因则是多山的地形非常有利于防御。
詹姆斯-C-斯科特(James C Scott)的新书《不被管理的艺术》(The Art of Not Being Governed)中著名的佐米亚(Zomia)无政府主义社会就是另一个例子:他们之所以能够保持自由和独立,在很大程度上也要归功于多山的地形。与此同时,欧亚大草原则与治理乌托邦截然相反。萨拉-佩恩(Sarah Paine)关于海洋强国与大陆强国的论述也提出了类似的观点,不过重点是作为防御屏障的水而不是山脉。事实上,瑞士和岛国共同拥有的自愿贸易的便利性和非自愿入侵的困难性,似乎是人类繁荣的理想选择。
我在为以太坊生态系统中的二次融资实验提供建议时发现了一个相关现象:特别是 Gitcoin Grants 的融资轮。在第四轮融资中,一些收入最高的受助者是推特上有影响力的人,有人认为他们的贡献是积极的,也有人认为他们的贡献是消极的,由此引发了一场小型丑闻。我自己对这一现象的解释是,这其中存在着一种不平衡:四方资助允许你发出信号,表明你认为某件事情是公共利益,但却无法发出信号,表明某件事情是公共坏事。在极端情况下,一个完全中立的四元资助体系会为战争双方提供资金。因此,在第五轮,我提议 Gitcoin 应该包含负贡献:你支付 1 美元,就可以减少某个项目获得的资金数额(并暗中将其重新分配给所有其他项目)。结果:很多人都不喜欢。
在我看来,这似乎是更大模式的一个缩影:建立去中心化治理机制来处理负外部性,在社会上是一个非常困难的问题。暴民正义是去中心化治理出错的典型例子,这是有原因的。人类心理的某些特点使得应对负面因素比应对正面因素更加棘手,也更有可能出大错。这也是为什么即使是在高度民主的组织中,如何应对负面影响的决定也往往由集中化的董事会做出。
在许多情况下,这一难题正是 “自由 ”这一概念如此宝贵的深层原因之一。如果有人说了冒犯你的话,或者他的生活方式让你觉得恶心,你所感受到的痛苦和厌恶是真实存在的,你甚至会觉得被打一拳也没有接触到这些东西那么糟糕。但是,试图就哪种冒犯和厌恶可以被社会采取行动达成一致,其代价和危险远比提醒自己某些怪人和混蛋是我们生活在自由社会的代价要大得多。
但有时,“忍气吞声”的做法并不现实。在这种情况下,防御性技术有时是另一个值得关注的答案。互联网越是安全,我们就越不需要侵犯人们的隐私,也不需要使用不正当的国际外交手段来对付每个黑客。我们越能开发出个性化的工具来屏蔽推特上的人,开发出浏览器内的工具来侦测诈骗,开发出集体工具来辨别虚假信息和真相,我们就越不需要为审查而斗争。我们制作疫苗的速度越快,我们就越不必因人们是超级传播者而对他们穷追猛打。这样的解决方案并不适用于所有领域–我们当然不希望世界上每个人都必须穿上真正的防弹衣——但在我们可以建立技术使世界更有利于防御的领域,这样做的价值是巨大的。
这一核心思想,即一些技术有利于防御,值得推广,而另一些技术则有利于进攻,应予以阻止,起源于有效利他主义文献的另一个名称:差异化技术发展。牛津大学的研究人员在 2022 年对这一原则进行了很好的阐述:
将技术划分为进攻性、防御性或中性,难免会有不完善之处。就像 “自由 ”一样,人们可以争论社会民主党政府的政策是通过征收重税和胁迫雇主来减少自由,还是通过减少普通人对多种风险的担忧来增加自由。核武器有利于进攻,但核能则有利于人类福祉,且进攻防御中立。不同的技术可能会在不同的时间范围内发挥不同的作用。但与 “自由”(或 “平等”,或 “法治”)一样,边缘的模糊性与其说是反对该原则的论据,不如说是更好地理解其细微差别的机会。
现在,让我们看看如何将这一原则应用到更全面的世界观中。我们可以将防御技术视为其他技术一样,分为两个领域:原子世界和比特世界。原子世界又可以分为微观(即生物学,后来是纳米技术)和宏观(即我们传统上认为的「防御」,但也包括有弹性的物理基础设施)。我将比特世界分割在不同的轴上:原则上很容易达成共识,攻击者是谁?有时很容易;我称之为网络防御。在其他时候,这更加困难;我称之为信息防御。
宏观物理防御
在宏观领域,最被低估的防御技术甚至不是铁穹(包括乌克兰的新系统)和其他反技术、反导弹军事硬件,而是弹性物理基础设施。核战争造成的大部分死亡可能来自供应链中断,而不是最初的辐射和爆炸。在过去一年半的时间里,像 Starlink这样的低基础设施互联网解决方案在维持乌克兰的连接方面发挥了至关重要的作用。
制造工具,帮助人们独立或半独立于漫长的国际供应链而生存,甚至过上舒适的生活,这似乎是一种有价值的防御技术,而且这种技术用于进攻的风险很低。
让人类成为多行星文明的追求也可以从 d/acc 的角度来看待:至少让我们中的一些人在其他星球上自给自足地生活,可以增强我们的复原力,防止地球上发生可怕的事情。即使这一愿景被证明暂时不可行,但为使这一计划成为可能而需要开发的自给自足的生活形式,也很可能被用来帮助提高我们在地球上的文明复原力。
微物理防御
特别是由于其对健康的长期影响,Covid 仍然是一个令人担忧的问题。但 Covid 远非我们将面临的最后一种大流行病;现代世界的许多方面都表明,更多的大流行病可能很快就会到来:
人口密度越高,空气传播的病毒和其他病原体就越容易扩散。流行病在人类历史上相对较新,大多数流行病始于几千年前的城市化。持续快速的城市化意味着未来半个世纪人口密度将进一步增加。
航空旅行的增加意味着通过空气传播的病原体会迅速扩散到世界各地。人们迅速变得越来越富裕,这意味着航空旅行在未来半个世纪可能会进一步增加;复杂性建模表明,即使是微小的增加也可能产生巨大的影响。气候变化可能会进一步增加这种风险。
动物驯化和工厂化养殖是主要的风险因素。麻疹可能是在不到 3000 年前由一种牛病毒进化而来的。如今的工厂化养殖场也在培育新的流感病毒(同时也助长了抗生素抗药性,对人类的先天免疫力造成影响)。
现代生物工程更容易制造出新的、毒性更强的病原体。Covid 可能是也可能不是从一个有意进行 “功能增益 “研究的实验室泄露出来的。无论如何,实验室泄漏事件时有发生,而且各种工具也在迅速改进,使有意制造极其致命的病毒甚至朊病毒(僵尸蛋白质)变得更加容易。人造瘟疫尤其令人担忧,部分原因是它们与核弹不同,是不可归属的:你可以释放一种病毒,而没有人能知道是谁制造了它。现在,我们可以设计一个基因序列,然后把它送到湿实验室进行合成,并在五天之内把它寄给你。
CryptoRelief 和 Balvi 这两家公司都是在 2021 年意外获得大量柴犬币后成立并获得资金的,它们在这一领域一直非常活跃。CryptoRelief 最初专注于应对眼前的危机,最近则在印度建立了一个长期的医学研究生态系统,而 Balvi 则一直专注于登月项目,以提高我们检测、预防和治疗 Covid 和其他空气传播疾病的能力。++Balvi 坚持由其资助的项目必须采用开源方式++。它汲取了 19 世纪水利工程运动的灵感,该运动战胜了霍乱和其他水传播的病原体,它资助了整个技术领域的项目,这些项目可以使世界在默认情况下更加抵御空气传播的病原体,包括:
远紫外线辐照研发
印度、斯里兰卡、美国和其他地方的空气过滤和质量监测,以及空气质量监测
廉价而有效的分散式空气质量检测设备
研究 Long Covid 的病因和潜在治疗方案(主要病因可能简单明了,但阐明机理和找到治疗方法则比较困难)
疫苗(如 RaDVaC、PopVax)和疫苗伤害研究
一套全新的非侵入性医疗工具
利用开源数据分析(如 EPIWATCH)及早发现流行病
检测,包括非常便宜的分子快速检测
在其他方法失败时使用适合生物安全的面具
其他有前景的领域包括病原体的废水监测、改善建筑物的过滤和通风,以及更好地了解和减轻空气质量差带来的风险。
我们有机会建立一个更坚固的世界,在默认情况下抵御空气传播的大流行病,无论是自然的还是人为的。这个世界将拥有一个高度优化的管道,我们可以在一个月内完成从大流行病开始到被自动检测,再到世界各地的人们都能获得有针对性的、可在当地生产并可验证的开源疫苗或其他预防药物,这些疫苗或药物可通过雾化或喷鼻(这意味着:如有需要,可自行注射,无需针头)给药。与此同时,更好的空气质量将大大降低传播速度,并从根本上防止许多流行病的爆发。
想象一下,在未来,由于公共卫生的基础设施已融入文明的结构之中,因此不必诉诸社会强制的大锤——没有强制或更糟糕的强制,也没有设计和实施不当的强制可能使事情变得更糟的风险。这些世界是有可能实现的,为生物防御提供中等数量的资金就可以实现。如果开发工作是开源的,用户可以免费使用,并作为公共产品受到保护,这项工作就会开展得更加顺利。
网络防御、区块链和密码学
安全专业人士普遍认为,当前的计算机安全状况非常糟糕。尽管如此,我们还是很容易低估已经取得的进展。虽然丢失或被盗的加密货币比我希望的要多得多,但事实是,大多数加密货币十多年来都没有被盗过。最近,情况有所改善:
在用户的手机中植入可信硬件芯片,可以有效地在手机中创建一个更小的高安全性操作系统,即使手机的其他部分被黑客攻击,该系统仍能受到保护。在许多其他应用案例中,这些芯片正被越来越多地用作制造更安全的加密钱包。
浏览器成为事实上的操作系统。在过去十年中,从下载应用程序到浏览器内应用程序的转变悄然发生。这在很大程度上得益于 WebAssembly (WASM)。即使是 Adobe Photoshop,由于其必要性和与 Linux 的不兼容性,长期以来一直被认为是许多人无法实际使用 Linux 的主要原因。这也是一个巨大的安全优势:虽然浏览器确实存在缺陷,但总的来说,它们比安装的应用程序具有更多的沙箱功能:应用程序无法访问计算机上的任意文件。
加固的操作系统。移动版 GrapheneOS 已经存在,而且非常好用。QubesOS 适用于台式机;至少就我的体验而言,它目前的可用性略逊于 Graphene,但正在不断改进。
尝试超越密码。令人遗憾的是,密码很难保证安全,因为它们很难记住,而且很容易被窃听。最近,越来越多的人开始减少对密码的重视,并使基于硬件的多因素身份验证真正发挥作用。
然而,在其他领域缺乏网络防御也导致了重大挫折。由于需要防范垃圾邮件,电子邮件在实践中变得非常寡头垄断,很难自行托管或创建新的电子邮件提供商。包括 Twitter 在内的许多在线应用程序都要求用户登录后才能访问内容,并屏蔽了 VPN 的 IP,这使得以保护隐私的方式访问互联网变得更加困难。软件中心化的风险还在于 “武器化的相互依存”:现代技术倾向于通过中心化的咽喉点,而这些咽喉点的运营者则利用这种权力收集信息、操纵结果或排斥特定行为者——这种策略目前似乎甚至被用来对付区块链行业本身。
这些都是令人担忧的趋势,因为它威胁到了我一直以来对自由和隐私的未来寄予的厚望之一,尽管这两者之间存在着深刻的权衡,但未来仍可能是光明的。戴维-弗里德曼(David Friedman)在《不完美的未来》(Future Imperfect)一书中预测,我们可能会得到一个折中的未来:人际世界将受到越来越多的监控,但通过加密技术,网络世界将保留甚至改善其隐私。不幸的是,正如我们所看到的,这种反趋势远未得到保证。
这正是我本人强调区块链和零知识证明等加密技术的原因所在。区块链让我们可以利用 “共享硬盘”创建经济和社会结构,而不必依赖中心化的行为者。加密货币可以让个人存钱和进行金融交易,就像在互联网出现之前使用现金一样,而无需依赖可能会随意改变规则的可信第三方。加密货币还可以作为一种后备的反欺诈机制,即使对于没有或不想暴露自己肉体空间身份的用户来说,攻击和垃圾邮件的成本也很高。账户抽象,尤其是社会恢复钱包,可以保护我们的加密资产,以及未来可能出现的其他资产,而无需过度依赖中心化的中介机构。
零知识证明可用于隐私保护,允许用户在不泄露私人信息的情况下证明自己的事情。例如,将数字护照签名包裹在 ZK-SNARK 中,就能证明你是某个国家的唯一公民,而不会泄露你是哪个国家的公民。这样的技术既能让我们保持隐私和匿名的优势——这些特性被广泛认为是投票等应用所必需的——同时还能获得安全保证,打击垃圾邮件和不良行为者。
建议设计一个 ZK 社交媒体系统,在这个系统中,可以对用户进行管理和惩罚,而无需知道任何人的身份。
Zupass 是在 Zuzalu 孵化的一个实践的优秀例子。数百人已经在 Zuzalu 使用过这个应用程序,最近又有数千人在 Devconnect 购票时使用过,它可以让你持有门票、会员卡、(不可转让的)数字收藏品和其他证明,并在不泄露隐私的情况下证明这些东西。例如,您可以证明自己是 Zuzalu 的唯一注册居民或 Devconnect 门票的持有者,而不会泄露您的其他信息。这些证明可以通过二维码当面出示,也可以通过数字方式登录 Zupoll 等应用程序,Zupoll 是一个匿名投票系统,只有 Zuzalu 居民才能使用。
这些技术是 d/acc 原则的绝佳范例:它们允许用户和社区在不损害隐私的情况下验证可信度,并在不依赖中央控制点的情况下保护自身安全,因为中央控制点会自行定义谁是好人,谁是坏人。与当今常用的技术(如歧视被认为不值得信任的整个国家)相比,它们能创造更好、更公平的方法来保护用户或服务的安全,从而提高全球的可访问性。如果我们想在 21 世纪保持信息安全的去中心化愿景,这些非常强大的基本原理可能是必要的。研究更广泛的网络空间防御技术,可以在未来以非常重要的方式使互联网更加开放、安全和自由。
信息防御
正如我所描述的那样,网络防御是指有理性的人类很容易就攻击者是谁达成共识的情况。如果有人试图黑进你的钱包,大家很容易就会一致认为黑客是坏人。如果有人试图对网站进行 DoS 攻击,大家很容易就会认为他们是恶意的,在道德上与试图阅读网站内容的普通用户是不同的。但在其他情况下,界限就比较模糊了。在这些情况下,我称之为 “信息防御”,它是提高我们防御能力的工具。
以事实核查(又称防止 “错误信息”)为例。我是 “社区笔记”(Community Notes)的忠实粉丝,它在帮助用户辨别其他用户所发推文的真伪方面做了很多工作。社区笔记使用了一种新的算法,它所显示的不是最受欢迎的笔记,而是最受各政治派别用户认可的笔记。
我也是预测市场的粉丝,它可以在尘埃落定之前实时帮助识别事件的意义,并就哪个方向达成共识。萨姆-奥特曼的 Polymarket 非常有帮助,它对每小时披露的信息和谈判的最终结果进行了有用的总结,为那些只看到单个新闻条目而不了解每个条目意义的人提供了急需的背景信息。
预测市场往往是有缺陷的。而那些愿意自信地表达他们认为明年 “会 ”发生什么的推特有影响力的人,往往更有缺陷。预测市场仍有进一步改进的空间。例如,预测市场的一个主要实际缺陷是,除了最引人注目的事件外,其他所有事件的交易量都很低;试图解决这一问题的一个自然方向是让人工智能参与预测市场。
在区块链领域,我认为我们需要更多一种特定类型的信息防御。。也就是说,钱包应该更有主见、更积极地帮助用户确定他们签署的东西的意义,并保护他们免受欺诈和骗局。这是一个中间案例:什么是骗局,什么不是骗局,这不像对有争议的社会事件的看法那么主观,但它比区分合法用户和 DoS 攻击者或黑客更主观。Metamask 已经有了一个骗局数据库,可以自动阻止用户访问骗局网站:
像 Fire 这样的应用就是更进一步的一个例子。不过,像这样的安全软件不应该需要明确安装;它应该是加密钱包的一部分,甚至是浏览器的默认设置。
由于其主观性更强,信息防御本质上比网络防御更具有集体性:你需要以某种方式加入一个庞大而复杂的群体,以识别什么可能是真实的,什么可能是虚假的,什么样的应用程序是欺骗性的庞氏骗局。开发者有机会进一步开发有效的信息防御,并强化现有的信息防御形式。类似 “社区笔记 ”这样的功能可以包含在浏览器中,不仅可以覆盖社交媒体平台,还可以覆盖整个互联网。
超越 “防御 ”框架的社会技术
在某种程度上,我把其中一些信息技术描述为 “防御”,有理由被指责为偷换概念。毕竟,防御是帮助善意的行为者免受恶意行为者的侵害(或者在某些情况下,免受自然的侵害)。然而,有些社会技术则是为了帮助善意的参与者达成共识。
pol.is就是一个很好的例子,它使用了一种类似于社区笔记(早于社区笔记)的算法,帮助社区在意见分歧较大的子部落之间找出一致点。Viewpoints.xyz受pol.is启发,具有类似的精神:
像这样的技术可以用来对有争议的决策进行更加去中心化的治理。同样,区块链社区也是一个很好的试验场,在这里,这种算法已经显示出了价值。一般来说,关于对以太坊协议进行哪些改进(“EIPs”)的决策是由一个相当小的小组在名为 “所有核心开发人员电话会议 ”的会议上做出的。对于技术性较强的决策,大多数社区成员都不会有强烈的意见,因此这种方式效果还算不错。而对于影响协议经济性或更基本的价值观(如不变性和抵制审查)的更具后果性的决策,这样做往往是不够的。早在 2016-17 年,当围绕实施 DAO 分叉、减少发行量和(不)解冻 Parity 钱包等一系列有争议的决策时,Carbonvote 等工具以及社交媒体投票帮助社区和开发者了解了社区意见的主要倾向。
Carbonvote 有其缺陷:它依赖以太坊持有量来决定谁是以太坊社区的成员,这使得投票结果被少数富有的以太坊持有者(“鲸鱼”)所控制。不过,利用现代工具,我们可以制作出更好的 Carbonvote,利用 POAP、Zupass 邮票、Gitcoin 护照、协议公会会员资格等多种信号,以及 ETH(甚至是单独盯住的 ETH)持有量来衡量社区成员资格。
任何社区都可以使用这样的工具来做出更高质量的决策、找到共同点、协调(物理或数字)迁移或做其他一些事情,而无需依赖不透明的中心化领导。这本身并不是国防加速,但肯定可以称之为民主加速。这些工具甚至可以用来改善人工智能领域主要参与者和机构的治理并使之民主化。
那么,超级智能的未来之路该怎么走?
以上所述都很好,可以让下个世纪的世界变得更加和谐、安全和自由。然而,它还没有解决房间里的大象问题:超级智能人工智能。
许多对人工智能忧心忡忡的人所建议的默认发展道路基本上是建立一个最小人工智能世界政府。其近期版本包括 “多国人工智能联盟”(MAGIC)提案。这样一个联合体如果成立,并成功实现其创造超级智能人工智能的目标,那么它自然会成为事实上的最小世界政府。从更长远的角度来看,还有一些类似 “关键行为 ”理论的想法:我们创造出一种人工智能,这种人工智能会实施一次性行为,将世界重新排列成一个游戏,从那时起,人类仍然是游戏的主宰,但游戏的棋盘在某种程度上更有利于防御,更适合人类繁衍生息。
到目前为止,我所看到的主要实际问题是,人们似乎并不真正信任任何具体的治理机制,认为它们有能力建立这样一个东西。我最近在推特上发起了一项民意调查,询问人们是更愿意看到人工智能被一个单独的实体垄断并领先十年,还是更愿意看到人工智能为每个人推迟十年:
每项民意调查的规模都不大,但这些民意调查在各种来源和选项中的结果却很一致,这足以弥补其不足。在九种情况中,大多数人宁愿看到高度发达的人工智能被彻底推迟十年,也不愿意看到被一个集团垄断,无论是公司、政府还是跨国机构。在九种情况中,有七种情况下,延迟获胜的比例至少是二比一。对于任何寻求人工智能监管的人来说,这似乎都是一个需要了解的重要事实。目前的方法主要是制定许可计划和监管要求,试图将人工智能的发展限制在少数人的范围内,但这些都遭到了民众的反对,这正是因为人们不希望看到有人垄断如此强大的东西。即使这种自上而下的监管建议降低了灭绝的风险,它们也有可能增加某种永久锁定中央集权极权主义的机会。自相矛盾的是,直接禁止极其先进的人工智能研究(或许生物医学人工智能可以例外)的协议,再加上强制要求那些未被禁止的模型开放源代码,以此来减少利益驱动,同时进一步改善获取的平等性,是否会更受欢迎呢?
反对 “让一个全球组织来做人工智能,并让它的管理非常非常好 ”路线的人倾向于采用的主要方法是多神论人工智能:有意确保有很多人和公司在开发很多人工智能,这样它们中的任何一个都不会比另一个强大得多。理论认为,这样一来,即使人工智能变得超级智能,我们也能保持权力平衡。
这种理念很有趣,但我在以太坊生态系统中尝试确保 “多神论 ”的经历确实让我担心,这是一种内在的不稳定平衡。在以太坊中,我们有意识地尝试确保堆栈中许多部分的去中心化:确保没有一个代码库控制着一半以上的权益证明网络,尝试抵消大型赌注池的主导地位,改善地理去中心化,等等。从本质上讲,以太坊实际上是在试图实现自由主义者的古老梦想,即建立一个以市场为基础的社会,利用社会压力而不是政府作为反垄断监管者。在某种程度上,这已经奏效:Prysm 客户端的主导地位已经从 70% 以上下降到 45% 以下。但这并不是什么自动的市场过程:这是人类意图和协调行动的结果。
我在以太坊中的经历与整个世界的经验如出一辙,许多市场已被证明是自然垄断的。有了独立于人类的超级智能人工智能,情况就更加不稳定了。得益于递归式的自我完善,最强的人工智能可能会很快取得领先,而一旦人工智能比人类更强大,就没有任何力量能将事物推回平衡。
此外,即使我们真的得到了一个由超级智能人工智能组成的多神世界,并最终保持稳定,我们仍然会遇到另一个问题:我们会得到一个人类是宠物的宇宙。
幸福之路:与人工智能融合?
最近,我听说了一种不同的选择,那就是不再把人工智能作为独立于人类的东西,而是更多地关注能够增强人类认知而非取代人类认知的工具。
朝着这个方向发展的一个近期例子就是人工智能绘图工具。目前,最著名的人工智能生成图像工具只有一个步骤,即人类提供输入,然后人工智能完全接手。另一种选择是更多地关注人工智能版 Photoshop:在这种工具中,艺术家或人工智能可能会绘制图片的早期草稿,然后二者通过实时反馈流程合作改进。
另一个具有类似精神的方向是 “开放机构架构”(Open Agency Architecture),它建议将人工智能 “大脑 ”的不同部分(如制定计划、执行计划、解释来自外部世界的信息)拆分为不同的组件,并在这些部分之间引入不同的人类反馈。
到目前为止,这听起来很普通,而且几乎每个人都同意,如果有这样的功能就好了。经济学家达龙-阿西莫格鲁的研究与这种人工智能未来主义相去甚远,但他的新书《权力与进步》(Power and Progress)暗示,他希望看到更多这种类型的人工智能。
诚然,这种路线图的后期阶段会变得很奇怪。除脑机接口之外,还有各种通过生物学创新直接改善我们大脑的途径。最终的下一步,也就是两条路线的融合,可能会把我们的大脑直接上载到计算机上运行。这也将是物理安全的终极解决方案:保护我们免受伤害将不再是一个保护不可避免的孱弱人体的高难度问题,而是一个简单得多的数据备份问题。
这样的发展方向有时会引起人们的担忧,部分原因是它们是不可逆转的,部分原因是它们可能会给有权势的人带来比我们其他人更多的优势。脑机接口尤其具有危险性–毕竟,我们谈论的是真正地读写人们的大脑。正因为存在这些顾虑,我才认为,在这条道路上,最理想的领导者应该是注重安全的开源运动,而不是封闭的专有公司和风险投资基金。此外,与与人类紧密相连的增强型人工智能相比,独立于人类运行的超级智能人工智能所面临的所有这些问题都更为严重。由于谁能使用和不能使用 ChatGPT 的限制,“增强型”和“非增强型 ”之间的鸿沟如今已经存在。
如果我们想要一个既超级智能又“人性化 ”的未来,一个人类不仅仅是宠物,而是真正对这个世界拥有有意义的控制权的未来,那么这样的选择似乎是最自然不过的了。此外,我们还有充分的理由来解释为什么这是一条更安全的人工智能调整路径:通过在决策的每一步都让人类参与反馈,我们减少了将高层次规划责任推卸给人工智能本身的动机,从而降低了人工智能独自做出完全不符合人类价值观的事情的可能性。
支持这一方向的另一个论点是,它可能比简单地高喊“暂停人工智能”,而不提供另一条前进道路的补充信息更容易被社会接受。这需要从哲学上转变当前的心态,即触及人类的科技进步是危险的,而脱离人类的科技进步则默认是安全的。但这也有一个巨大的反作用:它让开发者有事可做。如今,人工智能安全运动向人工智能开发者传递的主要信息似乎是 “你应该停下来”。人们可以从事对齐研究,但如今这缺乏经济激励。与之相比,常见的 e/acc 信息 “你已经是个英雄了,就像你现在这样”极具吸引力,这是可以理解的。d/acc 的信息是:“你应该建设,建设有利可图的东西,但要更有选择性,更有意识地确保你建设的东西有助于你和人类的繁荣”,这样的信息可能会成为赢家。
d/acc 与你现有的哲学思想兼容吗?
如果你是e/acc,那么d/acc就是e/acc的一个亚种——只是更有选择性和意图性。
如果你是一个有效的利他主义者,那么 d/acc 就是有效的利他主义者的差异化技术发展理念的再版,不过更加强调自由和民主的价值观。
如果你是一个自由主义者,那么d/acc就是技术自由主义的一个分支,不过是一个更加务实的分支,它对 “技术资本机器 ”更具批判性,并且愿意在今天接受政府干预(至少在文化干预不起作用的情况下),以防止明天更糟糕的不自由。
如果你是格伦-韦尔(Glen Weyl)意义上的多元主义者,那么 d/acc 框架就很容易包含多元主义所重视的更好的民主协调技术。
如果你是一名公共卫生倡导者,那么 d/acc 的理念就能为你提供更广阔的长期愿景,并为你提供与 “技术人员 ”找到共同点的机会,否则你可能会觉得与这些人格格不入。
如果你是区块链的倡导者,那么与十五年前强调恶性通胀和银行相比,d/acc 是一种更现代、更广泛的叙事方式,它将区块链作为建设更美好未来的具体战略中的众多工具之一。
如果你是太阳朋克,那么 d/acc 就是太阳朋克的一个亚种,同样强调意向性和集体行动。
如果你是月球朋克,那么你会欣赏 d/acc 强调通过维护隐私和自由来进行信息防御。
我们是最亮的星
我热爱科技,因为科技拓展了人类的潜能。一万年前,我们可以制造一些手工工具,改变一小块土地上生长的植物,建造基本的房屋。今天,我们可以建造 800 米高的塔楼,将人类的全部知识记录存储在我们可以随身携带的设备中,在全球范围内即时通信,将我们的寿命延长一倍,过上幸福美满的生活,而不必担心我们最好的朋友经常死于疾病。
我相信这些事情都是非常好的,将人类的触角进一步伸向行星和恒星也是非常好的,因为我相信人类是非常好的。在某些圈子里,对此持怀疑态度是很时髦的:自愿灭绝人类运动认为,如果没有人类存在,地球会变得更好,还有更多的人希望看到在未来的几个世纪里,有更少的人类出现在这个世界上。人们普遍认为,人类是坏的,因为我们欺骗和偷窃,参与殖民主义和战争,虐待和消灭其他物种。我对这种思维方式的回答是一个简单的问题:与什么相比?
是的,人类常常是刻薄的,但我们更常表现出仁慈和怜悯,并为我们的共同利益而共同努力。即使在战争期间,我们也经常注意保护平民——当然还远远不够,但也比 2000 年前多得多。下个世纪,非动物性肉类很可能会得到广泛供应,从而消除人类今天理应承担的最大道德灾难。非人类动物并非如此。猫不会因为道德原则而采取不吃老鼠的生活方式。太阳每年都在变亮,预计再过 10 亿年,地球就会因为太热而无法维持生命。太阳是否想过它将造成的种族灭绝?
因此,我坚信,在我们所知道和看到的宇宙万物中,我们人类是最亮的一颗星。我们是我们所知道的即使不完美,有时也会认真努力去关心 “善”,并调整我们的行为以更好地为 “善 ”服务的事物。20 亿年后,如果地球或宇宙中的任何地方还保留着地球生命的美丽,那将是人类的人工智能(如太空旅行和地球工程)成就了这一切。
我们需要建设,需要加速。但是,我们需要提出一个非常现实的问题:我们加速前进的目标是什么?21 世纪很可能是人类的关键世纪,是决定我们未来几千年命运的世纪。我们是要掉进众多陷阱中的一个而无法自拔,还是要找到一条通往未来的道路,让我们保留自己的自由和能动性?这些都是极具挑战性的问题。但我期待着观看并参与我们人类为寻找答案而做出的巨大集体努力。
本文来自MarsBit,经授权后发布,本文观点不代表星空财经BlockGlobe立场,转载请联系原作者。