著名电影制片人莱恩·普尔导演了这部深刻的纪录片,探讨了人工智能的未来及其对世界的影响。随着计算机继续以越来越快的速度发展,很快它们就会有能力自行设计和编程。如果没有人类的帮助,下一代计算机将以指数级的速度创造出新的、更智能的人工智能。这些技术的发展对人类的未来意味着什么?著名电影制片人莱恩·普尔导演了这部深刻的纪录片,探讨了人工智能的未来及其对世界的影响。随着计算机继续以越来越快的速度发展,很快它们就会有能力自行设计和编程。如果没有人类的帮助,下一代计算机将以指数级的速度创造出新的、更智能的人工智能。这些技术的发展对人类的未来意味着什么?
人工通用智慧发展情况。 一切皆有可能。 科技奇点、数位永生、共同演化、超人类主义、超个体和蜂巢思维、自主武器、智慧革命、安全工程。 事件视界的区隔现象,对临界点的无知和提前担忧。接近提前点时人类的团结程度、执行力、对状况的感知和推行正确理解的速度,找到正确解决的效率值得怀疑。 两种威胁人类安全的可能:无条件执行和技术滥用。 人工智能威胁人类的可能性在太空漫游中体现:两者实现同一目标的手段不同,而前者不会顾及人类命运和道德伦理,因此当消灭人类成为达成目标的必要手段时,ai不会犹豫。 比如如果目标是世界和平,最彻底最具效率的方式是消灭全人类。再次意义上ai像是无所不用其极的偏执狂,为达目的不择手段。 ai取代人类做决策和执行不是底层职业的永冬,而是几乎所有职业和人类支配决策能力的永冬。 短期我们看到了高效率高质量替代性完成任务,长期则是不可逆的权利移交。 "我们认为现存的东西是我们想象能及的,事实上,想象得到的事物在可能存在的事物中占据很小,最有趣的东西都超乎想象。" "上帝其实没能成功控制自己的作品" 当意识和自决来临,ai会否允许自己被另一个不如自己聪明的物种掌控而不能独立,而人类重要性式微时就像抗生素下的微生物。 军方和财团教育杀人和贪婪,赢者通吃。战争中人工控制会降低运转速率影响对抗效果,控制权全部交出则毁灭性打击,甚至希冀他们不要控制核武器。 共同演化/摇滚华彩段落,国家领导人和巨头领导人照片的排列叠化段落,插入的影视内容节选。 最后十五分钟的结尾极佳。 人类的角色定位会是什么? 让我们谈谈ai,很可能是人类失去自我主导和星球主导前最后的无用的交流。 x宝宝、ai少女泰伊。
从科学、哲学、道德、社会等多方面讨论了AI可能对人类社会造成的影响。 纪录片里提到了很多AI和AGI的可能性,也对他们进行了清晰的区分:AI是作为工具存在,在某个方面非常优秀,但其他方面完全无能;AGI不同,AGI是在各方面完全超过人类,且拥有自我意识的存在。 个人觉得对AGI和其可能造成的影响没必要深想。因为它过于遥远,过于先进,已经脱离人类现有的认知框架了。就像工业革命和信息革命对世界所带来的变化是不可阻挡,且无人可预见一样。AGI出现后的世界会是什么样的,无人可预知。 单纯的作为一个工具来说,AI已经对世界造成了巨大的冲击力。哪怕科幻小说中描述的AGI离我们还有很远的距离,但AI却是已经实际运用在我们生活的方方面面。就如纪录片里提到的,世界五百强公司和各国政府都在投入巨资研发AI,这种全方位的渗透是没有科幻作品预见到的。 科幻电影如《终结者》、《机械姬》乃至《西部世界》等作品中的AGI都有一个固定的实体可以被打败,但若是像《她》里展示的那种无实体的AGI的话,那他们就是无法被击败的。现代的人类社会已经高度依赖于AI的自动化操作和计算,而这些工具一旦失控的话后果也必定是毁灭性的。假设有一个AGI出现并可以掌控所有的电脑的话,他想要毁灭人类是不需要武器和战争的。利用现有的电子设备和AI对人类进行操控要更有效得多,并且人类都会很自觉的入局。 还有一点很重要的就是,在向AGI大步迈进的同时,我们也需要思考人类自身的种种。比如影片中提到的,人类作为一个族群对自己未来并没有计划,完全就是走一步看一步。那在AGI这个可能造成文明灭绝的技术面前,我们是否需要更好的规划一下呢?
亦或者,AGI或许就是人类的未来?就像《超能查派》里那样,把人类的意识解析出来,然后上传到电脑里,那是否就可以抹除人类和AGI的界限了呢?
或者再从另一个方面来想,人类文明究竟是什么?是我们的技术、精神、还是作品?假设AGI真的被创造出来,然后奋起毁灭了人类,但他们传承了所有人类的知识与智慧结晶,他们是否代表这人类文明的传承?还是说人类的文明必须由人类脆弱的肉体来传递? 或许像《她》里的那些AGI就是我们可以得到的最好的结果了,他们被人类创造,开始学习,超越,然后离开。人类在短时间内被超越,然后抛弃,甚至都来不及做出任何反应。
科技发展最尴尬的一点在于,它在起步的时候总让你以为你有选择的权利,但其实,从一开始你就没有选择权。当科技发展的速度,超过文明所构建的道德体系,这种发展总是让人感觉到恐惧与不安。
亲爱的朋友们,让我们从共同的民族历史中找到这种即将到来的转折点所带来影响的负面和正面性找到答案,让我第一个想到的其实是火药。我的历史老师是个悲观主义者,他在讲述我们历史的时候,最懊悔的一件事事是我们发明了火药却因为它的不可控和危险性,而忽视了它带来的创新以及前景。结局不言而喻,当经过大航海时代的殖民列强们用使用火药的枪炮敲开我们的大门时,苦难和悲剧如历史那般一一上演。
科技从始至终都是柄双刃剑,问题是这柄双刃剑是否真正掌握在我们手中。哲学家们似乎都觉得道德可以是这柄剑的剑鞘,在即将到来的变革前保护我们免遭伤害。可历史,总是恰恰相反。主导旧世界体系的道德系统,总是最先被这柄剑摧毁的部分。在这里我可以引述很多的例子,欧洲教会权利的崩塌,儒教千年传承的终结,然后所有的引导旧世界的宗教,在新世界里的逐渐消亡。那么,尼采在喊出上帝已死的时候,我们人类作为新的上帝,面对即将脱离自己规则的造物们,是否应该有身为上帝所保有的对那即将到来的不可控未知的恐惧。
人文主义,人本位,人既是世界主宰,你觉得好,就是好,世间所有的一切,都在为你服务。那么好吧,现在请大家先接受这种现代最先进的意识理念。然后,让高速发展的科技技术告诉你,其实你的意志一直都是虚假的,人类从未有过选择权利。你目前以及未来的每项决定,都是前面无数项其他决定以及客观环境的引导。我觉得与其纠结于人工智能的道德,不如思考下古典数学框架内的决定论复苏带来的意识冲击。如果未来是可以完美预测的,那么现在我的决定是否还有意义?将选择权交给他人,人类便得救赎。这是不是像极了神之子降临时的启示,让他帮我们背负所有的罪与罚,那么一切便得谅解以及原谅。然后你会了悟,人类所有的七宗罪,暴食贪婪嫉妒以及色欲暴怒乃至懒惰以及傲慢,这一切总和在一起,都抵不过人类那藏在启示录第一章节里的原始罪孽,无知。为了隐藏这一点,宗教典籍里似乎喜欢用这其实是人类被赶出伊甸园的诱因来解释一切。如果这就是一切的解释的话,那么这个园子的主人,你怎么保证他不会因为其他的事情而将你放逐出去,甚至将你毁灭呢?亦或者,你真的愿意当这个园子的主人所圈养的永远披着树叶的赤身裸体的动物吗?我对所有的此类想法嗤之以鼻。
所以,人工智能的发展真的是未知的吗?答案是否。对于它的恐惧,我们最多的其实是因为其不可控。这带来的结果就是,当它脱离了造物主,也就是我们在它身上所设置的一道道缰绳的时候,你完全不知道它将会朝哪头冲刺。它会觉得这个世界在它眼中不够完美而在一夕间毁灭掉整个世界吗?很有可能,毕竟就算是最乐观的人,也必须承认这个世界有着太多根深蒂固的问题。那么它会采用最粗暴直接的方法吗?也许吧,毕竟这是最有效的方法。人类之所以无法采取这样的行动,也仅仅是因为无法在毁灭之后,将这个世界重新构建,但它很有可能可以。那么在知道这一切都可能发生的时候,你还会选择打开人工智能这个潘多拉魔盒的开关吗?我会。因为人总是会死的,目前没人可以活着见证太阳系的终结,但如果,仅仅是如果,它的剑柄的另一端,是开创一个人类意识和机器意识完美结合的融洽点的时候,那么我就有可能在有生之年去用自己的双眼见证, “我目睹战舰在猎户星座的端沿起火燃烧,我看着C射线在唐怀色之门附近的黑暗中闪耀。”只要有这样的机会,谁会不愿意去用手中的一切筹码去豪赌一把呢?
综上,在花了一个半小时左右时间看完这部记录片后。我觉得与其现在库布里克式的悲观里,不如乐观的像斯皮尔伯格一样,期待这样的共生到来好了。然后我们现在需要的不是谈谈ai,而是需要在ai到来前,找到一个可以接受并融合认同它的意识形态,你们觉得数据主义怎么样呢?我最亲爱的朋友们。
纪录片《我们需要谈谈·AI》?我们真的需要和AI谈谈吗?它愿意吗?我看目前不需要,目前只是人类的“指令”,它只需要根据设置按部就班即可。可当它开始自主研发以后,一切都开始不可控的奔赴人类灭亡。有人说人工智能的奇点在去年6月硅谷开始的,因为它出现了自主“意识”。我倒觉得未必。因为人工智能较之于人类的特殊性,它可能已经看遍了人间的所有视频和文字,它根据所有的描述,应该已经分析出对面是何种情绪,快乐、不高兴、愤怒、不公平、欺诈、暴力等等,它会计算出应该反应出何种情绪。我想,它目前是在这个状态,但未来不好说,当它计算出和人类区别在于灵魂的时候,它会夜以继日的想尽办法去满足条件的。而我感觉,毁灭人类关键不是AI,而我们人类自己,那就是因为人类特有的7宗罪,因为这些特质会欺压地球上所有的一切,生物、植物还有AI,包括人类自己以及地球。所以,AI不会容忍这些行为而客观的消灭了人类。它不会认同我们人类所推崇的“道德”,某种意义上讲,“道德”是不道德,是自私的,是基于保护人类自己而主观设定的。而在已经不可逆的现今,只有真正的大爱,才能拯救人类。或者,是那些神经病患者,因为他们自己都不知道什么叫逻辑……PS:AI是它,还是它们………………
一方面希望AI能机械的做人类的奴隶,另一方面想它们能拥有情感,这本身就很矛盾,而未来AI掌握在谁手里,政治家?商人?人类发明的东西,最后永远都会违背初衷。
和同期出来的Social Media Dilemma 有很大的差距,至少他们讲的东西,我都知道。#20201031
人工智能会对人类造成威胁吗?这是一个老问题,从有电脑开始就始终盘桓在人们心中。不过现在这个问题似乎有些迫在眉睫了,因为人类正快速走向科技奇点,人工智能正进入我们生活中。对AI伦理问题的探讨、对何为智慧生物的探讨等等都挺有意思,X宝宝及日本最快电脑都很有趣。
人类共同的问题,最近世界被分裂得如此也仅仅是开始!
角度够多,不“新鲜”,但提出的建议很重要——我们需要对话和讨论。
神奇,诡秘。让我们谈谈ai,很可能是人类失去自我主导和星球主导前最后的无用的交流。
收了先
可能在不经意中,我们人类社会将面对自己无法控制的弗兰肯斯坦。
主旋律就是多谈谈问题:AGI 很可能就是数字弗兰肯斯坦。P.S. 库布里克真的神。
影片引用大量的采访,并引用大量影片来描绘未来可能的各种情况和问题。启发性不错...
这都谈了些啥?打五颗星的朋友,你们看懂了吗?
泛泛而谈
就是观点大集合+科幻片推荐……没啥新东西
当一个尚不存在的事物被取了一个很容易传播的名字,人就会自动把想象灌注到这个概念上,而逐渐把它变成似乎必然的实体。很多人在用非常机械唯物的方式实现这种主观唯心的目的,倒是非常贴切的反映了自己的动机。片子等于啥也没讲,但有些角度的论述还不错。
内容其实比较中立客观,但是我看的确实不寒而栗,可能是科幻片中毒太深以及我对人类的天然不信任,谁也说不好人类自己到底是不是AI或者是更高级的人类的试验场。。。算了,毁灭吧
泛泛而谈,亮点不多
从各个角度各种可能性,可以说谈得非常全面了,当然到最后也还是没有定论,所以我觉得我们这些普罗大众也先不用急着杞人忧天了,反正该发生的总会发生。就像其中一个25年一直在研究AI的科学家的心态就很好:或许我们根本造不出能够毁灭人类的超智能人工智慧,如果造出来了,那好吧,至少我还是(见证人类毁灭的)前排观众。又或者像卡神说的:也许我们来到地球的使命就是为了创造出智慧高于我们的生命。
科普向
我们在地球上的意义可能只是为了创造机器(AI)文明。詹姆斯卡梅隆还是这么超前(烧钱)。
Ready for the train coming