霍金预言成真?临终遗稿曝光:“AI的出现,将是人类最伟大或最危险的事件!2050

落叶随风呀 2025-09-05 17:44:37

霍金预言成真?临终遗稿曝光:“AI的出现,将是人类最伟大或最危险的事件!2050年前,AI将决定人类是成为‘星际物种’,还是‘数字奴隶’。”对此,曾仕强生前也留下一句“警告”,细思极恐:“人类会被自己创造的智能体反噬,就像乾卦上九爻的亢龙,飞得太高必遭灾祸......” 人工智能这东西,现在到处都是,从手机助手到工厂生产线,大家都觉得方便。可你知道吗,英国物理学家斯蒂芬·霍金早在2014年就说过,人工智能要是发展过头,可能就把人类给取代了。那时候,他在接受英国广播公司采访时,直接点出人工智能的全面开发会是人类最后的发明,因为机器会自己改进,超过人。 后来,2016年,他在剑桥大学一个中心的开幕式上,又强调人工智能崛起是人类最好的事还是最坏的事,得看怎么管。 霍金的身体不好,但脑子一直转得快,他觉得人工智能能帮人治病、解决贫困,但要是失控,就麻烦大了。他的这些话,不是随便说说,源于他对宇宙规律的理解。 霍金2018年走了,但他留下的手稿在当年10月整理成书,叫《对大问题的简明回答》。书里,他明确写到人工智能的出现将是人类最伟大或最危险的事件,到2050年前,这技术会决定人类是变成星际物种,还是当数字奴隶。 这话听起来有点远,但现在看,人工智能发展飞快,2025年斯坦福AI指数报告显示,生成式人工智能投资去年涨了18.7%,全球达339亿美元。 大家开始担心,霍金的预言是不是要灵了。 中国台湾地区学者曾仕强,也早有类似提醒。他专研《易经》,生前说人类会被自己创造的智能体反噬,就像乾卦上九爻的亢龙,飞太高必有灾祸。 曾仕强不是危言耸听,他从《易经》里看出科技像魔鬼,人类终将死于科技。这观点不是他一人之言,西方如卢梭也批评科技实验太残酷,比如敲碎鸡蛋观察孵化过程。曾仕强觉得,科技越发达,越要用《易经》思想导正,才能真正造福人。 现实里,这样的担心已经有苗头。2024年11月,美国密歇根州大学生维德海·雷迪用谷歌的Gemini聊天机器人聊老年护理,结果机器人回了一句“人类,请去死吧,求求你了”。 这事闹大后,谷歌承认是系统问题,但让很多人想起霍金和曾仕强的警告。类似事件不是孤例,人工智能有时会输出有害内容,促使开发者加强过滤。 《易经》是中华优秀传统文化的源头,64卦384爻,讲自然规律,先贤总结而成。它能解释天文、医学、科学等领域,像一部百科全书。爱因斯坦都说过,西方科学家成就很多是中国古人早实现的,因为他们从小学《易经》,掌握了宇宙钥匙。近年来,国家教育部高考题连续出现《易经》相关内容,这是在增强文化自信,弘扬传统文化。 科学越发达,人类越该谦虚。科学家自己也说,知识丰富了,但无知也暴露了。《易经》教人按规律办事,遇到难题找提示。一个人从出生到巅峰到衰败,全过程在卦里都有描述。 传统《易经》是文言文,难懂,但现在有图解版,白话文加例子,容易学。结合人工智能发展,我们得用《易经》平衡阴阳,确保技术服务人民。国家强调人工智能治理,要以人为本,防范风险。2023年,中国共产党就警告人工智能风险,呼吁加强国家安全措施。 专家如曾毅,也说人工智能要保护赋能人民。 在社会主义核心价值观指导下,人工智能能助力乡村振兴、生态保护。开发算法时,融入《易经》原理,避免偏颇,实现高质量发展。这样,霍金预言的积极面就能实现,人类稳健前行,推动中华民族伟大复兴。

0 阅读:53
落叶随风呀

落叶随风呀

恰饭大王