想要财运亨通,好运常伴吗?那就赶紧加入我的幸运阵营吧!点赞关注,一起迎接好运的到来!祝您财源广进,万事如意!
但愿苍生俱欢喜不负乾坤万物春。”——古人的诗句,何尝不是我们今时今日,面对科技浪潮涌动时,内心深处最朴素的期盼?当人工智能的触角伸向“超级智能”的边缘,那些曾经仰望星空、探索未知的先行者们,也收起了他们的好奇心,发出了同一个声音:等等,我们得等等!
这可不是什么小打小闹,是全球顶尖的“大脑们”集体发声!从AI领域的“教父”杰弗里·辛顿,到苹果的联合创始人沃兹尼亚克,再到维珍集团的掌门人布兰森,还有前国安顾问、参联会主席,甚至连英国王妃和特朗普的“铁杆盟友”都赫然在列。这阵容,简直是把各行各业的“半壁江山”都请来了,跨越党派、跨越国界、跨越产业,就为了一个共同的呼吁:在“超级智能”这东西被我们搞明白、能控制住、大家也都觉得它安全可靠之前,先停一停,别往前冲了!
听听这联署名单你就知道事儿有多大了。这已经不是硅谷那点事儿了,已经上升到国家安全、全球治理的层面了。这说明什么?说明大家伙儿都意识到,这玩意儿要是失控了,后果可能比我们想象的要严重得多!就有人直白地说,这玩意儿可能导致“人类经济的落伍、权力的剥夺,自由、公民权利、尊严和控制权的丧失,国家安全风险,甚至可能导致人类灭绝。” 嘿,这话听着是不是有点吓人?但仔细想想,当初爱因斯坦说原子弹的威力,谁又曾想得这么明白?
有人会说这不就是算法偏见”或者“就业冲击”那点事儿吗?错了,大错特错!这次大家担心的是更深层次的“系统性风险”。一旦AI的能力全面超越了人类,它的“小算盘”要是跟咱们人类的利益打不响,那可就麻烦了,而且是那种“覆水难收”的麻烦。这跟之前大家担心的,可完全是两个量级的。
其实也不是没人早早地就发出了警报。想想2023年,那会儿AI刚火起来没多久,就有马斯克、沃兹尼亚克那样的“明白人”联合一千多位专家,喊着要“暂停开发更强大的AI至少6个月”。更早一点,霍金老爷子还在世的时候,就跟一帮科技大佬写公开信,说AI的威胁比核武器还大。这话听着沉重,但人家是真看了不少年科技发展,不是瞎操心。
这次联署的名单里还有中国科学院自动化研究所的研究员曾毅老师。他直言不讳地说,“世界尚未准备好迎接不是可控工具的超级智能。” 他这话说的实在,咱们现在还没有拿得出手的科学证据,更没有靠谱的方法来保证这超级智能不会把人类带沟里去。曾老师以前就说过,按现在的趋势,五十年内,超级智能肯定会出现。他更关心的是,当那一天真的到来,人类有没有做好准备?
有人说AI是中立的这事儿曾老师可不认同。他觉得,人类的各种偏见、歧视、仇恨,都会被AI学去。当然,他也看到了另一面:如果AI能被正确地引导,有着“正确价值护栏”,那它也可以是“超级利他的、超级共情的”。甚至他认为,“拥有自我的AI”反而可能让社会更安全。这话听起来有点绕,但细品,是不是有那么点道理?这就像养孩子,你怎么教,它就怎么长。
还有那位图灵奖得主深度学习的大牛约书亚·本吉奥,他也强调,要安全地迈向超级智能,就得在科学上设计出“根本上无法伤害人类”的AI系统。而且,他多次呼吁,公众在塑造AI未来这事儿上,也得有更大的话语权。这话说得太对了!毕竟,这事儿关系到咱们每个人,不是少数专家说了算的。
未来生命研究所FLI)这次还搞了个民意调查,结果更印证了大家的担忧。只有5%的人满意现在“无监管的AI发展现状”,高达73%的人支持更严格的监管,还有64%的人觉得,在科学界没达成共识之前,不应该开发超级智能。看来,老百姓的眼睛也是雪亮的。
现在国际上在这AI风险治理上的分歧也越来越明显了。欧盟搞了个强调透明度和可追溯性的“AI法案”,美国那边则更侧重市场自律。有人觉得,这次联署可能会推动G20或者联合国这些大平台,重新把技术伦理这事儿提上日程,让AI治理从“大家自己玩”变成“一起商量着办”。
这事儿你说蹊跷不蹊跷?那些平时在科技前沿你追我赶、恨不得抢占先机的大佬们,居然能放下身段,站在一起呼吁“暂停”?这说明,当一个事情的潜在风险大到足以威胁到人类的存续时,人类的共同体意识就会被唤醒。这是一种智慧,更是一种责任。
想想咱们中国一直倡导的就是“安全、可靠、可控”和“以人为本”的AI发展。这次咱们的姚期智院士、清华的薛澜院长、张亚勤院长,还有曾毅老师,他们也都签了名,这和咱们国家的理念不谋而合。这说明,咱们走的路,是经过深思熟虑的,是符合人类整体利益的。
咱们不能为了追求所谓的“超级智能”,就把人类的未来当作一场豪赌。科技发展固然重要,但安全是发展的基石。要是连地基都不稳,楼盖得再高,也经不住风雨。
这些科技领袖的呼吁像不像一场集体的“深呼吸”?在奔向未知的前方时,大家停下来,看看脚下的路,问问自己,我们真的准备好了吗?我们有没有足够的智慧去驾驭比我们更聪明的东西?
在技术爆炸的时代我们是不是应该把“慢下来”也当作一种进步?当“超级智能”的幽灵开始徘徊,我们又该如何安放人类的未来?(参考信息来源:《顶级大佬齐呼吁:暂停超级智能研发》综合媒体报道)