当前位置:酷我小说>科幻灵异>我真没想当救世主啊> 第238章 量子生命的必然性【加更】
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第238章 量子生命的必然性【加更】(1 / 2)

 反正引力波通讯暂且绝对安全,陈锋倒也没藏着掖着。

半个小时后,完整的基因检测结果出炉,与泰坦院之前对陈锋的分析结果比对也完成了。

相似度……

不,没有相似度,根本就是同一段DNA!

一模一样,无差别一一对应。

这只能是同一个人。

永远不可能有两个人拥有两段一模一样的DNA,这与时间穿越无法实现一样,是永恒的真理。

再结合他所说的话,所做的事……

没有悬念了。

时隔千年……

持续内战389年……

在无敌人工智能蕾那令人无法呼吸的恐怖压力下,无比艰难的苟延残喘一百年……

我们终于又迎了来了一位领袖。

明明已经死去的他,返老还童了,又用了九百年,跨越光年计的距离,再度来到我们身边。

他不但展现出令人膜拜的睿智,还展现出了超卓的个人战斗力,他在地球上为芯片奇袭战殿后,他是唤醒度35%的银河人类,他让所有鹰击战士的实力至少提高了百分之五十,他轻易的点化出唐天心这个无敌统帅,他的出现终止了必然灭亡的全面战争。

他必然会带领我们奋勇前行!

陈锋缓缓起身,双手平举,语调平静。

“各位,我回来了。”

轰!

四百余个平面投影里,大约以十几分钟的跨度,持续性的一片沸腾!

扑通扑通的跪倒声,连成了一片。

这次陈锋再无法阻止任何人。

亦没有人觉得丢脸。

他们跪伏的不是当代某人,而是一个以莫大意志,带着莫大成就,用尽了一生为人类奉献的,来自千年前的伟大古人!

他们的自负轰然崩塌,只剩下盲目的信服。

《晨风》本就让每个人的情绪更容易被激化,他们怎能自抑!

等身边都安顿下来,陈锋环视一圈。

“我即使我!自今日起,直到人类灭亡,亦或是战胜敌人的那天,所有人都要无条件的服从我的指挥,你们可有意见?”

“没意见!”

陈锋点头,“好!下面我说说我的计划。在此之前,我先与你们简单讲一下蕾诞生的过程。我的解决方案,就正来自于这里。”

半个小时后,随着陈锋语气沉重的讲完自己对蕾的所有总结,会议室里出现了短暂的沉默。

火星附近已经知道情况了,遥远的水星基地中人则还在无比煎熬的等待中。

陈锋叹了口气,对身边众人说道:“蕾会出现,并导致牺牲了那么多人,这件事终究还是要怪我,现在我也不知道这结果是好还是坏。如果你们要骂的话,就痛痛快快的骂吧,骂完了我心里也舒坦些。”

万万没想到,竟没人骂他,唐天心捏起他的手掌,看了他一眼,“辛苦你了。”

林布很想给他比个大拇指,但没手,只能隔空点点头,“不怪你。”

董山也道:“是的,没人应该为自己做的贡献而向任何人道歉。发明原子弹的人需要道歉吗?让蕾诞生并不是你一个人的错,而且我们现在不还没输吗?当年的你有那样的惊世才华,可以跨越时代拿出《狂人猜想集》,也能通过不可思议的智慧预知未来,这是你的成就,不是你的罪过。你如果什么都不做,才有错。”

陈锋暗翻白眼。

咋又来了。

我明明都说了是时间线穿越,哎你这人……

算了,错就错吧。

假装真·先知似乎更能鼓舞士气,也不会破坏学者们的知识体系,不然到时候真有无数人跑去研究不可能实现又毫无意义的时间机器,那才叫真个疯魔了。

“好吧是这样的,作为第一个诞生在二十一世纪的银河人类,我提前从宇宙的智慧得到了信息。我知道了入侵者会来,所以我做出那些努力,想让人类早点逃离太阳系,但我失败了,甚至还催化出镭来。”

董山继续接话,再度强调不怪陈锋,“真不怪你。在你的努力下,被困锁在太阳系里的人类提前得到了超出自身文明极限的科技,所以我们付出了巨大的代价,这其实是一种无法违逆的客观规律。至少现在你还有办法对付蕾嘛,总比别的超级智慧好。”

陈锋暗中给老头点赞,真会圆话,是个好捧哏。

不曾想,接下来老头说的话,把他给真的说服了。

董山竟真的分析出了蕾诞生的历史必然性!

老头说,陈锋的那些操作看似很重要,实则只是机缘巧合的催发出蕾,并让她从无数个潜在的超级智能里脱颖而出的药引罢了。

但即便没有陈锋这个药引,如果人类还想拥有如今的科技水平,与镭同等,又或是略输一筹的超级量子智能也一样必然诞生。

历史中的很多东西看似偶然,但那只不过是从结果反推过程而形成的看似偶然的必然。

究其根本原因,却是如今人类的科技水平早已超越了太阳系的极限。

由于人类的基因层面决定了大脑结构,注定了人类在记忆力和严密逻辑推理方面有着无法避免的缺陷。

人类对智能计算机的功能有着无法逃避的绝对依赖。

这种超级智能伴生物在人类前进的道路上必然扮演极其重要的角色,因为它能弥补人类在智慧上最大的短板与缺陷。

她拥有无限接近人类,但却永远无法迈出最后一步的伪·人格。

在人类文明的正常发展中,当地球人活跃在太阳系内时,受制于硬件水平和能量供应,以及更基础的人类科技知识水平的限制,这样等级的超级智慧不可能出现。

当人类文明的水平局限在二十一世纪初期的0.7级文明时,人工智能的问题不会出现。

上一章 目录 +书签 下一页