不要主动寻找外星人!尽量加快搬离地球的速度!放弃研发人工智能,否则会给世界招致毁灭。以上,就是已故物理学家斯蒂芬·霍金,留给世人的三大忠告。
也许你会觉得,他的说法难免有些小题大做,甚至是危言耸听了。但你又是否想过,假如他的这些担心终成现实的话,世界又将变成什么样子呢?
如果你对地外文明感兴趣,那么就一定听说过SETI这个名字。它是一个,利用全球的联网计算机搜寻地外文明的实验计划。自其1999年成立至今,始终在不懈的搜寻宇宙中的可疑信号。并期待着某天,会与某个遥远的地外文明不期而遇。
但霍金却认为,这样做太危险了。任何出现在地球的外星文明,其科技和智慧水平,都将是人类难以企及的。
它们的到来,无疑会与数百年前,哥伦布登陆美洲大陆时别无二致。所带来的,只会是死亡和毁灭。
另外,霍金还认为,我们不能只把自己局限于地球。目前,无论气候变化、资源枯竭、人口增长等现实问题,都将会成为制约人类发展的关键。
因此在他看来,我们应该尽快搬离这里,并通过星际移民,去往其他行星播撒文明的种子。这,才是保证人类能够长期存在的最佳途径。
不仅如此,他还建议不要去开发人工智能。因为,这很可能会最终给人类招致毁灭。根据霍金的说法,随着人工智能的迭代,它们最终可能会发展出自我意识。一旦失控,我们如今在科幻电影中见到的那些恐怖场景,都将在未来变为现实。
尽管现在,人工智能的水平还远未具备如此恐怖的能力。但随着不断的自我学习和完善,它们终将会有超越人类智慧的那天。届时,整个地球未来结局的掌控者,也将就此易主。
当然,霍金的忠告并没有阻止人类探索的步伐。如今,无论寻找地外文明,还是开发人工智能,都在按部就班的进行着。马斯克也宣布将与NASA合作,准备开展火星移民计划。
只是不知道对我们来说,在毁灭与离开之中。最先到来的,究竟会是哪一个!
以上是不要暴露、放弃AI、尽快搬离地球!霍金的这些忠告究竟有何深意?的详细内容。更多信息请关注PHP中文网其他相关文章!