首頁  >  文章  >  科技週邊  >  不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?

不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?

王林
王林轉載
2023-10-21 17:17:031421瀏覽

不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?

不要主動尋找外星人!盡量加快搬離地球的速度!放棄研發人工智慧,否則會為世界招致毀滅。以上,就是已故物理學家史蒂芬‧霍金,留給世人的三大忠告。

也許你會覺得,他的說法難免有些小題大作,甚至是危言聳聽了。但你又是否想過,如果他的這些擔心終成現實的話,世界又會變成什麼樣子呢?

如果你對地外文明有興趣,那麼就一定聽過SETI這個名字。它是一個,利用全球的聯網電腦搜尋地外文明的實驗計劃。自其1999年成立至今,始終在不懈的搜尋宇宙中的可疑訊號。並期待某天,會與某個遙遠的地外文明不期而遇。

但霍金卻認為,這樣做太危險了。任何出現在地球的外星文明,其科技和智慧水平,都將是人類難以企及的。

它們的到來,無疑會與數百年前,哥倫布登陸美洲大陸時別無二致。所帶來的,只會是死亡和毀滅。

不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?

另外,霍金也認為,我們不能只把自己侷限在地球。目前,無論氣候變遷、資源枯竭、人口成長等現實問題,都將成為限制人類發展的關鍵。

因此在他看來,我們應該盡快搬離這裡,並透過星際移民,去往其他行星播撒文明的種子。這,才是保證人類能夠長期存在的最佳途徑。

不僅如此,他還建議不要去開發人工智慧。因為,這很可能會最終給人類招致毀滅。根據霍金的說法,隨著人工智慧的迭代,它們最終可能會發展出自我意識。一旦失控,我們如今在科幻電影中見到的那些恐怖場景,都將在未來變成現實。

不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?

儘管現在,人工智慧的水準還遠遠沒有具備如此恐怖的能力。但隨著不斷的自我學習和完善,它們終將會有超越人類智慧的那一天。屆時,整個地球未來結局的掌控者,也將就此易主。

當然,霍金的忠告並沒有阻止人類探索的步伐。如今,無論尋找地外文明,或是開發人工智慧,都在按部就班的進行著。馬斯克也宣布將與NASA合作,準備開展火星移民計畫。

只是不知道對我們來說,在毀滅與離開之中。最先到來的,究竟會是哪一個!

以上是不要暴露、放棄AI、盡快搬離地球!霍金的這些忠告究竟有何深意?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除