機械人會超越人類,主宰地球嗎?如果會,會在什麼時候 如果否,又為什麼呢?

時間 2021-05-31 07:47:09

1樓:

其實只要伊拉克把薩達姆乖乖教出來, 把石油交出來, 美國不一定會願意打伊拉克的.

所以, 只要人類給機械人提供了適當的能源, 機械人消耗的總能源佔到地球總可用能源90%的時候, 機械人會給人類多留一點的.

2樓:Lillian

不會。目前人類對生命的認識非常有限。人工智慧這種東西是建立在人類已有的知識體系上的,充滿了侷限性。而人類本身是自然的造物,其精妙到人類本身都無法認識。人類無法戰勝自然。

至於主宰地球。。。。。。。

地球笑彎了腰。

主宰地球是不可能的,人可以做的只是毀滅自己的生存環境最終毀滅自己。人類毀滅之後地球上的其它生命尚有很長的路要走。

3樓:

如果人能造出比人還聰明的機械人A,那麼機械人A也可以造出比它還要聰明的機械人B,以此類推,機械人Z比機械人A要聰明多了,那這個世界不是失衡了嗎?

4樓:chris

前幾天看過乙個人文章說機械人殺死人類打個比方我們讓機械人找鐵機械人都找光了最好發現人類身體也含鐵把人類也殺死了求原文詳解。

5樓:王長噸醬

關於《必然》的讀書筆記1

羅輯思維推薦的書已經到手第三天了。這幾天在北京有點太過充實所以導致看的也很慢。每天也只有睡覺前的一會兒能看個一章。

這本書我是打算精讀的,所以我想記下現在那些一閃而過的感覺,它們與我當下的感觸有關,總覺的在未來再看的時候會很有意思。

意識流的說吧,當我發現自以為獨特想法被別人更準確的闡述的時候,我心裡總是有種莫名的沮喪但同時又有點沾沾自喜。就好像《必然》裡知化這一章提到的關於人工智慧在未來形態的描述。就很符合我之前對所謂「人工智慧」的想象。

這促使了我有了更深一層的「發現」。為了驗證我的發現,我先問了軟體工程師乙個問題。那就是如果用世界上運算能力最強的計算機依次做三道數學題,第一道是1+1=?

第二道是算圓周率第三道是2+2=? 它會完成這個任務嗎?答案是不會,計算機會在第二道題那裡卡死。

這跟計算機的的原理有關,它的能力再強也解決不了無窮無盡的運算。所以當計算機在任務程序中遇到類似無窮盡概念的時候,如果沒有人為干預它們將會「死亡」。所以如果以計算機的視角看待世界的話那麼一定是有限的和封閉的。

人類思維則不同,我們對於無窮盡問題得態度是未可知。我們能夠同時接受有盡和無盡兩種結果。所以我們所面對的世界是無限的和開放的。

這是兩種完全不同的認知模式。海量的資料也許能讓計算機表現的越來越智慧型,但當需求超出它們資料庫的範圍,這些「人工智慧」將再次變得笨拙和不可靠。與計算機借助資料量提公升智慧型的模式不同,我們有自主意識能夠主動吸收需求的知識。

舉個簡單例子,現在人工智慧識別人臉的數量和速度都遠超人類。但是如果乙個資料庫以外的人出現在計算機面前的時候,它要麼給你乙個錯誤答案,要麼無能為力顯示無法識別。這個時候它的表現稱不上「智慧型」了。

而人類會問「你是誰?」目前的人工智慧技術還無法通過提出這種開放式問題的方式來填補它們的未知。因為這與計算機執行的基本原理不符。

所以我推理的結果是,跟人類一樣的人工智慧技術可能根本不會被發明出來。(傳說有一種量子計算機能夠解決隨機和抽象問題,但如果基本原理與普通計算機相同那基於這種量子計算機所發展起來的人工智慧也將面臨同樣的問題)但是並不妨礙《必然》中所說的那種類人工智慧技術的普及和發展。只不過它們仍然都是建立在資料庫之上的。

而且也不能斷言這樣的計算機智慧型不會發展出與人類截然不同的心智和倫理。這些都是未來不可知的「必然」的一部分。

現在想想如果有一天計算機開始問「你是誰?」了。我們是該恐懼還是該驚喜?

6樓:

科幻片看多了!

先拋開人工智慧這個技術問題不談,就假設可以造出高度智慧型的機械人吧,那麼,誰來造的,他會怎麼利用這個成果? 那是機械人統治呢?還是一些人借助機械人這個工具統治其他人呢?

7樓:張國永

如果意識可以選擇所處環境,何必留戀軀殼?如果個人的意識能完全複製、移植的時候,相信你自己也會放棄肉身,選擇乙個永遠不死不滅的客體寄託。

8樓:石炎

作為機械行業的文科女生來說,心目中的機械人是長這樣子的:

可是,無情的現實打擊了我,在工業領域裡,真正使用的機械人是這樣讓我無感的樣子:

這個模型都比實物可愛多了。當初第一次接觸這個行業實物機械人,我是興沖沖的去,然後很傷感的離開。如果,真有一天,世界被這種長筒機械人取代,一堆堆的鋼筋鐵臂,作為感性的文科女生來說,我為這個世界悲哀。

雖然,我的理智也告訴我,這些鋼鐵,將會極大解放了人力和提高了準確度。

9樓:不是青年

碳基的生命有許多的侷限性,目前來看只能在地球生存下去。當生命不得不在星際間尋找出路的時候,把「意識」和「存在」轉移到機械人上或許會是乙個更好的選擇。

10樓:alex chen

我認為一定會發生的,就比如人的感識是什麼時間產生的?這個問題估計誰也說不清楚,物種在開始的時候也是什麼都不知道,進化是一種外界不斷隨機的刺激而得到反應的程序或者結果。人類對計算機在不停地做同樣的刺激,會在乙個不太遠的時間點產生質變。

所以機器產生智力是一定,只是時間問題。

11樓:

文明的演化是無法阻擋的,人類文明一定會過渡到機械人文明的,現在人類的文明財富也會被繼承下去。我們只不過演化分支中的乙個節點罷了,人類短暫的生命,脆弱的身體,有限的處理能力是無法適應未來的宇宙競爭的。

12樓:雨聲敲敲

目前的趨勢是,即使世界上最聰明的聊天機械人,智商都令人拙計。大家可以去試試:

A. L. I. C. E. The Artificial Linguistic Internet Computer Entity

這個人工智慧啊,怎麼說呢。。。他還,機械人他從,我認為啊。。。本質上,這個智商,是欠缺的。。。

50年主宰地球?

Sorry,那是動畫裡的劇情。現在的機械人別說傻了,甚至可以說根本沒有智商,一切都是寫好的程式,自主意識的機械人乙個都沒有。

盼著機械人統治地球還不如盼外星人比較靠譜一點(大霧)。。。

13樓:徐曉軼

機器智慧型能否有突破性進展其實取決於形式邏輯是否能突破到不確定性領域。目前基於經典邏輯發展出來的只能是機器,而做不到類人。智慧型手機不過是帶作業系統的手機,智慧型家居不過是結合了探測器、動作器、裁決器的物聯網。

其自身都具備智慧型,不過是可以讓人注入智慧型而已。也就是說其都只是提供了乙個開放的硬體平台,讓人可以根據環境或自身的需要進行調整,說其智慧型明顯屬於商業宣傳語言

14樓:楊天

未來不是人類統治或消滅機器,也不是機器統治或消滅人類,而是人類和機器共生。最終可能會達到部分器官是機器,部分器官原生的狀態。

15樓:

雖然我不是技術男不太懂當今的高科技但是從邏輯上說我覺得不太可能或者說目前的認知我覺得不太可能因為這等於說人類超越了自我雖然機器可以有類似人類的思維和強於人類的運算和邏輯能力但是人既然可以創造了機器就可以毀滅了機器況且假設人類有這個能力創造出比自己更牛B的物種,那麼人類絕對會在設計中限制機器的某些能力,就像阿西莫夫給機械人設定的三大定律一樣,這好比是機械人的基因,所以我認為人類不會自己創造乙個將來傷害自己的物種。

16樓:itsallright

個人認為不會。

就目前來說,我們所說的「機械人」更多的是機器(自動化裝置)而非人。

自動化裝置雖然具有人類不具備的優勢,可能在部分領域取代人,但這與超越人類有著本質的差別

自動化裝置其再發達也只是協助作用,是人類發明的工具。人工智慧是人類發明的,在短時期內不可能超出人的智慧型。

就算機器能夠達到人腦的智慧型水平,也未必能擁有或者未必能夠理解人類的情感。

個人認為我們需要警惕的是人機不分的現象。

首先,仿生機械人會給社會帶來一定程度的困擾。

另外,我們更應該擔心、也很可能發生的問題是:人的機器化,即題主所說的人類利用基因改造、人機結合等技術來「完善」自己。(相比於機械人超越人類,我認為人的機器化更可能發生)

現在已經有不少人鼓吹,將人類的意識和思想成功移植到機器上,讓機械人代替肉體,並將其視為人類的進化

這是非常非常恐怖的事情。我不是說這件事不可能發生,而是這會給人類社會帶來巨大的威脅。

智慧型機械人會滅亡人類嗎?

雲智AGI 看有沒有在強人工智慧時注意,以便在超人工智慧時向好的方向發展。智慧型機械人是人工智慧的身體。看大腦怎麼想的。 不會.人類不會滅亡植物,動物.原因有很多,1 人類有仿生學研究價值 2 人類的思維方式能思考到一些機器思考不到的隨機思維,可以用於創意研發,3 人類的消耗可以在計畫生育,飲食,等...

如果機械人統治地球,人類能用來幹什麼?

未能穿透裝甲 機械人統治地球?這是20年前的電影題目嗎?很多人說人類會被機械人趕盡殺絕,但我們知道,歷史上的趕盡殺絕都是出現了利益衝突的結果,那麼人類和機械人會有什麼利益衝突的地方呢?或者說,機械人真的有自己的特殊利益嗎?很多人說機械人反抗人類壓迫,但機械人怎麼會認為人類的行為是壓迫呢?我們只不過帶...

為什麼我們會害怕機械人毀滅人類?機械人不可以成為人類文明的另一種存在形式嗎?

現在有人和你說,要把你的器官移植給另乙個人,這樣你雖然死了但是他還活著,你願意麼?不願意。這個人可是比你高比你壯比你年輕比你帥,身家還煊赫,你怎麼就不能去死一下救他呢?有多少人能被這番話說動然後自己去死拯救另乙個人的?換個說法,容易理解的,RB打到中國本土的時候,為什麼先烈要奮起反抗,而不是將RB看...