人類應不應該控制人工智慧的發展?若出現強人工智慧可能出現什麼嚴重問題?

時間 2021-05-30 08:20:21

1樓:一水

我認為應該發明人工智慧,原因有三:

第一,技術已經到這了,發明人工智慧是遲早的事情。

第二,人工智慧顯然對於人類生活可以提供極大的便利,而獲得便利是一切文明發展的總邏輯。

第三,人工智慧對人類也有弊端,前期的負面影響主要在於就業,中期的負面影響主要在於社會結構,如家庭,後期的負面影響主要在於生存。但是這三個弊端,也是可以避免的,一方面,人類可以開拓新的職業形態、社會結構和生存方式,另一方面,強人工智慧一旦智力超越人類之後,其道德水平也將超越人類。因此,我們對這些弊端不必過於悲觀。

2樓:DireWolf

就算你想控制也控制不來啊。

現在各個行業,不都在向著更好的技術同步發展嗎?強人工智慧不會是乙個行業乙個學科甚至乙個人的創造,是技術進化使然。技術進化帶來的是更大的經濟效應,放棄技術進化,就等於乙個國家的落後,就等於乙個企業的滅亡,就等於自殺。

其實也很無奈,即使你只是想安安穩穩過日子,你也的確能安安穩穩過日子,那也不代表全世界都停下來去過詩意般的田園生活啊。你能輟學不上課嗎?你能不上班嗎?

你敢試試嗎?先不說願不願意,你敢了,又有幾個人敢呢?

地球照樣指著北極星轉啊~

3樓:有態度的喬幫主

非專業人士,正在努力往專業方向發展,我就從其它角度隨便講講吧。

其實關於人類不遺餘力發展人工智慧,我一直覺得這是件既沉重又滑稽的事情——

人類的智力巔峰,用於製造取代自己的物種。

雖然現在這個技術看起來離我們還有點遙遠(特別是強人工智慧),但是真正實現卻幾乎是必然的。縱觀歷史上所有人類的造物,即使經過再多的完善、修改、優化,也總歸會有一定失控的機率。比如汽車失靈、計算機崩潰、甚至核電洩漏等等,這些都是造物失控的結果。

人工智慧。。。當和人工生命結合,具備了自我學習、自我修復甚至自我複製的能力之後,一但出現失控——即使乙個小小的事故,也會自我放大、暴走然後構建乙個新的成規模的體系出來。很多人其實都意識到了這個問題的存在,根據墨菲定律,不管這個機率多小,但也幾乎是必然的。

可以說,人類被取代是毫無疑問的。

所以當你問到「人類應不應該控制人工智慧的發展」這個問題的時候,我覺得回答起來真的很沉重——人類在某種不可抗拒的命運指引下,努力將自己淘汰,以完成整個自然界的輪迴發展規則。對於整個人類的維度來說,這已經是必然的事情;只有作為個體,才有應不應該的態度。

強人工智慧的出現,會帶來什麼嚴重問題?我想至少會有這些問題:大規模的失業(人工智慧取代大部分勞動力)、社會關係的重構(人機界限非常模糊,機械人會滲透到社會結構和社會關係中),以及最終取代人類等。

人工智慧專業應不應該讀博士?

人工智慧博士在讀。我勸你不要讀人工智慧博士 至於為什麼?因為 一心功利,就注定你讀博也是平凡的一生。而且勸退乙個搶飯碗的也挺好 作為乙個卑微小獵頭 從我的角度來看這個問題 下面的話只是建議,說的不對可以懟我,別動手,動手別打臉,哇哈哈哈哈哈 想做人工智慧要讀博,跟乙個好的導師,導師給你帶來的資源,以...

人類是否應該限制人工智慧的發展,理由?

已登出 人工智慧本身不會失控,或者說,現在的人工智慧本身離失控還差得遠。就算目前完全沒有影的未來的某天能力追上來了,效能功耗比呢?怎麼跟人腦比?對某些現有生產關係的受益人而言,人工智慧最大的威脅恰恰不是造物本身失控的威脅,反而是造物帶來的生產關係的變化失控,從而對他們的既得利益產生的威脅。資本主義的...

人類應不應該被毀滅

人類應該被毀滅,徹徹底底的粉碎。不過,人類無法被真正意義上的毀滅,因為能量守恆,宇宙輪迴,即使你把它毀滅了,在無盡的時間尺度中它還會回來的。它就是灰太狼。 毛里裘斯大酋長 毀滅,都可以毀滅。知道人類為何至今仍未解開基因組的秘密嗎?因為基因就是一坨沒有注釋的猴子亂打的屎山程式。那為什麼它能運作呢?廢話...