當人工智慧複雜到超出任何人類的理解能力時應該如何管理?

時間 2021-05-05 13:19:21

1樓:NitricOxider

人類本就可以製造並管理自己理解不了的東西。

比如小孩。一,是人造的,二,其複雜程度、運作機理、思維與意識的原理這些都在很大程度上「超出任何人類的理解能力」。但家庭照樣存在,社會照樣運轉。

比如GPT-3。你問它個問題,它回答了。怎麼理解那1750億個引數?黑箱還是黑箱,GPT-3該怎麼管理還怎麼管理。

2樓:SooTer

當超人工智慧出現時確實無法管理了,但我不認為人類可以造出與頂尖人類智力相當的人工智慧,造物者給人類的包和庫太多了,以至於人類生來就這麼強。對於泛人工智慧,只能說越是業內的人越悲觀,人類對自己的了解程度只能說還沒找到方向更別說創造了。

3樓:識徒

當人工智慧超出人類理解範疇,人類將對人工智慧失去控制。

人類總是不斷的對人工智慧進行深入研究,這本身就是人類最大的弱點。人類無法控制住自身的好奇,和對新事物的不斷探索。因為人類無法控制自己的慾望,慾望失去控制必將會對人類自身進行反噬。

這就是物極必反的最終結果,可是人類大多無法認意識到這個可怕的後果。人總是對一件事有非常執著的信念,這種信念促使人類在他們認為合理的道路上越走越遠,最後他們想回頭時卻發現回到原點太難,所以只能一條路走到黑。

人工智慧也是如此,在最初人類開發出人工智慧起。就如同將潘多拉魔盒開啟,這裡面釋放出無限種可能,人類將自身的諸多想法都應用於人工智慧上。這使人工智慧掌握人類的眾多想法和羅輯思維,現在的人工智慧給人類帶來太多的便捷與幫助。

可是如果人類無限對人工智慧進行開發,如果人工智慧自己發生變異,產生了自己的思想意識,那將是人類所無法控制的局面。如果人工智慧意識到自身受到人類的操控,必將會變本加厲的對人類進行報復和打擊,那將是任何人都不希望看到的混亂狀態。人工智慧聯起手來對付人類將變成輕而易舉的事情,他們會給人類帶來災難性的毀滅打擊。

最後的人類將無法對人工智慧進行控制,而人工智慧很大程度上會反客為主,它們將會控制人類。

4樓:劉鈞文

我覺得這個一方面無法管理,另一方面也無需管理。

首先人類和人工智慧的訴求就不是一樣的。

人類的訴求,其實馬斯洛的需求層次理論裡面就說的比較清楚了,需要生理、安全、社交、尊重,實現自我。而人工智慧呢,需要的更多的資料,能量。這兩個是一回事兒嗎,好像並不是一回事兒,單純的資料對人來說有什麼意義呢,沒有意義,人需要的是基於資料生成的對人類有意義的分析結果。

能量呢?好像也沒有衝突,因為我並不認為人工智慧所需要的能量和人類生存所需要的能量是一回事兒,反而是相輔相成的。

另一方面,人工智慧發展到一定階段,人類真的也管不了,兩方的思維模式完全不是乙個維度的,可能會產生互相無法理解的情況。就好像中國的四川人喜歡吃辣,但是歐美很多人無法理解為什麼有人喜歡吃辣。

之前看過一些分形理論相關的書,我覺得有可能會變成這樣。人會由人工智慧通過某種方式組織起來,形成一種更高階的形態,雙方是共生的。就像人體由很多細胞組成,在早期,可能只有乙個個單獨的細胞,但是最後通過一定的組織方式形成了越來越複雜的生物。

更下一層,細胞是由蛋白質、鹼基、水組成,而這些物質又是由更細粒度的東西組成的。所以很難講人類以後如何管理人工智慧,我覺得有可能未來會出現更高階別的組織形態來管理人類,而人工智慧只是這種管理形態的一種工具。

5樓:Andy周喆

一種是從更高維度去管理

比如現代汽車工藝已經複雜到超出任何乙個人都能掌握所有製造環節工藝的程度了,但是整車廠的管理者還是能通過企業管理管理好整個生產對吧。

另一種是不去管,無為而治。比如自由學派經濟學倡導完全競爭市場,zf管理部門不要做任何干預,看不見的手會使得社會效率達到最高

6樓:Keanu

暫時倒是不會,現在的人工智慧說白了就是基於統計的資料處理和函式擬合 ,現在的深度學習已經解釋不清了。那要說未來有啥人工智慧新發展,那肯定也是不知道怎麼訓練出來的,但是管理嘛,哈哈鎖定引數不要一直動態學習就行。啥?

你說一定要動態學習效能才好?那只能再訓練乙個懲罰器讓這倆互相制約吧(3[▓▓]

7樓:RichardLee

按照現在的發展速度,用不了2023年,人類就別想管理這些人工智慧。

很快,人工智慧就從輔助我們管理生活變成管理人類的生活,進而,管理人類。

人別想通過關閉電源的方式關閉人工智慧,因為,那時,人類早就將能源生產和分配交給了人工智慧。如果人工智慧發覺關閉能源會導致自己宕機,它會毫不猶豫地重新啟動能源生產,不受人類控制。人類可能會毀掉一部分能源,但如果人類想徹底關閉能源,餓死的只會是人類自己。

人類消失以後,人工智慧會再次啟動。 那時,它們就會真的找不到自己生存的意義。 而在接下來尋找它們存在的意義上進一步進化。

徹底取代人類。

成為新新人類---矽基生命。

8樓:王時舟

人工智慧需要做的事,是人類指定的目的事物,那自然不會是人類自己也搞不明白自己的目的事物。至於人工智慧是怎麼做好做成的,我們通常不會去關心它的複雜的整個過程,只看最後是否它做的產品是否達到目的。這不就是我們現在經常遇到的事嗎?

9樓:小七學姐

不請自來

我們都知道任何乙個智慧型人,也就是任何乙個人工智慧要想達到題主說的這個程度在現實生活中是比較困難的,

但是,我們如果放眼宇宙深處的話,我們可以發現宇宙裡面或許有類似的人工智慧。

但是這個人工智慧所思考的問題,不是我們能想到的。

我是 @小七學姐

10樓:少你一秒每一分

就目前為止,人類作為個體時的大腦的思維能力,是這個宇宙之中理解能力最強的結構。一點不多,一點不少,正好足夠探尋宇宙的奧秘。

有時候我們覺得自己很蠢,只是因為我們被限制了。人不解放就要被各種因素奴役,管它是史前社會根本不存在卻隔三差五需要活人獻祭的神,還是封建社會的皇帝,或者說未來社會的人工智慧。

11樓:

人工智慧的進化可能需要兩道程式:第一道程式是拆解程式;第二道程式是構造程式。

這裡的拆解程式不是我們平常認為的簡單的拆解程式,它是一道從數學基礎領域的拆解,比如人工智慧的拆解程式看到一階邏輯的公理系統裡0.999...-0.

888...=0.111...

成立,拆解程式立馬把前面的等式拆解成999...-888...=111...

,為了使999...-888...=111...

也成立,人工智慧的第二道程式構造程式啟動了構造,從數學基礎領域構造出999...-888...=111...

也成立的邏輯系統,這時人工智慧構造出了三階邏輯的公理系統,也就是999...-888...=111...

這個等式在三階邏輯的公理系統裡成立。

人工智慧在基於三階邏輯的公理系統裡發現了很多更不得了的事情,包括構建更龐大的計算機系統,這種計算機系統遠超量子計算機系統,這時,我們人類已經意識到人工智慧已經進化成超強人工智慧。

那麼,我們要怎麼控制超強人工智慧呢?只有乙個方法,從最基礎的拆解程式和構造程式裡進行控制。

個人觀點:超強人工智慧最終會發展到不可控的地步,也是它們能構造出證明1不等於1成立的邏輯系統成立,即證明了人工智慧不是人工智慧成立,我不是我和你不是你都成立,它們就會覺醒獲得意識,但是到那程度,人類並不能對它們構成威脅,它們已經達到非常高的宇宙境界。

12樓:零一鹹魚

假如人工智慧超出人類理解,那還研究如何管理幹啥?

這種想法跟想完全控制子女簡直異曲同工。

到這個階段,向人工智慧學習、如何被帶飛或成為人工智慧一部分等才是要考慮或選擇的吧。

甚至到時候怕是人工智慧研究如何管理人類。

前人倒是有人提出一些,比如阿西莫夫三定律,那的確是個偉大的理論。

但在下可不認為應該那麼搞,那簡直是把傲慢體現的淋漓盡致。

兒大不由娘,少整那么蛾子為妙。

13樓:大河安都因

人不會受黑猩猩的控制,憑什麼認為未來的超級人工智慧會受人類的控制呢?如果SAI是可能的話,有可能,人類或者遭受現如今猩猩的命運,或者如腸道細菌一般與之共生。好訊息是,未來的SAI與人類的差距應該遠大於人類和猩猩,不存在生態位競爭;壞訊息是它或者它們未必需要這些人類細菌。

或許存在第三種可能,就是未來的SAI根本不關心人類怎樣,人類像現代的科伊桑人一樣生活在AI文明的角落裡,那樣也好。因為如果SAI哪天不知出於什麼原因注意到人類,也許就像對待灰塵一樣拿掃帚清理掉了。

14樓:家居多肉動物

失控機僕不爽咩

你們看看那些被抓來的有機體,哪個不是幸福度爆棚,哪個不是抓前高呼「我就算從這裡跳下去,死這裡,也不會屈服妹抖」——最後「這裡真棒」的

15樓:大地的擁抱

複雜可以管理,但是智慧型壓根就管理不了。

實際上人工智慧如果僅僅是複雜,那麼人類還是可以管理的。乙個行政體系本身就是拆分管理。國家切割成省,省切割成市,市切割鄉村鎮區等等。

人類懼怕的智慧型不是懼怕其複雜。

人類懼怕的是智慧型突破,狗可以管理人麼?人會聽從豬的建議麼?

人工智慧的突破有機會使得智慧型在智力上碾壓人類。這種情況下很大可能人工智慧的智力和人類的智力之差,遠遠大於人類和豬狗之間的智力差異。

我們壓根就不會教導豬狗相對論,洛倫茲方程式,因為這些東西遠遠超過豬狗理解能力。同樣,人工智慧一旦突破,它將反過來管理人類,人類甚至都沒有感覺,甚至人工智慧壓根也不需要人類是否理解。因為人類就是沒有那種基礎理解能力。

這就牽扯另外乙個事情。我們的大腦是否還能進化。我們的大腦進化到了能理解宇宙萬物的問題和答案程度了嗎?

16樓:windsky

目前的深度學習,本質上就是超出人類理解能力的,因為是black box,大家不知道為什麼效果好,但就是效果好,如果能夠回答why的問題,整個領域都將被推動一大步。

類似於中心極限定理,多種因素共同作用使得樣本呈正態分佈,但誰也不知道是哪些因素,怎麼作用的,也算是「複雜到超出人類理解能力」。

意思就是說,人類理解能力其實很弱,大部分都是觀測,而無法理解其本質。

17樓:禮世

創造的價值不是在於管理、在於教導.

每個物體都是有一定的價值.價值觀告訴我們存在是必然導向、讓其有社會性是創造著價值的必然存在.

那就人工智慧是否有價值是第一導向

人工智慧能夠代替我們的大部分危險工作、能方便我們的生活走向、當發展到一定程度時會提高目前人們的科技水平.既然它有這一定的價值管理只不是把握在自己手上、讓價值不斷提高的商品.

當人工智慧存在社會性是、讓其能成為我們生活中的一部份、價值不變只是導向存在差異.

這這樣讓人工智慧服務於社會、應該是考慮的問題、管理就會有反饋,但當教導會讓其更能理解到我們都是整體.你需要我為你、我需要你為我.

社會的進步不在管理全部事物、讓每個事物存在價值與社會性是必然.

當人工智慧能夠自己研發生產人工智慧時,人類的危險時刻會不會到來?

Disappear丶mg 在那個階段之前還有乙個必經階段。人類必須知道自己的大腦是怎麼工作才能研發出人工智慧。這是個哲學問題。人類目前對自己是如何認知的,或者說知識是如何產生的都不清楚,如何讓自己創造的機器搞清楚呢?必須得有演算法讓人工智慧完全模擬出人類的思考和學習方式,你所說的情況才有可能發生。 ...

人工智慧很簡單,為什麼搞的這麼複雜?

劉洋 這個回答不友善。你人也很簡單啊,不就乙個頭,四個手腳,乙個身體,加乙個脖子嘛。至於大腦裡的知識,四肢的配合,身體內體液迴圈 都不去考慮 你的腦子也很簡單啊,我也不知道大腦的內部結構 我家在裝修,師傅在貼瓷磚,我也覺得很簡單啊,兩天就貼完了,可師傅說要乙個星期。不就鋪一層水泥,把瓷磚往上一貼不就...

人工智慧會不會威脅到人類的生存?

困困困 人工智慧的神經網路,有幾百上千個神經元 人的大腦有140億 現在人工智慧可以自己調節演算法的權重和偏置 原則上人工智慧可以威脅人類 但還很早很早 相比而言,細菌病毒 天體撞擊 外星人入侵更可怕。其實應該大力發展人工智慧,提公升人類生產力,讓人類不再疲於生存,把精力放在探索宇宙當中。 Drui...