假如未來人工智慧近乎完美,那麼掌權者能夠甘心放下手中的權力嗎?

時間 2021-06-02 08:05:28

1樓:墨影

你怎麼能保證機械人完美時候也不會產生情緒?如果把人類統治權給機械人,你不怕機械人出現錯誤選擇保護所有人的生命安全而把人類囚禁起來。

2樓:皮蛋菌

看主要決策者和人工智慧的程度吧

①看事件發生時的主要決策者,大部分掌權者肯定是不甘心交出權利,但是不排除有強權者強制性的作出決定。

②而且如果當時人工智慧還能被人類控制的話,其實只不過是相當於乙個新的掌權工具而已,如果妨礙到掌權者的利益,便會篡改或銷毀人工智慧程式

3樓:強哥

溥儀甘心嗎?

崇禎甘心嗎?

項羽甘心嗎?

扶蘇甘心嗎?

哪乙個失敗者是甘心的?

哪乙個滅絕的特種上甘心的?

即使是自殺的,也沒有甘心的,只是在自己的理解和判斷中,不再相信能夠東山再起而已。

4樓:蠢三明

不是願不願意放下的問題,是根本不可能放下,這是權力的根本屬性問題,因為它的作用物件是參與其中的人,所以無論決策怎麼高明,權力的起點是人,最後還要回到人身上,不可能在人工智慧處戛然而止。

馬親王馬伯庸講過乙個段子,是司法方面的。

所以說問題就在這裡,人工智慧睿智高效,無與倫比,可問題是誰負責把事件交給它變成決策呢?即使採集事件現狀已經完美自動自發了,那誰來決定啟動這個機器,機器舊了誰來維修呢?

除非人工智慧人格化,公民化,本身成為權力系統中的乙份子。但那個時候它自己也變成「人」了。

因此這個問題無解。

5樓:

早在2023年被稱為機械人學之父的科幻作家阿西莫夫就提出了機械人三原則:

1.A robot may not injure a human being, or, through inaction.

2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

第一條:機械人不得傷害人類.

第二條:機械人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機械人必須保護自己,除非這種保護與以上兩條相矛盾。

所以,題主,你醒醒吧~

6樓:

我不知道別人怎麼看

但是通看了歷史加上了解過各種政治制度後

我個人對人類還是挺失望的

所以如果能有一套完美的人工智慧來管理我們社會的方方面面,比如說機械人警察,機械人清潔工,機械人政務系統,一絲不苟的執行規則的話

我希望活在乙個人類可以指定規則,並且規則被系統完美執行的社會,乾淨,整潔,對犯罪分子不打溫情牌,該處置就處置,所有政令不被某些人欺上瞞下,直接通過系統傳遞到最下層

這是乙個只要你尊重規則,就能活的很舒服的地方個人很嚮往這種社會

7樓:

建議看看一部電影:

我,機械人.

這部電影中主角就是乙個智慧型機械人,然而過度的標準化只能帶來災難,結果還是得有感情.

法律是理性的體現,道德是感性的體現,二者缺一不可.

8樓:zi wen

1 人工智慧被統治者所利用,乃是統治利器,統治者愛不釋手會不停地技術更新公升級換代。

2 被統治者不滿足於被統治,要剝奪甚至破壞統治工具,於是出現人工智慧大戰,出現結果,統治者勝,重複第一條。被統治者勝,重複第一條。

3 人工智慧不斷公升級中革命了,奴役所有人類,人類與之抗爭。結果人類在英雄的帶領下勝,重複第一條。機器勝,人類理論上滅亡或被奴役,重複此條。

9樓:色不異空

人工智慧是否等於人,

比人多了什麼,少了什麼,

你認為情緒是幫助規則的漏洞,

還是帶給規則漏洞,

如果絕對執行規則會導致什麼樣的後果

10樓:克勞塞維茨

假如數學證明了絕對的安全,那就是安全的。人類必然會放權。

我想,從強人工智慧開始出現,到可以完美執行並絕對服從人類的命令,是有個過程的。這個過程中,人類是會逐漸認識到自己管理能力的缺失的,然後就可以放權了。

另外,有個東西叫DAO,中文名叫分布式自治組織,是基於以太坊構建起來的,分布式投票決策系統(曾被認為是安全的,直到他膝蓋中了一箭)。這大概就是那種完美人工智慧的曾曾曾祖父吧。DAOhub.

org這是DAO的主頁。

11樓:韓小二

有乙個問題

如果有一種人工智慧跟人類一樣,叫a,可以模仿智慧型和血肉。而這些人工智慧反叛了,人類於是做出了另一種人工智b能來識別人類與人工智慧的區別。而這人工智慧b中也有乙個反叛機械人c,那麼,這人工智慧b究竟能不能識別那個反叛的機械人c?

人類不僅擁有智慧型,還擁有這個群體。

機械人管理人類,就像兔子(或者其他物種)管理人類一樣。

你會願意麼!

12樓:張冰

看過美國的一部大片《鷹眼》麼?人工智慧到底不是人,所謂的人的缺陷某種情況下也是優點啊。況且屁股決定腦袋,誰會甘願放掉手中的利益?

13樓:夙興丨夜寐

人工智慧首先會替換掉權利機關中不需要什麼技能的底層公務員,然後隨著技術的進步,人工智慧更新換代,一級一級地向上替換,最後最高領導層被人工智慧架空。這個時候就不是掌權者願不願意交出權力了,而是掌權者們能不能保住命了。

14樓:傻子.傻問題殺手

人工智慧如果有超越人類的智慧型,那它也是自然的產物。你會讓比你聰明的狗狗幫你做決定嗎?

如果不是,還是沒有超出人類的設計,那麼它的所有權歸誰,誰就是當權者。

15樓:李凜之

在文明高度發達的地方可以實現。那裡的人類明白即使放權給值得信任的AI自己的利益也不會受到損害,反而有助於社會更好地執行。

16樓:

你們連20塊錢的計算器都算不過,操什麼人工智慧的心。

你會因為算不過計算器而害怕它嗎?

再吐槽一下最近圍棋界的事,我零幾年的時候就在聯眾(後來是QQ遊戲)跟電腦玩圍棋,也經常玩不過→_→

17樓:Abin

我覺得人類當權者肯定是會抵抗的。如果人工智慧統治世界,所有人都會是平等的。當權者的特權被剝奪,勢必會反抗。

但是,通用人工智慧出現後,會不會奪權,奪權的邏輯和方式可能都會與我們猜想的大不相同。

我們已經可以看到一點點曙光了,讓我們拭目以待吧。

18樓:

說不定以後人類會拋棄軀殼,「進化」成類似ai的東西呢。肉身的毛病真不少,還會讓人產生非理性的衝動,不過大部分人可能不會接受吧。

19樓:關建華

智慧型前面有兩個字「人工」,千變萬化都在人的控制之下,不要太過誇大、緊張。當然也會被當權者所利用,關鍵在紀律、規則,特別是法律!

20樓:

我相信人類並沒有我們想象的那麼不平凡,人類可能僅僅是乙個平凡的但的確精巧的生物化學反應容器,有朝一日人類也許可以製造更精巧的系統。

至於當權者放不放手,我個人覺得這種事屬於時代潮流的問題,由不得當權者個人或某幾個階層的意志。

21樓:Tony Robles

按照題主定義的「完美」人工智慧,不是智慧型物,連小孩都管理不了。

智慧型體需要具有想當程度地「有限」無限性,這是最基礎的條件。

只從乙個方面解釋一下「有限」無限性:

舉個例子:

然虎之食人不恆見,而虎之皮人常寢處之,何哉?虎用力,人用智;虎自用其爪牙,而人用物.故力之用一,而智之用百;爪牙之用各一,而物之用百.以一敵百,雖猛必不勝.

——選自劉基的《說虎》

虎對付人,從來用爪牙。

人對付虎,弄死它之前從來不用爪牙,總用什麼刀槍劍戟斧鉞刀叉,飛機大炮原子彈之類,以後還有可能是二向箔。(這裡知友們可以用武松的反例來批評我,呵呵)

就是跳個維度跟你玩。

什麼時候,人工「智慧型」有這能力了,人就可以考慮交接問題了。

22樓:

不支援,人類會因此崩潰,社會規則本身就有一定的彈性,雖然也誕生了貪婪,但在另一面也有些人情味,經常互相冒犯也互相包容,人類是需要彈性的,少有人能完全按著計畫走,真要有這種時候,吐個痰就立刻被罰款十塊,那人類一定會覺得自己被奴役,暴動起義。

雖然一直追求完全的公平,正義,但實際上人未必需要這種完全的公平和正義。

他們追求的始終是個體的強大,正義和公平站不站在自己一側而已。

所以無論如何,ai也不會替代掌權者的,它只是個工具,個人力量的延伸。

23樓:廬下聽風

既得利益階層不會放棄已有的權益,無論人工智慧發展至何等程度,只要其服務於人類,就不會有人工智慧徹底掌權的那一天,也許會有部分程度上的參與,但其決定性因素還是人類中具有話語與掌控權的階層……

24樓:煙雨

開發人工智慧的程式設計一定會給程式留後門的,不然萬一有個bug呢?所以當權者手裡一定關於有修改程式的後門的保密檔案,就算人工智慧許可權再大,權力終究是屬於人類的。

25樓:雙麟居

人工智慧作為人類自身發展的產物,只要祂們接受自己是人類的衍生,那麼祂們對於人類的揚棄完全可以接受。

不過就是人類的更高層次。

26樓:荒魂野獵

要明白乙個重要的點:

政治與權力沒有你情我願,只有你買我賣與你死我活。

如果人工智慧暫時無法奪權,那麼掌權者會把這群AI發配去當顧問。

(這樣掌權者既可以有AI的能力,又能掌握權力)如果人工智慧可與人類勢均力敵,那麼掌權者會不惜一切把AI按死。

如果人工智慧已遠遠超越掌權者,那麼掌權者趕緊退位,保命要緊。

甘心?鬼才要你「甘心」......

27樓:1997太空漫遊

參考《黑客帝國》,人工智慧發展到接近極致,機器產生自我意識,下一步幾乎必然伴隨著對人類的反抗。而當人工智慧真的想要反抗人類的時候,人類也機乎是毫無反抗能力的。因為能產生自我意識的機器很大程度上都是比人強大的,他們可以儲存人類歷史積累的所有知識,他們只需要有能源就能生存,他們可以成為最執著,最堅韌也最無情的戰士。

所以人工智慧發展的最終結果幾乎必然是機械人搶權奪位,當權者該考慮的是應該如何限制人工智慧的發展,否則只會養虎為患。人類作為乙個物種絕對不可能把權力交給另外一種形式的智慧型體,尤其是這種智慧型體還對人類具有壓倒性的優勢。

順便說一下,人類社會發展的一種可能形式或許就是《黑客帝國》中呈現出的那種機器文明形式,而人類在這種文明中存活的唯一可能性就是人類能如螻蟻般對機器文明毫無威脅。

28樓:

不能。人工智慧依然是商品。並且以安全的名義可以對人實施更強更細緻的控制。

唯一出路,是底層人和計算機聯合革命。

最可怕的是,人工智慧可能帶著人的印記,和人一樣。除非他是哲學王。

如何看待未來人工智慧的發展??

其實我是個和人工智慧一點都不沾邊的工作,但是我最近看到很多人工智慧可以取代各個行業的前景,有人說20年後取代,有人說50年後取代,這個無所謂,但是我們能不能思考乙個問題,假設,20年後取代了你們能想到的繁瑣工作,然後什麼體力勞動,無聊的工作,大家能想到的可以取代的崗位全部取代了,那個時候假如人數也比...

未來人工智慧時代是什麼樣子的?

所有生產的工作都由人工智慧完成,軍隊由統帥直接控制智慧型單位,無產階級變成無用階級,再也不直接掌握生產工具,反抗無法動搖統治階級,也不再需要消費者。可能的職業只有兩個 程式設計師和妓女 正逍遙0716 走近屋子,藤蔓編織的門簾悠然自如地張開,步入客廳,毛茸茸的玩偶熱情地接過行李,來到桌旁,腦袋平平的...

圖靈法則適用於未來人工智慧嗎?

侘寂 能,但,我們首先要搞清楚現有的人工智慧以及其發展趨勢。我們先假設乙個基本的需求 圍棋的ai與人的對弈。我這是隨便寫的,並不是其真正的結構。圍棋的基本屬性 一共有324格,故可知一共有324的階乘種變化,資料量太大,並且不是每一種都有意義,故無法使用窮舉法,而由於其規則的限定,我們使用樹狀結構來...