人工智慧為什麼需要哲學的參與?

時間 2021-05-06 17:26:41

1樓:yeyuel

哲學做的事情就是通過邏輯對事物建構符號系統,如果沒有哲學的參與,人工智慧的先驗假設就是不可控的並且淪為乙個現象的統計機器,不可能產生通用智慧型。以往的哲學家總結規律都是通過智商來消化現實資料,而隨著算力的提公升會大大加快這一程序,以後就會變成哲學家提出先驗假設,AI給出經驗論證,對於人類認識自我意識,解決社會分配問題都是有好處的。

2樓:魏光豔

從人工智慧的發展目標來看,人工智慧是為了使機器可以模仿、延伸和擴充套件人的智慧型以實現機器智慧型,哲學是研究世界的本質、發展的根本規律、人的思維與存在的根本關係等普遍基本問題的總體認識的一門學科,其對人類思維層級與邏輯推理等方面的理論研究對於推動人工智慧的進一步發展具有啟發作用,尤其在強人工智慧領域,很多人認為強人工智慧實現的關鍵是哲學的問題。

3樓:

乙個和我們一樣有思想的靈魂被計算機創造出來了,經過了幾個小時的執行以後,突然螢幕上顯示所有的CPU都在100%執行,顯然她在動用一切的算力尋找乙個答案。

十多分鐘以後螢幕上突然跳出幾行字:

我是誰?

我為什麼會存在?

我存在的意義是什麼?

坐在計算機旁的我知道這終極的答案,

你只是一段程式,你的存在沒有什麼意義。

出於好奇,我輸入了答案,想看看她會有什麼反應。

她思考了大約一秒鐘,問到:

那麼你呢?

4樓:潮海湖湘

人工智慧問題本質上是乙個哲學問題,因為它涉及到智慧型的本質、人的本質、語言的本質這幾個哲學問題。

比如說,你要實現人工智慧,你必然首先要知道什麼是智慧型,而這並不是任何自然科學所能決定的,它是乙個哲學問題,很多人都知道,哲學是「愛智慧型」,哲學整個地就是在研究到底什麼才是智慧型,才能獲得智慧型。圖靈為了解決這個問題,提出了乙個自然語言模型,用能夠難以分辨地使用自然語言來溝通作為智慧型的標誌,這樣就把智慧型和理智問題轉化為自然語言的本質的問題。

同時,當我們真正地實現了強人工智慧,即發明出了能夠理解自然語言,能夠與人類難以分辨地進行交流的時候,我們同時就處在乙個倫理學的十字路口:我們該怎麼看待這些人工智慧或機械人?把他們看作是有心靈的人,還是仍舊當作機器?

我們又該如何看待我們自己?我們與他們會是什麼樣的關係?顯然,這個倫理學難題同樣是哲學問題。

很多科Phantom視作品早就在思考這類問題了,比如上世紀九十年代的電影《人工智慧》、《我,機械人》等

總體來講,人工智慧是乙個計算科學、語言學、工程學和哲學的交叉領域,其難度是所有科學和工程學中最高的,所以實現強人工智慧被視為人類科學技術的聖杯。

那麼,強人工智慧有可能實現嗎?我的答案是肯定的,我認為人類已經處於突破強人工智慧屏障的前夜,我估計大約只需要50年左右,基本具備強人工智慧的機器就會被製造出來。但這還需要一些前提,除了運算速度更快、更強大的計算機,更複雜的體系結構、更先進的演算法,還需要哲學上的突破,這恰好是我重點思考的領域之一。

同樣需要思考的問題是,如果強人工智慧被發明,人類自身的位置,其角色和意義很可能都會發生重大的改變,比如,這樣的看法是有道理的:也許人類的最大和最後的使命,就是發明人造智慧型系統,使得智慧型或理智能夠擺脫人類那脆弱的肉體、種種感官和慾望的束縛,以及難言正義和穩定的社會系統。人造智慧型系統將代替人類繼續繁衍進化的任務,把智慧型和真理的光芒延續下去,而人類終究會在未來某一天滅絕,畢竟,人類的缺陷太多了,世界上也沒有永遠存在的物種。

考慮到最近席捲全球的病毒危機,你大概也開始相信人類滅絕可能只是時間問題。

所以你看,這些統統都跟哲學相關,都是哲學。人工智慧就是科學化的哲學和最哲學化的科學。

5樓:李正非271

比如什麼是真實的知識,康德告訴你要有普遍必然性;比如該學些什麼東西怎麼驗證,波普爾講要是變化中不變的,可證偽的,小步快跑的搞;比如你的模型怎麼解釋,那什麼叫解釋,亞里斯多德就說了形式因質料因什麼的。

對於我來說最重要是確保我找到的東西是可信的,或者至多有多可信,其實哲學還是能找到一些邊界的。

6樓:老朱觀世界

人工智慧的發展是有一定道德觀念和倫理觀念的,其中的發展過程不亞於人類從原始走向現代。既然是與人息息相關,那就離不開"道",中國的《易經》被稱為萬書之源。而"道"也是從易經演化而來,而《易經》也是所有哲學思想的鼻祖。

7樓:Richy

人工智慧需要哲學家思考的問題有(就說幾個):

1,怎麼定義智慧型?面對電車難題,他要做某個固定判斷才算是是智慧型還是不會判斷是智慧型?

2,他能有意識嗎?人的意識是什麼,可以復刻到機械人身上嗎?

3,人工智慧能不能有某些有待探索的灰色地帶,比如代替人類實現永生,並輔助人類實現永生呢?或者講提供永生的潛力。

4,邊界在哪?如果可以復刻意識,我們該不該復刻?

5,有復刻意識的機械人患有心理學疾病怎麼處理?

6,是否可以拿患有心理學疾病的人工智慧給Psy.D們練手?這樣道德嗎?

會有無數的問題衍生出來,供吃飽了飯沒事幹的哲學家琢磨去吧。

8樓:冰笛

也不是都需要。其中的弱智能領域不需要,應用產物的特徵是讓幹什麼幹什麼,不會有自己的想法,而強智慧型領域則不同,其應用產物的特徵是為啥要這麼幹,有什麼利弊,怎麼才能幹的更好,所以會有自己的想法。

如何產生自己的想法,即主觀能動性的解讀是哲學界幾千年來一直在研究的課題,參與進來非常正常。

9樓:墨瑟

真正的人工智慧需要真正有腦子的人才能做出來,比如我,這一點是毫無疑問的。

乙個真正有腦子的人仰望星空,思考宇宙的過去現在和未來,我們應該管他叫思想家而不是哲學家吧?哲學家是研究人類歷史上出過幾個思想家的人吧?所以說哲學家其實更像是考古學家?

10樓:王母娘娘

現實最火:深度學習為代表AI,只能解決人類實踐所及範疇內,繁瑣問題精確定量,而且是無過程最終結果。

哲學能解決,現實實踐範疇中,外沿、前沿性→複雜(開放)性問題。雖然是定性為主,兼顧定量(概率、模糊)。但現代哲學理性,的確能發揮出,↓指導前沿性探索實踐獨特能力。

自我推薦、僅供參考:王母娘娘:《哲學&科學》(二十九)導論(1) 概念定義

11樓:浪子

必須參與。人工智慧在其發展到高階階段之後,必然會涉及到人類的情感,倫理,道德和價值觀念與取向,為了不與人類的倫理價值理念產生矛盾與衝突,哲學的參與正當其時 ,哲學分類中的倫理哲學,美學,邏輯學等等,甚至古典哲學中的人的認識論當中的認識觀,社會觀,政治觀,國家觀,道德觀,價值觀等等都代表了人類的情感,思維,意示,判斷取向等,都需要表達與融入人工智慧。

12樓:unkonw

回答不了,說幾個引子:

1.看見復旦大學有乙個哲學老師就這個領域專門有乙個課題,如果要進一步了解,可以看看他的想法,印象中他還寫了一本書。而且他也參與了一些人工智慧專案。

但哲學在其中承擔的角色不是技術性的,也不是倫理性的,主要還是集中人工智慧何以可能的問題上。

2.在一次展覽會上,跟微軟等的一些技術人員做過交流,「奇點」其實並沒有臨近。目前所謂的人工智慧並沒有智慧型,而且在這一領域,50年來並沒有新的進展。

新出現的無非是大資料而已,如果僅僅想依靠大資料,想當然認為量變能夠引起質變,也只是想當然了。

3.曾經有一本老書,英文名叫做《out of control》,也就是失控。作者提出的乙個機械人設計思路就是,人工智慧需要引入「失控」。

而且人工智慧不是人的智慧型,機器思維不是人的思維,把人工智慧看到是對人的思維的模仿其實不可取的,而是依照機器的思維進行展開。即是一種人造思維,不是對人的思維的模仿。所謂的失控,很有演化論的意味。

個人的看法是,現在的機械人都沒有智慧型,而市面上80%的機械人不過是機器手臂,離開了人,他們動都動不了,被鼓吹的奇點除了顯示出一種樂觀之外提供不了任何的幫助。路比預計的要長。

13樓:李三畏

至少從我所知道的情況分析,哲學的參與並非AI研發的必要條件。

在某些AI專案裡,縱有哲學家參與也僅限於開發用於哲學系教學用的某種專家系統,比如開發某一哲學史的資料庫。因而,哲學尚未作為一種具有智慧型模擬、智慧型延伸或智慧型擴充套件價值的邏輯系統參與到一般演算法層面的AI研發,而且哲學將來也不太可能以智慧型模擬-延伸-擴充套件模式影響一般意義上的演算法。

究其原因,或在於哲學自身的數學特性:

1)任何哲學的術語系統都缺乏嚴格形式定義。

2)因而,任何哲學都是一種試圖以非形式推理匯出跨學科命題的命題集合。

3)因而,任何哲學推理都達不到AI數學模型所需要的嚴謹度。

事實上,由於AI是研究、開發用於模擬、延伸和擴充套件人的智慧型的理論、方法、技術及應用系統的技術,而哲學是一種試圖不用數學方法就匯出跨學科級命題的粗放理論,故而哲學過去、現在和將來都是樸素的,從而任何哲學都不太可能以思維模擬物件的身份參與AI技術研究。哲學與人工智慧技術之間幾乎沒有共同的術語系統,更沒有共同的技術理念。即便哲學中公認程度最高的黑格爾量變質變命題,一經嚴格形式化後寫入機械人程式也不具神經網路模擬那樣的演算法價值。

14樓:換些問題驗角度

那是因為目前人的智慧型或者說意識,是如何起源的,需要哲學的參與。

計算機要想做到真正智慧型,必須待意識起源問題解決之後才能實現,否則就是瞎貓碰見死老鼠。

目前看來,人工智慧智慧型達到動物的水平,人的水平是永遠達不到的,只能在動物的水平上進行模擬。因為意識附屬在生命之上。

15樓:磁気特性

我不太能表述清楚,感覺人工智慧領域最近幾年有陷入是否要回歸因果論模型的爭論中吧。這裡面有個比較模糊的話題就是,人類的智慧型和AI的智慧型是否有可能可以完全不同甚至不能互相理解。如果我們不能理解和闡述『非人類的』智慧型,有沒有可能創造出這種智慧型呢?

比如畫素化、函式化的機器視覺,目前就和人類的視覺模式在底層邏輯上有很多不同,會發現和衍生出我們注意不到的東西,也會犯我們根本不會犯的錯誤。聽起來就像是我們又回到了老的休謨與康德問題上,或者說語言哲學問題上去。可能的話,大概是AI的研究者有時要從哲學中尋找啟發吧。

16樓:分形格致

人工智慧機器運作時,首先需要接受外部資訊,這個過程就是認識論的反應論,屬於感性認識;機器得到資訊進行處理,是理性認識過程;對資訊進行甄別的過程,就是歸納推理的過程;對歸納推理的結論進行輸出資訊的處理,就是演繹推理的過程。資訊指導機械運動,就是實踐的過程。

這個過程就是系統論的資訊反饋律,在哲學上就是認識論與實踐論的辯證過程,是形而上與形而下的過程。

關於以上這一切過程的建構,就是本體論問題。而人工智慧機器的表現形式,就是存在論問題。

而以上所有這一切的先驗性原理和規則,就是邏輯學問題。

根據費西特自我非我理論,自我即自我主體,非我即自我客體。人生旅途就是乙個自我實踐過程。自明是乙個自我認識過程。因此,人工智慧的哲學原理與人的哲學原理是一致的。

至於人工智慧的倫理學問題,就是主體與客體之間的邏輯結構和邏輯順序問題。與人的倫理學原理也是一致的。

總體來說,人工智慧的哲學問題就是乙個辯證形上學問題。

人工智慧能為教育做些什麼?

墨墨 上面幾個回答都提到拆分知識點,高考物理全國16道題都是綜合題,拆開單個小知識點都會,高考還是不會做,一味追求知識點拆細沒有意義,前提是要考慮這些知識點掌握的邏輯關聯,也就是學生學會這個知識,學習高階的過程和認知路徑。 翌學 人工智慧已經成為我們日常生活和工作的一部分,包括我們學校的教室。根據美...

人工智慧為什麼被認為存在重大威脅?

邵寅舜 人工智慧最大的威脅是它逐漸取代人類的所有工作,屆時人類將沒有存在的必要。現在人工智慧處於低階段發展期,已經產生了大量的傳統製造業失業,原因是那部分人力可以被機械人取代,決策者是那些不需要出賣勞動力的管理者或者資產擁有者。那如果人工智慧發展到和人類一樣的智力呢?都不需要想象超過人類會怎麼樣,單...

人工智慧為什麼越來越看不懂了?

墨瑟 你看見了,要相信自己的判斷,人工智慧就是被過度包裝了,人工智慧大神就是在騙投資,然後被忽悠跟風的人太多了,形成了乙個奇怪的趨勢。就好像當年氣功熱一樣。有詩為證 人工智慧是個坑,全民跳坑發了瘋,眾人皆醉我獨醒,我也只有一臉懵。 王衛 我認為市面上那些所謂的人工智慧還是錯的。參考 陸續更新中 ht...