教育過程中,應當先訓練思考能力,還是先訓練記憶能力?

時間 2021-06-09 18:44:22

1樓:小灰

訓練思考能力。記憶能力不需要訓練,小孩子能說清楚話就說明有足夠的記憶能力(語言本身就是一種大量記憶後都運用)。

我們常見的說記性不好,一種是身體不健康導致的(如老年人記憶力衰退,精神病人記憶混亂),另外更常見的是,記憶投入不足(比如英文單詞量太少導致讀不懂課文)和找不到知識的內在聯絡(數學最常見的情況),就是所謂的沒有融會貫通,這些都不是記憶訓練能夠解決的,需要思維訓練輔以大量的針對性練習。

2樓:雨橋爸爸

為啥一定要分先後不能同時呢?這個不衝突啊,均衡發展也行啊

而且這兩者都是需要長期訓練的,不是突擊的,如果能突擊,那麼先突擊哪個也都ok啊

既然是長期,那就每天兩者都訓練一點吧

3樓:落落塵埃

個人認為思考能力和記憶能力應該是同步進行的。

比如我家孩子學習英語:

那麼老師要求的繪本閱讀朗讀訓練,其實就是訓練記憶能力,但是達到這個記憶能力的目標,我們中間的閱讀策略,交流互動,親子閱讀過程就是一種思考能力的提公升,可以理解為螺旋式上公升的綜合能力。

所以對於孩子來說,讀書的好處太多了。

如何在學習的過程中不斷思考?

從前我覺著學習就是把只是把知識從頭到尾地順一邊就可以了,至於記住了什麼忘記了了什麼都無所謂,稱之為 學習 但是這樣的學習方式往往不能夠引發我們的思考,因為在整個學習過程中我們並沒有建立起屬於我們自己的結構,只是把書中的資訊瀏覽了一遍,就像資訊只在快閃儲存器中過了一遍,並沒有進入我們的磁碟中,看似你盡...

如何在pytorch訓練模型的過程中,對於某一層的權重最大最小值進行限制?

sakuraiii import torch from torch import nnclass Model nn Module def init self super Model self init self lin1 nn Linear 5 10,bias False self lin2 nn ...

RNN神經網路訓練過程中weight幾乎不更新,只有bias更新?

大多萌萌噠 把梯度截斷的c的值增大吧,或者修改啟用函式。一般用ReLU函式的話不會出現這個問題啊。而且你權重初始化是怎麼初始化的?單位矩陣還是隨機值? 其實不太懂RNN,路過問一下 啟用函式用的是啥,relu?這個網路用來做什麼的,輸入輸出是什麼樣子的,數值範圍?感覺像是normalization或...