Android Design Guideline 中強化了Action Bar 的作用,這樣會不會不方便使用者單手操作?

時間 2021-05-31 08:51:34

1樓:小馬甲

實在搞不明白為什麼會擔心這些問題android的設計都被設計成iphone了.回歸android的風格才是王道.這些設計都被提出來幾年了.

國內的還是tab tab 的.有意思嗎?開機側滑一開始有人教你嗎?

下拉重新整理有人教過你嗎?現在是個產品的人都叫你做下拉重新整理,這裡重新整理,那裡也要重新整理.重新整理你妹.

有多少元謀人直接用著諾基亞就直接用起來了iphone,除了整天說android這不行那不行還會什麼.這些人根本不配使用android手機.回答完畢.

2樓:

以「大部分使用者是小白/單手操作」為藉口而偷懶是更糟糕的選擇。

小白本來就是開發者慣出來的,他們熟悉的本應該是Holo味道的介面設計。這個債總是要還。

3樓:譚俊

1.由於android虛擬按鍵,所以請不要使用底部的Tab。

2.對於側滑欄,這是2023年的設計趨勢啊,以後這樣的應用肯定會越來越多,所以不必擔心使用者學習的成本,而且應用第一次使用做乙個簡單的操作引導介面也可以啊。

3.盡量考慮手勢操作的互動。最好能用一支手完成就行。

EVA中痞子是否過分強化了朗槍的能力(通殺使徒無使用次數限制)導致劇情上可能存在bug?

月巴DO 首先我不是EVA真粉,單純自己猜想。EVA的故事本身就是多方博弈,而朗基努斯之槍除了是儀式道具之外,還是對於EVA這種人形兵器的 保險 這一點我相信自己是理解沒錯的。其實是這把槍能不能見使徒就一插乙個死呢?對於這點我是有保守意見的,原因很簡單,使徒的AT力場和EVA雖然都是同一種,但是我相...

強化學習中的reward function為什麼要取期望?

首先明確三個不同的概念 reward,return 和 value。Reward的定義為 每個狀態下執行action後立即 從系統以外的環境 獲得的評價性響應,必須直接對應RL學習的最終目標。Return的定義為 累積的未來reward。式中含有衰減係數 Value的定義為 從狀態 開始,一直遵循p...

請問大家對深度強化學習中的Data Efficiency有什麼獨到理解或者提公升建議?

關於RL中的sample efficiency問題,Shane Gu過去幾年做了很多相關工作。這是去年他的乙個talk Deep Reinforcement Learning for Robotics Frontiers and Beyond 中的一頁slides,我覺得解釋得比較清楚。白色區域是對...