[討論] WWDC21與iPad Pro M1的故事中段

看板iOS (蘋果iOS作業系統)作者 (時雨大天使)時間2年前 (2021/06/19 00:57), 編輯推噓2(209)
留言11則, 3人參與, 2年前最新討論串1/1
一樣哈嚕鎮樓先。 https://i.imgur.com/EsteLQN.jpg
前情提要: [討論] M1 iPad Pro講的故事前半段 https://www.ptt.cc/bbs/iOS/M.1621091454.A.576.html [討論] 6/7 WWDC21節錄 https://www.ptt.cc/bbs/iOS/M.1623110705.A.7F3.html ======== 這次接續次一篇講的前半段,結合WWDC21發表的開發者應用技術做結合。 (可以參考節錄最末段Susan出來講API那邊) 首先是『Object Capture』。 大體是利用多個2D圖片疊加擬合3D物件所需要的深度資訊,而這個API最主要投入於AR應 用開發。 那為什麼要著重於AR應用的開發? 時間需要回朔到2014~2017這段期間。 -2014 Google Tango 2014年2月透過手機上的『雙鏡頭』來獲取物件所需要的深度資訊,但是Android手機鏡頭 百家爭鳴,沒有一個統一的規格以至於Google沒辦法很好的掌握好陣營內的各個硬體設備 ,最終相關研究成果大部分轉化成後來的ARCore基礎應用。 -2017 Google ARCore 吸取前一次的教訓,Google轉而利用手機上配置的『單鏡頭』,通過不斷對同一場景進行 關鍵點獲取來重建深度資訊,這動作就是Structure from Motion(運動結構重組) 但這樣退而求其次的技術也面臨一個重大問題,那就是要進行重組必定要先進行一段鏡頭 環繞物體的動作,不可能達到打開鏡頭立刻獲取資訊,必定有時間成本放在這一塊上。 此外利用這個方式查找深度資訊所佔用的手機資源非常大,手機端要運算經常性的讓手機 發燙,電量也通常無法維持很好的續航。 -2017 Apple ARKit 在2020年前,蘋果的確和Google一樣使用『單鏡頭』進行同樣的動作。 差別在於,蘋果iPhone鏡頭的硬體參數以及手機的空間位移差等資訊,蘋果自家最清楚, 可能造成的誤差範圍都有納進去算法內做校正。不過硬體配合的掌握只是讓蘋果在當年的 技術領先一小部分。 -2020 Apple LiDAR鏡頭 Light Detection and Ranging。 光學雷達的應用直接利用感測元來獲取深度資訊,簡單又粗暴。 同一時間Android陣營也有很多手機有配備ToF鏡頭,但是Google要推,但下游廠商不領情 也沒什麼用,各家鏡頭參數不一千奇百怪,只有Google自己著急算法導致大家都只玩自己 的很難配合。 你可能會說這跟Object Capture又有什麼關聯了? 不是,正因為前面有技術的積累發展,導致WWDC21蘋果直接宣布往後要面向『XR技術』近 一步發展。 ======== 什麼是『XR』? Extended Reality延展實境,有區別於虛擬實境VR、擴增實境AR、混合實境MR,XR是結合 虛、實以及人體與設備實時互動的技術,XR可應用範圍極為廣泛,各項產業肯定都沾得上 邊,舉凡道路、廣告、教育、行銷、餐飲等只要你想得到的地方都可以用。 XR技術最早可以追朔到1962年的電影製作人Morton Heilig發明的Sensorama(有興趣可以 自行查找資料),其形式類似於現今電影院內的4DX電影座椅,其包括座椅、氣味,雙鏡 片全息虛擬裝置,但由於早期的應用只能『看』不能『摸』,可謂一點互動能力都沒有。 來到1968年MIT的計算機科學家Ivan Edward Sutherland所發表的『達摩克里斯之劍』 (https://www.youtube.com/watch?v=Hp7YgZAHLos
) 笨重的設備在實驗室沈寂許久,直到後來的Oculus Rift消費及產品(還有HTC VIVE)等V R產品上市,XR技術也多少被抬升上來。 雖然2016年間大抵還是流行VR設備(我的VIVE也頂多拿來玩Beat Saber、VR Kanojo),P S VR更是簡單,完全只靠PlayStation Camera然後和VR頭盔建立距離資訊(雖然我只拿來 玩夏日課程)有在玩Just Dance一定會覺得XBOX上用Kinect一定比PS好很多。 不過隨即而來的是2017的挖礦潮,能做複雜運算的顯卡皆無法用原價購買(跟現在一樣QQ ),此外VR多發展在娛樂遊戲方面,在日常生活工具方面沒有任何技術發展,這就導致XR 技術發展非常困難。 ======== 由於篇幅有點長,後面還要講『Universal Control』才是把標題完全講清,假日再補上 下半段。 那WWDC21推這技術的意義是什麼?跟後面要講的Universal Control又有什麼關聯? 如果你沒有錯過阿婆近期的“供應商消息”至少你會聽說過阿婆要推Apple Glass。 那這兩大技術的發佈是不是又確立了幾個事實,這留給你們自己想想。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.237.176.92 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1624035471.A.05E.html

06/19 01:54, 2年前 , 1F
安安,哈嚕開店推
06/19 01:54, 1F

06/19 02:20, 2年前 , 2F
其實tango主要是用不可見光+紅外線攝影機來認識場景的
06/19 02:20, 2F

06/19 02:20, 2年前 , 3F
,原理上比較接近Kinect,FaceID,LiDAR,擁有真實的環
06/19 02:20, 3F

06/19 02:20, 2年前 , 4F
境深度資訊;難以普及是2014年代整個模組不容易做到手
06/19 02:20, 4F

06/19 02:20, 2年前 , 5F
機大小,tango的工程機大概跟switch差不多大,當然And
06/19 02:20, 5F

06/19 02:20, 2年前 , 6F
roid的破碎話也是個很大的因素,而ARCore,ARKit單鏡頭
06/19 02:20, 6F

06/19 02:20, 2年前 , 7F
的實作則是以外航位推算法為主,然後用鏡頭影像的變化
06/19 02:20, 7F

06/19 02:20, 2年前 , 8F
矯正誤差累積
06/19 02:20, 8F

06/19 02:24, 2年前 , 9F
ARCore,ARKit在只處理運動姿態的應用中其實是不需要掃
06/19 02:24, 9F

06/19 02:24, 2年前 , 10F
描識別環境的,只靠IMU就能夠還原大部分的手機運動
06/19 02:24, 10F

06/19 12:55, 2年前 , 11F
推推!
06/19 12:55, 11F
文章代碼(AID): #1WpD2F1U (iOS)
文章代碼(AID): #1WpD2F1U (iOS)