Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

看板 Car
作者
時間
留言 76則留言,16人參與討論
推噓 12  ( 18推 6噓 53→ )
討論串 14
※ 引述《ykjiang (York)》之銘言: : 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 : 三維的部分是經過一些設計、運算後得到的 : 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, 這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的? : 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) 這邊也不知道在供三小 在半個世紀前,雷達後處理技術就已經發展出利用比對前後時間目標的變化,預測目標未來位置, 並且持續追蹤的技術。甚至還有類似合成孔徑雷達(SAR)那種利用時間與位移積分, 利用二維掃描形成3維雷達影像的技術。 而利用都卜勒濾波技術,甚至不需要比對前後時間的資料,就能直接得到目標的速度, 在半個世紀前,雷達就能直接利用都卜勒測速,外插推估目標的未來位置。 但也沒人講雷達是四維資料的探測器。 而特斯拉的前鏡頭並沒有構成立體視覺,就算加上時間預測,也只能構成2.5D, (三個定焦鏡只能利用影像模糊的程度大致判斷距離),這也是特斯拉自動駕駛在視覺深度一直為人所詬病的地方。 : 以目前的技術: : 距離方面,光達的精度比較高 : 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊 : 以自動駕駛而言,兩者的精度都超過人眼了 : 所以關鍵還是在 AI 等其他方面 無腦特粉才會覺得只靠鏡頭和AI就行 真的在搞自動駕駛的,在研究的是怎麼做多感測器的融合。 https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg
像是直接將光達和攝影機做成同一個感測器,就是其中一個方向。 : ※ 引述《airforce1101 (我不宅)》之銘言: : : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 : : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 : : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 : : 標,可以帶回更高精度的資訊。 : : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著 : : 的這篇文章 Extended object tracking: Introduction, overview, and application. : : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達 : : 先天上的差距還是存在。 : : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。 -- 亂餵流浪狗的人其實和渣男沒什麼兩樣 一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿 但都只是做半套不想完全負責而已 --
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.76.142.11 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1617905330.A.609.html
1Ftechih: 特斯拉也有雷達OK 不是只靠鏡頭 04/09 02:37
2Ftechih: 我看完你寫的感想也是公三小?!?04/09 02:40
3Fewings: 特斯拉的前雷達分辨度大於7度,在50公尺外並排行駛04/09 02:46
4Fewings: 的兩輛卡車,特斯拉雷達上也會辨識成同一個物體。04/09 02:46
techih: 兩個鏡頭就能構成立體視覺了 難道你有三個眼睛? 04/09 02:47 特斯拉用的是三個焦距不同的定焦鏡 對同一個物體只會有一個鏡頭有較清晰的影像 這種鳥玩法是弄不出立體視覺的。
5Fewings: 而特斯拉用了這種等級的雷達,雷達測距資料與影像資 04/09 02:49
6Fewings: 料的融合,基本上和用AI預測擲筊結果差不多吧 04/09 02:49
※ 編輯: ewings (42.76.142.6 臺灣), 04/09/2021 02:52:14
7Ftechih: 螢幕顯示一輛車 並不代表他就只能看到一輛 只是你 04/09 02:50
8Ftechih: 看的越細需要的電腦資源就越多 那有沒有這個必要 04/09 02:50
9Ftechih: 我認為特斯拉比較著重在視覺辨識,雷達只是輔助 04/09 02:53
10Ftechih: 我覺得不太需要下定論啦 如果真覺得光達終勝那可以 04/09 02:57
11Fewings: 特斯拉用三顆定焦鏡的鳥玩法,反而增加了電腦運算的 04/09 02:57
12Ftechih: 買Mobileye股票 應該會賺翻 04/09 02:57
13Fewings: 需求量。光達+鏡頭,關聯性演算法的需求可以低到只 04/09 02:57
14Fewings: 用單晶片距離,但是特斯拉就要用到礦卡級的處理器。 04/09 02:58
15Ftechih: 但我記得NIO用光達卻配了4顆N牌高階處理器耶04/09 02:59
16Ftechih: https://i.imgur.com/xnmwZQW.jpg04/09 03:02
17Fewings: 人家NIO要搞的ADAS,是要直接衝Level 4,才要開發這04/09 03:12
18Fewings: 個規模的硬體。可沒像特斯拉還要求車主雙手不能離開04/09 03:12
19Fewings: 方向盤呢。04/09 03:12
20Fewings: 另外,用NIO沒像特斯拉小器的使用低解析度的攝影機04/09 03:30
21Fewings: ,影像串流處理的量本來就比較高,把tops去除pixel04/09 03:30
22Fewings: 數量,特斯拉用的運算資源還比較高勒。 04/09 03:30
23FGuideboy: 三個定焦鏡是指三個不同焦距的鏡頭?04/09 03:36
24FGuideboy: 是的話對同一物體可以同時準焦吧04/09 03:37
問題是鏡頭內的影像不會只有一個物體,而且這三顆鏡頭的焦距範圍各差了100公尺 相當於戴著單筒望遠鏡,還傻到要建立兩眼立體視覺一樣搞笑
25FGuideboy: 只是成像時物體大小會不同 不會只有一個準焦04/09 03:39
26FGuideboy: 不會有你說的一個鏡頭清楚 其他模糊的情況 04/09 03:41
27Fa1445979: 到底在公三小,講的好像特斯拉沒有要衝Level4一樣04/09 03:42
28Fa1445979: 你要針對物件辨識、車輛辨識、道路辨識好像不用運 04/09 03:43
29Fa1445979: 算資源一樣04/09 03:43
※ 編輯: ewings (42.76.142.6 臺灣), 04/09/2021 03:52:09
30Fkmlvli84: 你好像分不清焦距跟對焦距離的差別,特斯拉用了三 04/09 03:48
31Fkmlvli84: 顆不同焦距的鏡頭,但是這三顆鏡頭的對焦距離基本 04/09 03:48
32Fkmlvli84: 上可以視為泛焦。加上三顆鏡頭的位置並不重疊,是04/09 03:48
33Fkmlvli84: 完全可以計算出深度的,可惜的是並不是全畫面都算04/09 03:48
34Fkmlvli84: 得出來。04/09 03:49
35Fewings: 你講的不就我上面已經講過的2.5D?04/09 03:53
36Fykjiang: 而且特斯拉前向的鏡頭總共有五個,另兩個在側前方04/09 03:53
37Fykjiang: 側前方那兩個鏡頭的規格是完全一樣的04/09 03:53
https://qph.fs.quoracdn.net/main-qimg-18ea7bf48a6f7dfdce9e384c2ef80840 兩個側前方的鏡頭,和前方鏡頭視角重疊的範圍只有十幾度,而且還不是在車的前方。 這個分配是要怎麼弄出兩眼立體視覺?? ※ 編輯: ewings (42.76.142.6 臺灣), 04/09/2021 04:00:51
38Fkmlvli84: 你對緯度的定義有問題,兩顆鏡頭只要能看到同一個 04/09 04:03
39Fkmlvli84: 物體,就必定可以辨識出三維的位置。可辨識範圍不 04/09 04:03
40Fkmlvli84: 會影響維度。而且這三顆鏡頭只有一顆是長焦的,你 04/09 04:03
41Fkmlvli84: 的望遠鏡舉例根本不合邏輯。 04/09 04:03
42Fykjiang: 不知你怎麼看出十度,而且只要那兩個重疊夠大就夠了 04/09 04:04
43Fkmlvli84: 你忽略了wide forward camera跟main forward cam 04/09 04:05
44Fkmlvli84: era的重疊區了。 04/09 04:05
45Fykjiang: 十度應該是廁後方那兩個鏡頭 04/09 04:08
46Fykjiang: 重點是Tesla這樣的鏡頭配置行之有年了, 04/09 04:11
47Fykjiang: 要真有如此低級的設計錯誤發生,早就更正了 04/09 04:11
48Fykjiang: 查了一下Tesla 3D視覺主要是靠正前向的那三個鏡頭 04/09 04:59
49Fykjiang: 可行的原理如 kmlvli84 說的 04/09 04:59
50Fykjiang: 只要兩個鏡頭拍出的同一個物體有不同位置或大小, 04/09 05:00
51Fykjiang: 理論上就能估算出距離 04/09 05:01
52Fykjiang: 不同大小,可以因為視角範圍不同或焦距不同造成的 04/09 05:03
53Fingmu: 好了別吵 來看資料 Tesla其實用單鏡頭就能判斷距離 04/09 07:58
54Fingmu: 原理說明 http://bit.ly/TeslaHere519 04/09 07:59
55Fingmu: 實測遮到剩一個鏡頭還能在路口轉彎 04/09 08:00
56Fingmu: https://bit.ly/TeslaHere609 04/09 08:00
57Fssss127: 無腦特黑的最高表現?理性討論不行嗎 04/09 08:12
58Fssss127: 不懂就虛心求教 整天扣人帽子 04/09 08:29
59Fsted0101: 嗯嗯 口氣很大水準很高 哈哈哈哈哈 04/09 08:32
60Fpavaro: 供三小 然後咧 其他車廠現在在幹嘛 04/09 09:00
61Fbluemkevin: 單鏡頭理論上可行,但是特斯拉目前的鏡頭規格有風險 04/09 09:17
62Fbluemkevin: ... 04/09 09:17
63Fssss127: 換鏡頭分分鐘的事情而已 目前特斯拉鏡頭解析度不高 04/09 11:05
64Fbluemkevin: 不光是鏡頭的問題,早些年前晶片設計接收鏡頭影像格 04/09 11:19
65Fbluemkevin: 式的接面可能也不堪使用。 04/09 11:19
66Fbluemkevin: 現在的鏡頭不會只丟純影像的內容給晶片,還會伴隨其 04/09 11:23
67Fbluemkevin: 他感測資料,然後車用鏡頭這幾年吃記憶體頻寬越來越 04/09 11:24
68Fbluemkevin: 恐怖,車用壓縮也不太可能用lossy的方式,不過這看 04/09 11:24
69Fbluemkevin: 車廠對於風險的拿捏。 04/09 11:24
70Fzxcbrian: 那篇果然沒內容 04/09 12:55
71Flargesperm: 你太小看軟體了 04/09 13:02
72Fmoboo: 感覺你是在硬體廠,現在軟體單鏡頭就能看深度了。 04/09 16:39
73Fmoboo: 看物體大小加上時間就能判斷 04/09 16:39
74Fmoboo: 上面推文很多人寫了,而且這是潮流 04/09 16:39
75Fmilichang: 謝謝你帶來歡樂 04/10 01:09
76Fshadowppt: 做硬體的怎麼不知道景深這件事..... 04/11 01:41

car 最新熱門文章

17 [菜單] BMW G21 330iTouring
43 car 2021-04-21 23:39
24 [心得] 南投的螞蟻
40 car 2021-04-21 22:50
20 [問題] 車禍遇到賴皮魔人
67 car 2021-04-21 22:09
23 [問題] 學長噴裝了!
37 car 2021-04-21 17:50
29 [心得] 開箱diptyque車用香氛
55 car 2021-04-20 22:30
33 Re: [問題] 機油選擇 好市多
90 car 2021-04-20 22:07
15 [問題] 未保持安全距離
79 car 2021-04-20 19:53