18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何利用立體視覺實現(xiàn)距離估計?

新機器視覺 ? 來源:智車科技 ? 作者:智車科技 ? 2021-07-01 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

/ 導(dǎo)讀 /

雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,它是基于視差原理并利用成像設(shè)備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應(yīng)點間的位置偏差,來獲取物體三維幾何信息的方法。

1偽激光雷達-雙目立體相機

深度學習計算機視覺自動駕駛系統(tǒng)中已經(jīng)非常流行且被廣泛應(yīng)用。計算機視覺領(lǐng)域在過去的十年里得到了迅猛的發(fā)展,特別是在障礙物檢測方面。障礙物檢測算法,如YOLO或RetinaNet提供了二維邊界框,用邊界框給出了障礙物在圖像中的位置。

目前,大多數(shù)的目標檢測算法都是基于單目RGB攝像機的,不能返回每個障礙物的距離。為了能夠返回每個障礙物的距離,工程師們將相機與激光雷達(LiDAR,光探測和測距)傳感器進行融合,后者使用激光來返回深度信息。將計算機視覺信息和激光雷達輸出進行傳感器的融合。這種方法的問題是使用激光雷達,就會導(dǎo)致價格昂貴。所以經(jīng)常有人使用的一個雙目攝像頭進行替代,并使用幾何信息來定義每個障礙物的距離,故可以將雙目相機獲取的數(shù)據(jù)稱之為偽激光雷達

雙目視覺利用幾何學來構(gòu)建深度圖,并將其與目標檢測相結(jié)合以獲得三維距離。那么如何利用立體視覺實現(xiàn)距離估計?以下是雙目障礙物檢測的5步偽代碼:

標定 2 個攝像頭(內(nèi)外參的標定)

創(chuàng)建極線約束

先構(gòu)建視差圖,然后構(gòu)建深度圖

然后將深度圖與障礙物檢測算法相結(jié)合

估計邊界框內(nèi)像素的深度。

2相機內(nèi)外參標定

每個攝像機都需要標定。相機的標定是指將三維世界中的[X,Y,Z]坐標的三維點轉(zhuǎn)換為具有[X,Y]坐標的二維像素。這里簡單的介紹一下針孔相機模型。顧名思義就是用一個針孔讓少量光線穿過相機,從而得到清晰的圖像。

針孔相機模型可以設(shè)置焦距,使得圖像更加的清晰。為了相機標定,我們需要通過攝像機坐標系計算世界坐標點到像素坐標的變換關(guān)系。

從世界坐標系到相機坐標的轉(zhuǎn)換稱為外參標定,外部參數(shù)稱為R(旋轉(zhuǎn)矩陣)和T(平移矩陣)。

從攝像機坐標到像素坐標的轉(zhuǎn)換稱為內(nèi)參標定,它獲取的是相機的內(nèi)部參數(shù),如焦距、光心等…

內(nèi)參我們常稱之為K的矩陣。

內(nèi)參標定,通常使用棋盤和自動算法獲得,如下圖我們在采集標定板時,將告訴算法棋盤上的一個點(例如世界坐標系點 0, 0 , 0)對應(yīng)于圖像中的一個像素為(545,343)。

為此,相機標定必須用攝像機拍攝棋盤格的圖像,在得到一些圖像和對應(yīng)的點之后,標定算法將通過最小化平方誤差來確定攝像機的標定矩陣。得到標定參數(shù)后為了得到校正后的圖像,需要進行畸變校正?;兛梢允菑较虻?,也可以是切向的?;冃U兄谙龍D像失真。

以下是攝像機標定返回的矩陣形式

f是焦距-(u?,v?) 是光學中心:這些是固有參數(shù)。

我認為每一個計算機視覺工程師都應(yīng)該必須知道并掌握相機的標定,這是最基本且重要的要求。

在相機標定的過程中涉及到一些齊次坐標轉(zhuǎn)換的問題,這里簡單的介紹一下有兩個公式可以得到從世界坐標系到像素坐標系的關(guān)系:

(1)世界坐標系到相機坐標系的轉(zhuǎn)換(外參標定公式)

e627d60e-d9d2-11eb-9e57-12bb97331649.png

(2)相機坐標系到圖像坐標系的轉(zhuǎn)換(內(nèi)參標定公式)

e633d9b8-d9d2-11eb-9e57-12bb97331649.png

所以從三維空間坐標系到圖像坐標系下的關(guān)系可以總結(jié)為

e63f9c94-d9d2-11eb-9e57-12bb97331649.png

但是我們知道這個公式是齊次坐標才可以這么寫,也就是需要將O_world從[X Y Z]修改為[X Y Z 1],加這個“1”后稱為齊次坐標。

e67fd156-d9d2-11eb-9e57-12bb97331649.png

3雙目視覺的對極幾何

我們知道雙目立體視覺是基于兩幅圖像來尋找深度的,人類的眼睛就像兩個相機,因為兩只眼睛從不同的角度觀察圖像,所以他們可以計算兩個視角之間的差異,并建立距離估計。下圖是一個雙目立體相機的例子

那么我們?nèi)绾胃鶕?jù)雙目立體相機如何估計深度?想象一下你有兩個攝像頭,一個左攝像頭和一個右攝像頭。這兩個攝像頭在同一Y軸和Z軸上對齊。那么唯一的區(qū)別是它們的X值。

根據(jù)上圖我們的目標是估計O點(代表圖像中的任何像素)的Z值,即距離。X是對齊軸,Y是高度值,Z是深度值,兩個藍色的平面圖對應(yīng)于每個攝像頭的圖像。假設(shè)我們從從俯視的角度來考慮這個問題。

已知:

(1)xL對應(yīng)于左側(cè)相機圖像中的點。xR是與左側(cè)圖像中該點的對應(yīng)位置。(2)b是基線,是兩個攝像頭之間的距離。

針對左相機,如下圖,我們可以得到一個公式:Z = X*f / xL.

針對右相機,如下圖,我們可以得到另一個公式:Z = (X — b)*f/xR.

此時根據(jù)兩個公式我們可以計算出正確的視差d=xL-xR和一個物體的正確XYZ位置。

4視差和深度圖

什么是視差?視差是指同一個三維點在兩個不同的攝像機角度獲得的圖像中位置的差異。視差圖是指一對立體圖像之間明顯的像素差異或運動。要體驗這一點,試著閉上你的一只眼睛,然后快速地閉上它,同時打開另一只眼睛。離你很近的物體看起來會跳一段很長的距離,而離你較遠的物體移動很少,這種運動就是視差。

e7742be8-d9d2-11eb-9e57-12bb97331649.png

由于立體視覺,我們可以估計任何物體的深度,假設(shè)我們得到了正確的矩陣參數(shù),則可以計算深度圖或視差圖:

為了計算視差,我們必須從左邊的圖像中找到每個像素,并將其與右邊圖像中的每個像素進行匹配。這就是所謂的雙目相機的立體匹配的問題。為了解決像素匹配的問題,引入對極幾何約束,只需在對極線上搜索它,就不需要二維搜索,對應(yīng)點一定是位于這條線上,搜索范圍縮小到一維。

之所以能夠引入對極約束,這是因為兩個相機是沿同一軸對齊的。以下是極線搜索的工作原理

取左圖中這一行上的每個像素

在同一極線上比較左圖像像素和右圖像中的每個像素

選擇 cost 最低的像素

計算視差 d

5構(gòu)建偽激光雷達效果

現(xiàn)在,是時候把這些應(yīng)用到一個真實的場景中,看看我們?nèi)绾问褂秒p目立體視覺來估計物體的深度。假設(shè)我們有以下兩張實際場景下的圖片,并且我們我們已經(jīng)獲取了雙目相機的外參矩陣。

此時我們計算視差圖的步驟。將投影矩陣分解為攝像機內(nèi)參矩陣

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    819

    瀏覽量

    61225
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1713

    瀏覽量

    47400
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123765
  • 自動駕駛系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    69

    瀏覽量

    7245

原文標題:自動駕駛汽車的偽激光雷達-雙目立體視覺

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器視覺三維成像技術(shù)簡介(一)

    本文討論了機器視覺三維成像技術(shù),涵蓋了各種成像技術(shù)的原理、特點、優(yōu)缺點及應(yīng)用場景等內(nèi)容。關(guān)鍵要點包括: 1. 三維成像技術(shù)分類 2. 飛行時間法(ToF) 3. 結(jié)構(gòu)光 4. 激光三角 5. 立體視覺 6. 光場成像 7. 其他成像技術(shù)
    的頭像 發(fā)表于 10-20 14:04 ?134次閱讀
    機器<b class='flag-5'>視覺</b>三維成像技術(shù)簡介(一)

    雙目環(huán)視立體視覺系統(tǒng)在智能駕駛行業(yè)的應(yīng)用

    在智能駕駛技術(shù)飛速發(fā)展的當下,雙目立體視覺憑借其獨特的感知優(yōu)勢,在 360 環(huán)視產(chǎn)品方案以及各類輔助駕駛功能中發(fā)揮著關(guān)鍵作用,在最新法規(guī)要求與復(fù)雜場景下表現(xiàn)突出,為汽車在AEB、NOA、自動泊車等核心場景中重構(gòu)了安全與效率的邊界。
    的頭像 發(fā)表于 09-23 11:35 ?676次閱讀

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    視覺傳感器對于機器信息獲取至關(guān)重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類的視覺能力,從而推動創(chuàng)新應(yīng)用。3D 視覺解決方案大致分為立體視覺、結(jié)構(gòu)光和飛行時間 (
    發(fā)表于 09-05 07:24

    基于凌智視覺識別模塊的基于單目視覺的目標物測量裝置

    1.視覺測量整體方案本視覺測量系統(tǒng)采用單目視覺技術(shù)實現(xiàn)目標物距離
    的頭像 發(fā)表于 07-31 15:35 ?602次閱讀
    基于凌智<b class='flag-5'>視覺</b>識別模塊的基于單目<b class='flag-5'>視覺</b>的目標物測量裝置

    立體視覺技術(shù)在智能駕駛中的應(yīng)用

    隨著中國汽車產(chǎn)業(yè)在海內(nèi)外的發(fā)展壯大,智能駕駛領(lǐng)域呈現(xiàn)出滲透率快速提升與技術(shù)下沉并行的鮮明特征。根據(jù)Canalys最新預(yù)測,2025年中國市場L2級及以上功能的滲透率將達到62%,其中高速NOA滲透率10.8%,城市NOA達到9.9%,曾專屬于高端車型的智能駕駛功能正快速向大眾市場普及。
    的頭像 發(fā)表于 07-21 11:37 ?601次閱讀

    Bumblebee X 5GigE系列工業(yè)相機,多場景下釋放工業(yè)立體視覺的無限潛力!

    隨著智能制造(工業(yè)4.0)和柔性生產(chǎn)的發(fā)展,工業(yè)場景需要更智能的“眼睛”來理解三維空間。FLIRIIS通過提供包含完整立體處理支持的硬件和軟件包(從圖像校正和對準到基于密集相關(guān)的立體映射),使立體視覺
    的頭像 發(fā)表于 07-11 17:04 ?777次閱讀
    Bumblebee X 5GigE系列工業(yè)相機,多場景下釋放工業(yè)<b class='flag-5'>立體視覺</b>的無限潛力!

    智能軟件+硬件解決方案克服實時立體視覺中的挑戰(zhàn)

    立體視覺是一種強大的成像技術(shù),通過使用兩臺或多臺相機以略微不同的角度拍攝,模擬人類通過雙眼感知深度的方式,從而捕捉環(huán)境的三維結(jié)構(gòu)。這項技術(shù)能夠提供全視野的高密度三維測量,并在非結(jié)構(gòu)化和動態(tài)環(huán)境中表
    的頭像 發(fā)表于 05-16 17:04 ?408次閱讀
    智能軟件+硬件解決方案克服實時<b class='flag-5'>立體視覺</b>中的挑戰(zhàn)

    中科慧眼三目立體視覺產(chǎn)品的功能優(yōu)勢

    2025年上海國際車展已正式開幕,三目立體視覺產(chǎn)品作為推動智駕平權(quán)的關(guān)鍵力量,也在全民智駕時代備受矚目。
    的頭像 發(fā)表于 05-06 09:23 ?970次閱讀

    中科慧眼三目立體視覺相機將亮相2025上海車展

    2025年上海國際車展開幕在即,這場全球矚目的行業(yè)盛會不僅是車企競技的舞臺,更是前沿技術(shù)趨勢的風向標。隨著智能駕駛加速邁向“全民普惠”時代,三目立體視覺技術(shù)正以其低成本、高精度、強適配性的優(yōu)勢,成為推動智駕平權(quán)的關(guān)鍵力量。
    的頭像 發(fā)表于 04-19 10:36 ?967次閱讀

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知等任務(wù)中起到
    的頭像 發(fā)表于 03-19 16:33 ?764次閱讀
    【AIBOX 應(yīng)用案例】單目深度<b class='flag-5'>估計</b>

    學好影像3D立體化,北上廣深開店第一家

    雙相機拍攝的3D立體影像(立體圖像與立體視頻)
    的頭像 發(fā)表于 02-06 16:40 ?421次閱讀
    學好影像3D<b class='flag-5'>立體</b>化,北上廣深開店第一家

    友思特與Stereolabs建立合作伙伴關(guān)系

    友思特與國際領(lǐng)先的立體視覺相機技術(shù)公司 Stereolabs正式建立了合作伙伴關(guān)系!
    的頭像 發(fā)表于 01-06 10:07 ?868次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    目前高速發(fā)展的大模型能給具身智能帶來一些突破性的進展。 對于感知系統(tǒng),要做的主要任務(wù)是物體檢測,語義分割,立體視覺,鳥瞰視角感知。 有很多算法都可以實現(xiàn)物體檢測,比如文章提到的HOG + SVM算法
    發(fā)表于 01-04 19:22

    產(chǎn)品快訊 | Teledyne FLIR IIS發(fā)布最新產(chǎn)品信息

    (IP67)立體視覺解決方案,具有板載處理功能,可為倉庫自動化、機器人導(dǎo)引和物流構(gòu)建成功的系統(tǒng)。BumblebeeX立體相機設(shè)計用于在不同距離內(nèi)準確操作??蛻艨梢?/div>
    的頭像 發(fā)表于 12-20 17:05 ?876次閱讀
    產(chǎn)品快訊 | Teledyne FLIR IIS發(fā)布最新產(chǎn)品信息

    實現(xiàn)利用ads1292短距離測量心電信號的嗎?這種想法可行嗎?

    大俠們,有實現(xiàn)利用ads1292短距離(例如,兩個電極都在左手或右手)測量心電信號的嗎?這種想法可行嗎?
    發(fā)表于 12-16 08:25