亚洲一区人妻,久久三级免费,国模少妇无码一区二区三区,日韩av动漫

國(guó)內(nèi)或國(guó)外 期刊或論文

您當(dāng)前的位置:發(fā)表學(xué)術(shù)論文網(wǎng)經(jīng)濟(jì)論文》 基于視頻時(shí)空關(guān)系的高速公路異常停車檢測(cè)> 正文

基于視頻時(shí)空關(guān)系的高速公路異常停車檢測(cè)

所屬分類:經(jīng)濟(jì)論文 閱讀次 時(shí)間:2022-01-21 10:51

本文摘要:摘要:針對(duì)傳統(tǒng)高速公路異常事件檢測(cè)方法效率低、漏檢率高、實(shí)時(shí)性較差等問(wèn)題,提出基于視頻時(shí)空關(guān)系的高速公路異常停車檢測(cè)方法。首先,采用基于交通流頻率分析的無(wú)監(jiān)督分割方法分割道路圖像,去除較小連通域提取道路分割圖;然后,通過(guò)透視關(guān)系模型將近遠(yuǎn)目標(biāo)歸一化到

  摘要:針對(duì)傳統(tǒng)高速公路異常事件檢測(cè)方法效率低、漏檢率高、實(shí)時(shí)性較差等問(wèn)題,提出基于視頻時(shí)空關(guān)系的高速公路異常停車檢測(cè)方法。首先,采用基于交通流頻率分析的無(wú)監(jiān)督分割方法分割道路圖像,去除較小連通域提取道路分割圖;然后,通過(guò)透視關(guān)系模型將近遠(yuǎn)目標(biāo)歸一化到同一尺度并進(jìn)行裁剪,輸入YOLOv4網(wǎng)絡(luò)進(jìn)行二次檢測(cè)增強(qiáng)對(duì)近遠(yuǎn)目標(biāo)檢測(cè)的魯棒性;最后建立時(shí)空信息矩陣,通過(guò)時(shí)空矩陣的更新與NMS(Non-MaximumSuppression)方法檢測(cè)合并異常區(qū)域并輸出檢測(cè)結(jié)果。實(shí)驗(yàn)結(jié)果顯示,該方法在遠(yuǎn)距離場(chǎng)景中的準(zhǔn)確率為95%,在擁擠場(chǎng)景中的準(zhǔn)確率為93%;通過(guò)對(duì)比實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)該方法能夠有效提高復(fù)雜場(chǎng)景下異常停車檢測(cè)準(zhǔn)確率且具有良好的泛化能力。

  關(guān)鍵詞:智能交通;異常停車;道路分割;YOLOv4;透視關(guān)系;時(shí)空關(guān)系

高速公路

  0引言

  近年來(lái),我國(guó)機(jī)動(dòng)車數(shù)量不斷增加,給現(xiàn)有道路通行能力和交通管控能力帶來(lái)了巨大挑戰(zhàn)。特別是在高速公路環(huán)境中,車輛違停等異常行為一旦發(fā)生,將會(huì)導(dǎo)致嚴(yán)重的交通事故。因此及時(shí)發(fā)現(xiàn)異常行駛車輛,檢測(cè)交通異常事件十分重要。傳統(tǒng)人工觀看視頻監(jiān)控并判斷交通事件異常的檢測(cè)方式勞動(dòng)強(qiáng)度大,工作效率低且存在漏判現(xiàn)象,已不能滿足智能交通發(fā)展的需求,基于計(jì)算機(jī)視覺(jué)的交通異常事件自動(dòng)檢測(cè)技術(shù)越來(lái)越受到學(xué)者們的重視[1~3]。

  目前主流的基于計(jì)算機(jī)視覺(jué)的異常自動(dòng)檢測(cè)方法包括:基于模型的異常行為檢測(cè)和基于深度學(xué)習(xí)的異常行為檢測(cè)[4];谀P偷姆椒ㄍǔ2捎谜颖具M(jìn)行模型構(gòu)造,由于異常行為會(huì)偏離正常行為模型,故在測(cè)試階段偏離模型的樣本即可判定為異常。

  高斯混合模型(GMM)、隱馬爾可夫模型(HMM)是異常檢測(cè)中常用的參數(shù)模型。在車輛異常行為檢測(cè)算法中,GMM模型可以自動(dòng)獲取關(guān)聯(lián)屬性并通過(guò)曲面擬合和加權(quán)抽樣策略克服異常檢測(cè)中樣本不足的問(wèn)題[5,6],但其計(jì)算過(guò)程復(fù)雜且特征數(shù)目較大時(shí)計(jì)算成本較高。HMM模型可以依據(jù)時(shí)域特征將目標(biāo)行為分解為簡(jiǎn)單和復(fù)雜兩部分以有效檢測(cè)場(chǎng)景中的細(xì)微異常行為[7],但其在訓(xùn)練時(shí)需提前設(shè)定狀態(tài)數(shù)目且無(wú)法更改,因此僅適用于對(duì)場(chǎng)景先驗(yàn)知識(shí)較了解的情況。狄利克雷混合模型(DPMM)是一種非參數(shù)模型,基于DPMM對(duì)車輛行為建模時(shí)無(wú)須提前設(shè)定模型數(shù)目,相比于參數(shù)模型更適用于對(duì)視頻中復(fù)雜場(chǎng)景的異常檢測(cè)[8,9]。

  上述基于模型的異常檢測(cè)雖然具有良好的檢測(cè)效果,但其依賴于手工提取時(shí)空域特征且場(chǎng)景遷移能力差。因此隨著深度學(xué)習(xí)的發(fā)展,異常行為檢測(cè)算法正由基于模型的方法向基于深度學(xué)習(xí)的方法轉(zhuǎn)換;谏疃葘W(xué)習(xí)的異常檢測(cè)方法通過(guò)特定的網(wǎng)絡(luò)結(jié)構(gòu),從大量訓(xùn)練數(shù)據(jù)中自動(dòng)提取由低階邊緣到高階語(yǔ)義等更具有判別性的行為表示特征,具有更優(yōu)異的行為檢測(cè)性能。

  基于深度學(xué)習(xí)的異常檢測(cè)方法可分為基于監(jiān)督學(xué)習(xí)的方法和基于無(wú)監(jiān)督學(xué)習(xí)的方法;诒O(jiān)督學(xué)習(xí)的方法操作簡(jiǎn)單、易于理解,但標(biāo)注數(shù)據(jù)需要大量時(shí)間,面對(duì)真實(shí)場(chǎng)景時(shí)檢測(cè)效果不佳,此外該方法需要大量時(shí)間調(diào)節(jié)參數(shù)以獲取最佳異常檢測(cè)結(jié)果[10,11]。所以基于深度學(xué)習(xí)的方法更多的采用無(wú)監(jiān)督的訓(xùn)練方法。Lazzaretti等應(yīng)用自動(dòng)編碼器對(duì)正常樣本行為進(jìn)行特征表示,再利用解碼器對(duì)視頻幀進(jìn)行重建,最后根據(jù)重建誤差檢測(cè)異常[12]。

  文獻(xiàn)[13]基于變分自編碼器(VAE)通過(guò)端對(duì)端的深度學(xué)習(xí)技術(shù)將正常樣本的隱層表示約束成一個(gè)高斯分布,計(jì)算測(cè)試樣本隱層表示屬于高斯分布的概率并根據(jù)檢測(cè)門限判斷其是否異常。Liu等利用生成對(duì)抗網(wǎng)絡(luò)(generativeadversarialnetwork,GAN)等生成式網(wǎng)絡(luò)對(duì)視頻進(jìn)行重建或預(yù)測(cè),再將重建誤差大于閾值的個(gè)例判定為異常[14]。Chong等通過(guò)將空間卷積特征提取器和時(shí)間特征提取器合并到深度自動(dòng)編碼器中,構(gòu)建了一個(gè)端到端的異常檢測(cè)模型[15]。Medel等采用基于卷積LSTM(convolutionalLSTM,Conv-LSTM)網(wǎng)絡(luò)的自編碼器對(duì)正常行為的外觀和運(yùn)動(dòng)模式進(jìn)行建模,進(jìn)一步提高了基于自編碼器的異常行為檢測(cè)方法的性能[16]。

  基于無(wú)監(jiān)督的車輛異常行為檢測(cè)算法無(wú)須對(duì)樣本進(jìn)行注釋,僅依靠樣本數(shù)據(jù)自身分布規(guī)律將小概率事件判定為異常。但在異常檢測(cè)時(shí)需要構(gòu)建復(fù)雜的網(wǎng)絡(luò)模型,檢測(cè)效率低且需要對(duì)原始樣本數(shù)據(jù)進(jìn)行大量的處理和分析。例如,自編碼器通過(guò)無(wú)監(jiān)督的方式對(duì)交通場(chǎng)景中的車輛正常行為進(jìn)行特征表示,但車輛異常行為的檢測(cè)需要對(duì)比分析正常樣本檢測(cè)來(lái)重建誤差。基于以上工作,本文提出基于時(shí)空關(guān)系的異常停車檢測(cè),該方法采用無(wú)監(jiān)督學(xué)習(xí),檢測(cè)結(jié)果僅依賴于目標(biāo)識(shí)別結(jié)果,無(wú)須對(duì)待測(cè)數(shù)據(jù)進(jìn)行分析與處理,能夠準(zhǔn)確定位異常啟停時(shí)間,有效適應(yīng)多變的環(huán)境。

  首先使用均值法建立背景,再依據(jù)交通流頻率信息分割路面;其次將透視關(guān)系與YOLOv4網(wǎng)絡(luò)結(jié)合以進(jìn)行車輛目標(biāo)檢測(cè),該操作將處于圖像中不同位置的目標(biāo)歸一化,提高了遠(yuǎn)處小目標(biāo)檢測(cè)的精度;然后根據(jù)車輛檢測(cè)結(jié)果構(gòu)造時(shí)空矩陣以記錄每個(gè)被檢像素的時(shí)空狀態(tài);最后依據(jù)時(shí)空矩陣的更新檢測(cè)異常,并對(duì)得到的異常采用非極大值抑制(NMS)方法進(jìn)行回溯合并以得到準(zhǔn)確的異常區(qū)域和開(kāi)始、結(jié)束時(shí)間。該檢測(cè)方法能夠快速高效的檢測(cè)異常停車事件且具有良好的泛化能力。

  1基于透視關(guān)系和YOLOv4模型的車輛檢測(cè)

  1.1交通流頻率道路分割

  為了獲取車輛坐標(biāo)位置,判斷車輛違停狀態(tài),精確提取運(yùn)動(dòng)目標(biāo)前景是后續(xù)目標(biāo)檢測(cè)和異常檢測(cè)的關(guān)鍵。高速公路監(jiān)控視頻圖像視野較大,需要選用合適的方法分割路面以排除場(chǎng)景外房屋或路側(cè)樹(shù)木對(duì)目標(biāo)檢測(cè)的影響。本文應(yīng)用一種基于交通流頻率分析的無(wú)監(jiān)督分割方法,該方法操作簡(jiǎn)單且效果良好。

  1.2透視關(guān)系建模

  濾除運(yùn)動(dòng)目標(biāo)后需要檢測(cè)靜止車輛,然而實(shí)際交通場(chǎng)景中遠(yuǎn)處小目標(biāo)容易漏檢從而導(dǎo)致異常事件漏檢。因此本文利用透視關(guān)系[18]將近遠(yuǎn)目標(biāo)歸一化到一個(gè)更小的波動(dòng)范圍以增強(qiáng)對(duì)近遠(yuǎn)目標(biāo)檢測(cè)的魯棒性。

  1.3基于透視關(guān)系的YOLOv4車輛檢測(cè)

  透視關(guān)系的建立主要依靠檢測(cè)框結(jié)果,因此選用合適的目標(biāo)檢測(cè)算法進(jìn)行初始檢測(cè)十分重要。目前主流的目標(biāo)檢測(cè)算法有ONE-STAGE和TWO-STAGE兩種,TWO-STAGE指檢測(cè)算法分兩步完成,首先獲取候選區(qū)域,然后進(jìn)行分類,典型代表有CNN[21]系列;與之相對(duì)的ONESTAGE檢測(cè)則無(wú)須單獨(dú)尋找候選區(qū)域,如SSD[22]/YOLO[23]系列。

  YOLO能夠在GPU上每秒處理較高幀數(shù),同時(shí)提供與其他先進(jìn)的模型相同甚至更好的精度[24]。速度是交通視頻檢測(cè)異常的關(guān)鍵,因此本文選用YOLOv4網(wǎng)絡(luò)作為車輛目標(biāo)檢測(cè)網(wǎng)絡(luò)并將其與透視關(guān)系結(jié)合以獲取車輛的精確位置。首先利用YOLOv4獲取初始檢測(cè)框結(jié)果,然后應(yīng)用線性回歸計(jì)算透視關(guān)系中的關(guān)鍵系數(shù)和,基于此就能夠?qū)D像中不同區(qū)域的尺度進(jìn)行歸一化裁剪。裁剪區(qū)域面積根據(jù)區(qū)域內(nèi)可容納的目標(biāo)數(shù)量進(jìn)行劃分。

  2基于時(shí)空關(guān)系的車輛異常停車檢測(cè)方法

  通過(guò)透視檢測(cè)模塊能夠獲取靜止車輛位置信息,但并非所有檢測(cè)的靜止車輛都可判定為異常,并且根據(jù)檢測(cè)結(jié)果確定同一異常開(kāi)始和結(jié)束時(shí)間十分困難。一個(gè)常用方法是使用對(duì)象跟蹤[26,27]或光流法[28]分析同一車輛的軌跡以判定異常。但是基于軌跡特征的異常檢測(cè)依賴于軌跡提取,而視頻質(zhì)量、車輛間互相干擾都會(huì)導(dǎo)致軌跡縮減。其中,當(dāng)連續(xù)檢測(cè)到某位置時(shí),該位置進(jìn)入可疑異常狀態(tài),該異常狀態(tài)由Vstate更新,當(dāng)檢測(cè)到最新異常時(shí),計(jì)數(shù)矩陣Vdetected和連續(xù)未檢測(cè)矩陣Vundetected更新。

  道路異常停車的一個(gè)主要標(biāo)準(zhǔn)是停車時(shí)間長(zhǎng)短。故本文只分析進(jìn)入可疑異常狀態(tài)且持續(xù)時(shí)間最長(zhǎng)的位置。當(dāng)異常持續(xù)時(shí)間過(guò)長(zhǎng)(大于60s)時(shí),以該位置為起點(diǎn)進(jìn)行廣度優(yōu)先遍歷,以得到Vdetected中計(jì)數(shù)值相似的連通區(qū)域。同時(shí)記錄該連通區(qū)域進(jìn)入異常狀態(tài)的開(kāi)始時(shí)間Vstart,同時(shí)待該區(qū)域的異常狀態(tài)Vstate更新后輸出結(jié)束時(shí)間Vend,并將檢測(cè)到連通區(qū)域位置的平均得分作為異常得分。

  為了獲取準(zhǔn)確完整的異常停車區(qū)域,本文應(yīng)用NMS方法合并上述連通區(qū)域,并將大于閾值IOU(IntersectionoverUnion)的異常更新最早時(shí)間定義為異常停車的開(kāi)始時(shí)間,最晚時(shí)間為結(jié)束時(shí)間。因算法輸入為加權(quán)平均后的圖像,故檢測(cè)到靜止車輛時(shí)間存在延遲。針對(duì)這一問(wèn)題,本文在固定時(shí)間長(zhǎng)度內(nèi)對(duì)異常區(qū)域的原始圖像進(jìn)行時(shí)間回溯;厮葸^(guò)程中的異常區(qū)域與當(dāng)前輸出異常區(qū)域面積的IOU大于0.5時(shí),更新異常開(kāi)始時(shí)間。同時(shí),如果在此異常區(qū)域內(nèi)持續(xù)檢測(cè)到車輛則繼續(xù)回溯,直到未檢測(cè)到新異常為止。算法1基于時(shí)空矩陣的異常停車檢測(cè)算法

  3實(shí)驗(yàn)結(jié)果與分析

  3.1實(shí)驗(yàn)方法

  3.2實(shí)驗(yàn)數(shù)據(jù)集

  本文選取來(lái)自三個(gè)真實(shí)高速公路中不同場(chǎng)景的監(jiān)控視頻和UADETRAC數(shù)據(jù)集[16]作為車輛檢測(cè)數(shù)據(jù)樣本。其中UADETRAC包含使用CannonEOS550D相機(jī)在在中國(guó)北京和天津不同位置拍攝的24個(gè)10小時(shí)視頻,分辨率為960*540。高速公路監(jiān)控視頻包含雨天、夜晚等復(fù)雜天氣和匝道、主干道、上坡等不同場(chǎng)景的5段視頻,分辨率為1270*980,從中抽取若干幀采用人工方式進(jìn)行標(biāo)注和分類。該混合數(shù)據(jù)集共包含5200張圖像,采用隨機(jī)選擇的方式將數(shù)據(jù)集分成80%的訓(xùn)練集和20%的測(cè)試集。

  訓(xùn)練集有3924張圖像,其中,包含2616張來(lái)自真實(shí)高速公路的監(jiān)控視頻,1308張來(lái)自UADETRAC數(shù)據(jù)集。測(cè)試集有1276張圖像車輛目標(biāo)與訓(xùn)練集完全不同的圖像以測(cè)試已訓(xùn)練模型的準(zhǔn)確率。由于來(lái)自真實(shí)環(huán)境的異常數(shù)據(jù)難以捕捉,因此本次實(shí)驗(yàn)使用英偉達(dá)官方發(fā)布的異常事件檢測(cè)數(shù)據(jù)集[29]。該數(shù)據(jù)集由100個(gè)視頻組成,每個(gè)視頻平均時(shí)長(zhǎng)約15分鐘,幀速為每秒30幀,分辨率為800*410,共包含18起由車禍、違章停車引起的異常停車事件。

  3.3實(shí)驗(yàn)評(píng)價(jià)指標(biāo)

  異常數(shù)據(jù)集包含異常停車事件及異常開(kāi)始及結(jié)束時(shí)間,所以應(yīng)用F1-Score衡量模型檢測(cè)性能,F(xiàn)1分?jǐn)?shù)越大,模型檢測(cè)異常準(zhǔn)確率越高,應(yīng)用均方根誤差(RMSE)衡量檢測(cè)時(shí)間誤差,時(shí)間誤差越小,模型檢測(cè)異常起始時(shí)間越準(zhǔn)確。

  3.4實(shí)驗(yàn)過(guò)程及評(píng)價(jià)

  本文以上述異常數(shù)據(jù)集為研究對(duì)象,驗(yàn)證異常停車檢測(cè)算法的正確性。其中視頻分辨率為800*410,幀率為30幀/s。截取自高速公路異常停車事件發(fā)生視頻的第1803幀、第5623幀、第7023幀、第10168幀及包括本文算法在內(nèi)的三種異常算法檢測(cè)結(jié)果。該視頻展示的是目標(biāo)車輛由正常行駛狀態(tài)逐漸變?yōu)闇p速慢行狀態(tài),最后變成停車狀態(tài)的過(guò)程。從圖中可以看出,從1803幀到5623幀車輛由正常行駛開(kāi)始逐漸減速行駛,單位時(shí)間內(nèi)的位移逐漸變小;從5623幀到7023幀,車輛由減速行駛變?yōu)橥V範(fàn)顟B(tài),且在該位置停止了一段時(shí)間,在10168幀時(shí)異常停車狀態(tài)結(jié)束。

  其中第一行為基于時(shí)序模型[16]的檢測(cè)結(jié)果,該方法對(duì)運(yùn)動(dòng)目標(biāo)的速度和方向進(jìn)行建模,提取光流特征至卷積神經(jīng)網(wǎng)絡(luò)并結(jié)合分類算法實(shí)現(xiàn)異常停車檢測(cè),但是由于異常發(fā)生時(shí)間過(guò)長(zhǎng),該時(shí)序模型已經(jīng)無(wú)法保持異常檢測(cè)狀態(tài)導(dǎo)致在7023幀時(shí)丟失異常。中間為基于運(yùn)動(dòng)目標(biāo)軌跡[28]的檢測(cè)結(jié)果,該方法通過(guò)檢測(cè)運(yùn)動(dòng)目標(biāo)軌跡并創(chuàng)建基于軌跡的異常判斷模型檢測(cè)出了異常停車事件,但是在5623幀中,受異常停車事件影響而行車緩慢的兩輛車軌跡與異常軌跡高度相似(綠色框標(biāo)注),導(dǎo)致基于軌跡的異常檢測(cè)模型檢測(cè)失誤。

  最后一行為本文異常檢測(cè)模型的檢測(cè)結(jié)果,通過(guò)輸入加權(quán)平均圖像至本文所述異常停車檢測(cè)算法,準(zhǔn)確的檢測(cè)到了異常停止車輛并給出了異常開(kāi)始和結(jié)束時(shí)間。 為了驗(yàn)證本文異常停車檢測(cè)算法的有效性,分別對(duì)高速公路近遠(yuǎn)距離場(chǎng)景及道路擁擠場(chǎng)景進(jìn)行檢測(cè)并使用基于運(yùn)動(dòng)目標(biāo)軌跡的異常檢測(cè)算法、基于時(shí)序模型的檢測(cè)算法作對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)中對(duì)相關(guān)參數(shù)進(jìn)行設(shè)置,將正常狀態(tài)轉(zhuǎn)換到可疑狀態(tài)的閾值設(shè)置為6個(gè)連續(xù)幀,thresholddetected=6,可疑狀態(tài)轉(zhuǎn)換到正常狀態(tài)的閾值設(shè)置為8個(gè)連續(xù)幀,thresholdundetected=8,輸出異常的最短時(shí)間閾值為60s,檢測(cè)異常的最小分?jǐn)?shù)閾值為0.8。

  在近距離和遠(yuǎn)距離場(chǎng)景中,本文方法在時(shí)間誤差和準(zhǔn)確率方面均表現(xiàn)出了更好的性能。在遠(yuǎn)距離場(chǎng)景中本文方法的F1分?jǐn)?shù)和S分?jǐn)?shù)更高,說(shuō)明本文方法能夠提升遠(yuǎn)距離場(chǎng)景的事件檢測(cè)能力,有效減少事件的漏檢而且檢測(cè)時(shí)間誤差小。采用基于運(yùn)動(dòng)目標(biāo)軌跡的異常檢測(cè)算法,當(dāng)背景經(jīng)常變化或者目標(biāo)較小時(shí),易將車輛過(guò)濾掉而導(dǎo)致車輛不能有效追蹤,從而使得遠(yuǎn)距離場(chǎng)景下的異常事件準(zhǔn)確性較低。采用基于時(shí)序模型的檢測(cè)方法在異常事件持續(xù)時(shí)間較長(zhǎng)時(shí)無(wú)法保持檢測(cè)狀態(tài)且應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)提高檢測(cè)準(zhǔn)確率需花費(fèi)較長(zhǎng)的時(shí)間,難以滿足實(shí)時(shí)性的要求。

  在道路擁擠和正常路況中,本文方法的時(shí)間誤差(RMSE)更小,S分?jǐn)?shù)更大,說(shuō)明本文方法對(duì)異常停車的檢測(cè)反應(yīng)更敏感,定位更準(zhǔn)確。由于擁堵場(chǎng)景中運(yùn)動(dòng)目標(biāo)數(shù)量多,軌跡匹配和切換復(fù)雜導(dǎo)致獲取運(yùn)動(dòng)目標(biāo)的軌跡質(zhì)量差,難以精確定位停車異常。基于時(shí)序模型的方法需要對(duì)運(yùn)動(dòng)目標(biāo)速度方向建模而擁擠道路中車輛運(yùn)動(dòng)速度緩慢,提取出的光流特征難以區(qū)分導(dǎo)致異常檢測(cè)能力下降。

  4結(jié)束語(yǔ)

  本文完成了基于視頻時(shí)空關(guān)系的異常停車檢測(cè)研究,該方法能夠最大限度減少非異常信息的干擾。首先,量化空間交通頻率得交通流頻率分割圖,二值化分割圖后過(guò)濾小的獨(dú)立連接域?qū)崿F(xiàn)無(wú)監(jiān)督道路分割,消除道路外因素的干擾;通過(guò)不斷疊加輸入幀來(lái)增強(qiáng)靜態(tài)對(duì)象,消除動(dòng)態(tài)交通干擾。其次,利用透視關(guān)系和YOLOv4獲取車輛坐標(biāo),透視關(guān)系將視頻遠(yuǎn)近區(qū)域轉(zhuǎn)換成統(tǒng)一的尺度,提高了目標(biāo)檢測(cè)精度。

  最后,提取視頻時(shí)空矩陣分析異常空間中的車輛位置,應(yīng)用NMS模塊合并異常檢測(cè)信息得到異常的開(kāi)始和結(jié)束時(shí)間。實(shí)驗(yàn)結(jié)果表明,本文提出的高速公路異常停車檢測(cè)算法可以提升遠(yuǎn)距離場(chǎng)景和擁堵場(chǎng)景下異常事件的檢測(cè)準(zhǔn)確率,且無(wú)須標(biāo)注數(shù)據(jù)和構(gòu)建復(fù)雜的網(wǎng)絡(luò)模型,計(jì)算速度快,占用資源少,體現(xiàn)了識(shí)別準(zhǔn)確性和實(shí)時(shí)性。但該方法無(wú)法在線實(shí)時(shí)應(yīng)用,后續(xù)計(jì)劃將檢測(cè)結(jié)果替換為車輛密度圖,以實(shí)現(xiàn)對(duì)車輛位置和概率分布的更連續(xù)估計(jì),并提高時(shí)間估計(jì)的準(zhǔn)確性。

  參考文獻(xiàn):

  [1]MouLuntian,MaoShasha,XieHaitao,etal.Structuredbehaviorpredictionofon-roadvehiclesviadeepforest[J].ElectronicsLetters,2019,55(8):452-454.

  [2]LINWY,ZHOUY,XUHT,etal.Atube-and-droplet-basedapproachforrepresentingandanalyzingmotiontrajectories.IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(8):1489-1503.

  [3]DegardinB,ProenaH.Iterativeweak/self-supervisedclassificationframeworkforabnormaleventsdetection[J].PatternRecognitionLetters,2021:145.

  [4]ShiraziMS,MorrisBT.Lookingatintersections:Asurveyofintersectionmonitoringbehaviorandsafetyanalysisofrecentstudies[J]. IEEETransactionsonIntelligentTransportationSystems,2017:1-21.

  [5]李楠芳,王旭,馬學(xué)智,等.基于隱高斯模型的多元離散數(shù)據(jù)異常檢測(cè)[J].計(jì)算機(jī)應(yīng)用與軟件,2018,35(08):249-253.(LiNanfang,WangXu,MaXuezhi.et.al.MultivariateDiscreteDataAnomalyDetectionBasedonHiddenGaussianModel.Computerapplicationsandsoftware.2018,35(08):249-253.)

  [6]Aköz,Ömer,KarsligilME.Trafficeventclassificationatintersectionsbasedontheseverityofabnormality[J].MachineVisionandApplications.2014,25(3):613-632.

  [7]NganHYT,YungNHC,YehAGO.Outlierdetectionintrafficdatabasedonthedirichletprocessmixturemodel[J].IntelligentTransportSystemsIet,2015,9(7):773-781.

  [8]SanthoshKK,DograDP,RoyPP,etal.Trajectory-basedsceneunderstandingusingdirichletprocessmixturemodel[J].IEEEtransactionsoncybernetics.2018,51(8):4148-4161.

  [9]ChalapathyR,BorzeshiEZ,PiccardiM.Aninvestigationofrecurrentneuralarchitecturesfordrugnamerecognition[C]/ProceedingsoftheSeventhInternationalWorkshoponHealthTextMiningandInformationAnalysis.2016.(2016-9-24)[2021-7-30].http://arxiv.org/abs/1609.07585.

  作者:梁睿琳1a,王銳2†,郭迎1a,1b

轉(zhuǎn)載請(qǐng)注明來(lái)自發(fā)表學(xué)術(shù)論文網(wǎng):http:///jjlw/29432.html