RU2534827C2 - Method for video surveillance of open space with fire hazard monitoring - Google Patents
Method for video surveillance of open space with fire hazard monitoring Download PDFInfo
- Publication number
- RU2534827C2 RU2534827C2 RU2013116631/08A RU2013116631A RU2534827C2 RU 2534827 C2 RU2534827 C2 RU 2534827C2 RU 2013116631/08 A RU2013116631/08 A RU 2013116631/08A RU 2013116631 A RU2013116631 A RU 2013116631A RU 2534827 C2 RU2534827 C2 RU 2534827C2
- Authority
- RU
- Russia
- Prior art keywords
- blocks
- images
- image
- fire
- moving
- Prior art date
Links
Images
Landscapes
- Image Analysis (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
Description
Изобретение относится к области видеонаблюдения, преимущественно открытых пространств, с контролем пожарной опасности и может быть использовано для слежения за лесными массивами в регионах со слабо развитой инфраструктурой.The invention relates to the field of video surveillance, mainly in open spaces, with fire hazard control and can be used to track forests in regions with poorly developed infrastructure.
Известен способ обнаружения события для системы видеонаблюдения, содержащий обучающую фазу, в которой получают обучающие изображения контролируемой зоны в разные моменты времени в отсутствие любых подлежащих обнаружению событий, и рабочую фазу обнаружения, в которой получают текущие изображения упомянутой зоны, при этом обнаруживают событие путем сравнения текущего изображения с изображением, соответствующим линейной комбинации множества эталонных изображений, аппроксимирующих соответствующие обучающие изображения или совпадающие с ними, по заявке №2009106852/08, опубл. 10.09.2010 г.A known method of detecting an event for a video surveillance system, comprising a training phase in which training images of the controlled area are obtained at different times in the absence of any events to be detected, and a working phase of detection in which current images of the mentioned zone are obtained, while the event is detected by comparing images with an image corresponding to a linear combination of a plurality of reference images approximating the corresponding training images or matching with them, according to the application No. 2009106852/08, publ. 09/10/2010
Известный способ эффективен для ситуаций, в которых заведомо обеспечивается отсутствие подлежащих наблюдению событий, что при контроле больших открытых пространств трудно гарантировать.The known method is effective for situations in which the absence of events to be observed is deliberately ensured, which is difficult to guarantee when controlling large open spaces.
Известен способ видеонаблюдения, позволяющий контролировать помещения и территорию, осуществлять видеозапись тревожных событий и непрерывную запись видеоинформации, согласно патенту РФ №2381533, опубл. 10.02.2010 г.A known method of video surveillance, which allows you to control the premises and territory, to carry out video recording of disturbing events and continuous recording of video information, according to the patent of the Russian Federation No. 2381533, publ. 02/10/2010
Способ имеет недостаточно высокую информативность при работе в режиме реального времени.The method has not enough high information content when working in real time.
Известен способ видеонаблюдения, включающий этапы получения видеосигнала контролируемой зоны по меньшей мере одной видеокамерой, его передачи и его анализа по меньшей мере в одном вычислительном устройстве с памятью, в котором согласно изобретению полученный видеокамерой сигнал анализируют при помощи вычислительного устройства с использованием информации с описаниями тревожных ситуаций, заранее записанной в виде базы данных в памяти вычислительного устройства, по результатам анализа получают данные о цели, формируют управляющий сигнал, передают его на подвижную видеокамеру, приспособленную для наведения на цель в соответствии с управляющим сигналом, с помощью подвижной видеокамеры получают изображение цели, пригодное для дальнейшего анализа, и передают его для хранения в базу данных.A known method of video surveillance, including the steps of receiving a video signal of a controlled area of at least one video camera, transmitting it and analyzing it in at least one computing device with memory, in which according to the invention the signal received by the video camera is analyzed using a computing device using information with descriptions of alarm situations , pre-recorded in the form of a database in the memory of the computing device, according to the results of the analysis, data on the target is obtained, the control drove it, transmit it to a mobile video camera, adapted for aiming at a target in accordance with a control signal, using a mobile video camera obtain a target image suitable for further analysis, and transfer it to a database for storage.
Предпочтительно в способе согласно изобретению по результатам анализа дополнительно формируют сигнал тревоги и передают его оператору. Анализ осуществляют с возможностью вычислять вектор скорости, текущую координату нахождения цели, и дополнительно формируют и передают на подвижную видеокамеру соответствующий управляющий сигнал для обеспечения наведения подвижной видеокамеры на цель. Управляющий сигнал передают на подвижную видеокамеру по последовательному каналу связи. Анализ сигнала от видеокамеры осуществляю с учетом параметров цели, выбранных из группы, включающей яркость, размер, длительность нахождения в контролируемой зоне, скорость и направление перемещения. (Патент РФ №2268497, опубл. 20.01.2006 г., принятый за прототип изобретения).Preferably, in the method according to the invention, according to the results of the analysis, an alarm is additionally generated and transmitted to the operator. The analysis is carried out with the ability to calculate the velocity vector, the current coordinate of finding the target, and additionally generate and transmit to the mobile video camera the corresponding control signal to ensure that the moving video camera is aimed at the target. The control signal is transmitted to the mobile video camera via a serial communication channel. I analyze the signal from the video camera taking into account the target parameters selected from the group including brightness, size, duration of stay in the controlled area, speed and direction of movement. (RF patent No. 2268497, published on January 20, 2006, adopted as a prototype of the invention).
Известен способ видеонаблюдения и контроля пожарной опасности, согласно которому производят видеомониторинг охраняемой площади, выделяют на получаемом изображении подвижные области, сравнивают эти области с образцовыми изображениями из библиотеки образов и принимают решение о возгорании на основании сходства полученного и имеющегося изображений.There is a method of video surveillance and fire hazard control, according to which the protected area is video-monitored, moving areas are selected on the resulting image, these areas are compared with model images from the image library and a decision is made on fire based on the similarity of the received and available images.
Техническая задача, которую решает заявляемое изобретение, состоит в повышении вероятности распознавания признаков пожара на открытой местности за счет ранней диагностики пожара по дымовым следам и потокам воздуха.The technical problem that the claimed invention solves is to increase the likelihood of recognizing signs of a fire in an open area due to the early diagnosis of a fire by smoke traces and air flows.
Задача решена тем, что в способе видеонаблюдения открытого пространства с контролем пожарной опасности, согласно которому производят видеомониторинг охраняемой площади, выделяют на получаемом изображении подвижные области, сравнивают эти области с образцовыми изображениями из библиотеки образов и принимают решение о возгорании на основании сходства полученного и имеющегося изображений,The problem is solved in that in the method of video surveillance of open space with fire hazard control, according to which the protected area is video-monitored, moving areas are selected on the received image, these areas are compared with model images from the image library and a decision is made on fire based on the similarity of the received and available images ,
Согласно изобретению выделение на изображении движущихся объектов производится путем разбиения всего изображения на квадратные блоки, смещение блоков со временем диагностируют по смещению центра блока, отдельные движущиеся блоки объединяют путем пространственной кластеризации, временную кластеризацию движущихся блоков производят по критерию пересечения траекторий отдельных блоков между собой, причем форму движущегося объекта восстанавливают путем отсечения коротких краев, соединения лежащих рядом краевых точек и сглаживания полученных границ, при этом внутреннюю область объекта восстанавливают по полученной границе, а классификацию выделенного подвижного объекта производят по нормальной составляющей оптического потока. Кроме того, библиотеку образов формируют с выделением категорий «транспортные средства», «люди», «животные», «колышущиеся ветви деревьев», «задымление», «тепловой след», «открытый огонь».According to the invention, the allocation in the image of moving objects is done by dividing the entire image into square blocks, the displacement of the blocks with time is diagnosed by the displacement of the center of the block, individual moving blocks are combined by spatial clustering, temporary clustering of moving blocks is carried out according to the criterion for the intersection of the trajectories of the individual blocks with each other, and the shape a moving object is restored by cutting off short edges, connecting adjacent edge points and smoothing along scientists boundaries, the inner region of the object is reduced by the resulting boundary, and classification of the selected moving object produced by the normal component of the optical flow. In addition, a library of images is formed with the categories “vehicles”, “people”, “animals”, “swaying branches of trees”, “smoke”, “thermal footprint”, “open fire”.
Изобретение поясняется фиг.1, на которой представлена блок-схема реализации предложенного способа.The invention is illustrated in figure 1, which presents a block diagram of the implementation of the proposed method.
Пример реализации способа.An example implementation of the method.
1. Выделение на изображении движущихся блоков1. The selection in the image of moving blocks
Все изображение (позиция 1 на фиг.1) разбивается на блоки Bi размером n×n пикселей. Значение n зависит от размера объектов и разрешения изображения и выбирается из диапазона от 1 до 100. Предположим, что центр блока Bi находится в точке (x,y) в момент времени t и в точке (x+Δx, y+Δy) в момент времени t+1. Тогда величины соответствия блоков и их смещения для двух последовательных моментов времени выражаются следующим образом:The whole image (position 1 in figure 1) is divided into blocks B i of size n × n pixels. The value of n depends on the size of the objects and the resolution of the image and is selected from a range from 1 to 100. Suppose that the center of the block B i is at the point (x, y) at time t and at the point (x + Δx, y + Δy) in time t + 1. Then the values of the correspondence of the blocks and their displacements for two consecutive moments of time are expressed as follows:
Для устранения ошибок второго рода (ложные движущиеся блоки), возникающих вследствие шума, необходимо, чтобы величина D превышала пороговое значение δα, которое может быть определено с помощью теста значимости. Для пикселя (x,y), где не происходит никакого движения, величина d(x,y)=It(x,y)-It+1(x,y) представляет собой шум камеры. Он, как известно, может быть описан гауссовским распределением с нулевым средним и дисперсией, равной удвоенной дисперсии шума камеры. Уровень значимости можно рассматривать как вероятность обнаружения блока в качестве движущегося блока, хотя в действительности он является неподвижным (ошибка второго рода). Если выбрать размер блоков n=16 и положить δα=1, то это будет соответствовать вероятности, равной 0.9 (позиция 2 на фиг.1).To eliminate errors of the second kind (false moving blocks) arising due to noise, it is necessary that the value of D exceed the threshold value δ α , which can be determined using the significance test. For a pixel (x, y), where no movement occurs, the quantity d (x, y) = I t (x, y) -I t + 1 (x, y) is the camera noise. It is known that it can be described by a Gaussian distribution with a zero mean and a dispersion equal to twice the dispersion of the camera noise. The significance level can be considered as the probability of detecting a block as a moving block, although in reality it is motionless (an error of the second kind). If you select the block size n = 16 and put δ α = 1, then this will correspond to a probability equal to 0.9 (
2. Пространственная кластеризация движущихся блоков2. Spatial clustering of moving blocks
На этом этапе с помощью методов кластеризации объединяются отдельные схожие движущиеся блоки, для которых величина D превышает пороговое значение δα, в движущиеся области. Будем считать два блока соседними, если у них есть общая сторона (или ее часть) или вершина, т.е. они связаны отношением 8-смежности. В качестве характерных признаков блоков можно использовать связность C(Bi,Bj), нормированную разность соответствия блоков D(Bi,Bj) и нормированное смещение блоков Δ(Bi,Bj):At this stage, using clustering methods, separate similar moving blocks, for which the value of D exceeds the threshold value δ α , are combined into moving regions. We will consider two blocks adjacent if they have a common side (or part of it) or a vertex, i.e. they are connected by an 8-adjacency relation. As characteristic features of the blocks, you can use the connectivity C (B i , B j ), the normalized difference in the correspondence of the blocks D (B i , B j ) and the normalized offset of the blocks Δ (B i , B j ):
Расстояние между движущимися блоками будем определять какThe distance between the moving blocks will be determined as
где параметр θ равен 0.3. Блоки Bi и Bj объединяются в одну область, если это значение меньше порога δc, равного 0.5 (позиция 3 на фиг.1).where the parameter θ is 0.3. Blocks B i and B j are combined in one area if this value is less than the threshold δ c equal to 0.5 (
3. Временная кластеризация движущихся блоков3. Temporary clustering of moving blocks
Проблемой при сегментации газообразных объектов типа дыма является возможная их разрывность - в различные моменты времени изначально единый объект может состоять из нескольких отдельных областей. Для того чтобы идентифицировать их как один и тот же движущийся объект, будем сопровождать движущиеся области от кадра к кадру. Тогда, хотя области, составляющие один объект, могут не касаться друг друга в каком-либо кадре, траектории таких объектов будут пересекаться (позиция 4 на фиг.1). Таким образом, отдельные объекты могут быть объединены во временной области.The problem with the segmentation of gaseous objects such as smoke is their discontinuity - at different points in time, initially a single object can consist of several separate areas. In order to identify them as one and the same moving object, we will accompany the moving areas from frame to frame. Then, although the areas that make up one object may not touch each other in any frame, the trajectories of such objects will intersect (
4. Определение формы объектов4. Determining the shape of objects
Полученные на предыдущем этапе кластеры состоят из нескольких блоков. Для установления точной формы объектов используется процедура выделения краевых точек, например, по методу Канни. Полученные краевые точки для газообразных объектов (дыма) обычно бывают не связаны друг с другом. Для построения замкнутой границы из таких краев необходимо применить операции морфологии: удалить очень короткие края, так как они в основном представляют собой влияние шума, затем воспользоваться операцией дилатации, чтобы соединить лежащие рядом краевые точки, после чего сгладить полученные границы для придания им более естественного вида.The clusters obtained in the previous step consist of several blocks. To establish the exact shape of objects, the procedure for selecting edge points is used, for example, according to the Canny method. The resulting boundary points for gaseous objects (smoke) are usually not connected with each other. To construct a closed border from such edges, it is necessary to apply morphological operations: remove very short edges, since they mainly represent the influence of noise, then use the dilatation operation to connect the adjacent edge points, and then smooth the resulting borders to give them a more natural look .
Пусть X - это бинарное изображение обнаруженных краевых точек. Значение пикселя, равное 1, означает, что этот пиксель является краевой точкой. Комбинация морфологических операций для построения границы объекта из разрозненных краевых точек выглядит следующим образом:Let X be a binary image of the detected edge points. A pixel value of 1 means that this pixel is an edge point. The combination of morphological operations for constructing the boundary of an object from disparate boundary points is as follows:
где ⊕ - операция дилатации,where ⊕ is the dilatation operation,
Следующий шаг заключается в восстановлении внутренней области объекта по полученной границе. Если области слабой интенсивности являются очень длинными, то даже с помощью морфологических операций невозможно восстановить границу. Это означает, что обнаруженная граница будет незамкнутой и может не полностью включать в себя внутреннюю область объекта. Поэтому необходимо различать области, не охватываемые полученной границей, и самостоятельные отдельные области. Для этого следует отыскать пересечения с границей в горизонтальном и вертикальном направлениях. Только если горизонтальная и вертикальная линии, проходящие через данный пиксель, пересекают одну и ту же границу, будем считать такой пиксель принадлежащим внутренней области объекта (позиция 5 на фиг.1).The next step is to restore the internal area of the object from the resulting border. If areas of low intensity are very long, then even with the help of morphological operations it is impossible to restore the border. This means that the detected boundary will be open and may not fully include the internal region of the object. Therefore, it is necessary to distinguish between areas not covered by the resulting border, and independent individual areas. To do this, find the intersection with the border in horizontal and vertical directions. Only if the horizontal and vertical lines passing through a given pixel intersect the same border, we will consider such a pixel to belong to the internal region of the object (
5. Классификация выделенных объектов5. Classification of selected objects
Классификация выделенных объектов для определения дыма и огня проводится с помощью динамических текстур. Одним из основных методов классификации с помощью динамических текстур является использование оптического потока, вычисление которого представляет собой довольно ресурсоемкую проблему. Мы будем определять не полный оптический поток, а только его нормальную составляющую. Этого вполне достаточно для целей распознавания типа объекта и в то же самое время позволит избежать большого объема вычислений. Нормальный поток, т.е. поток в направлении градиента интенсивности ∇I(x,y), записывается следующим образом:Classification of selected objects for the determination of smoke and fire is carried out using dynamic textures. One of the main classification methods using dynamic textures is the use of an optical stream, the calculation of which is a rather resource-intensive problem. We will not determine the total optical flux, but only its normal component. This is quite sufficient for the purpose of recognizing the type of an object, and at the same time it will allow avoiding a large amount of computation. Normal flow i.e. the flow in the direction of the intensity gradient ∇I (x, y) is written as follows:
где
В качестве характерных признаков для классификации объектов помимо нормального потока будем использовать также максимальное значение направленной регулярности текстур R(i), что позволит добиться аффинной инвариантности полученных результатов. Данный подход основывается на том факте, что регулярные (периодические) текстуры воспринимаются таковыми в широком диапазоне углов зрения. Поэтому определенная адекватным образом степень регулярности рассматриваемых объектов может служить в качестве инвариантного, физически обоснованного характерного признака. Будем использовать полярные координаты на сетке αi=Δα·i, dj=Δd·j.In addition to the normal flow, we will also use the maximum value of the directional regularity of textures R (i) as characteristic features for classifying objects, which will allow us to achieve affine invariance of the results. This approach is based on the fact that regular (periodic) textures are perceived as such in a wide range of viewing angles. Therefore, an adequately defined degree of regularity of the objects under consideration can serve as an invariant, physically substantiated characteristic feature. We will use the polar coordinates on the grid α i = Δα · i, d j = Δd · j.
Определим максимальное значение направленной регулярности R(i) как
В качестве характерных признаков текстур будем использовать следующие усредненные по всем кадрам видеопоследовательности величины:As the characteristic features of textures, we will use the following values averaged over all frames of the video sequence:
- Средние значения
- Отношение среднего значения нормального потока и его стандартного отклонения.- The ratio of the average of the normal flow and its standard deviation.
- Степень однородности ориентации нормального потока
где Ω - множество пикселей, для которых значение нормального потока отлично от нуля.where Ω is the set of pixels for which the normal flux value is nonzero.
- Среднее значение P(t).- The average value of P (t).
- Дисперсия P(t).- Dispersion P (t).
Все указанные величины являются инвариантными к перемещению и вращению. Принадлежность рассматриваемого объекта к классу объектов, соответствующих дыму на изображении, может быть определена с помощью какого-либо метода классификации, например метода опорных векторов или нейросетей (позиция 6 на фиг.1).All indicated quantities are invariant to displacement and rotation. The belonging of the object in question to the class of objects corresponding to smoke in the image can be determined using some classification method, for example, the method of reference vectors or neural networks (
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013116631/08A RU2534827C2 (en) | 2013-04-12 | 2013-04-12 | Method for video surveillance of open space with fire hazard monitoring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013116631/08A RU2534827C2 (en) | 2013-04-12 | 2013-04-12 | Method for video surveillance of open space with fire hazard monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013116631A RU2013116631A (en) | 2013-08-20 |
RU2534827C2 true RU2534827C2 (en) | 2014-12-10 |
Family
ID=49162608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013116631/08A RU2534827C2 (en) | 2013-04-12 | 2013-04-12 | Method for video surveillance of open space with fire hazard monitoring |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2534827C2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2595532C1 (en) * | 2015-03-11 | 2016-08-27 | Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") | Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards |
RU2601164C2 (en) * | 2015-02-18 | 2016-10-27 | Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") | Cluster system for monitoring perimeters and superficies of objects |
RU2650347C1 (en) * | 2017-03-20 | 2018-04-11 | Дмитрий Анатольевич Горяченков | Method of the natural fires recognition in sub-horizon areas |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261131B (en) | 2015-10-12 | 2018-07-31 | 小米科技有限责任公司 | A kind of method and apparatus sending alert notification messages |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5717463A (en) * | 1995-07-24 | 1998-02-10 | Motorola, Inc. | Method and system for estimating motion within a video sequence |
US6075875A (en) * | 1996-09-30 | 2000-06-13 | Microsoft Corporation | Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results |
RU2002114606A (en) * | 2002-06-04 | 2004-05-27 | Евгений Викторович Прокофьев | TELEVISION METHOD AND SEARCH AND CAMERA SYSTEM |
RU2276407C2 (en) * | 2001-10-22 | 2006-05-10 | Интел Зао | Method and device for background segmentation on basis of movement localization |
RU2315352C2 (en) * | 2005-11-02 | 2008-01-20 | Самсунг Электроникс Ко., Лтд. | Method and system for automatically finding three-dimensional images |
RU2459267C2 (en) * | 2010-08-16 | 2012-08-20 | Алексей Борисович Ануров | Method of universal video surveillance |
-
2013
- 2013-04-12 RU RU2013116631/08A patent/RU2534827C2/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5717463A (en) * | 1995-07-24 | 1998-02-10 | Motorola, Inc. | Method and system for estimating motion within a video sequence |
US6075875A (en) * | 1996-09-30 | 2000-06-13 | Microsoft Corporation | Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results |
RU2276407C2 (en) * | 2001-10-22 | 2006-05-10 | Интел Зао | Method and device for background segmentation on basis of movement localization |
RU2002114606A (en) * | 2002-06-04 | 2004-05-27 | Евгений Викторович Прокофьев | TELEVISION METHOD AND SEARCH AND CAMERA SYSTEM |
RU2315352C2 (en) * | 2005-11-02 | 2008-01-20 | Самсунг Электроникс Ко., Лтд. | Method and system for automatically finding three-dimensional images |
RU2459267C2 (en) * | 2010-08-16 | 2012-08-20 | Алексей Борисович Ануров | Method of universal video surveillance |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2601164C2 (en) * | 2015-02-18 | 2016-10-27 | Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") | Cluster system for monitoring perimeters and superficies of objects |
RU2595532C1 (en) * | 2015-03-11 | 2016-08-27 | Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") | Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards |
RU2650347C1 (en) * | 2017-03-20 | 2018-04-11 | Дмитрий Анатольевич Горяченков | Method of the natural fires recognition in sub-horizon areas |
Also Published As
Publication number | Publication date |
---|---|
RU2013116631A (en) | 2013-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Qureshi et al. | QuickBlaze: early fire detection using a combined video processing approach | |
RU2484531C2 (en) | Apparatus for processing video information of security alarm system | |
US9652863B2 (en) | Multi-mode video event indexing | |
Yang et al. | Tracking multiple workers on construction sites using video cameras | |
Yuan et al. | Vision-based forest fire detection in aerial images for firefighting using UAVs | |
RU2635066C2 (en) | Method of detecting human objects in video (versions) | |
WO2019083738A9 (en) | Methods and systems for applying complex object detection in a video analytics system | |
CN104378582A (en) | Intelligent video analysis system and method based on PTZ video camera cruising | |
KR102282800B1 (en) | Method for trackig multi target employing ridar and camera | |
CN103824070A (en) | A Fast Pedestrian Detection Method Based on Computer Vision | |
CN101167086A (en) | Human detection and tracking for security applications | |
Tschentscher et al. | Scalable real-time parking lot classification: An evaluation of image features and supervised learning algorithms | |
RU2534827C2 (en) | Method for video surveillance of open space with fire hazard monitoring | |
Shalnov et al. | Convolutional neural network for camera pose estimation from object detections | |
Mousse et al. | People counting via multiple views using a fast information fusion approach | |
Parameswaran et al. | Design and validation of a system for people queue statistics estimation | |
Jyothi et al. | Collaborative Training of Object Detection and Re-Identification in Multi-Object Tracking Using YOLOv8 | |
Limprasert et al. | Real-time people tracking in a camera network | |
Chebi et al. | Dynamic detection of anomalies in crowd's behavior analysis | |
JP6831396B2 (en) | Video monitoring device | |
CN114979567B (en) | Object and region interaction method and system applied to video intelligent monitoring | |
Waregaonkar et al. | Development of prototype for vehicle speed measurement | |
CN106203357A (en) | The detection method of a kind of gathering of people and device | |
Malinovskiy et al. | A simple and model-free algorithm for real-time pedestrian detection and tracking | |
Grant | Analysis of Crowd Behavior Based on Optical Flow: Detection, Classification, and Clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
HE9A | Changing address for correspondence with an applicant | ||
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20160413 |