TARIFNAME TERMAL SENSÖR DESTEKLI GÖRÜNTÜ ISLEMELI MAHREMIYET KAMERASI Teknik Alan Bu bulus güvenlik kameralarinin herhangi bir ortamda tüm kisilerin, görüntülerinin izinsiz olarak kaydediliyor olmasi nedeniyle olusan kisisel mahremiyetin ihlalini engellemek amaci ile, otomatik insan tespiti yaparak görüntüye giren tüm yüzleri otomatik olarak tespit eden ve farkli filtreler ve/veya bulaniklastirma uygulayarak geri dönüstürülebilir olarak maskeleyen bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesi ile ilgilidir. Önceki Teknik Kamera ve lens teknolojilerinin gelismesi ile beraber günlük hayatta kullanimlari da çok yayginlasti. Özellikle güvenlik güçlerinin takip ve tespit durumlarinda aktif kullanilmasinin yani sira hane ve is yerlerinde suça karsi koruma ve caydiricilik amaci ile de kullanimi her geçen gün artmaktadir. Özellikle kapali devre televizyon kameralarinin (Close Circuit Television Cam- CCTV Cam) kullanimi günümüzde her geçen gün daha da artmaktadir. CCTV sistemlerin global pazarda büyüklügü 3 Milyar dolarin üstündedir. 2025 yilina kadar pazarin 4 milyar dolarin üstüne çikacagi tahmin edilmektedir. (Research and Markets report). Yine pazarin Türkiye'deki çikmasi beklenmektedir. Fakat bu sistemler ile beraber gelen kisi mahremiyetinin ihlali konusunda sorunlar yasanmaktadir. Bu baglamda Avrupa Birligi ülkelerinde "Veri Güvenligi Direktifi", "AB Insan Haklari Sözlesmesi" ve "AB Mahremiyeti Koruma Direktifi" ile güvence altina alinan kisisel bilgi güvenligi kapsamina görsel veriler de girmektedir. Ülkemizde ise KVKK kapsaminda görsel veriler güvence altina alinmistir. KVKK ile kisilerin izinleri olmadan SMS bile gönderilemez iken, her gün onlarca kamera tarafindan görüntülenmekte ve kayit altina alinmaktayiz. Güvenligin 7/24/365 kesintisiz olmasi ihtiyaci, mahremiyet konusunda gereken önemin gösterilmesine engel olmakta, AVM'den metroya, kösedeki marketten, trafik isiklarina kadar hayatimizin her noktasinda özel hayatin ihlalleri yasanmaktadir. Ayrica özellikle endüstriyel tesis, askeri bölgeler, yüksek güvenlikli alanlarda yüzlerce, hatta binlerce kamera çalismaktadir. Bir güvenlik operatörünün ayni anda izleyebilecegi ekran sayisi maksimum 4, bir ekranda oynatilabilecek anlamli görüntü sayisi ise maksimum 16 adet, sonuç olarak toplam bir operatör tarafindan izlenebilecek maksimum kamera sayisi 64 adettir. Operatörlerin hemen hemen ayni olan görüntülerde dikkat seviye 15 dakika sonunda %80, 1 saat sonunda %60, 2 saat sonunda ise %40'larin altinda oldugu yapilan çesitli çalismalar ile ispatlanmistir. Bu sebeplerle örnegin 320 kamera bulunan bir sistemde ayni anda çalismasi gereken operatör sayisi 5 kisi, 3 vardiya ve izinler hesaplandiginda toplam 20 kisilik biz izleme ihtiyaci söz konusudur. kisilik bir operatörün bugünkü degerle ile aylik kisi basi 750 USD olan maliyetinin, bu sistemlerin ekonomik ömürlerinin Tübitak degerlemesi ile 7 yil oldugu düsünüldügünde toplam maliyeti ( 1,26 milyon USD'dir. Diger bir deyisle kamera basina maliyeti 4000 USD'dir. Operatör maliyetlerinin azaltilmasinin tek yolu akilli sistemler olusturularak operatör maliyetlerinin azaltilmasidir ki bunu gerçeklestirmenin tek yöntemi akilli Video analitik yazilimlari basari ile çalistirabilen IP Kameradir. Ancak kameralardan alinan görüntünün islenmesi ile akilli çikarimlar yapmak yeterli olmamaktadir. Çünkü piyasadaki kameralar mahremiyet korumasi içermemektedir. Mahremiyet korumasi görüntü isleme ile kamera disinda yapilmaya çalisilsa da görüntü isleme noktasina iIetiIirken kopyalanabilir ve siber güvenlik ataklarina açiktir. Bu sebeple bu kameralar örnegin çok büyük faydalar saglayabilse dahi hasta odalarinda, mahkûm odalarinda yasli ve bakima muhtaç insanlarin izlenmesinde kullanilamamaktadir. Ancak mahremiyeti dogrudan kamera üzerinde koruma altina almak bugüne kadar mümkün olmayan uygulamalarin yapilmasina olanak saglamaktadir. network üzerinde mahremiyete aykiri herhangi bir görüntünün akmasi engellenmekte, görüntü isleme islemleri için gerekli yüksek bilgisayar islemci ünitesi (Computer Processor Unit- CPU), rastgele erisimli hafiza (Random Access Memory- RAM) ve grafik islemci ünitesi (GPU) ihtiyaç ve maliyeti ortadan kalkmaktadir. Dual kamera kullanimi sayesinde elde edilen verimli Video analitikler sayesinde, 1/3 operatör ile çok daha verimli, olay odakli, analitige dayali izleme islemleri gerçeklestirilebilmektedir. bulus dahilinde otonom fotograflama yaparken sadece ilgili hedefin görüntülerini kaydeden bir sistemden bahsedilmektedir. Sistem bir insansiz hava araci üzerinde bulunan kameranin ilgili bölgede otonom olarak izin verilip verilmedigine karar vererek sadece ilgili resimleri konum ve cografik bilgiler ile kaydetmektedir. Gelistirilen sistem temelde tek bir kamera yardimi ile ilgili görüntüyü almakla beraber sürekli olarak bir kayit gerçeklestirmemektedir. Ayrica daha sonra kullanilmak istenen görüntünün kaydedilmemesi konusunda da eksikligi hissedilmektedir. Teknigin bilinen bir diger uygulamasi ise USZOO70286520A1 sayili Birlesik Devletler patent basvurusudur. Ilgili basvuruda bir görüntülü konusma yapilan bir masaüstü uygulamasinda kullanilmak üzere sadece görüsmeye katilan kisinin görüntüsünü tutarak arka planda görünen kisinin görülmesine izin vermedigi görüntüyü bulaniklastiran bir sistemden bahsedilmektedir. Sistem anlik kullanim amaci ile gelistirilmis bir uygulama olmakla beraber bir kayit ve otonom tespit söz konusu degildir. Bu baglamda tek bir kamera ve kisilerin anonim görüntülerinin engellenmesi konusunda bir amaci bulunmamaktadir. plan ve istenmeyen görüntülerin bulaniklastirilmasindan bahsedilmektedir. Bulusun Kisa Açiklamasi Bu bulusun amaci kisilerinin kamusal ve özel alanlarda alinan görüntülerinde kisisel verilerin korunmasi konusundaki hassasiyeti saglamak amaci ile bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci ise herhangi toplumsal olaylarda kamu güvenliginin göz önünde bulundurularak ilgili perdelenmis görüntülerin tekrar döndürülmesini saglayan bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci ise farkli filtreleme teknikleri ile bulunan ortama en uygun filtrelemeyi gerçeklestirebilen bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci ise termal kameralarin destegi ile beraber ortamda bulunan kisilerin tespitinin net olarak saglayan bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci termal kameralardan aldigi sahis verilerini yapay zekâ ve derin ögrenme algoritmalari ile modelin sonuç verimliliginin artirilmasini saglayan bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci ise iki kamera birden kullanarak derinlik algisi ile beraber en dogru filtrelemeyi saglayan bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bu bulusun bir diger amaci ise ilgili yapay zekâ ve derin ögrenme algoritmalarinin kullanilmasi ile beraber sahis tespitinin yani sira ortamda veriyi kisisellestirebilecek farkli detaylari da filtreleyebilen bir termal sensör destekli görüntü islemeli mahremiyet kamerasinin gelistirilmesidir. Bulusu Açiklayan Sekillerin Tanimlari Bulus ile gelistirilen termal sensör destekli görüntü islemeli mahremiyet kamerasinin daha iyi açiklanabilmesi için kullanilan sekiller ve ilgili açiklamalar asagidadir. Sekil-1 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasinin çalisma algoritmasini gösteren akis semasinin görünümüdür. Sekil-2 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait derinlik ve optik akis tespiti algoritmasini gösteren akisin sematik görünümüdür. Sekil-3 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait yüksek dinamik aralikli görüntü olusturma algoritmasini gösteren akisin sematik görünümüdür. Sekil-4 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait yüksek dinamik aralikli ton esleme algoritmasini gösteren akisin sematik görünümüdür. Sekil-5 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait termal akis algoritmasini gösteren akisin sematik görünümüdür. Sekil-6 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait derin ögrenme modülü algoritmasini gösteren akisin sematik görünümüdür. Sekil-7 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait kodlama ve yayinlama algoritmasini gösteren akisin sematik görünümüdür. Sekil-8 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasinin filtreleme islemini gösteren sematik görünümdür. Sekil-9 Bulusa göre termal sensör destekli görüntü islemeli mahremiyet kamerasina ait alt sistemlerin sematik görünümdür. Sekillerde gösterilen unsurlar numaralandirilmis olup bunlarin karsiliklari da asagidadir. Mahremiyet sistemi Kamera sistemi Birinci kamera Ikinci kamera Termal kamera Birinci çip Ikinci çip Sensor . Dijital sinyal islemci . Entegre devre . Okuma bellegi .Dinamik bellek 14. Ag karti . Erisim noktasi Bulusun Ayrintili Açiklamasi Bulus temelde bir kamera sistemi (2) ile aldigi görüntüleri belirli islemlerden geçirerek kisilerin hassas verilerini gizleyecek sekilde filtreleme yapan bir mahremiyet sistemidir (1). Kamera sistemi (2) içerisinde birinci kamera (3), ikinci kamera (4) ve termal kamera (4) olmak üzere 3 adet kamera barindirmaktadir. Birinci kamera (3) ve ikinci kamera (4) içeriginde birinci çip (6) ve ikinci çip (7) olmak üzere iki farkli mikro islemci ile çalismaktadir. Mahremiyet sistemi (1) yedi basamakta ana algoritmayi tamamlayarak filtrelemeyi gerçeklestirmektedir. Her basamak kendi içerisinde algoritma basamaklari da barindirmaktadir. Temelde mahremiyet sisteminin (1) ana algoritmasi, 101) Derinlik tespiti 102) Optik akis tespiti 103) YDA görüntü olusturma (104) YDA ton esleme algoritmasi (105) Termal akis (106) Derin ögrenme modülü içerisinde 107) Kodlama ve yayinlama adimlarini barindirmaktadir. Sistem ana algoritma sonucunda filtrelenmis görüntünün elde edilmesini saglamaktadir. Mahremiyet sistemi (1) birinci kamera (3) ve Ikinci kamera (4) olmak üzere dual kamera kullanimi sonucunda elde edilen derinlik haritasi, isi haritasi olusturulmasi saglanmaktadir. Mahremiyet sistemi (1) dahilinde daha fazla kamera kullanimi da gerçeklestirilebilir. Buna ek olarak düsük çözünürlüklü termal kamera (5) ile mahremiyet saglanmasi gereken insan yüz ve vücudu gibi bölgelerin kameralar yardimi ile yüksek çözünürlüklü görüntü verisi üstünde tespit edilmesi gerçeklestirilmektedir. Derinlik tespiti (101) ve optik akis tespiti (102), (201) Ikili kamera sisteminden farkli pozlarda görüntüler alinir. (202) Kalibre edilerek hesaplanmis degerler kullanilarak görüntülerdeki çarpitma etkisi kaldirilir. (203) Çarpitma etkisi giderilmis görüntüler derinlik haritasi çikarilabilmesi için yatay olarak dogrultulur. (204) Düzeltilen ve derinlik haritasi için hazir hale getirilen görüntülerden toplam degiskenli optik akis (total variation optical flow) kullanilarak optik akis ve derinlik haritasi çikartilir. (205) Çözünürlüge göre hesaplanmis asinma ve genisleme filtreleri kullanilarak derinlik haritasindaki gürültüler giderilir. adimlari ile gerçeklestirilmektedir. Derinlik tespiti (101) ve optik akis tespiti (102) basamaklari birinci kamera (3) ve ikinci kamera (4) yardimi ile gerçeklestirilmektedir. Ikili kamera sisteminden alinan görüntüler düzenlenerek görüntüler üzerinde bulunan hatalar düzeltilir. Düzenlemelerin tamaminin gerçeklestirilmesi ile beraber optik akis ve derinlik haritasi çikarilir. Çikarilan haritadan sonra derinlik üzerinde meydana gelen bozukluklar giderilerek son halinin almasi saglanir. Kameralar yüksek dinamik aralikli görüntü alma özelligi tasimaktadir. Bunu yaparken hem stereo (dual aperture) hem de degisken pozlama (exposure bracketing) yaparak yüksek dinamik aralikli görüntü akisi üretilmesi ile beraber zorlu isik kosullarinda görüntü alinabilmektedir. Yüksek dinamik aralikli görüntü olusturma (103), (301) Kameradan farkli poz degerlerindeki görüntüler alinir. (302) Degisen isik sartlarina göre ileride alinacak poz degerleri, orta poz degerindeki görüntü kullanarak hesaplanir. (303) Alinan farkli poz degerindeki görüntüler RGB (Red-Green-BIue/Kirmizi-Yesil- Mavi) görüntülere çevrilir. (304) Görüntülerin birlestirilmesi için mevcut olan poz degerleri kullanilarak poz eslemesi yapilir. (305) Önceden hesaplanmis tabloya göre her poz için ayri normallestirilmis agirlik haritasi çikarilir. (306) Hesaplanan agirlik haritalari ve farkli pozlar kullanarak tek bir yüksek dinamik aralikli görüntü olusturulur. adimlarindan meydana gelmektedir. Yüksek dinamik aralikli görüntü olusturma (103) asamasinda kameradan iletilen görüntüler belirlenen referans pozun degerlerine bagli olarak degisken isik sartlarina göre ayarlanmaktadir. Ileride alinacak görüntülerde de bu poz degerleri kullanilmaktadir. RGB görüntülere çevrilen görüntüler alinan görüntülerin degerlerine göre ayarlanarak birlestirilmesi gerçeklestirilir. Pozlar üzerinde olan hatalar giderilerek önceden hesaplanmis verilerek bir birime sahip olmayan agirlik degerleri üzerinden haritalandirilir. Tüm veriler toplanarak dinamik aralikli bir görüntü olusturulur. Olusturulan görüntü ile ton esleme islemine geçilir. Yüksek dinamik aralikli ton esleme (104) algoritmasi, (401) olusturulmus yüksek dinamik aralikli görüntü önceden belirlenmis ve her kanal için farkli katsayilar ile çarpilarak tek kanalli görüntü haline çevrilir. (402) Olusturulmus tek kanalli görüntünün ortalama logaritmik parlaklik degeri ve uç % 1'Iik degerler katilmayacak sekilde minimum ve maksimum degerleri hesaplanir. (403) Hesaplanan degerler önceden belirlenmis bir egri degeri, doygunluk kat sayisi ve tek kanalli görüntü ile birlikte kullanilarak ton esleme filtresi olusturulur. (404) Ton esleme filtresi orijinal yüksek dinamik aralikli görüntüsü ile çarpilir ve ton esleme sonucu olusturulur. (405) Olusan ton esleme sonucu 0-1 araligina indirgenir ve belirlenen gama degerine göre gama düzeltmesi yapilarak hazir hale getirilir. adimlari çerçevesinde yürütülmektedir. Yüksek dinamik aralikli görüntü olusturulma (103) asamasindan sonra alinan görüntü belirli katsayilar ile düzenlenerek tek kanalli görüntüye çevrilir. Ortalama logaritmik parlaklik ve uç degerlerinden bagimsiz olarak maksimum ve minimum degerleri hesaplanir. Bu degerler üzerinden egri degeri, görüntü doygunluk katsayisi ve elde edilen tek katmanli görüntü kullanilarak ton esleme filtresi meydana getirilir. Elde edilen ton esleme filtresi ve yüksek dinamik aralikli görüntü olusturma (103) asamasinda elde edilen görüntü çarpilir. Elde edilen ton esleme sonucu normalize edilerek 0-1 araliginda gama degeri elde edilerek bu degerin hatalardan arindirmasi ile beraber yüksek dinamik aralikli ton esleme (104) basamagi gerçeklestirilmis olur. Termal kamera (5), sahislarin yüz tespiti basta izinsiz erisim olmak üzere diger tüm Video analitiklerin yüksek basarim orani ile çalismasina olanak saglamaktadir. Bu baglamda termal kamera (5) kullanimi ile termal akis (105) basamagi gerçeklestirilmektedir. Termal akis (105), (501) Dogru yapilandirma sonucunda termal kameradan termal görüntü alinir. (502) Alinan termal görüntü asil kameradan alinan görüntü ile birlikte kullanilabilmesi için yeniden boyutlandirilir. (503) Önceden belirlenen esik degeri kullanilarak yeni boyutlandirilmis termal görüntüden ikili filtre üretilir. (504) Çözünürlüge göre hesaplanmis asinma ve genisleme filtreleri kullanilarak olusturulan filtredeki gürültüler giderilir. (505) Yüz tespit ve tanimlama yapilmadan önce olusturulan filtre ile görüntü filtrelenir. adimlari ile gerçeklestirilmektedir. Termal kameranin (5) dogru konumlandirilmasi ile beraber alinan termal görüntüler ile birinci kamera (3) ve ikinci kamera (4) üzerinden alinan görüntüler ile eslestirilerek düzenlemesi yapilir. Daha önceden hesaplamalari ile belirlenen esik degeri ile görüntünün son hali filtrelenir ve düzenlemeleri gerçeklestirilir. Termal akis (105) sonunda alinan bu görüntü yapay zekâ filtrelemesinden öncesinde ilk filtreleme olarak kullanilir. Termal akis (105) basamagindan sonra alinan görüntüler ilgili yapay zeka ve derin ögrenme algoritmalari ile gelistirilerek hem mevcut filtrelemenin düzenlenmesi saglanir. Ayrica derin ögrenme modülü (106) ile ileriye dönük olarak sisteminin sürekli olarak ögrenerek hatalarin önüne geçilmesi saglanir. Derin ögrenme modülü içerisinde (106), (601) Olusturulan yüksek dinamik aralikli görüntü belirlenen boyutlandirma katsayisina göre yeniden boyutlandirilir. (602) Yeni olusturulmus görüntü yüz tespit için derin ögrenme modülüne verilir. (603) Resimde var olan yüzlerin pozisyonlari alinir. (604) Her yüz için belirli sayida isaret (Iandmark) koordinatlari alinir. (605) Belirlenen yüz bölgeleri içerdigi koordinat noktalarini bozmayacak sekilde büyütülür. (606) Yeni hesaplanmis yüz bölgelerinin orijinal görüntüde denk geldigi kisimlari hesaplanarak derin ögrenme modülüne verilir. (607) Her yüz için yüz hattini belirten belirli sayida çift degerler alinir. (608) Her yüz için belirlenen degerler veri tabaninda kayitli yüz degerleri ile karsilastirilir. (609) Belirtilen esik degerini geçmesi durumunda en çok benzeyen yüz olarak kabul adimlarini barindirmaktadir. Derin ögrenme modülü (106) içerisinde olusturulan ve termal akis (105) basamaginda filtrelenen görüntü belirlenen bir katsayi ile tekrardan boyutlandirilir. Boyutlandirilan bu görüntünün yani sira ana görüntü de saklanmaya devam eder. Derin ögrenme modülüne tanimlanan görüntü yüz tespiti için ilk olarak yüzlerin pozisyonlarini belirler. Her yüz için kullanim durumuna göre farkli sayilarda isaret koordinatlari alinir. Bu koordinatlari ve pozisyonu belirlenen yüzler koordinatlari bozulmayacak sekilde istenilen ve gerekli olan boyutlara büyütülür. Orijinal görüntü ve hesaplanmis görüntü denklestirilerek derin ögrenme modülüne girisi yapilir. Bu asamada her yüz için yüz hattini belirten tercihen 64 çift olarak belirtilen fakat kullanim durumuna göre degiskenlik gösterebilecek degerler belirlenir. Bu degerler ve ögrenme sonucunda veri tabaninda olusan ögrenme sonucu elde edilen degerler karsilastirilir. Esik degerinin asmasi ile beraber en ok benzeyen yüz olarak kabul edilir. Kodlama ve yayinlama basamagi (107), (701) Filtrelenmis görüntü kodlanmak üzere farkli bir renk modeli ve kodlama formatina çevrilir. (702) Farkli formata çevrilen görüntü, gömülü cihazin donanim kodlayicisi kullanilarak bir sikistirma formatina kodlanir. (703) Sikistirma formatina kodlanmis veriye ekstra bilgiler sifrelenerek eklenir. (704) Sifrelenmis veriler ile birlikte kodlanmis sikistirilmis veri yayinlanmak üzere ayristirilir. (705) Ayristirilan veri bir multimedya yazilimi ile ag üzerinden belirlenen bir ag protokolü ile yayinlanir. adimlarindan meydana gelmektedir. Filtrelenmis görüntü daha düsük bant genisligine sahip bir formata çevrilir. Bu format için YUV420 tercih edilmesi ile beraber farkli formatlarda kullanilabilir. Formati degistirilen görüntü gömülü sistemin donanim kodlayicisi yardimi ile sikistirma formatina kodlanir. Bu sikistirma formati için H264 tercih edilmistir. Fakat farkli formatlar da kullanilabilir. Sikistirma formatina kodlanmis verilere filtrelenmis yüz bölgeleri, yüksek dinamik aralikli görüntü parametreleri ve buna benzer ekstra bilgiler de sifrelenir. Sifrelenen bilgiler SEI (Self Encrypting Information) verileri olarak kodlanmis sikistirilmis veriler yayinlanmak üzere ayristirilir. Ayristirilmis veriler bir multimedya yazilimi yardimi ile ag üzerinden gerçek zamanli ag protokolü (Real Time Streaming Protocol - RTSP) kullanarak yayinlanir. Tercihen bir multimedya yazilimi olan Gstreamer yapisini kullanan bir RTSP sunucu kütüphanesi kullanilabilir. Mahremiyet sistemi (1) filtreleme isleminde 5 farkli filtre kullanmaktadir. Bunlar, 801) Maske filtresi 802) Ters renk filtresi (803) Bilateral filtresi (804) Buzlanma filtresi 805) Pikselleme filtresi seklinde uygulanmaktadir. Farkli amaç ve kullanim noktalarina göre farkli filtreler de uygulanabilir. Maske filtresi (801) dahilinde tespit edilen yüz bölgeleri ve elle çizilmis bölgeler alinir. Seçilen renk ve opaklik derecesine göre bölgelerdeki piksel degerleri tekrar hesaplanir. Ters renk filtresi (802), tespit edilen yüz bölgelerinin ve elle çizilmis bölgelerin alindigi bir filtredir. Seçilen palet ve sikistirmaya göre önceden belirlenmis tablolar kullanilarak mevcut pikselin yeni degerlerine göre haritalanir. Bilateral filtresi (803) de tespit edilen yüz bölgeleri ve elle çizilmis bölgeleri alir. Belirlenen degerler ve alinan bölgelere özel kenar koruyucu filtre olusturulur. Bu sekilde bir filtre kullanilarak görüntü filtrelenir. Buzlanma filtresi (804) diger filtrelerde de oldugu gibi tespit edilen yüz bölgeleri ver elle çizilmis bölgeler alinir. Gürültülerden kurtulmak amaci ile çözünürlüge göre otomatik gauss filtresi hesaplanir. Seçilen buzlanma miktarina göre kullanilan kernel boyutu degistirilerek görüntü filtrelenir. Pikselleme filtresinde (805) de ayni sekilde tespit edilen yüz bölgeleri ve elle çizilmis bölgeler alinir. Seçilen pikselleme miktarina ve mevcut çözünürlüge göre belirtilen alanlardaki piksel boyutu hesaplanir. Belirlenen piksel alanlarinin o bölgedeki ortalama piksel degerine esitlenir. Mahremiyet ve güvenlik konulari esasen bir terazinin iki ayri kefesinde bulunan denge unsurlaridir. Mahremiyetin artmasinin dogal sonucu güvenligin azalmasi, güvenligin artmasinin dogal sonucu ise mahremiyetin azalmasidir. Mahremiyet sistemi (1) içerisinde barindirilan kameralar üzerinde gömülü çalisan mahremiyet yazilimi, sahnede olusan tüm olaylarin takip edilmesine izin verirken, kisilerin yüzlerinin yetkili kisiler disinda görüntülenmesini engelleyecektir. Bu sayede hem mahremiyetin hem de güvenligin ayni anda artmasina olanak saglayacaktir. Mahremiyet sistemi (1) dahilinde kullanilan yapay zekâ ve derin ögrenme algoritmalari ile beraber temelde sahislarin yüzlerini ve seçili bölgeleri filtreleme islemini yapmaktadir. Fakat kullanilan yapay zekâ ve derin ögrenme algoritmalari yardimi ile kisilere ait hassas verilerin tamami filtrelenebilir. Ofis ve benzeri ortamlarda sirketlerin gizlilik içeren bilgilerini güvenlik kayitlarinda filtreleme amaci ile kullanilabilir. Derin ögrenme modellerinin yapisi itibari ile bilinen sürekli ögrenme modeli burada kullanilabilir. Ayrica sistemin suç unsuru içeren durumlarda görüntüyü degerlendirerek yetkili mercilere iletme ve/veya bilgi verme gibi güvenlik konularinda karar verme refleksi barindirabilmektedir. Kamera sistemi (2), birinci kamera (3), ikinci kamera (4) ve termal kamera (5) olmak üzere üç kameradan ve bunlarin verilerini isleyen bir dijital sinyal islemciden (10) meydana gelmektedir. Birinci kamera (3) ve ikinci kamera (4) görüntü almak ve görüntüye derinlik kazandirmak amaci ile konulmustur. Termal kamera (5) ise alinan görüntüde kisilerin tespit edilmesi sirasinda ilk filtrelemeyi yapmak amaci ile kullanilmaktadir. Termal kamera (5) sahislarin vücut isininin takip edilmesi ile beraber tenlerinin açikta oldugu noktalarin tespitini yapmaktadir. Bu sayede sahislarin ayirt edici hassas veri niteligi tasiyan ten rengi, yüz sekli, saç yapisi gibi özelliklerini filtreleyebilmektedir. Birinci kamera (3) ve ikinci kamera (4) içerisinde birinci çip (6) ve ikinci çip (7) olmak üzere iki adet mikroçip bulundurmaktadir. Mikroçipler kendi içerisinde farkli görevler barindirmakla beraber kamera içerisine entegre edilmektedir. Kameralar bir adet lens (8) bulundurmaktadir. Lens (8) aldigi görüntüyü sisteme ileterek görüntü islendikten sonra bir erisim noktasi (15) ile sisteme gönderilmektedir. Buradan sonra görüntünün sunucu üzerinde islenmesi gerçeklestirilmektedir. Burada iletisim LAN/Internet protokolüne göre yapilmaktadir. Tasarim ve uygulama biçimine göre farkli iletisim yöntemleri de kullanilabilir. Birinci çip (6) içerisinde bir sensor (9) ve bir dijital sinyal islemci (10) (Digital Signal Processor- DSP) barindirmaktadir. Sensor (9) görüntü sensoru olup alinan görüntünün tespitini yapmaktadir. Alinan görüntü ilgili görüntü isleme süreci için islemciye (10) iletilir. Birinci çip (6) üzerinde görüntünün son halini almasi ile beraber ilgili veri ikinci çipe (7) iletilir. Ikinci çip (7) içeriginde bir ag karti (12), bir entegre devre (11) ve bu entegre devreye (11) bagli okuma bellegi (12) ve dinamik bellek (13) bulundurmaktadir. Entegre devre (11) bir yongada sistem (System on a Chip-SoC) üzerinde bir bilgisayar elemanlarinin barindirdigi her türlü alt parçaya sahip olabilen bir sistemdir. Entegre devre (11) sistemi video ve sesin sikistirilmasi ve tekrar eski haline döndürülmesi islemlerini gerçeklestiren bir sistemdir. Tercihen H264 sikistirma formati kullanilmakla beraber farkli islemlerinde gerçeklestirilmesi mümkündür. Entegre devre (11) içerisinde yaptigi islemlerin depolanmasi için bir okuma bellegi (12) ve islemlerin hizinin artirilmasi amaci ile bir rasgele erisilebilir bellek (Random Access Memory - RAM) olan dinamik bellek (13) bulundurmaktadir. Entegre devre (11) üzerinde islenen bütün veriler herhangi bir baglanti türü ile sistemde bir ag karti yardimi ile ilgili erisim noktasi (15) üzerinden sunucuya iletilmektedir. TR TR TR DESCRIPTION THERMAL SENSOR SUPPORTED IMAGE PROCESSING PRIVACY CAMERA Technical Field This invention aims to prevent the violation of personal privacy of all people in any environment due to the unauthorized recording of images of all people in security cameras, by automatically detecting people and automatically detecting all faces entering the image and using different filters and filters. It concerns the development of a thermal sensor-assisted image processing privacy camera that reversibly masks by applying blurring/or blurring. Prior Art With the development of camera and lens technologies, their use in daily life has become very widespread. In addition to its active use by security forces in tracking and detection situations, its use in homes and workplaces for the purpose of protection and deterrence against crime is increasing day by day. Especially the use of closed circuit television cameras (Close Circuit Television Cam - CCTV Cam) is increasing day by day. The size of CCTV systems in the global market is over 3 Billion dollars. It is estimated that the market will exceed 4 billion dollars by 2025. (Research and Markets report). Again, the market is expected to emerge in Turkey. However, there are problems regarding the violation of personal privacy that comes with these systems. In this context, visual data is also included in the scope of personal information security guaranteed by the "Data Security Directive", "EU Human Rights Convention" and "EU Privacy Protection Directive" in the European Union countries. In our country, visual data is secured within the scope of KVKK. While even SMS cannot be sent to people without their permission under KVKK, we are viewed and recorded by dozens of cameras every day. The need for uninterrupted security 24/7/365 prevents the necessary attention to be paid to privacy, and violations of privacy occur at every point of our lives, from shopping malls to subways, from the corner market to traffic lights. In addition, hundreds or even thousands of cameras are in operation, especially in industrial facilities, military zones, and high security areas. The maximum number of screens that a security operator can monitor simultaneously is 4, the number of meaningful images that can be played on one screen is maximum 16, and as a result, the maximum number of cameras that can be monitored by a total operator is 64. It has been proven by various studies that the attention level of operators on almost identical images is 80% after 15 minutes, 60% after 1 hour, and below 40% after 2 hours. For these reasons, for example, in a system with 320 cameras, the number of operators that need to work at the same time is 5 people, 3 shifts and when the permissions are taken into account, there is a need for a total of 20 people to monitor us. Considering that the cost of an operator for one person is 750 USD per person per month in today's value, and the economic life of these systems is 7 years according to Tübitak's valuation, the total cost is 1.26 million USD. In other words, the cost per camera is 4000 USD. Reducing operator costs is The only way to reduce operator costs is to create smart systems, and the only way to achieve this is with an IP Camera that can successfully run smart video analytics software. However, making smart inferences by processing the images taken from the cameras is not enough, because the cameras on the market do not include privacy protection, but they can be done outside the camera. Even though they are tried, the image can be copied while being transmitted to the processing point and is open to cyber security attacks. For this reason, even though these cameras can provide great benefits, they cannot be used in monitoring the elderly and people in need of care in patient rooms and prison rooms. However, protecting privacy directly on the camera allows applications that have not been possible until now. It provides opportunities. The flow of any intrusive image on the network is prevented, and the need and cost of high computer processor unit (CPU), random access memory (RAM) and graphics processor unit (GPU) required for image processing operations are eliminated. Thanks to the efficient video analytics obtained thanks to the use of dual cameras, much more efficient, event-oriented, analytics-based monitoring operations can be carried out with 1/3 operator. Within the scope of the invention, a system that records only the images of the relevant target while performing autonomous photography is mentioned. The system decides whether the camera on an unmanned aerial vehicle is allowed autonomously in the relevant region and records only the relevant images with location and geographical information. Although the developed system basically captures the relevant image with the help of a single camera, it does not record continuously. In addition, the deficiency is felt in not saving the desired image for later use. Another known application of the technique is the United States patent application numbered USZOO70286520A1. In the relevant application, a system for use in a desktop application where a video call is made is mentioned, which blurs the image by keeping only the image of the person participating in the call and does not allow the person in the background to be seen. Although the system is an application developed for instant use, there is no recording or autonomous detection. In this context, it has no purpose in preventing anonymous images of a single camera and people. Blurring of background and unwanted images is mentioned. Brief Description of the Invention The purpose of this invention is to develop a thermal sensor-supported image processing privacy camera in order to ensure sensitivity regarding the protection of personal data in images taken in public and private areas. Another purpose of this invention is to develop a thermal sensor-supported image-processing privacy camera that enables the rotation of relevant screened images, taking into account public security in any social events. Another aim of this invention is to develop a thermal sensor-supported image processing privacy camera that can perform the most appropriate filtering for the environment with different filtering techniques. Another purpose of this invention is to develop a thermal sensor-supported image-processing privacy camera that allows clear detection of people in the environment with the support of thermal cameras. Another purpose of this invention is to develop a thermal sensor-supported image-processing privacy camera that allows increasing the result efficiency of the model by using artificial intelligence and deep learning algorithms with the personal data received from thermal cameras. Another aim of this invention is to develop a thermal sensor-supported image processing privacy camera that provides the most accurate filtering along with depth perception by using two cameras. Another aim of this invention is to develop a thermal sensor-supported image processing privacy camera that can filter different details that can personalize data in the environment as well as person detection, by using relevant artificial intelligence and deep learning algorithms. Definitions of Figures Explaining the Invention Below are the figures and related explanations used to better explain the thermal sensor supported image processing privacy camera developed with the invention. Figure-1 is the view of the flow diagram showing the working algorithm of the thermal sensor-supported image processing privacy camera according to the invention. Figure-2 is the schematic view of the flow showing the depth and optical flow detection algorithm of the thermal sensor-supported image processing privacy camera according to the invention. Figure-3 is the schematic view of the flow showing the high dynamic range image creation algorithm of the thermal sensor-assisted image processing privacy camera according to the invention. Figure-4 is the schematic view of the flow showing the high dynamic range tone matching algorithm of the thermal sensor supported image processing privacy camera according to the invention. Figure-5 is the schematic view of the flow showing the thermal flow algorithm of the thermal sensor supported image processing privacy camera according to the invention. Figure-6 is the schematic view of the flow showing the deep learning module algorithm of the thermal sensor-supported image processing privacy camera according to the invention. Figure-7 is the schematic view of the flow showing the coding and broadcasting algorithm of the thermal sensor-supported image processing privacy camera according to the invention. Figure-8 is the schematic view showing the filtering process of the thermal sensor supported image processing privacy camera according to the invention. Figure-9 is the schematic view of the subsystems of the thermal sensor supported image processing privacy camera according to the invention. The elements shown in the figures are numbered and their equivalents are below. Privacy system Camera system First camera Second camera Thermal camera First chip Second chip Sensor. Digital signal processor. Integrated circuit. Reading memory . Dynamic memory 14. Network card. Access point Detailed Description of the Invention The invention is basically a privacy system (1) that filters the images taken with a camera system (2) in a way that hides people's sensitive data by passing them through certain processes. The camera system (2) contains 3 cameras: the first camera (3), the second camera (4) and the thermal camera (4). The first camera (3) and the second camera (4) work with two different microprocessors, the first chip (6) and the second chip (7). The privacy system (1) performs filtering by completing the main algorithm in seven steps. Each step also contains algorithm steps. It basically includes the (1) main algorithm of the privacy system, 101) Depth detection 102) Optical flow detection 103) YDA image creation (104) YDA tone matching algorithm (105) Thermal flow (106) 107) Coding and publishing steps in the deep learning module. The system provides a filtered image as a result of the main algorithm. The depth map and heat map obtained as a result of the use of dual cameras, namely the privacy system (1), the first camera (3) and the second camera (4), are created. More cameras can also be used within the privacy system (1). In addition, with the low-resolution thermal camera (5), areas such as the human face and body that require privacy are detected on high-resolution image data with the help of cameras. Depth detection (101) and optical flow detection (102), (201) Images are taken at different exposures from the dual camera system. (202) The distortion effect in the images is removed by using calibrated and calculated values. (203) Distorted images are aligned horizontally to create a depth map. (204) Optical flow and depth map are obtained from the images corrected and prepared for the depth map, using total variation optical flow. (205) Noise in the depth map is removed by using erosion and expansion filters calculated according to the resolution. It is carried out with the following steps. Depth detection (101) and optical flow detection (102) steps are carried out with the help of the first camera (3) and the second camera (4). The images taken from the dual camera system are edited and errors on the images are corrected. Once all the arrangements are made, the optical flow and depth map is created. After the map is drawn, any defects on the depth are eliminated and its final form is ensured. The cameras have the feature of taking high dynamic range images. While doing this, images can be taken in difficult light conditions by producing a high dynamic range image stream by making both stereo (dual aperture) and variable exposure (exposure bracketing). Creating high dynamic range images (103), (301) Images with different exposure values are taken from the camera. (302) Exposure values to be taken in the future according to changing light conditions are calculated using the image at the mid-exposure value. (303) Images with different exposure values are converted to RGB (Red-Green-Blue) images. (304) Exposure matching is done using the available exposure values to combine the images. (305) According to the pre-calculated table, a separate normalized weight map is created for each pose. (306) A single high dynamic range image is created using the calculated weight maps and different poses. It consists of steps. In the high dynamic range image creation (103) stage, the images transmitted from the camera are adjusted according to variable light conditions depending on the values of the determined reference pose. These exposure values are also used in future images. The images converted to RGB images are combined according to the values of the received images. Errors on the poses are eliminated and mapped using pre-calculated weight values that do not have a unit. All data is collected to create a dynamic range image. The tone matching process begins with the created image. The high dynamic range tone matching algorithm (104) converts the created high dynamic range image (401) into a single channel image by multiplying it with predetermined and different coefficients for each channel. (402) The average logarithmic brightness value of the created single-channel image and its minimum and maximum values are calculated, excluding extreme 1% values. (403) A tone matching filter is created by using the calculated values together with a predetermined curve value, saturation coefficient and single-channel image. (404) The tone matching filter is multiplied by the original high dynamic range image and the tone matching result is created. (405) The resulting tone matching result is reduced to the 0-1 range and made ready by making gamma correction according to the determined gamma value. It is carried out within the framework of the steps. After the high dynamic range image creation (103) stage, the captured image is converted into a single-channel image by editing it with certain coefficients. Maximum and minimum values are calculated independently of the average logarithmic brightness and extreme values. A tone matching filter is created using these values, the curve value, the image saturation coefficient and the resulting single-layer image. The resulting tone matching filter and the resulting image are multiplied in the high dynamic range image creation (103) stage. The obtained tone matching result is normalized and a gamma value in the range of 0-1 is obtained, and by removing this value from errors, the high dynamic range tone matching (104) step is achieved. Thermal camera (5) enables face detection of persons, especially unauthorized access, and all other video analytics to work with a high success rate. In this context, the thermal flow (105) step is performed by using a thermal camera (5). Thermal flow (105), (501) As a result of the correct configuration, a thermal image is taken from the thermal camera. (502) The received thermal image is resized so that it can be used with the image received from the main camera. (503) Using the predetermined threshold value, a binary filter is generated from the newly resized thermal image. (504) Noises in the created filter are eliminated by using wear and expansion filters calculated according to the resolution. (505) The image is filtered with the filter created before face detection and identification. It is carried out with the following steps. With the correct positioning of the thermal camera (5), the thermal images taken are matched with the images taken from the first camera (3) and the second camera (4) and edited. The final version of the image is filtered and edited with the threshold value determined by previous calculations. This image taken at the end of the thermal flow (105) is used as the first filtering before artificial intelligence filtering. The images taken after the thermal flow (105) step are developed with the relevant artificial intelligence and deep learning algorithms and the existing filtering is arranged. In addition, with the deep learning module (106), errors are prevented by continuously learning the system in the future. In the deep learning module (106), (601) The created high dynamic range image is resized according to the determined sizing coefficient. (602) The newly created image is given to the deep learning module for face detection. (603) The positions of the faces in the picture are taken. (604) A certain number of Iandmark coordinates are taken for each face. (605) The specified face regions are enlarged in a way that does not distort the coordinate points they contain. (606) The parts of the newly calculated face regions that correspond to the original image are calculated and given to the deep learning module. (607) For each face, a certain number of pairs of values are taken to indicate the facial contour. (608) The values determined for each face are compared with the face values recorded in the database. (609) It includes the steps of accepting it as the most similar face if it exceeds the specified threshold value. The image created in the deep learning module (106) and filtered in the thermal flow (105) step is resized with a determined coefficient. In addition to this resized image, the main image continues to be stored. The image defined to the deep learning module first determines the positions of the faces for face detection. Different numbers of sign coordinates are taken for each face, depending on the usage situation. The faces whose coordinates and positions are determined are enlarged to the desired and required dimensions without distorting the coordinates. The original image and the calculated image are balanced and entered into the deep learning module. At this stage, values are determined for each face, preferably 64 pairs, indicating the facial contour, but which may vary depending on the usage situation. These values and the values obtained as a result of the learning in the database are compared. Once the threshold value is exceeded, it is considered the most similar face. Coding and broadcasting steps (107), (701) The filtered image is converted into a different color model and coding format to be coded. (702) The converted image is encoded into a compression format using the hardware encoder of the embedded device. (703) Extra information is encrypted and added to the data encoded in the compression format. (704) The encoded compressed data along with the encrypted data are parsed for broadcast. (705) The parsed data is broadcast over the network by a multimedia software with a determined network protocol. It consists of steps. The filtered image is converted to a lower bandwidth format. Although YUV420 is preferred for this format, it can be used in different formats. The formatted image is encoded into the compression format with the help of the hardware encoder of the embedded system. H264 is preferred for this compression format. However, different formats can also be used. Extra information such as filtered facial regions, high dynamic range image parameters, and so on are also encrypted in the data encoded in the compression format. The encrypted information is encoded as SEI (Self Encrypting Information) data and the compressed data is parsed for publication. The parsed data is broadcast over the network using a real-time network protocol (RTSP) with the help of a multimedia software. Preferably, an RTSP server library using the Gstreamer structure, which is a multimedia software, can be used. The privacy system (1) uses 5 different filters in the filtering process. These are applied as 801) Mask filter 802) Inverse color filter (803) Bilateral filter (804) Frosting filter 805) Pixelation filter. Different filters can also be applied according to different purposes and usage points. The facial areas and hand-drawn areas detected within the mask filter (801) are taken. Pixel values in the regions are recalculated according to the selected color and opacity degree. The inverse color filter 802 is a filter through which the detected facial areas and hand-drawn areas are taken. It is mapped according to the new values of the current pixel using predetermined tables according to the selected palette and compression. The bilateral filter 803 also receives the detected face regions and hand-drawn regions. A special edge protection filter is created for the specified values and regions taken. In this way, the image is filtered using a filter. In the frosting filter (804), as in other filters, the detected facial areas and hand-drawn areas are taken. In order to get rid of noise, an automatic Gaussian filter is calculated according to the resolution. The image is filtered by changing the kernel size used according to the selected amount of icing. In the pixelation filter (805), the detected face regions and hand-drawn regions are taken in the same way. Pixel size in specified areas is calculated based on the selected pixelation amount and current resolution. It is set equal to the average pixel value of the specified pixel areas in that region. Privacy and security issues are essentially balance elements on two separate sides of a scale. The natural result of increasing privacy is the decrease in security, and the natural result of increasing security is the decrease of privacy. The privacy software embedded on the cameras housed within the privacy system (1) will allow all events occurring on the stage to be followed, while preventing people's faces from being viewed except by authorized persons. In this way, it will allow both privacy and security to increase at the same time. With the artificial intelligence and deep learning algorithms used within the privacy system (1), it basically filters people's faces and selected areas. However, with the help of artificial intelligence and deep learning algorithms, all sensitive personal data can be filtered. It can be used to filter companies' confidential information in security records in offices and similar environments. The continuous learning model, known due to the structure of deep learning models, can be used here. In addition, the system can include a decision-making reflex on security issues, such as evaluating the image in cases involving criminal elements and forwarding it to the competent authorities and/or providing information. The camera system (2) consists of three cameras: the first camera (3), the second camera (4) and the thermal camera (5) and a digital signal processor (10) that processes their data. The first camera (3) and the second camera (4) are placed to take images and add depth to the image. Thermal camera (5) is used to make the first filtering while detecting people in the captured image. Thermal camera (5) monitors the body temperature of the persons and detects the points where their skin is exposed. In this way, it is possible to filter individuals' distinctive sensitive data such as skin color, face shape and hair structure. There are two microchips in the first camera (3) and the second camera (4), the first chip (6) and the second chip (7). Microchips have different functions and are integrated into the camera. Cameras have one lens (8). The lens (8) transmits the image it receives to the system, and after the image is processed, it is sent to the system via an access point (15). From here, the image is processed on the server. Here, communication is done according to LAN/Internet protocol. Different communication methods can be used depending on the design and implementation style. The first chip (6) contains a sensor (9) and a digital signal processor (10) (Digital Signal Processor-DSP). Sensor (9) is an image sensor and detects the received image. The received image is transmitted to the processor (10) for the relevant image processing process. Once the image takes its final form on the first chip (6), the relevant data is transmitted to the second chip (7). The second chip (7) contains a network card (12), an integrated circuit (11) and reading memory (12) and dynamic memory (13) connected to this integrated circuit (11). Integrated circuit (11) is a system on a chip (SoC) that can have all kinds of sub-parts containing computer elements. The integrated circuit (11) system is a system that performs the compression and restoration of video and audio. Although H264 compression format is preferably used, it is possible to perform different processes. The integrated circuit (11) contains a reading memory (12) to store the operations it performs and a dynamic memory (13), which is a random access memory (RAM) to increase the speed of operations. All data processed on the integrated circuit (11) is transmitted to the server via the relevant access point (15) with the help of a network card in the system with any type of connection. TR TR TR