Technologie związane z nową generacją sieci komórkowych – 5G – otwierają zupełnie nowe możliwości w monitoringu wizyjnym. Cechująca się nieporównywalną z dotychczasowymi sieciami pojemnością sieć nowej generacji udźwignie do 1 miliona urządzeń na kilometr kwadratowy, komunikujących się ze sobą w czasie rzeczywistym. Raport Digital Poland „5G szanse, zagrożenia, wyzwania” nie pozostawia wątpliwości – urządzenia będą się komunikowały szybciej, sprawniej – w zasadzie bez opóźnień (do 1 ms!), a nawet będąc w ruchu i to przy prędkościach do 500 km/h.
Biorąc pod uwagę trend przenoszenia globalnej mocy obliczeniowej na krawędź sieci, a więc bezpośrednio do urządzeń końcowych – kamery będą w najbliższej przyszłości analizowały obraz i komunikowały się między sobą oraz z pozostałymi urządzeniami IoT w dowolnych zastosowaniach, zarówno smart city, jak przemysłowych, w ochronie zdrowia, czy w infrastrukturze krytycznej.
Raport Omdia „Usługi nadzoru wideo i analizy analitycznej”, opublikowany w lipcu 2020 r. wskazuje, że kluczowym trendem, który będzie kształtował rynek wbudowanej analizy wideo, jest możliwość przeprowadzania podstawowych analiz właśnie na krawędzi sieci. Ze względu na rosnącą ilość danych, a także jakość obrazów, Omdia prognozuje, że globalna moc obliczeniowa będzie przesuwać się w kierunku rozwiązań brzegowych.
To nie wszystko – aby w pełni wykorzystać potencjał monitoringu wizyjnego w sieci 5G, budowanej w oparciu o transmisję bezprzewodową, wymagana jest adaptacja najnowszych dostępnych technologii. Kamery wyposażone w oprogramowanie analityczne będą korzystać nie tylko z uczenia maszynowego, ale także tzw. uczenia głębokiego (deep learning), z wykorzystaniem sieci neuronowych. Wspomniany wyżej raport Omida prognozuje, że odsetek inteligentnych kamer z analizą głębokiego uczenia wzrośnie z ok. 8% w 2019 r. do ponad 58% w 2024 r.
W ramach programu partnerskiego Axis Application Development[1] wspierającego integrację oprogramowania firm trzecich z otwartą platformą AXIS Camera Application Platform, powstało już pierwsze rozwiązanie tej klasy. Jednostka przetwarzania deep learning (DLPU), opracowana celem umożliwienia kompleksowej analizy obrazu przez firmę BriefCam[2] – światowego lidera rozwiązań do analizy wideo – wykorzystała najnowszą kamerę wyposażoną w dedykowany układ DLPU[3] (Deep Learning Processing Unit) aby generować metadane bezpośrednio w kamerze, na krawędzi sieci.
Dzięki temu wyszukiwanie informacji z zapisu wideo może być dużo szybsze i wymagające znacznie mniej mocy obliczeniowej po stronie serwera. W niedalekiej przyszłości monitoring wizyjny będzie miał dzięki temu rozwiązaniu niższe koszty, prostsze procesy, ale też zmniejszone wymagania dotyczące przepustowości sieci, zaś we wdrożeniach na większą skalę elastyczność i efektywność będzie nieporównywalna do rozwiązań opartych o analizę serwerową.
Takie rozwiązania w monitoringu zapewniają przydatne informacje w zakresie bezpieczeństwa, ochrony oraz szerszą wiedzę biznesową, dodatkowo, dzięki analizie obrazu na krawędzi sieci, znika ograniczenie budowy, lub rozbudowy systemu wynikające z przepustowości sieci. Nawet dla dużych systemów rozwiązania oparte o chmurę obliczeniową stają się dostępne i uzasadnione ekonomicznie.
Uczenie maszynowe oraz uczenie głębokie w monitoringu wizyjnym daje przestrzeń dla niemal niezliczonych zastosowań – wielu z nich jeszcze nie znamy. Dodatkowo, system oparty o analizę na krawędzi sieci, będzie w stanie reagować szybciej i bardziej precyzyjnie na wykryte incydenty.
Monitoring wizyjny, który przewiduje wybryki chuligańskie, czy decyzje zakupowe, albo atrakcyjność punktu handlowego na podstawie zachowania grup lub pojedynczych osób, który podpowiada służbom, zarządom miejskim czy właścicielom sklepów, co się wydarzy, jest w zasięgu ręki.
Technologia deep learning, wsparcie niezliczonych urządzeń IoT poprzez sieć 5G oraz otwarte, łatwo integrowalne z dowolnym oprogramowaniem systemy monitoringu, po prostu otwierają świat wyobraźni i potrzeb na namacalną rzeczywistość.
Konrad Badowski, Axis Communications
[2] BriefCam Video Content Analytics
[3] Pierwszą taką kamerą jest AXIS Q1615 Mk III z podwójnym chipsetem ARTPEC-7