Przyszłość cyberbezpieczeństwa: budowanie odpornych celów, które same się bronią
Opublikowany: 2020-05-24Nasz układ odpornościowy jest jak samokontrolujący się mechanizm uczenia maszynowego
Wzbogać silnik decyzyjny o inteligencję „od wewnątrz” i „od zewnątrz”, aby identyfikować nowe zagrożenia
Sztuczna inteligencja powinna umożliwić autonomiczną naprawę systemu i aklimatyzację nowych wzorców
Oczekuje się, że cyberataki będą rosły wykładniczo pod względem głośności i zaawansowania, jednak mechanizmy obronne pozostają szczątkowe. W przeważającej mierze wysiłki większości organizacji w zakresie bezpieczeństwa koncentrują się na budowaniu silnych murów obronnych zaprojektowanych w celu powstrzymywania złośliwych podmiotów, wirusów i programów; w rzeczywistości te mury obronne przetrwają tylko do czasu, gdy atakujący znajdą sposób na przeskoczenie muru.
Organizacje muszą dążyć do zapewnienia, aby ich systemy, sieci, środowisko i dane były odporne i zdolne do samoobrony.
Rysowanie odniesień z biologii
Walka między wirusem a jego celem (w kategoriach biologicznych „gospodarzem”) trwa w organizmach biologicznych od milionów lat. Poprzez ewolucję ludzie opracowali zaawansowane systemy obronne, które blokują zewnętrzne wirusy i bakterie, a jednocześnie monitorują i atakują wewnętrzne zagrożenia.
Podobnie jak pandemia Covid-19, której świat jest teraz świadkiem, nowe szczepy wirusów będą się rozwijać, a z czasem fizjologia człowieka wytworzy przeciwciała, aby odeprzeć ataki.
Nasza skóra to pierwsza warstwa obrony, działająca jak zaawansowana bariera, podobnie jak zapora ogniowa. Skóra zapobiega zagrożeniom zewnętrznym i może się naprawić po ataku. Jego możliwości uzupełnia praca układu odpornościowego, który pełni rolę drugiej warstwy obronnej.
Nasz układ odpornościowy jest jak samokontrolujący się mechanizm uczenia maszynowego. Monitoruje wewnętrzne środowisko organizmu; definiuje i uczy się, co jest uważane za normalne zachowanie komórek; a gdy wystąpi anomalia, reaguje na nią w czasie rzeczywistym.
Przyszłość cyberbezpieczeństwa leży w systemach samoobrony
Chociaż organizm ludzki nie jest w stanie wygrać każdej bitwy z wirusami i obcymi elementami, jego możliwości samomonitorowania, uczenia się i leczenia zapewniają wgląd w to, jak powinny działać przyszłe rozwiązania w zakresie cyberbezpieczeństwa.
System samoobrony powinien być w stanie identyfikować nienormalne obce elementy, czynności, programy i złośliwe kody za pomocą adaptacyjnego uczenia maszynowego w oparciu o zrozumienie normalnego systemu, aplikacji i zachowania przepływu danych.
Polecany dla Ciebie:
System powinien również być w stanie samodzielnie przywracać normalną funkcjonalność, powodując dysfunkcję obcych elementów i złośliwych programów.
Ramy Systemów Samoobrony
Za fundamentalne elementy systemów samoobrony uważam cztery kluczowe elementy. Te podstawowe elementy to zasadniczo dopracowanie zautomatyzowanego zestawu reguł zaprojektowanych do monitorowania zachowania systemu, diagnozowania potencjalnych nieprawidłowości, reaktywowania systemu poprzez usuwanie złośliwych komponentów i wreszcie włączania do systemu nowych normalnych/nienormalnych wzorców zachowań.
Możliwości te są możliwe dzięki zwiększeniu podstawowych elementów sztucznej inteligencji, uczenia maszynowego i predykcyjnych technologii analitycznych.
Monitorowanie zachowań
Ciągle sprawdzaj w stosunku do stanu wyjściowego, wzbogacaj silnik decyzyjny o inteligencję „od wewnątrz” i „od zewnątrz”, aby identyfikować nowe zagrożenia
Błędna diagnoza
Identyfikacja nienormalnego atrybutu i korelacja sytuacji
Rewitalizacja
Rewitalizacja za pomocą państwowego modelu odrodzenia poprzez dysfunkcję złych funkcji, nieznanych programów i obcych plików wykonywalnych
Zaaklimatyzować
Zaaklimatyzować się i uodpornić, wbudowując nowe normalne/nieprawidłowe wzorce do mechanizmów podejmowania decyzji
Technologia, która wzmacnia cztery podstawowe elementy
Korzystając z map i analiz historycznych zachowań, systemy samoobrony powinny w czasie rzeczywistym formułować zalecenia dotyczące działań, które należy podjąć w odpowiedzi na zewnętrzne „nietypowe” zdarzenie. Jest to również powszechnie określane jako adaptacyjne uczenie maszynowe, które obejmuje:
- Definiowanie stanu normalnego i nieprawidłowego (przechwytywanie stanu systemu)
- Monitorowanie aktualnego stanu systemu (analiza stanu systemu)
- Ustalenie „WHO” i zidentyfikowanie przyczyny incydentów (analiza podejrzeń)
- Zrozumienie „CO”, „JAK” i „DLACZEGO” dotyczące incydentów (treść i kontekst)
- Zastosowanie analizy biznesowej do zrozumienia zagrożeń w kontekście branży organizacji (współzależność zagrożeń specyficznych dla branży)
- Identyfikacja i analiza potencjalnych luk w systemach (cykl życia podatności aktywów)
Ponadto sztuczna inteligencja powinna umożliwiać autonomiczną naprawę systemu i aklimatyzację nowych wzorców poprzez:
- Monitorowanie i neutralizowanie nieprawidłowego zachowania wszystkich wprowadzonych z zewnątrz plików, funkcji, programów i plików wykonywalnych (neutralizacja elementów obcych)
- Stworzenie wirtualnego środowiska dla obcych elementów wykazujących nienormalne zachowanie (boks więzienny w czasie rzeczywistym)
- Tworzenie odpowiedzi systemów na potencjalne scenariusze ataków w oparciu o analizę zagrożeń (odpowiedź wektora ataku)
- Monitorowanie wszystkich zagrożeń dla zasobów systemów z aktywnym modelem ograniczania ryzyka (uodpornianie modelowania zagrożeń)
- Aktywacja alertu o ryzyku w czasie rzeczywistym dla wszystkich aplikacji (zarządzanie zagrożeniami systemu)
- Powiązanie informacji zebranych na temat podatności systemów i ocena potencjału wszelkich exploitów (korelacja podatności i exploitów)
- Ocena możliwości wystąpienia zagrożeń na podstawie analizy zachowań aktorów zagrożeń (modelowanie predykcyjne zagrożeń)
Podsumowując, kolejną granicą rozwiązań z zakresu cyberbezpieczeństwa będą najprawdopodobniej systemy samoobrony, które nieustannie znajdują nowe zagrożenia, reagują na nie i usuwają się z nich. Ten typ systemu znacznie zmniejszy ryzyko ataku; co ważniejsze, zmniejszy atrakcyjność organizacji jako celu hakerskiego dla cyberprzestępców.