Bezpieczeństwo, sztuczna inteligencja i centra operacyjne: co jest istotne dla organizacji opieki zdrowotnej

Dla centrum operacji bezpieczeństwa (SOC) sztuczna inteligencja jest czynnikiem zwielokrotniającym, pomagającym organizacjom opieki zdrowotnej stawiać czoła wyjątkowym wyzwaniom związanym z bezpieczeństwem pacjentów, zgodnością z przepisami i złożonością środowisk obejmujących systemy kliniczne i administracyjne.
Szybko klasyfikuje hałaśliwe alerty i koreluje subtelne sygnały w elektronicznej dokumentacji medycznej , rejestrach w chmurze, punktach końcowych i medycznym Internecie rzeczy. Łącząc pozornie niegroźne zdarzenia w spójny obraz trwającego ataku, zapobiega umknięciu ludzkiej uwadze przez ukryte, długotrwałe kampanie.
W branżach takich jak opieka zdrowotna, w których ochrona danych pacjentów ma kluczowe znaczenie, centra operacyjne oparte na sztucznej inteligencji oferują decydującą przewagę w walce z coraz bardziej wyrafinowanymi atakami cybernetycznymi.
Adam Khan, wiceprezes ds. globalnych operacji bezpieczeństwa w firmie Barracuda , wyjaśnia, że sztuczna inteligencja ma już ogromny wpływ na operacje bezpieczeństwa, przyspieszając dochodzenia i zmniejszając obciążenie zespołów ds. bezpieczeństwa.
„Umożliwia szybsze i dokładniejsze wykrywanie zagrożeń oraz automatyczne reagowanie poprzez analizę dużej liczby alertów z różnych narzędzi i środowisk bezpieczeństwa” – wyjaśnia.
Na przykład sztuczna inteligencja potrafi wykryć podejrzaną aktywność, taką jak naruszenie bezpieczeństwa konta Microsoft 365 , i automatycznie zablokować dostęp w ciągu kilku sekund, zapobiegając w ten sposób dalszym szkodom.
„Taka reakcja z prędkością maszyny obniża ryzyko naruszenia bezpieczeństwa i pozwala analitykom skupić się na złożonych zagrożeniach” – mówi Khan.
POWIĄZANE: Spersonalizowane szkolenia SOC podnoszą kompetencje cybernetyczne, umożliwiając rozwój.
Generatywna i agentowa sztuczna inteligencja dla centrów obsługi klienta w ochronie zdrowiaGeneratywna sztuczna inteligencja przekształca surowe dane telemetryczne w działanie , podsumowując incydenty w prostym języku, tworząc skrypty powstrzymujące i przekształcając ustalenia techniczne w gotowe do przekazania aktualizacje uwzględniające wpływ regulacji.
Agentowa sztuczna inteligencja idzie o krok dalej, podejmując ograniczone, wstępnie zatwierdzone działania, realizując plany działania w piaskownicy o najmniejszych uprawnieniach, otwierając zgłoszenia, izolując punkty końcowe lub pobierając sygnały ryzyka tożsamości — zawsze informując człowieka o ważnych decyzjach.
Eliminuje również problemy związane z przekazywaniem zadań poprzez automatyczną eskalację incydentów do odpowiednich właścicieli przy użyciu zintegrowanych inwentaryzacji aktywów, harmonogramów dyżurów i podręczników reagowania na incydenty.
Na przykład może skierować nietypowy dostęp do chronionych informacji medycznych do zespołu ds. tożsamości lub incydent dotyczący klinicznej wirtualnej sieci LAN do zespołu ds. sieci.
„W połączeniu z generowaniem danych wspomaganych wyszukiwaniem na podstawie podręczników i historycznych przypadków nowi analitycy zyskują „drugiego pilota na każde zawołanie”, który zwiększa szybkość, spójność i jakość decyzji, zachowując jednocześnie zgodność z przepisami” — mówi Tom Gorup, wiceprezes ds. operacji SOC w Sophos .
Wyjaśnia, że agenci AI nie są narzędziami typu „ustaw i zapomnij”; w miarę aktualizacji modeli AI należy dokonywać aktualizacji również w ich przypadku.
Wraz ze zmianami w środowisku IT w służbie zdrowia, czy to w zakresie chmury, aplikacji, czy punktów końcowych, kierownictwo ds. bezpieczeństwa musi upewnić się, że agenci rozumieją te zmiany. W miarę rozwoju ataków muszą oni dysponować gotowymi playbookami, które pozwolą im na reagowanie.
„Oznacza to, że centra operacyjne opieki zdrowotnej będą musiały poświęcić rozwiązaniom z zakresu sztucznej inteligencji zupełnie inne podejście i poczynić inne inwestycje niż dotychczas” – mówi Gorup.
Rozwiązanie problemu niedoborów kadrowych w dziedzinie cyberbezpieczeństwa dzięki sztucznej inteligencjiMichael Stempf, wiceprezes działu produktów w firmie Commvault , uważa, że automatyzacja zadań o dużej objętości i niskiej złożoności oraz podnoszenie kwalifikacji obecnego personelu ma kluczowe znaczenie, biorąc pod uwagę poważne braki kadrowe w sektorze opieki zdrowotnej.
„Sztuczna inteligencja zajmuje się wstępną selekcją alertów, analizą logów, wzbogacaniem, gromadzeniem dowodów i korelacją „normalnie wyglądających” zdarzeń w celu oznaczania prawdziwych ataków” – wyjaśnia.
Automatycznie generuje projekty dochodzeń i kieruje je lub eskaluje do odpowiedniego właściciela, dzięki czemu analitycy nie tracą czasu na zastanawianie się, kogo zaangażować. Przyspiesza również proces wdrażania, przekształcając wiedzę instytucjonalną w wyszukiwalne, kontekstowe wskazówki, pomagając nowym pracownikom szybciej poruszać się po skomplikowanych zagadnieniach IT w służbie zdrowia.
„Dzięki temu centra SOC mogą działać efektywniej, zatrudniając mniejszą liczbę analityków pierwszego poziomu, a starsi specjaliści mogą poświęcić się wyszukiwaniu zagrożeń i reagowaniu na złożone incydenty , pod warunkiem, że dostęp do danych jest kontrolowany, a granice eskalacji jasno określone” – wyjaśnia Stempf.
Dzięki automatyzacji rutynowych zadań , takich jak filtrowanie alertów, analiza logów i redukcja liczby fałszywych alarmów, sztuczna inteligencja znacznie zwiększa produktywność analityków, pozwalając specjalistom ds. bezpieczeństwa poświęcić więcej czasu na złożone dochodzenia.
„Możliwości zautomatyzowanej reakcji pozwalają na szybsze powstrzymanie ataków, redukując obciążenie pracą ręczną i wypalenie zawodowe analityków” – mówi Khan.
W zakresie wykrywania sztuczna inteligencja wykorzystuje obszerne dane dotyczące zagrożeń i modele wyszkolone w cyberprzestrzeni, aby identyfikować zaawansowane wzorce ataków w czasie rzeczywistym.
„Poprawia to dokładność wykrywania, minimalizuje liczbę fałszywych alarmów i zapewnia głębszy wgląd w zachowanie atakujących, umożliwiając zespołom ds. bezpieczeństwa reagowanie w sposób bardziej zdecydowany i proaktywny” – wyjaśnia Khan.
Przygotowanie centrów bezpieczeństwa (SOC) na zagrożenia generowane przez sztuczną inteligencjęGorup uważa, że centra operacji bezpieczeństwa (SOC) muszą być gotowe na radzenie sobie z coraz szerszą gamą ataków wykorzystujących sztuczną inteligencję, w tym zagrożeniami socjotechnicznymi , zwłaszcza atakami typu deepfake (w tym połączeniami audio typu deepfake) i wiadomościami e-mail typu phishing .
„Aby przygotować się na zagrożenia generowane przez sztuczną inteligencję, centra operacji bezpieczeństwa (SOC) powinny regularnie przeprowadzać symulacje ataków z wykorzystaniem narzędzi sztucznej inteligencji” – mówi.
Ćwiczenia te pozwalają wykryć słabe punkty zarówno w procesach automatycznych, jak i ręcznych, pomagając zespołom wyprzedzać zmieniające się taktyki ataków i gwarantując odporność zarówno analityków, jak i systemów opartych na sztucznej inteligencji.
Dodaje, że centra operacyjne muszą nie tylko chronić swoje sieci organizacyjne, ale także bronić własnych pracowników, procesów i narzędzi.
„Atakujący zdają sobie sprawę, że obrońcy polegają teraz na sztucznej inteligencji i zaczną projektować ataki specjalnie w celu wykorzystania tych nowych zależności” – mówi Gorup.
OBEJRZYJ TERAZ: Czy potrzebujesz bezpieczeństwa z AI, dla AI czy od AI? Tak.
Przyszłość cyberbezpieczeństwa opartego na sztucznej inteligencji w opiece zdrowotnejPonieważ atakujący coraz częściej wykorzystują sztuczną inteligencję i automatyzację do przeprowadzania szybszych i bardziej złożonych ataków, organizacje zajmujące się opieką zdrowotną muszą przyspieszyć wdrażanie rozwiązań zabezpieczających opartych na sztucznej inteligencji, aby dotrzymać kroku tym zmianom.
Stempf twierdzi, że spodziewa się przejścia od operacji SOC „wspomaganych przez sztuczną inteligencję” do „koordynowanych przez sztuczną inteligencję”, przy czym autonomiczni agenci będą koordynować narzędzia i przepływy pracy od początku do końca zgodnie z zasadami bezpieczeństwa zgodnymi z powstającymi ramami, a ludzie zachowają uprawnienia decyzyjne w odniesieniu do systemów mających kluczowe znaczenie dla bezpieczeństwa pacjentów.
„Wykrywanie będzie w większym stopniu oparte na zachowaniu i kontekście, modelując ścieżki opieki nad pacjentem i normy dotyczące urządzeń, aby określić priorytety zagrożeń dla bezpieczeństwa i ciągłości opieki” – wyjaśnia.
Khan twierdzi, że biorąc pod uwagę ciągłe niedobory kadrowe i rosnącą powierzchnię ataków, skalowalne zabezpieczenia oparte na sztucznej inteligencji okażą się niezbędne do utrzymania solidnych poziomów bezpieczeństwa.
„Ostatecznie sztuczna inteligencja umożliwi organizacjom opieki zdrowotnej wyprzedzanie pojawiających się zagrożeń, ochronę poufnych danych pacjentów i umożliwi zespołom ds. bezpieczeństwa efektywniejszą i skuteczniejszą pracę” – mówi.
healthtechmagazine