Pojawiają się przy podstawowym bezpieczeństwie podczas tworzenia systemów lub jednostek
Opublikowany: 2021-12-30Ponieważ cyberataki wciąż ewoluują, ochrona oparta wyłącznie na oprogramowaniu nie jest już wystarczająca. Prawdę mówiąc, zgodnie z raportem Microsoftu z 2020 r., znacznie ponad 80% przedsiębiorstw miało profesjonalny co najmniej jeden atak na oprogramowanie sprzętowe w ciągu ostatnich dwóch lat. W miarę postępu zmian w informatyce – takich jak decentralizacja z chmury do rozproszonych geograficznie obliczeń brzegowych – niezwykle ważne jest, aby dzisiejsze bezpieczeństwo opierało się również na komponentach. Każda część — od pakietu oprogramowania po krzem — pełni funkcję pomagającą w zabezpieczeniu informacji i zarządzaniu integralnością urządzenia.
Ale branża boryka się z kilkoma problemami, łącznie z brakiem rzeczywistego bezpieczeństwa fizycznego. Na przykład w centrum danych firmy oferujące usługi w chmurze chcą zapewnić pewność od nieuczciwych administratorów. A na brzegu urządzenia mogą być pozbawione personelu i fizycznie podatne na uszkodzenia. Co więcej, rozproszone obciążenia nie są już monolitycznymi faktami, są przetwarzane za pomocą szeregu urządzeń i mikrofirm. Aby zabezpieczyć najsłabsze połączenie, informacje muszą być chronione przy każdym działaniu. I wreszcie, informacje o tworzeniu i przetwarzaniu gadżetów są coraz bardziej zróżnicowane. Niezawodne zabezpieczenia muszą być stosowane w całym kodzie działającym na wszystkich procesorach, takich jak CPU, GPU, czujniki, FPGA i tak dalej.
W jaki sposób dostawcy komponentów budują wiarygodność w urządzeniach i urządzeniach, aby pomóc w walce z rosnącymi zagrożeniami?
Cykl rozwoju stabilności (SDL) był początkowo inicjatywą wprowadzoną przez firmę Microsoft w celu zwiększenia bezpieczeństwa oprogramowania komputerowego, ale obecnie jest znacznie szerzej stosowany we wszystkich stylach rozwiązań. Producenci komponentów wykorzystują techniki SDL do rozpoznawania zagrożeń, ograniczania ryzyka i tworzenia wymagań bezpieczeństwa. Oprócz SDL ważne jest, aby mieć strukturę, która kieruje decyzjami architektonicznymi i wyborem układu dla nowych systemów stabilności. Często obejmuje to takie rzeczy lub filary, jak podstawowe bezpieczeństwo, zabezpieczenia przed obciążeniem i niezawodność aplikacji. W tym artykule chciałbym skupić się na fundamentalnym bezpieczeństwie.
Podstawowe technologie stabilności tworzą istotną bazę bezpieczeństwa ukierunkowaną na identyfikację i integralność. Klienci borykają się z problemem zdobycia zaufania do techniki wykonanej z różnych ustalonych komponentów i firm krzemowych. Pozwala na to stała ochrona podstawowa w różnych urządzeniach do przetwarzania. Zawiera na przykład cechy przeznaczone do bezpiecznego uruchamiania, aktualizacji, ochrony środowiska wykonawczego i szyfrowania, które pomagają zweryfikować wiarygodność urządzeń i faktów.
Ideą podstawowej ochrony jest stylizacja i zaprojektowanie metody, która może dostarczyć komponenty w zidentyfikowanej i bezpiecznej konfiguracji oraz mieć wszystkie haczyki ważne do ich utrzymania. Bez względu na podstawową architekturę, oczekuje się, że uczciwy program komputerowy zapewni ciągłą ochronę przez cały cykl życia i wszystkie stany informacyjne i przejścia. Bez względu na to, czy szczegóły znajdują się w chmurze, urządzeniu brzegowym czy osobistym gadżecie, podstawowe bezpieczeństwo może zapewnić, że procesory i komponenty systemu wykonują swoją sekcję w zabezpieczaniu faktów i transakcji obliczeniowych.
Jakie są kluczowe funkcje i technologie bezpieczeństwa, które stanowią podstawę wizji stabilności od początku do końca?
Korzenie zaufania
Miej wiarę w to łańcuch zaczynający się od korzenia (lub korzenia wiary w). Jest to magiczna formuła, która zwykle jest krytycznym kluczem kryptograficznym lub ustanowionym z kluczy kryptograficznych wypalonych w chipie, możliwym do uzyskania tylko dla komponentów, które są częścią łańcucha wiary. Może istnieć kilka korzeni wiary w proces (na przykład krzem /parts lub platforma zrootowana). Korzeń komponentu przekonania jest odpowiedzialny za tworzenie wiarygodności przed uruchomieniem i przez cały czas działania systemu. Sortuje podstawę bezpieczeństwa na urządzeniach (lub wiarygodną bazę obliczeniową) i znany chroniony punkt początkowy. Ale robi to również znacznie więcej, w zależności od wdrożenia. Nie tylko dostarcza urządzenie lub cały program do uznanego bardzo dobrego punktu, ale także udostępnia i zarządza kluczami kryptograficznymi oraz udowadnia identyfikację i pomiary stronie ufającej w celu ustanowienia zaufania za pomocą atestacji, raportowania, weryfikacji i pomiary integralności.
Obecnie sprzedawcy sprzętu prezentują korzenie technologii zaufania w rodzaju modułów bezpieczeństwa, takich jak moduły zaufanej platformy (TPM), z funkcjami krzemowymi wbudowanymi w procesor główny lub jako dedykowane koprocesory bezpieczeństwa dla nadmiarowej warstwy bezpieczeństwo. Izolowanie funkcji bezpieczeństwa wspiera oddzielenie zobowiązań i może pomóc we wdrożeniu idei Zero-Trust w krzemie. Rosnące systemy ochrony komponentów, takie jak funkcje fizycznie nieklonowalne (PUF), wyodrębniają sprzętowe odciski palców i przedstawiają specjalny identyfikator systemu. Jest to bardzo podobne do kluczowego rozwiązania, które można zastosować jako podstawę do konfiguracji, niezależnie od tego, czy oprogramowanie działa na odpowiedniej platformie.
Bezpieczne aktualizacje i przywracanie
Korzenie mają zaufanie do gwarancji, że procedura rozpocznie się bezpiecznie, ale po zakończeniu procedury, jak zarządza się ulepszeniami? W przypadku większości sprzętu nie da się uniknąć zabezpieczonej administracji dostosowania i modyfikacji metod. Powinny istnieć mechanizmy bezpiecznej aktualizacji środowiska uruchomieniowego, podpisywania kodu i weryfikacji podpisu. Funkcje te pomagają i egzekwują chronione aktualizacje aplikacji i oprogramowania układowego, co ma kluczowe znaczenie dla zachowania integralności procesu. Umożliwienie urządzeniom wykonywania niezabezpieczonych i/lub nieautoryzowanych aktualizacji bez implementacji wymagań dotyczących podpisywania może naruszyć chroniony punkt wykonania poza systemem. Zapewnia to premię za ochronę przed wycofywaniem zmian lub aktualizacje oprogramowania układowego, które są dozwolone tylko wtedy, gdy oprogramowanie układowe można przetestować pod kątem nowszej wersji niż istniejąca wersja lub po autoryzacji przez wiarygodny organ. Oznacza to również, że awarie muszą być oczekiwane i obsługiwane w sposób, który pozostawia system w bezpiecznym stanie (tj. przywracanie).
Tryby i efekty niepowodzeń należy postrzegać jako całość stylu metody. Oprócz domyślnych trybów działania dla rozruchu i aktualizacji, tryby odzyskiwania (prawdopodobnie włączone przez osobę lub mechanicznie używane przez program) mogą wspierać wykrywanie problemów lub nieprzewidzianych zachowań.
Szyfrowanie i ochrona danych
Jeśli chodzi o szczegóły szyfrowania i ochrony, posiadanie dedykowanych obwodów jest naprawdę jedyne w swoim rodzaju dla przyspieszenia. Implementacje komponentów są szybsze. I trwa konsekwentny wyścig o wzmocnienie efektywności kryptowalut. Sąsiedztwo chciałoby (i pragnie) zaszyfrowania wiedzy. Jest to osoba z najważniejszych zasobów, którymi zarządza każda grupa. Poufność jest na ogół zabezpieczana przez szyfrowanie danych i silny dostęp. Oprócz podstaw polegających na poleganiu i stabilności procesów (takich jak bezpieczny łańcuch rozruchowy, aktualizacje, przywracanie i wiele innych), dodatkowe szyfrowanie może potwierdzać, że na komputerze działają tylko godne zaufania kody i aplikacje. Ale ponieważ szyfrowanie jest wykorzystywane do różnych elementów procesu, może wpływać na wydajność.
Dokładna wiedza o tym, gdzie te ogólne wpływy na wydajność przecinają się z nowymi technologiami, ma kluczowe znaczenie podczas tworzenia procedury. Ale postępy w wydajności kryptowalut pomagają tworzyć znacznie bardziej chronione, lepsze wzorce. Obejmuje to możliwości, takie jak nowe zalecenia dotyczące ogólnego przyspieszenia kryptografii zasadniczej (co może pomóc w obniżeniu cen), całkowite szyfrowanie pamięci i szyfrowanie hiperłączy. Równie doskonale, jak dodatkowe, długoterminowe innowacje technologiczne, które pomagają połączyć odporność kwantową zapisu i szyfrowanie homomorficzne.
Fundamentalni orędownicy bezpieczeństwa opowiadają się za skoncentrowanym na jednostkach poglądem na stabilność. Wszystkie te elementy funkcjonują jako część procesu kontroli kodu, który umożliwia przepływ wiedzy. Wiarygodność jest teraz problemem jednostek. Rozciąga się na wszelkiego rodzaju produkty przetwarzania, gdy obciążenia przemieszczają się na platformach. Każda pojedyncza jednostka, technika i obciążenie pracą powinny charakteryzować się integralnością i identyfikacją przez cały cykl życia i przejścia. Celem jest, aby prawie każdy kawałek krzemu potwierdzał swoją prawdziwą tożsamość i stan bezpieczeństwa w dowolnym momencie. Bez względu na to, czy dane znajdują się w chmurze, na brzegu, czy w pojedynczym systemie, konsumenci chcą mieć pewność, że krzem bierze udział w zabezpieczaniu danych i przetwarzaniu transakcji.
Aby dowiedzieć się znacznie więcej na temat podstawowej stabilności sprzętu, zapoznaj się z Niezawodną Grupą Obliczeniową, Naciskiem na Działania Rozproszonej Administracji lub Poradami dotyczącymi Odporności Firmware Systemu NIST.
Asmae Mhassni, główny inżynier, Intel