Korzyści płynące z brzegowego przetwarzania danych – Edge Computing
Data publikacji: 19.12.23r.
Korzyści z Edge Computing
Edge computing umożliwia uruchamianie aplikacji poza centrum danych lub chmurą, blisko miejsca, w którym są one używane i generowane są dane. Chociaż środowiska brzegowe są obsługiwane przez pewną formę scentralizowanego przetwarzania, uruchamianie aplikacji lokalnie, lokalnie rozwiązuje wiele nieodłącznych wyzwań związanych z centrum danych i przetwarzaniem w chmurze. Edge computing jest często określany jako topologia, ale tak naprawdę jest to tylko kolejna platforma.
Eksplozja danych: Więcej urządzeń generujących ogromne ilości danych.
Urządzenia IoT, systemy wideo i czujniki środowiskowe to tylko niektóre z wielu technologii nasycających nasze przestrzenie fizyczne i inne urządzenia przetwarzania brzegowego. Urządzenia te generują ogromne ilości danych, z których wiele ma wartość, gdy można je odpowiednio zebrać i przeanalizować. Ale przepustowość nie jest darmowa, a przesyłanie wszystkich tych danych do chmury w celu przetwarzania jest zarówno niepraktyczna, jak i kosztowna. Architektura Edge Computing pozwala na gromadzenie i przetwarzanie tych bogatych danych lokalnie.
Odporność: Dostępność aplikacji wtedy, gdy są potrzebne.
Niezawodna łączność jest kluczowa, gdy aplikacje działają ze scentralizowanej lokalizacji. Niezależnie od tego, czy jest to całkowita awaria, sporadyczny spadek lub po prostu wysoki poziom błędów, każda przerwa z pewnością wpłynie na dostępność i wydajność aplikacji zależnych od tego połączenia. Uruchamianie aplikacji lokalnie oznacza, że mogą one nadal działać zgodnie z oczekiwaniami, nawet bez połączenia z chmurą lub centrum danych.
Opóźnienie: Wpływ odległości i przeciążenia sieci na czas reakcji aplikacji.
Informacje potrzebują czasu, aby przemieścić się przez sieć. Im dłużej to trwa, tym bardziej wpływa to na czas przetwarzania end-to-end. Oczekiwania dotyczące czasu reakcji aplikacji różnią się w zależności od aplikacji i organizacji. Jednak im bardziej aplikacja korzysta z odpowiedzi w czasie rzeczywistym, tym ważniejsze jest usunięcie odległości jako czynnika. Edge computing przybliża aplikacje do miejsca, w którym są używane, skracając czas opóźnienia i poprawiając wydajność.
Regulacje: Ochrona prywatności i utrzymanie suwerenności danych.
Zgodność z przepisami dotyczącymi bezpieczeństwa danych i prywatności jest zarówno poważna, jak i nietrywialna. Ryzyko przechwycenia i potencjalnej niezgodności z przepisami wzrasta za każdym razem, gdy dane są przenoszone. Chmura z definicji jest miejscem rozmytym, co utrudnia dokładne określenie, gdzie znajdują się dane i gdzie się znajdowały. Im więcej danych można gromadzić i przetwarzać na miejscu, tym prostsze staje się zachowanie zgodności z przepisami.
Odporność: Dostępność aplikacji wtedy, gdy są potrzebne.
Niezawodna łączność jest kluczowa, gdy aplikacje działają ze scentralizowanej lokalizacji. Niezależnie od tego, czy jest to całkowita awaria, sporadyczny spadek lub po prostu wysoki poziom błędów, każda przerwa z pewnością wpłynie na dostępność i wydajność aplikacji zależnych od tego połączenia. Uruchamianie aplikacji lokalnie oznacza, że mogą one nadal działać zgodnie z oczekiwaniami, nawet bez połączenia z chmurą lub centrum danych.
Opóźnienie: Wpływ odległości i przeciążenia sieci na czas reakcji aplikacji.
Informacje potrzebują czasu, aby przemieścić się przez sieć. Im dłużej to trwa, tym bardziej wpływa to na czas przetwarzania end-to-end. Oczekiwania dotyczące czasu reakcji aplikacji różnią się w zależności od aplikacji i organizacji. Jednak im bardziej aplikacja korzysta z odpowiedzi w czasie rzeczywistym, tym ważniejsze jest usunięcie odległości jako czynnika. Edge computing przybliża aplikacje do miejsca, w którym są używane, skracając czas opóźnienia i poprawiając wydajność.
Regulacje: Ochrona prywatności i utrzymanie suwerenności danych.
Zgodność z przepisami dotyczącymi bezpieczeństwa danych i prywatności jest zarówno poważna, jak i nietrywialna. Ryzyko przechwycenia i potencjalnej niezgodności z przepisami wzrasta za każdym razem, gdy dane są przenoszone. Chmura z definicji jest miejscem rozmytym, co utrudnia dokładne określenie, gdzie znajdują się dane i gdzie się znajdowały. Im więcej danych można gromadzić i przetwarzać na miejscu, tym prostsze staje się zachowanie zgodności z przepisami
Brak ograniczeń na brzegu sieci jest częścią architektury edge computing, a także przewagą edge computing nad cloud computing.
Wraz z rosnącym zapotrzebowaniem na uruchamianie aplikacji w lokalnych środowiskach innych niż informatyczne, zasięg edge computing będzie się szybko rozszerzał w obrębie dziesiątek, setek, a nawet tysięcy lokalizacji. SC//Platform nie ma sobie równych w zarządzaniu i skalowaniu infrastruktury aplikacji w wielu lokalizacjach w ramach wspólnej platformy. Wyobraźmy sobie wdrożenie składające się z kilku tysięcy węzłów, które bez wysiłku rozrasta się do dziesiątek tysięcy węzłów bez konieczności zmiany architektury. To właśnie jest skalowanie brzegowe.
Odpowiedni rozmiar na dziś, skalowanie w górę i w dół w razie potrzeby.
Nie ma potrzeby nadmiernego zapewniania zasobów i płacenia za niewykorzystane zasoby. Płynne dodawanie lub usuwanie pojemności obliczeniowej i pamięci masowej w razie potrzeby, bez zakłócania działania aplikacji lub innych obciążeń działających w środowisku.
Odświeżanie sprzętu bez konieczności jego wymiany.
Wymiana sprzętu na nowsze, bardziej wydajne opcje, gdy jest to uzasadnione zapotrzebowaniem, bez przestojów i rekonfiguracji. Nowa infrastruktura integruje się bezpośrednio z istniejącym środowiskiem bez konieczności uaktualniania wszystkiego w tym samym czasie.
Uniknięcie problemów z pamięcią masową.
System pamięci masowej został zaprojektowany specjalnie do pracy z nowoczesną wirtualizacją i pozwala uniknąć problemów związanych z tradycyjnymi podejściami do sieciowej pamięci masowej (SAN i NAS). Dzięki osadzeniu pamięci masowej w hiperwizorze, zasoby mogą być automatycznie łączone w całym klastrze, a nowa pamięć masowa jest automatycznie dodawana, gdy pojawiają się nowe węzły.
Zbuduj idealną infrastrukturę aplikacji w swoim tempie.
Zaplanuj idealną przyszłość, nie przewidując jej. Wymagania dotyczące pojemności i wydajności oraz specyfikacje sprzętowe będą się zmieniać w nieskończoność. Starsze aplikacje pozostaną krytyczne, podczas gdy nowoczesne aplikacje będą wymagały nowej architektury. Wystarczy połączyć i dopasować stare i nowe w tej samej infrastrukturze, aby uzyskać przyszłościowe środowisko.
Pozostań online pomimo błędów i awarii systemu.
Unikalna architektura i ścisła integracja komponentów systemu pozwalają infrastrukturze monitorować samą siebie. Samonaprawiająca się inteligencja automatycznie podejmuje działania naprawcze w przypadku wykrycia błędów, bez konieczności ręcznej interwencji, zapewniając stałą dostępność aplikacji i brak utraty danych. Przełączanie awaryjne, redundancja i odporność są zasadniczo zaprojektowane w każdym aspekcie rozwiązania, tworząc najbardziej dostępne rozwiązanie infrastrukturalne.
Eliminacja pojedynczych punktów awarii.
Standardowa architektura klastrowa zapewnia niezrównaną nadmiarowość i odporność na awarie w tej samej lub niższej cenie niż alternatywne rozwiązania oparte na parach serwerów. Trzy (lub więcej) serwery połączone w klaster rozkładają całe obciążenie obliczeniowe i pamięci masowej. W przypadku awarii jednego serwera, co najmniej dwa serwery nadal obsługują aplikacje, a nadmiarowość danych pozostaje nienaruszona.
Przestań planować okna konserwacji.
Aktualizacje systemu nie powodują przestojów i są dostarczane automatycznie jako działające, w pełni przetestowane aktualizacje kroczące. To samo dotyczy dodawania lub wymiany sprzętu. System automatycznie obsługuje wszystko bez żadnych zakłóceń w działaniu aplikacji.
Całkowity koszt posiadania (TCO)
Oszczędność niepotrzebnych kosztów sprzętu i oprogramowania.
Odpowiednio dobrana, gotowa do pracy na brzegu sieci infrastruktura łączy obliczenia, pamięć masową, wirtualizację i odzyskiwanie po awarii w jednym rozwiązaniu, które eliminuje koszty każdego komponentu z osobna. Standardowy klaster składający się z trzech węzłów zapewnia wbudowaną redundancję i odporność na awarie w niższej cenie niż w pełni redundantne, nadmiarowe, zduplikowane systemy. Unikalna architektura platformy operacyjnej wykorzystuje ułamek zasobów alternatywnych rozwiązań. Uzyskaj znacznie większą moc obliczeniową i uruchamiaj więcej aplikacji na jednej platformie przy użyciu znacznie tańszego sprzętu.
Uprość zarządzanie i uwolnij zespoły IT od czasochłonnej konserwacji.
Od początkowego wdrożenia i rutynowej konserwacji systemu po zwiększenie pojemności i wymianę sprzętu, zadania administracyjne są łatwo zautomatyzowane i zdalnie wykonywane za pomocą scentralizowanej platformy zarządzania. Ciesz się zautomatyzowanym, bezbłędnym provisioningiem i konfiguracją do wdrażania nowej infrastruktury bez personelu IT na miejscu. Wykonuj aktualizacje systemu i wymieniaj sprzęt, utrzymując aplikacje w trybie online. Samonaprawiający się system może monitorować, wykrywać i korygować problemy w czasie rzeczywistym bez konieczności interwencji ze strony działu IT. Dzięki tak łatwej infrastrukturze zespoły IT mogą przestać zajmować się środowiskami i poświęcić więcej czasu na wspieranie cennych inicjatyw technologicznych.
Postaw na bezawaryjność.
Planowane i nieplanowane przestoje mają daleko idące skutki finansowe, więc jakiekolwiek przestoje są po prostu niedopuszczalne. Przełączanie awaryjne, nadmiarowość i odporność są zasadniczo zaprojektowane w każdym aspekcie infrastruktury, aby stworzyć nieprzerwane środowisko obliczeniowe niepodobne do żadnego innego. Zautomatyzowana inteligencja pozwala infrastrukturze monitorować i dbać o siebie, zapobiegając problemom, zanim się pojawią. Aktualizacje oprogramowania i wymiany sprzętu są stosowane w środowisku na żywo, bez zakłóceń w świadczeniu usług. Rezultatem jest jedno z najbardziej dostępnych, niezawodnych środowisk aplikacyjnych, które jest możliwe przy zasadniczo takich samych kosztach, jak w przypadku samodzielnego, nieredundantnego systemu.
Kliknij tutaj, aby dowiedzieć się więcej o rozwiązaniach ScaleComputing