Dane ewoluują w kierunku zdobycia świadomości

04.02.2018 19:42

Obecnie prowadzone są procesy, w toku których operuje się danymi i decyduje o ich przenoszeniu, ochronie czy zarządzaniu nimi. A co by się stało, gdyby dane zaczęły same decydować o sobie? – zadaje pytanie CTO NetApp, Mark Bregman. Według niego, pytanie nie brzmi „czy”, ale „kiedy”.

Dane ewoluują w kierunku zdobycia świadomości fot. Hunter Harritt/Unsplash

„Gdy dane zyskają świadomość i większe niż dziś zróżnicowanie, metadane umożliwią danym transportowanie, klasyfikowanie, analizowanie i chronienie samych siebie w prewencyjny sposób. Przepływ między danymi, aplikacjami i pamięcią masową będzie mapowany w czasie rzeczywistym, a dane będą dostarczać użytkownikowi informacje, których potrzebuje i dokładnie wtedy, gdy ich potrzebuje. To może wpłynąć na pojawienie się samozarządzających się danych. Dane same ustalą, kto jest uprawniony do ich odczytywania, udostępniania i używania. Może mieć to dalsze następstwa w dziedzinie ochrony danych, prywatności, władzy i suwerenności” – wskazuje Bregman.

Jako przykład podaje wypadek samochodowy, gdzie wiele różnych grup może żądać dostępu do danych z pojazdu. Sąd czy firma ubezpieczeniowa będzie ich potrzebować do ustalenia sprawcy, a producent samochodu – na potrzeby optymalizacji działania hamulców lub innych podzespołów mechanicznych.

„Gdy dane będą świadome, będą mogły się automatycznie klasyfikować, aby kontrolować, kto i kiedy może zobaczyć, którą ich część. Odbędzie się to bez czasochłonnej i podatnej na błędy pracy ludzi przy dzieleniu, zatwierdzaniu i rozpowszechnianiu cennych danych” – uważa CTO NetApp.

Bregman dostrzega także „uberyzację” maszyn wirtualnych. „Zarządzanie coraz bardziej rozproszonymi danymi będzie szybsze, tańsze i wygodniejsze przy użyciu maszyn wirtualnych bazujących na infrastrukturze webscale, niż przy użyciu maszyn fizycznych. Analogią może być wybór między kupnem samochodu a wynajęciem go albo skorzystaniem z takich usług, jak Uber” – wyjaśnia CTO NetApp.

Podaje przykład, że przedsiębiorca codziennie przewożący ciężkie ładunki powinien kupić ciężarówkę. Natomiast jeśli potrzebuje określonego typu pojazdu na pewien czas, lepiej, aby go wynajął. Są także osoby, które potrzebują pojazdu, aby jeden raz dostać się z punktu A do punktu B. Typ pojazdu nie ma dla nich znaczenia, liczy się tylko szybkość i wygoda, więc najlepszym wyborem będzie usługa taka, jak Uber.

„Podobnie wygląda wybór między maszynami wirtualnymi a fizycznymi. Własny sprzęt może być drogi, ale w przypadku stałych, dużych obciążeń inwestycja w infrastrukturę fizyczną jest lepszym wyborem. Maszyna wirtualna w chmurze dla zmiennych obciążeń to odpowiednik wynajmu: użytkownicy mają do niej dostęp, nie będąc jej właścicielami i nie potrzebując dokładnej wiedzy o niej. Gdy okres wynajmu się kończy, maszyna znika. Maszyny wirtualne bazujące na infrastrukturze webscale (czyli przetwarzanie bezserwerowe) to informatyczny Uber — użytkownik po prostu określa zadanie do wykonania. Szczegółami zajmuje się dostawca chmury. W przypadku pewnych typów obciążeń jest to model wygodniejszy i łatwiejszy niż tradycyjne” – stwierdza Bregman.

Na tle migoczącej na horyzoncie świadomości danych i uberyzacji infrastruktury CTO NetApp uważa, że ilość danych będzie rosnąć szybciej niż możliwość ich przesyłania… i nie będzie to problem.

„Dane stały się niezwykle dynamiczne i są generowane z szybkością, która zdecydowanie przekroczy szybkość ich przesyłania. Jednak zamiast przemieszczać dane, to aplikacje i zasoby potrzebne do ich przetwarzania będą przenoszone do danych. Będzie to miało ważne konsekwencje dla nowych architektur brzegowych, rdzeniowych i chmurowych. W przyszłości ilość danych trafiających do rdzenia sieci będzie zawsze mniejsza niż ilość generowana na brzegu. Nie będzie to jednak proces przypadkowy. Kluczowe będzie, by starannie zadbać o to, aby zachowywane były właściwe dane, które będą później potrzebne do podejmowania decyzji” – zaznacza CTO NetApp.

Na przykład samochody autonomiczne będą mieć wiele czujników generujących tak dużo danych, że żadna sieć nie będzie zdolna ich przesłać z samochodu do centrum przetwarzania danych. W przeszłości urządzenia na brzegu sieci nie generowały zbyt dużo danych. Teraz czujniki zbierające dane znajdują się wszędzie: w samochodach, termostatach i urządzeniach wearables.

„Ilość danych powstających na brzegu sieci rośnie tak szybko, że przekroczy przepustowość połączeń z rdzeniem sieci. Samochody autonomiczne i inne urządzenia wymagają analizy danych w czasie rzeczywistym na brzegu sieci, aby w czasie rzeczywistym podejmować decyzje o krytycznym znaczeniu. Z tego powodu przeniesiemy aplikacje do danych” – wyjaśnia Bregman.

Zapowiada on ponadto przejście od wielkich (Big Data) do olbrzymich (Huge Data) zbiorów danych, co będzie wymagać nowych architektur opartych na technologii „Solid State”.

„Coraz szybszy wzrost zapotrzebowania na analizy gigantycznych zbiorów danych, wymaga przeniesienia danych bliżej zasobów obliczeniowych. Obliczenia z bardzo niskimi opóźnieniami bez utraty danych będą możliwe dzięki trwałej pamięci masowej (ang. persistent memory). Wymagania dotyczące opóźnień ostatecznie wymuszą zmianę architektur oprogramowania i dadzą firmom nowe możliwości wykorzystania danych” – stwierdza Bregman.

Technologia flash jest w branży popularnym tematem, ale korzystające z niej oprogramowanie w zasadzie nie zmieniło się, jedynie działa szybciej. Siłą napędową jest tu ewolucja roli IT w przedsiębiorstwach. W przeszłości główną funkcją działów informatycznych była automatyzacja i optymalizacja procesów związanych z zamówieniami, fakturowaniem, obsługą należności itd.

„Dzisiaj IT ma kluczowe znaczenie dla rozszerzenia relacji z klientami za pomocą zawsze dostępnych usług, aplikacji mobilnych i zaawansowanych rozwiązań internetowych. Następnym krokiem będzie tworzenie nowych możliwości biznesowych związanych z monetyzacją danych zbieranych przez rozmaite czujniki i urządzenia. Ten krok będzie wymagać nowych architektur aplikacji wspieranych między innymi przez trwałą pamięć masową” – ocenia CTO NetApp.

Oczekuje on ponadto, pojawienia się zdecentralizowanych nieodwołalnych mechanizmów zarządzania danymi.

„Pojawiające się mechanizmy do zarządzania danymi w sposób godny zaufania, nieodwołalny i rzeczywiście rozproszony (bez żadnego organu centralnego) na pewno będą mieć duży wpływ na centra przetwarzania danych. Najlepszym przykładem jest technologia blockchain. Zdecentralizowane mechanizmy, takie jak blockchain, stanowią wyzwanie dla tradycyjnych koncepcji ochrony danych i zarządzania nimi. Z powodu braku centrum kontroli (takiego jak centralny serwer) nie jest możliwa zmiana ani usunięcie informacji znajdujących się w bazie danych blockchain, a wszystkie transakcje są nieodwracalne” – mówi Bregman.

Sugeruje popatrzeć na to jak na system biologiczny – zbiór małych organizmów. Każdy z nich zna swoją rolę, nie potrzebuje komunikacji ani rozkazów.

„Dostarczamy im substancje odżywcze, w tym przypadku dane. Substancje odżywcze wiedzą, co robić, a wszystko zaczyna działać w zorganizowany sposób bez żadnej centralnej kontroli. Tak działa rafa koralowa. Współczesne centra przetwarzania danych i aplikacje działają jak komercyjne farmy: całym środowiskiem zarządza centralny punkt kontroli (farmer). Zdecentralizowane nieodwołalne mechanizmy zarządzania danymi będą oferować mikrousługi, których dane będą używać do wykonywania potrzebnych funkcji. Mikrousługi i dane będą współpracować bez centralnego zarządzania” – podsumowuje CTO NetApp.

NetApp to globalny dostawca rozwiązań do obsługi danych w chmurach hybrydowych. Firma oferuje szeroką gamę usług przetwarzania danych upraszczających zarządzanie aplikacjami i danymi w chmurze oraz w siedzibie przedsiębiorstwa, co pozwala przyspieszyć proces transformacji cyfrowej.

ISBtech/RM

Oceń