Nadchodzi “armagedon danych”

Nadchodzi “armagedon danych”

Już w 1970 r. futurolog Alvin Toffler pisał o przeciążeniu informacyjnym, które nas czeka. Po latach wizja science fiction jest coraz bardziej realna. Liczba informacji prywatnych, jak i publicznych stała się tak duża, że niedługo możemy stracić nad nimi kontrolę. Ich źródeł jest wiele: Internet, Big Data, intranety korporacyjne, e-mail, e-commerce, ERP, CRM, media strumieniowe, video i mnóstwo aplikacji. Za każdą z tych informacji stoją kolejne dane do przechowywania, których przybywa w dynamicznym tempie. Technologie nie zwalniają. W 2011 r. masowe rozpowszechnienie takich rozwiązań jak Android, Windows Phone, tablety czy chmura publiczna, były dopiero na etapie prognoz, dziś są one dostępne niemal dla każdego.

Lawina danych od Internetu Rzeczy (IoT)

Wg Gartnera do 2020 roku na świecie będzie 26 miliardów podłączonych urządzeń, generujących i konsumujących dane. Powstające podłączone do sieci samochody, inteligentne domy, czy wearables, czyli technologie ubieralne nie przyniosą stabilizacji w tej kwestii. Przykładowo samoloty brytyjskich linii lotniczy Virgin Mobile, wykorzystujące rozwiązania telematyczne, mają w ciągu jednego lotu wytworzyć 0,5 mln GB danych. Flota Virgin wykonuje 21 tys. lotów rocznie, co daje 10 milionów GB.

Analitycy przewidują, że w nadchodzącej dekadzie Internet of Things wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają na przesyłanie i zarządzanie danymi. –

Rozwój nowych technologii jest nie do zatrzymania, a firmy, żeby utrzymać wysoki poziom konkurencyjności, są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury. Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników. — komentuje Łukasz Polak, wiceprezes Beyond.pl, polskiego centrum danych i dostawcy rozwiązań IT dla biznesu.

Schronienie w elastycznej infrastrukturze

W obliczu potopu danych firmy zastanawiają się już nie tylko nad zminimalizowaniem ryzyka związanego z ich bezpieczeństwem przechowywania, ale również nad sposobem ich przetwarzania i dystrybucji na potrzeby biznesowe.. Dane mają być dostępne w dowolnym miejscu i czasie, a w wielu przypadkach wykorzystywane w jednym momencie przez kilka tysięcy pracowników, czego doskonałym przykładem są firmy ubezpieczeniowe. Nic więc dziwnego, że rosnąca ich liczba zwiększa presję na wydajność i skalowalność infrastruktury IT firm i wymaga od niej elastyczności oraz dostosowania się do obowiązujących realiów. I tu pojawia się dylemat: czy rozbudowywać posiadane zasoby IT czy outsoursować je na zewnątrz?

Przenosząc swoje zwiększające się dane do zewnętrznego dostawcy, przedsiębiorca według uznania, dynamicznie zwiększa lub zmniejsza dostępność zasobów serwerowych, bez inwestowania w infrastrukturę. –

Firmy poszukują rozwiązań, które gwarantują stabilność, bezpieczeństwo i optymalność działania ich usług. Współpracując z nimi dzielimy się swoim know how tym zakresie — tłumaczy Łukasz Polak z Beyond.pl. –

Już za moment przyrost danych oraz zapotrzebowanie na moc obliczeniową osiągną gigantyczne rozmiary. Firmy, chcąc jednocześnie zachować stabilność, bezpieczeństwo i optymalność działania swoich usług muszą poszukać odpowiednich rozwiązań, które im to zagwarantują. Decydując się na wybór zewnętrznego dostawcy usług IT, otrzymują przede wszystkim cenne know how tym zakresie — tłumaczy Łukasz Polak z Beyond.pl.