Przejdź na skróty do treści. | Przejdź do nawigacji

Zapamiętaj mnie Przypomnij hasło Rejestracja
Wersja mobilna
Newsletter
Zgłoś uwagę
RSS

IT w małej i średniej firmie

rozwiń
Strona główna IT w małej i średniej firmie News Nadchodzi „armagedon danych”

Firmom grozi jeszcze większe przeciążenie danymi?

Nadchodzi „armagedon danych”

Analitycy podają, że 90 proc. globalnych danych zostało stworzonych tylko w ciągu ostatnich dwóch lat. Do 2020 r. ma być ich już 44 bilionów gigabajtów. Rosnąca liczba informacji uderza w firmy i zbliża do niebezpiecznego przeciążenia. Czy polscy przedsiębiorcy są na to gotowi?

Już w 1970 r. futurolog Alvin Toffler  pisał o przeciążeniu informacyjnym, które nas czeka. Po latach wizja science fiction jest coraz bardziej realna. Liczba informacji prywatnych, jak i publicznych stała się tak duża, że niedługo możemy stracić nad nimi kontrolę. Ich źródeł jest wiele: Internet, Big Data, intranety korporacyjne, e-mail, e-commerce, ERP, CRM, media strumieniowe, video i mnóstwo aplikacji. Za każdą z tych informacji stoją kolejne dane do przechowywania, których przybywa w dynamicznym tempie. Technologie nie zwalniają.  W 2011 r. masowe rozpowszechnienie takich rozwiązań jak Android, Windows Phone, tablety czy chmura publiczna, były dopiero na etapie prognoz, dziś są one dostępne niemal dla każdego.

Lawina danych od Internetu Rzeczy (IoT)

Wg Gartnera do 2020 roku na świecie będzie 26 miliardów podłączonych urządzeń, generujących i konsumujących dane. Powstające podłączone do sieci samochody, inteligentne domy, czy wearables, czyli technologie ubieralne nie przyniosą stabilizacji w tej kwestii. Przykładowo samoloty brytyjskich linii lotniczy Virgin Mobile, wykorzystujące rozwiązania telematyczne, mają w ciągu jednego lotu wytworzyć 0,5  mln GB danych. Flota Virgin wykonuje 21 tys. lotów rocznie, co daje 10 milionów GB.

Analitycy przewidują, że w nadchodzącej dekadzie Internet of Things wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają  na przesyłanie i zarządzanie danymi. – Rozwój nowych technologii jest nie do zatrzymania, a firmy, żeby utrzymać wysoki poziom konkurencyjności, są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury.  Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników. – komentuje Łukasz Polak, wiceprezes Beyond.pl, polskiego centrum danych i dostawcy rozwiązań IT dla biznesu.

Schronienie w elastycznej infrastrukturze

W obliczu potopu danych firmy zastanawiają się już nie tylko nad zminimalizowaniem ryzyka związanego z ich bezpieczeństwem  przechowywania, ale również nad sposobem ich przetwarzania i dystrybucji na potrzeby biznesowe .. Dane mają być dostępne w dowolnym miejscu i czasie, a w wielu przypadkach wykorzystywane w jednym momencie przez kilka tysięcy pracowników, czego doskonałym przykładem są firmy ubezpieczeniowe. Nic więc dziwnego, że rosnąca ich liczba zwiększa presję na wydajność i skalowalność infrastruktury IT firm i wymaga od niej elastyczności oraz dostosowania się do obowiązujących realiów.  I tu pojawia się dylemat: czy rozbudowywać posiadane zasoby IT czy outsoursować je na zewnątrz?

Przenosząc swoje zwiększające się dane do zewnętrznego dostawcy, przedsiębiorca według uznania, dynamicznie zwiększa lub zmniejsza dostępność zasobów serwerowych, bez inwestowania w infrastrukturę. – Firmy poszukują rozwiązań, które gwarantują stabilność, bezpieczeństwo i optymalność działania ich usług. Współpracując z nimi dzielimy się swoim know how tym zakresie – tłumaczy Łukasz Polak z Beyond.pl. –  Już za moment przyrost danych oraz zapotrzebowanie na moc obliczeniową osiągną gigantyczne rozmiary. Firmy, chcąc jednocześnie zachować stabilność, bezpieczeństwo i optymalność działania swoich usług muszą poszukać odpowiednich rozwiązań, które im to zagwarantują. Decydując się na wybór zewnętrznego dostawcy usług IT,  otrzymują przede wszystkim cenne know how tym zakresie - tłumaczy Łukasz Polak z Beyond.pl.

Dodaj komentarz 16 komentarzy
Gość IP: 91.208.10.* 2015.12.29 17:03
Co za bełkot - 'elastyczna infrastruktura', 'zewnętrzny dostawca', 'dynamiczne przydzielanie zasobów serwera'... Dane potrzebują fizycznych urządzeń do przesyłu i przechowywania. Jeśli ich już nie wystarcza, to żadna wirtualizacja nie pomoże. :(
P.S. Jakby zablokować FB i YT, to światowy przesył danych spadłby o 80%. :)
Gość IP: 83.24.48.* 2015.12.29 17:17
Trochę takie technologiczne hał hał. Ale żeby za to zaraz płacić? Zmielić zipem i wysłać pocztą. Porada ode mnie za darmo.
Niuniek
Niuniek 2015.12.29 17:41
Tylko po co ten cały śmietnik przechowywać?!
Dane koniecznie powinny ulegać RETENCJI
Gość IP: 185.3.113.* 2015.12.29 19:17
90% danych to głupowate filmiki na YouTube, pierdniecia na Twitterze, "słit-focie" na Fejsie i galeria idiotow na Wiocha.pl i tym podobnych. Do tego dochodza miliardy torrentow z lewymi filmami, softem i muzyka. Jak to juz ktos napisal trzeba zaczac ten syf sprzatac i przyjmniej usuwac duplikaty !
Gość IP: 178.212.155.* 2015.12.29 20:22
Jedyne rozwiązanie to podbój kosmosu!

Po pierwsze - słyszeliście o kolonizacji Marsa?
Beznadziejny pomysł. Tam trzeba serwerownię wybudować, a nie ziemniaki sadzić.

Po drugie - ostatnio dużo mówi się o "przechowywaniu danych w chmurze". Problem w tym, że na Ziemi jest mało chmur i to się nie pomieści wszystko. Moim zdaniem powinniśmy przechowywać dane w chmurach na Wenus, bo tam jest bardzo gęsta atmosfera.

Jeszcze raz powtarzam, PODBÓJ KOSMOSU LEKARSTWEM NA "ARMAGEDDON DANYCH".


Dla idiotów ---> jakby co to była ironia.
Gość IP: 76.16.117.* 2015.12.30 01:20
Kopa tego smiecia, nie ma co z nim zrobic, a mimo to, gdziekolwiek sie czlowiek ruszy to tylko zebraja o wiecej - tak na wszelki wypadek jakby kiedys dalo sie to przetworzyc. Kleptomaniacy big data nie odpuszcza i jedyny sposob na nich to upychanie im smieci (takich, ktorych algorytmy nie moga latwo odsiac)
Gość IP: 89.68.7.* 2015.12.30 02:40
problem polega na tym że magazyny danych to obecnie mało pojemny i cholernie awaryjny chłam

sam w ciągu ostatniego roku wymieniłem ponad 70 dysków seagate (jakaś masakra ze co sprzęt to siedzi seagate) na jakieś 570 w mojej firmie
i to nie domowe gówno tylko sas 10K

fakt faktem że po zerowaniu i wywaleniu badów taki dysk może jeszcze podziałać pewnie długo ale nikt powazny nie będzie się w to bawił
o zwykłych kompach szkoda gadać bo połowa ma błędy od pierwszego uruchomienia - no ale nie rozumiej seagate
leci w smarcie błędy zapisu, odczytu i pozycjonowania w tysiącach - jakoś te dyski działają , czasem zwiecha nastąpi ale żeby cholerstwo nie potrafiło pozycjonować?
a mam tez sporo wd i hitachi i niektóre już po 7 lat i nic....
Gość IP: 89.68.7.* 2015.12.30 02:46
aha gajewski - zajmując sie it to az dziwne że nie masz pojecia o tym ze logi trzeba przechowywać 5 lat
nawet nie zdajesz sobie sprawy ile jest logowane

jak ktos wspomniał wyłączenie fb i yt uwolni zasoby
w firmie połowa ruchu to właśnie takie śmieci - logi pierduły backupy logów i pierduł archiwizacje logów i pierduł
faktyczny ruch biznesowy to może 30%

isp budują niezłe kontenery macierzy na te zbędne dane
ostatnio wymienialiśmy nie tak stare i nie tak mało pojemne lto4 na lto6 za cholerną kasę bo zwyczajnie biblioteka musiałaby zając całą serwerownię wywalając 3/4 innej infrastruktury

i tak już coraz częściej macierze lecą na zwykłych dyskach sata bo SAS nie oferuje takich pojemności a transfer nie jest aż taki potrzebny (od lat cachuje się na SSD)
Gość IP: 89.68.7.* 2015.12.30 02:51
Komentarz został usunięty ze względu na naruszenie zasad serwisu.
Gość IP: 31.182.66.* 2015.12.30 12:33
Gość IP: 89.68.7.*
"FIRMY dziecko a nie debilne serwisy z debilnymi filmikami
nie pchaj się tam gdzie nigdy nie byłes".
Nie udawaj specjalisty. Chłopak (zakładam, choć możliwe, że błędnie, iż to chłopak) ma rację. Czym jest Facebook, Google? Nie są to firmy, które generują ogromną ilość danych?
Gość IP: 91.146.241.* 2015.12.30 13:05
>> Gość IP: 185.3.113.* 2015.12.29 19:17 Do tego dochodza miliardy torrentow z lewymi filmami, softem i muzyka. ( i jescze powinieneś wymienić eBooki ;)

Akurat torrenty trzymane są na lokalnych dyskach i tylko generują ruch najczęściej lokalny. Jeśli trzymasz multimedia na dyskach w sieci, to już nie są raczej torrentami :)

Ale teraz to te fitbity, movenow czy mibandy generują ilości danych zanim przyjdzie IoT dla zastosowań medycznych.
Gość IP: 79.188.149.* 2015.12.30 13:49
Wkradł się mały błąd 0,5 mln x 21 000 = ?
Gość IP: 83.24.48.* 2015.12.30 16:36
@up
Yep, jest błąd, ale w zupełnie innym miejscu. Boeing 787, bo zdaje się że o tym tu mówimy, produkuje 0.5 TB danych w ciągu jednego lotu, co w przeliczeniu na GB daje 512 GB a nie 500000 (0.5 mln) GB. Przy tych założeniach wynikowe 10 mln GB nie wydaje się już tak nonsensowne jak przy poprzednich.
Gość IP: 89.79.183.* 2015.12.30 16:51
Uniwersum nie składuje danych ani nawet żaden mózg bowiem, są one w ruchu - ciągle przewijane, inaczej ich percepcja byłaby nieprzydatna. I to jest jedyne rozwiązanie,ponieważ nie istnieje taki statyczny bank, który by je mógł ciągle gromadzić????
Gość IP: 109.95.202.* 2015.12.30 19:50
Ladna reklama beyond..
acomp
acomp 2015.12.30 21:10
Po co przechowywać tak wiele danych zdezaktualizowanych przez postęp techniczny?
AUTOR: maciej gajewski
DODANO: 29.12.2015
ŹRÓDŁO: Beyond.pl
LICZBA WYŚWIETLEŃ: 6129
CENEO Kup Najtaniej
PMT Soho Midineb PMT Soho Midineb
Dostępny w 6 sklepach
Sprawdź CENY tego produktu
ART AKUMULATOR DO OLYMPUS (Li42B) ART AKUMULATOR DO OLYMPUS (Li42B)
Dostępny w 1 sklepach
Sprawdź CENY tego produktu
ASUS G551JM-CN082H ASUS G551JM-CN082H
Dostępny w 3 sklepach
Sprawdź CENY tego produktu
APC InRoom SC Portable/3.0kW 220-240v 50Hz (ACPSC3000) APC InRoom SC Portable/3.0kW 220-240v 50Hz (ACPSC3000)
Dostępny w 1 sklepach
Sprawdź CENY tego produktu