Wyjaśnienie Big Data
Co by było, gdybyś powiedział, żeby uporządkować i przeanalizować dane dotyczące obywateli Nowego Jorku? Facebook, Instagram i Twitter. To byłoby szaleństwo… dlaczego? Ponieważ mówię o danych 19.49 miliona ludzi, dotyczących tego, co lubią, udostępniają, komentują, wysyłają wiadomości, oglądają filmy i co robią rutynowo. To dużo aktywności i oznacza dużo danych.

Średnio jest 2.5 trylionów bajtów danych przetwarzanych każdego dnia, co rośnie w tempie dodatnim. Z 2 miliardami ludzi aktywnych na Facebooku (prawie ponad ćwierć światowej populacji) jest największa platforma mediów społecznościowych.
Mówimy o bilionach i miliardach danych, więc oczywiste jest, że do przeanalizowania takiej ilości danych potrzebna jest grupa specjalistów. Stąd też zjawisko to nazywa się Big Data, a osoby zajmujące się analizą tych danych nazywane są analitykami Big Data.
Na przykład, jeśli sieć spożywcza chce otworzyć swoje oddziały również za granicą, będzie potrzebowała dużej ilości danych do przeanalizowania na temat osób, do których chce dotrzeć.
Będą organizować i analizować dane według religii, preferencji kulturowych, pogody, pór roku, świąt i innych czynników geograficznych i kulturowych. Cała ta kolosalna ilość danych może zostać przeanalizowana przez zespół analityków danych.
1] Wyzwania
Możemy opisać wyzwania Analizy dużych zbiorów danych za pomocą trzech V, którymi są Głośność, Prędkość i Różnorodność.
- objętość: Ilość lub masa danych przesyłanych strumieniowo. Na przykład dane każdego samochodu na drodze w ramach działań rządowych.
- Szybkość: Szybkość, z jaką dane napływają. Może się zmieniać na przykład dane dotyczące operacji kartą kredytową każdego klienta lub pobieranie danych na telefon komórkowy każdego klienta.
- Odmiana:Różnorodność danych; dane mogą być ustrukturyzowane, półustrukturyzowane i nieustrukturyzowane.
2] Rodzaje analizy danych
Istnieją trzy sposoby analizy danych: opisowy, predykcyjny i preskryptywny.
- Opisowy:Technika opisowa to po prostu podsumowanie danych, uproszczone dane. Miliard przesyłanych strumieniowo danych jest wyjaśniony w prosty sposób.
- Proroczy:Ta technika jest główna i najważniejsza, analizując ogromne strumieniowe dane, przewidzisz wynik na podstawie swojej obserwacji. Pamiętaj, że jest to używane do podania wyniku, że może wydarzy się w przyszłości, a nie wydarzy się.
- Nakazowy: Ta technika wykracza poza przewidywanie, wyprowadza wiele rozwiązań i przepisuje najlepsze rozwiązanie. Na przykład, najlepsze miejsce do umieszczenia dystrybutora paliwa firmy naftowej w celu uzyskania maksymalnych zysków. Pozostałe dwa komponenty tego systemu to sprzężenie zwrotne i dane nadające się do działania.
3] Narzędzia do analizy
Analizę Big Data można poznać dzięki kursy w internecie a głównymi narzędziami wykorzystywanymi w analityce danych są Tableau Public, OpenRefine, KNIME, RapidMiner, Google Fusion Tables, NodeXL, Wolfram Alpha, Google Search Operators, Solver i Dataiku DSS. Te narzędzia wykonywać wizualizację, eksplorację, przetwarzanie i statystyczne modelowanie danych, aby pomóc analitykom w ich pracy.
4] Przyszłość Big Data
Obecnie istnieje duże zapotrzebowanie na analizę dużych zbiorów danych, a wraz z postępem technologicznym i dostępnością Internetu dziedzina ta będzie się różnicować i rozszerzać.
Producenci samochodów wykorzystują Big data ruchu drogowego do budowy przyszłych autonomicznych samochodów. Laboratoria badań medycznych wykorzystują Big data do dopasowania zgodności DNA w celu lepszego wykorzystania leków. Dziedzina ta rośnie, a jej przyszłe perspektywy są świetlane.