Rozwój techniki teleinformacyjnej, Internetu i informatyki przy jednoczesnym spadku jednostkowych kosztów gromadzenia i przechowywania danych powoduje istotne ilościowe i jakościowe zmiany w podejściu zarówno do samych danych, jak i możliwości ich analizy. Ten coraz bardziej gęsty, ciągły i niestrukturyzowany strumień danych, nazywany Big Data, wywołuje współcześnie wiele emocji. Z jednej strony brak odpowiedniej ilości danych był zawsze wyzwaniem dla metod wnioskowania statystycznego i jednym z bodźców ich rozwoju. Jednak z drugiej strony, w dużych liczebnościach prób zawarte są liczne zagrożenia dla wiarygodności wnioskowania. W zbiorach takich, poza danymi o odpowiedniej jakości (Clear Data), znaczny udział mają dane nieprawdziwe, nieaktualne, zaszumione, często wielokrotnie zduplikowane, niekompletne lub błędne (Dirty Data), a także dane, o których jakości czy użyteczności nic nie wiadomo (Dark Data). Celem prezentowanych badań jest krytyczne przedstawienie struktury jakościowej zbioru Big Data.
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.