Financial inclusion refers to a state in which all working age adults have effective access to credit, savings, payments, and insurance from formal service providers. The aim of this paper is to introduce several indicators that show the level of financial inclusion in Poland. The indicators are calculated on the base of the data collected and compiled by the payment system statistics of the National Bank of Poland. We will also compare the value of the indicators for Poland to those of the other countries in database.
PL
Integracja finansowa to stan, w którym wszyscy dorośli w wieku produkcyjnym mają dostęp do szerokiego zestawu usług sektora finansowego, takich jak: kredyty, oszczędności, opłaty oraz ubezpieczenia za pomocą pośredników świadczących usługi na tym rynku. Artykuł został poświęcony omówieniu dostępnych wskaźników integracji finansowej dla Polski. I to zarówno wskaźników indywidualnych, jak i syntetycznych. Dane do ich wyznaczenia są pobierane z systemów statystycznych banku centralnego; systemu płatniczego oraz bilansu płatniczego. Wartości wskaźnika służą do międzynarodowych porównań Polski pod względem dostępu do infrastruktury finansowej.
Multiple-model approach (model aggregation, model fusion) is most commonly used in classification and regression. In this approach K component (single) models C1(x), C1(x), … , CK(x) are combined into one global model (ensemble) C*(x), for example using majority voting: K C* = arg max {Σ I (Ck(x)=y)} (1) y k=1 Turner i Ghosh (1996) proved that the classification error of the ensemble C*(x) depends on the diversity of the ensemble members. In other words, the higher diversity of component models, the lower classification error of the combined model. Since several diversity measures for classifier ensembles have been proposed so far in this paper we present a comparison of the ability of selected diversity measures to predict the accuracy of classifier ensembles.
PL
Podejście wielomodelowe (agregacja modeli), stosowane najczęściej w analizie dyskryminacyjnej i regresyjnej, polega na połączeniu M modeli składowych C1(x), ..., CM(x) jeden model globalny C*(x): K C* = arg max {Σ I (Cm(x)=y)} y k=1 Turner i Ghosh (1996) udowodnili, że błąd klasyfikacji dla modelu zagregowanego C*(x) zależy od stopnia podobieństwa (zróżnicowania) modeli składowych. Inaczej mówiąc, najbardziej dokładny model C*(x) składa się z modeli najbardziej do siebie niepodobnych, tj. zupełnie inaczej klasyfikujących te same obiekty. W literaturze zaproponowano kilka miar pozwalających ocenić podobieństwo (zróżnicowanie) modeli składowych w podejściu wielomodelowym. W artykule omówiono związek znanych miar zróżnicowania z oceną wielkości błędu klasyfikacji modelu zagregowanego.
Szeroko stosowane w praktyce metody nieparametryczne wykorzystujące tzw. drzewa regresyjne mają jedną istotną wadę. Otóż wykazują one niestabilność, która oznacza, że niewielka zmiana wartości cech obiektów w zbiorze uczącym może prowadzić do powstania zupełnie innego modelu. Oczywiście wpływa to negatywnie na ich trafność prognostyczną. Tę wadę można jednak wyeliminować, dokonując agregacji kilku indywidualnych modeli w jeden. Znane są trzy metody agregacji modeli i wszystkie opierają się na losowaniu ze zwracaniem obiektów ze zbioru uczącego do kolejnych prób uczących: agregacja bootstrapowa (boosting), losowanie adaptacyjne (bagging) oraz metoda hybrydowa, łącząca elementy obu poprzednich. W analizie regresji szczególnie warto zastosować gradientową, sekwencyjną, odmianę metody boosting. W istocie polega ona wykorzystaniu drzew regrcsyjnych w kolejnych krokach do modelowania reszt dla modelu uzyskanego w poprzednim kroku.
EN
The successful tree-based methodology has one serious disadvantage: lack of stability. That is, regression tree model depends on the training set and even small change in a predictor value could lead to a quite different model. In order to solve this problem single trees are combined into one model. There are three aggregation methods used in classification: bootstrap aggregation (bagging), adaptive resample and combine (boosting) and adaptive bagging (hybrid bagging-boosting procedure). In the field of regression a variant of boosting, i.e. gradient boosting, can be used. Friedman (1999) proved that boosting is equivalent to a stepwise function approximation in which in each step a regression tree models residuals from last step model.
Model fusion has proved to be a very successful strategy for obtaining accurate models in classification and regression. The key issue, however, is the diversity of the component classifiers because classification error of an ensemble depends on the correlation between its members. The majority of existing ensemble methods combine the same type of models, e.g. trees. In order to promote the diversity of the ensemble members, we propose to aggregate classifiers of different types, because they can partition the same classification space in very different ways (e.g. trees, neural networks and SVMs).
PL
Łączenie modeli okazało się być bardzo efektywną strategią poprawy jakości predykcji modeli dyskryminacyjnych. Kluczowym zagadnieniem, jak wynika z twierdzenia Turnera i Ghosha (1996), jest jednak stopień różnorodności agregowanych modeli, tzn. im większa korelacja między wynikami klasyfikacji tych modeli, tym większy błąd. Większość znanych metod łączenia modeli, np. RandomForest zaproponowany przez Breimana (2001), agreguje modele tego samego typu w różnych przestrzeniach cech. Aby zwiększyć różnice między pojedynczymi modelami, w referacie zaproponowano łączenie modeli różnych typów, które zostały zbudowane w tej samej przestrzeni zmiennych (np. drzewa klasyfikacyjne i modele SVM). W eksperymentach wykorzystano 5 klas modeli: liniowe i kwadratowe modele dyskryminacyjne, drzewa klasyfikacyjne, sieci neuronowe, oraz modele zbudowane za pomocą metody £-najbliższych sąsiadów (k-NN) i metody wektorów nośnych (SVM). Uzyskane rezultaty pokazują, że modele zagregowane powstałe w wyniku łączenia różnych modeli są bardziej dokładne niż gdy modele składowe są tego samego typu.
Significant improvement of model stability and prediction accuracy in classification and regression can be obtained by using the multiple model approach. In classification multiple models are built on the basis of training subsets (selected from the training set) and combined into an ensemble or a committee. Then the component models (classification trees) determine the predicted class by voting. In this paper some problems of feature selection for ensembles will be discussed. We propose a new correlation-based feature selection method combined with the wrapper approach.
Indeks cen towarów konsumpcyjnych jest ważnym wskaźnikiem, wpływającym na decyzje podmiotów gospodarczych. Jest też kluczowym parametrem dla banków centralnych stosujących w swojej polityce pieniężnej strategię bezpośredniego celu inflacyjnego. Celem artykułu jest omówienie trzech modeli pomiaru inflacji: stosowanego w Polsce przez NBP wskaźnika CPI (Consumer Price Index) na podstawie struktury wydatków wylosowanych gospodarstw domowych na towary i usługi znajdujące się w tzw. koszyku inflacyjnym; stosowanego przez EBC wskaźnika HICP (Harmonised Index of Consumer Prices), wskaźnik zharmonizowany, w którym struktura spożycia jest określana na podstawie danych z Rachunków Narodowych; oraz stosowanego przez FED w USA wskaźnika PCE (Personal Consumption Expeditures Index). W pracy dokonano także analizy ich własności ze względu na prawidłowość ujęcia zmian cen konsumpcyjnych oraz omówiono ich znaczenie dla prowadzenia polityki pieniężnej przez wybrane banki centralne.
Zadanie pt. „Digitalizacja i udostępnienie w Cyfrowym Repozytorium Uniwersytetu Łódzkiego kolekcji czasopism naukowych wydawanych przez Uniwersytet Łódzki” nr 885/P-DUN/2014 zostało dofinansowane ze środków MNiSW w ramach działalności upowszechniającej naukę.
EN
Tree-based models are popular a widely used because they are simple, flexible and powerful tools for classification. Unfortunately they are not stable classifiers. Significant improvement of the model stability and prediction accuracy can be obtained by aggregation of multiple classification trees. Proposed methods, i.e. bagging, adaptive bagging, and arcing are based on sampling cases from the training set while boosting uses a system of weights for cases. The result is called committee of trees, an ensemble or a forest. Recent developments in this field showed that randomization (random selection of variables) in aggregated tree-based classifiers leads to consistent models while boosting can overfit. In this paper we discuss optimal parameter values for the method of random selection of variables (RandomForest) for an aggregated tree-based model (i.e. number of trees in the forest and number of variables selected for each split).
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.