Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

Results found: 4

first rewind previous Page / 1 next fast forward last

Search results

Search:
in the keywords:  regression trees
help Sort By:

help Limit search:
first rewind previous Page / 1 next fast forward last
PL
Drzewa klasyfikacyjne i regresyjne są bardzo popularnym narzędziem predykcji. Budowa takiego modelu polega na stopniowym podziale wielowymiarowej przestrzeni cech na rozłączne obszary aż do uzyskania maksymalnej ich homogeniczności ze względu na wartość zmiennej objaśnianej y. Podział ten kontynuowany jest w kolejnych krokach, w oparciu o wartości wybranych zmiennych objaśniających. Istnieje wiele możliwych sposobów wyboru tych zmiennych, a jednym z najpopularniejszych jest algorytm wyczerpującego przeszukiwania (ang. exhaustive search) opracowany przez Breimana (Breimana et al., 1984). Zaproponowany przez Hothoma, Hornika i Zeileisa, (2006) sposób doboru zmiennych znany pod nazwą nieobciążonej metody rekurencyjnego podziału (ang. unbiased recurcive partitioning) opierający się na zastosowaniu testów permutacyjnych miał na celu ominięcie podstawowej wady tradycyjnego podejścia, jakim jest tendencja do wyboru zmiennych dających wiele potencjalnych możliwości podziału. Okazuje się, że w przypadku dyskryminacji to nowatorskie podejście prowadzi do uzyskania modeli zapewniających bardzo zbliżone wyniki klasyfikacji jak podejście tradycyjne, a w podejściu wielomodelowym może doprowadzić do pogorszenia poprawności klasyfikacji. Zasadniczym celem referatu jest przedstawienie wyników badań, które mają na celu porównanie dokładności predykcji na podstawie drzew regresyjnych, które doboru zmiennych objaśniających dokonują za pomocą algorytmu wyczerpującego przeszukiwania oraz za pomocą podejścia bazującego na testach permutacyjnych. Ponadto porównane zostaną wyniki predykcji modeli zagregowanych, w których modelami składowymi będą te dwa rodzaje drzew regresyjnych.
EN
Classification and regression trees are very popular tool for prediction. The construction of these models is based on recursive partitioning of multidimensional attribute space into disjoint homogenous regions till gaining the maximum homogeneity from the point of view of the dependent variable value. The main aim of this research is to apply in regression trees unbiased recursive partitioning algorithm proposed by Hothom, Homik and Zeileis (2006), which is based on permutation tests. The research takes into consideration both single and aggregated approach and compare the results with classical method of tree model construction based on exhaustive search algorithm proposed by Breiman et al. (1984).
EN
Multiple additive regression trees MART is a methodology for trying to solve prediction problems in regression and classification. It’s one of the boosting methods. It was introduced by J. H. Friedman (1999a). Besides accuracy, its primary goal is robustness. It lends to be resistant against outliers, missing values, and the inclusion of potentially large numbers of irrelevant predictor variables that have little or no effect on the response. In this paper the MART algorithm and their applications will be discussed.
PL
Addytywna metoda budowy drzew regresyjnych (MART), została zaproponowana przez J. H. Friedmana w 1999 r. (1999a, b). Jest to jedna z metod agregacyjnych, mająca zastosowanie w regresji i dyskryminacji opierająca się na modelach w postaci drzew. Jej zaletami, poza dokładnością predykcji, jest odporność na wartości oddalone i braki danych. Bardzo dobrze radzi sobie również z dużą liczbą zmiennych objaśniających, wśród których wiele może nie mieć istotnego wpływu na zmienną zależną. W artykule przedstawiona została ogólna idea metod agregacyjnych. Zaprezentowano i omówiono kolejne kroki algorytmu MART, a następnie, dla ilustracji, podany został przykład zastosowania procedury MART dla zbioru danych „Boston”.
EN
This article proposes the application of regression trees for analysing income polarization. Using an approach to polarization based on the analysis of variance, we show that regression trees can uncover groups of homogeneous income receivers in a data-driven way. The regression tree can deal with nonlinear relationships between income and the characteristics of income receivers, and it can detect which characteristics and their interactions actually play a role in explaining income polarization. For these features, the regression tree is a flexible statistical tool to explore whether income receivers concentrate around local poles. An application to Italian individual income data shows an interesting partition of income receivers.
EN
The aim of the article is to analyse the relationship between the employment efficiency index and the structure of unemployment in county (‘powiat’) employment offices in Poland. Five research hypotheses connected with the research goal were formulated. The most important features characterizing the unemployed were: education, age, the duration of unemployment, gender, the place of residence. Regression trees were used as the research tool, which enabled to group county employment offices with differing values of the employment efficiency index with a simultaneous indication of independent variable variants (diagnostic features) affecting its level. After conducting the research, the authors managed to verify positively and unquestionably the hypothesis that the higher the percentage of the unemployed with higher education, the easier it is to achieve higher employment efficiency. In a less explicit way, only under certain conditions, hypotheses regarding the age of the unemployed and the place of residence were verified. Nevertheless, it was not possible to verify positively the hypotheses regarding the impact of gender and the duration of unemployment on the employment efficiency index.
PL
Celem artykułu jest analiza zależności pomiędzy wskaźnikiem efektywności zatrudnieniowej a strukturą bezrobotnych w powiatowych urzędach pracy w Polsce. Sformułowano pięć hipotez badawczych związanych z realizacją celu badania. Za najważniejsze cechy charakteryzujące bezrobotnych uznano: wykształcenie, wiek, czas pozostawania bez pracy, płeć, miejsce zamieszkania. Jako narzędzie badawcze zastosowano drzewa regresyjne, dzięki którym możliwe jest pogrupowanie powiatowych urzędów pracy różniących się między sobą wartościami wskaźnika efektywności zatrudnieniowej z jednoczesnym wskazaniem wariantów zmiennych niezależnych (cech diagnostycznych) wpływających na jego poziom. Po przeprowadzeniu badań udało się pozytywnie i jednoznacznie zweryfikować hipotezę, że im wyższy odsetek bezrobotnych z wykształceniem wyższym, tym łatwiej osiągnąć wyższą efektywność zatrudnieniową. W sposób mniej jednoznaczny, tylko przy określonych warunkach, zweryfikowano hipotezy dotyczące wieku bezrobotnych oraz miejsca zamieszkania. Natomiast nie udało się pozytywnie zweryfikować hipotez dotyczących wpływu płci oraz czasu pozostawania bez pracy bezrobotnych na wskaźnik efektywności zatrudnieniowej.
first rewind previous Page / 1 next fast forward last
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.