The paper deals with some problems concerning the sequential probability ratio tests (SPRT) and their application to verifying simple and composite statistical hypotheses. Besides properties and examples of SPRT, there are presented advantages o f this group of tests and reasons why we cannot always apply them in practice.
This paper presents some important earlier results of the research concerning the properties of the distribution of the quotient of random variables. We present also our own ideas and results of the research concerning the mean and the variance of the distribution of the quotient of random quadratic forms.
The paper deals with a simulation study of one of the well-known hierarchical cluster analysis methods applied to classifying the statistical populations. In particular, the problem of clustering the univariate normal populations is studied. Two measures of the distance between statistical populations are considered: the Mahalanobis distance measure which is defined for normally distributed populations under assumption that the covariance matrices are equal and the Kullback-Leibler divergence (the so called Generalized Mahalanobis Distance) the use of which is extended on populations of any distribution. The simulation study is concerned with the set of 15 univariate normal populations, variances of which are chanched during successive steps. The aim is to study robustness of the nearest neighbour method to departure from the variance equality assumption when the Mahalanobis distance formula is applied. The differences between two cluster families, obtained for the same set of populations but with the different distance matrices applied, are studied. The distance between both final cluster sets is measured by means of the Marczewski-Steinhaus distance.
The paper discusses the method of determining the sample division indicator for the switching regression model in case of two states generating values of the explained variable, which ensures the least risk of making a mistake, understood as the expected value of relevant loss function. This paper is an attempt to take advantage of the discrimination analysis elements in the switching regression analysis.
Studies in the field of wage and income distribution concentrate on measuring income inequality. We can investigate both the inequality within the population and the inequality between the populations. The latter can be called the economic distance of one population with respect to another. In the paper we present economic distance ratios. Do and D1 introduced by Dagum. They were calculated for the empirical distributions of wages in Poland (nonparametric form) and for the corresponding theoretical ones derived from the Dagum function (parametric form).
In this paper two forms of switching regression models with non-normal errors are considered. The pseudo maximum likelihood method is proposed for the estimation of their parameters. Monte Carlo experiments results are presented for a special switching regression model, too. In this research there are compared distributions of parameters estimators for different distributions of errors. The error distributions are as follows: normal, Student’s or Laplace’s. The maximum likelihood method (for the normal errors) is applied to the estimation. In most of the cases the estimators distributions do not differ significantly.
In this paper we present some problems concerning artificial intelligence. In the first two points there are presented algorithmic and heuristic procedures, which are applied in solving problems and making optimal decision for the fixed states as follows: beginning state, set of all states of a problem, subset of final states. The fundamental part of the paper discusses three leaming-algorithms: ID3, AQ and backpropagation, owing to which computer basing on a given sample is to create a general formula or rule and to make a decision which is a solution of the problem. The last section of the paper includes a short description of the predictive accuracy of the algorithms.
In order to forecast income distributions of population, we can make use of, among others, stochastic processes. These processes can be used to determine probabilities of transition of households from one income class to another. The paper attempts to present an application of homogenous Markov chains in the process of forecasting the income structure of six socio-economic groups of population in Poland for the years 2004, 2006 and 2008. Forecasts are based on results of individual household budgets surveys.
PL
Do prognozowania rozkładów dochodów ludności wykorzystywane być mogą m. in. procesy stochastyczne służące do określania wielkości prawdopodobieństw przejścia gospodarstw domowych z określonej grupy dochodowej do innej. W opracowaniu podjęto próbę wykorzystania jednorodnych łańcuchów Markowa do sporządzania prognoz struktury dochodów sześciu grup społeczno-ekonomicznych ludności w Polsce dla lat 2004, 2006 i 2008. Podstawę szacunków stanowiły wyniki badań budżetów indywidualnych gospodarstw domowych.
Correct insurance premiums estimation constitutes the basis for the insurance activity. Premiums should be estimated in a way that does not let the insurance company incur financial losses and prevents the insured from paying too much or too little. A gross premium consists of a net premium enlarged by security loading and insurance activity costs. The paper compares two premium estimation methods: the expected value method and the zero utility method. It also investigates whether premiums estimated according to the selected methods allow to design an optimal bonus-malus system. The investigation was carried out on real data from an insurance company in Łódź.
PL
Podstawą działalności ubezpieczeniowej jest prawidłowe szacowanie składek ubezpieczeniowych. Składki powinny być tak oszacowane, aby towarzystwo nie poniosło strat finansowych, natomiast ubezpieczony nie płacił za dużo lub za mało. Składka brutto to składka netto powiększona o dodatek bezpieczeństwa oraz koszty działalności ubezpieczeniowej. W pracy porównano dwie metody szacowania składek: metodę wartości oczekiwanej oraz metodę zerowej użyteczności. Zbadano również, czy oszacowane według wybranych metod składki pozwalają na budowę optymalnego systemu bonus-malus. Badanie przeprowadzono na danych rzeczywistych, pochodzących z łódzkiego towarzystwa ubezpieczeniowego.
Rankings of income distributions are usually based on comparisons of social welfare. Assuming more or less general form of a social welfare function we can compare income distributions in time and in space. Income inequality can be compared by means of the well known Lorenz curve but the results will be ambiguous when the Lorenz functions of the considered populations intersect. Generalized Lorenz curves and quantile functions are more useful tools for ranking income distributions but in many situations it is necessary to make additional assumptions concerning social preferences reflected in a social welfare function. In the paper we present the methods useful for ranking income distributions and their application to the analysis of wage distributions in Poland. As a theoretical distribution the Dagum type-I model has been used.
PL
Porównywanie rozkładów dochodów może być przeprowadzane na podstawie różnych kryteriów. Jedną z metod jest zastosowanie współczynników dystansu ekonomicznego Porównując rozkłady dochodów z punktu widzenia zamożności rozważanych populacji, bierzemy pod uwagę dwa aspekty tego zagadnienia - różnice w średnich poziomach dochodów oraz różnice w ich nierównomierności. Porównywanie nierównomierności może się odbywać za pomocą krzywych Lorenza - wyniki będą jednak niejednoznaczne, np. gdy funkcje Lorenza przecinają się Bardziej uniwersalnym narzędziem do rangowania rozkładów dochodów są uogólnione funkcji Lorenza oraz funkcje kwantylowe. Wymagają one jednak przyjęcia pewnych dodatkowych założeń dotyczących funkcji dobrobytu, która jest wyrazem preferencji społecznych. W artykule przedstawiono wyniki zastosowania powyższych metod dla rozkładów płac w Polsce. Jako rozkład teoretyczny wykorzystany został rozkład Daguma pierwszego typu.
The following study aims at analyzing the activity of open pension funds so far. To evaluate their efficiency, the author uses profitability indicators of investment portfolio such as Sharpe, Treynor and Jensen Ratio as well as IR (Information Ratio), TE (Tracking Error) and M2 (M2-measure). The analysis was carried out by means of monthly and quarterly data. The next stage includes rating of open pension funds from the point of view of their efficiency and conducted investment policy, analyzing, at the same time, calculated profitability ratios, rates of return and risk measures. In order to do that, the author uses such methods of cluster analysis as Tree Clustering and k-Means Clustering as well as different distance measures and Amalgamation or Linkage Rules.
PL
Celem niniejszego opracowania jest analiza dotychczasowej działalności Otwartych Funduszy Emerytalnych (OFE) z punktu widzenia osiągniętych wyników inwestycyjnych. Do oceny efektywności tych funduszy wykorzystano wskaźniki rentowności portfela inwestycji: Sharpe'a, Treynora i Jensena, a także IR, TE czy M2 (M2-measure). Analizę przeprowadzono na danych miesięcznych i kwartalnych. W kolejnym etapie dokonano klasyfikacji OFE z punktu widzenia ich efektywności i prowadzonej polityki inwestycyjnej, analizując obliczone wskaźniki rentowności, stopy zwrotu i miary ryzyka. W tym celu wykorzystano takie metody analizy skupień, jak: aglomerację, metodę k-średnich oraz różne miary odległości i metod łączenia lub wiązania.
The assumption of multivariate normality is a basis of the classical multivariate statistical methodology. Consequences of departures from these assumptions have not been investigated well so far. There are many methods of constructing multivariate normality tests. Some of these tests ire broader versions of univariate normality tests. Most of the multivariate normality tests which can be found in literature, can be divided into four categories: Graph based procedures. Generalized goodnes-of-fit tests. Tests based of skewness and kurtosis measures. Procedures based on empirical characteristic function. The present paper is an attempt to assess selected tests from the point of view of their properties as well as possibilities of their applications.
PL
Założenie o wielowymiarowej normalności leży u podstaw klasycznej metodologii statystyki wielowymiarowej. Konsekwencje odstępstw od założenia normalności rozkładów zmiennych losowych nie są jeszcze dostatecznie poznane. Istnieje wiele różnych metod konstrukcji testów wielowymiarowej normalności. Część tych tekstów stanowi rozszerzenie testów jednowymiarowej normalności. Większość prezentowanych w literaturze przedmiotu testów wielowymiarowej normalności można podzielić na cztery kategorie: procedury oparte na wykresach graficznych, uogólnione testy zgodności, testy oparte na miarach skośności i spłaszczenia, procedury oparte na empirycznych funkcjach charakterystycznych. W artykule będzie przedstawiona próba oceny wybranych testów zarówno z punktu widzenia ich własności, jak i możliwości ich stosowania przez badaczy nawet bez gruntownego przygotowania statystycznego.
Artificial neural networks constitute one of the most developed conception of artificial intelligence. They are based on pragmatic mathematical theories adopted to tasks resolution. A wide range of their applications also includes financial investments issues. The reason for NN's popularity is mainly connected with their ability to solve complex or not well recognized computational tasks, efficiency in finding solutions as well as the possibility of learning based on patterns or without them. They find applications particularly in forecasting stock prices on financial markets. The paper presents the problem of using artificial neural networks to predict stock prices on the example of the Warsaw Stock Exchange. It considers the general framework of neural networks, their potential and limitations as well as problems faced by researcher meets while using neural networks in prediction process.
PL
Sztuczne sieci neuronowe stanowią jedną z najbardziej rozwiniętych gałęzi sztucznej inteligencji. Oparte są na pragmatycznych koncepcjach matematycznych dostosowywanych do rozwiązywanego zadania. Szeroki obszar zastosowań tych struktur obejmuje również zagadnienia szeroko rozumianych inwestycji finansowych. Przyczyn popularności należy upatrywać głównie w możliwości rozwiązywania skomplikowanych lub niezbyt dobrze rozpoznanych problemów obliczeniowych, sprawności znajdowania rozwiązań oraz możliwości uczenia się na podstawie wzorców lub bez nich. W szczególności sztuczne sieci neuronowe znajdują swoje zastosowanie w problemach predykcji cen papierów wartościowych na rynkach finansowych. Artykuł przedstawia problematykę zastosowania sieci neuronowych do prognozowania cen akcji na Giełdzie Papierów Wartościowych w Warszawie. Ukazuje ogólną koncepcję sieci neuronowych, ich możliwości, ograniczenia oraz problemy, jakie stają przed badaczem w momencie ich wykorzystania w procesie prognozowania.
The Net Present Value (NPV) rule is a base of modern finance theory. The classical definition of NPV is based on unrealistic assumptions: it treats the discount rate as a deterministic and constant function. The above fact may lead to some situations when the classical NPV may mark the wrong direction of investing. Moreover, the deterministic formula makes the measurement of risk impossible - we can not estimate the probability of obtaining any values of NPV. In this paper we consider a stochastic, general definition of Net Present Value. We propose the method of measurement of risk in case of using the stochastic definition. The risk is identified with probability, that stochastic process NPV(t), starting from a negative and real point B(0) (initial investment), will not leave the interval (-∞,0) before end of the project (T). Presented considerations lead to Pontriagin's differential equation and its solution is the mentioned probability.
PL
Metoda Aktualnej Wartości Netto (NPV) jest filarem nowoczesnej teorii finansów. Klasyczna definicja NPV opiera się na nierealistycznych założeniach: zakłada chociażby stały czasie i deterministyczny charakter stopy dyskontowej. Prowadzi to do sytuacji, w których jej stosowanie wyznacza błędne kierunki inwestowania. Ponadto jej deterministyczna formuła nie rozwala mierzyć ryzyka lub też inaczej - szansy uzyskania konkretnej wartości NPV. W niniejszej pracy rozważać będziemy stochastyczną, ogólną definicję Aktualnej Wartości Netto. Zaproponowana będzie pewna metoda pomiaru ryzyka w przypadku stosowania tej definicji. Ryzyko utożsamione zostanie z prawdopodobieństwem, że stochastyczny proces NPV(t), startując z pewnego ujemnego, rzeczywistego punktu B(0) (nakład inicjujący projekt) co końca czasu trwania projektu (T), nie wydostanie się z przedziału (-∞, 0). Rozważania nad rym prawdopodobieństwem doprowadzą do równania różniczkowego Pontriagina, którego rozwiązaniem będzie wspomniane prawdopodobieństwo.
Logistic regression models can be applied for analysis of Bernoulli variables in studies of small areas. In the paper the logistic regression predictors for parameter of the Bernoulli distribution and an estimation of variance and MSE for these predictors arc considered for small areas. The results of simulation experiments conducted for analysis of properties of estimators of variance and mean square error for the predictors are presented.
PL
Modele regresji logistycznej mogą być wykorzystywane do analizy zmiennych o rozkładzie zero-jedynkowym dla małych obszarów. W pracy rozpatrywane są logistyczno-regresyjne predyktory parametru rozkładu zero-jedynkowego oraz estymacja MSE i wariancji tych predyktorów w przypadku małych obszarów. Przedstawione są wyniki eksperymentów symulacyjnych, których celem jest analiza własności estymatorów wariancji i błędu średniokwadratowego logistyczno-regresyjnych predyktorów.
Hypotheses about expected value of random variable can be verified by means of the parametric sequential probability ratio test in case of the known class of this variable's distribution. The problem with verification of such hypotheses occurs when we have no information about random variable distribution. Then, we have to apply non-parametric methods. The author of the paper proposes the application of pseudo-likelihood function instead of likelihood one in the statistic of sequential probability ratio test. Examples of application of the test based on the likelihood function ratio in selected kinds of distributions are presented together with the results of Monte Carlo analysis concerning properties of these tests.
PL
Hipotezy o wartości oczekiwanej zmiennej losowej możemy zweryfikować parametrycznym ilorazowym testem sekwencyjnym, w przypadku znanej klasy rozkładu tej zmiennej. Problem z weryfikacją takich hipotez pojawia się, gdy nie posiadamy informacji o rozkładzie zmiennej losowej i musimy zastosować metody nieparametryczne. W procy proponowane jest wykorzystanie funkcji pseudowiarygodności, zamiast funkcji wiarygodności, w statystyce ilorazowego testu sekwencyjnego. Przykłady zastosowania testu opartego na ilorazie funkcji pseudowiarygodności dla wybranych rodzajów rozkładów s;j zaprezentowane w pracy wraz z wynikami analizy Monte Carlo dotyczącymi własności tych testów.
Okres transformacji gospodarczej, który rozpoczął się w Polsce w 1989 r., wiąże się z narastaniem nierówności dochodowych w różnych przekrojach. Powoduje to m.in. zwiększanie się dystansu ekonomicznego pomiędzy niektórymi grupami społeczno-ekonomicznymi oraz wzrost koncentracji płac i dochodów wewnątrz tych grup. W efekcie tych zmian poziom nierównomierności rozkładu dochodów Polsce jest obecnie bardzo wysoki w porównaniu z innymi krajami Wspólnoty Europejskiej. W artykule przedstawione zostały miary koncentracji dochodów w grupach społeczno-zawodowych w ujęciu dynamicznym oraz współczynniki dystansu ekonomicznego pomiędzy grupami. Miary te były szacowane na podstawie parametrów rozkładów teoretycznych dopasowanych do empirycznych rozkładów dochodów pochodzących z Badania Budżetów Gospodarstw Domowych.
Sequential probability ratio tests can be used to verify hypotheses about truncated distribution parameters when error probabilities of the first and the second type are set. For parameters of normal and exponential distributions truncated on both sides and on the left side, statistics of sequential probability ratio test were determined. Since the sample size in these tests is the random variable, formulas for expected values o f sample size for considered tests were also defined.
PL
Ilorazowe testy sekwencyjne można stosować do weryfikacji hipotez o parametrach rozkładów uciętych, przy ustalonych prawdopodobieństwach błędów I-go i Il-go rodzaju. Dla parametrów obustronnie i lewostronnie uciętych rozkładów normalnych i wykładniczych zostały wyznaczone statystyki ilorazowych testów sekwencyjnych. Ponieważ liczebność próby w tych testach jest zmienną losową, określone zostały również wzory na wartości oczekiwane liczebności prób dla rozważanych testów.
The paper deals with a new classification algorithm for discriminating between two populations. The proposed algorithm uses properties of a receiver operating characteristic function ROC(v) and a goodness-of-fit statistic proposed for testing the null hypothesis H₀ : ROC(v) = v against H₁ : ~ H₀.
PL
W artykule przedstawiono propozycję konstrukcji drzewa klasyfikacyjnego, wykorzystującą własności krzywych operacyjno-charakterystyczných oraz statystyki testu zgodności χ² dla weryfikacji hipotezy zerowej H₀ : ROC(v) = v przeciwko hipotezie H₁ : ~ H₀.
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.