Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

PL EN


Journal

2016 | 26 |

Article title

Dowodzenie hipotez za pomocą zzynnika bayesowskiego (bayes factor): przykłady użycia w badaniach empirycznych

Content

Title variants

Languages of publication

PL

Abstracts

PL
Testów statystycznych używa się w nauce po to, żeby wesprzeć zaproponowane hipotezy badawcze (teorie, modele itp.). Czynnik bayesowski (Bayes Factor, BF) jest metodą bezpośrednio wskazującą tę z dwóch hipotez, która lepiej wyjaśnia uzyskane dane. Jego wykorzystanie we wnioskowaniu statystycznym prowadzi do jednego z trzech wniosków: albo badanie bardziej wspiera hipotezę zerową, albo alternatywną, albo wyniki nie wspierają żadnej w sposób rozstrzygający i są niekonkluzywne. Symetria tych wniosków jest przewagą metody czynnika bayesowskiego nad testami istotności. W powszechnie używanych testach istotności nie formułuje się wniosków wprost, lecz albo się odrzuca hipotezę zerową, albo się jej nie odrzuca. Rozdźwięk między taką decyzją a potrzebami badacza często jest powodem nadinterpretacji wyników testów statystycznych. W szczególności wyniki nieistotne statystycznie są często nadinterpretowane jako dowód braku różnic międzygrupowych lub niezależności zmiennych.W naszej pracy omawiamy założenia teoretyczne metody BF, w tym różnice między bayesowskim a częstościowym rozumieniem prawdopodobieństwa. Przedstawiamy sposób weryfi kacji hipotez i formułowania wniosków według podejścia bayesowskiego. Do jego zalet należy m.in. możliwość gromadzenia dowodów na rzecz hipotezy zerowej. Wykorzystanie metody w praktyce ilustrujemy przykładami bayesowskiej reinterpretacji wyników kilku opublikowanych badań empirycznych, w których wykonywano tradycyjne testy istotności. Do obliczeń wykorzystaliśmy darmowy program JASP 0.8, specjalnie dedykowany bayesowskiej weryfi kacji hipotez statystycznych.
EN
Statistical tests are used in science in order to support research hypotheses (theory, model). The Bayes Factor (BF) is a method that weighs evidence and shows which out of two hypotheses is better supported. Adopting the BF in statistical inference, we can show whether data provided stronger support for the null hypothesis, the alternative hypothesis or whether it is inconclusive and more data needs to be collected to provide more decisive evidence. Such a symmetry in interpretation is an advantage of the Bayes Factor over classical null hypothesis signifi cance testing (NHST). Using NHST, a researcher draws conclusions indirectly, by rejecting or not rejecting the null hypothesis. The discrepancy between these decisions and the researcher’s needs, often leads to misinterpretation of signifi cance test results, e.g. by concluding that non-signifi cant p-values are evidence for the absence of differences between groups or that variables are independent.In this work we show the main differences between the Bayesian and the frequential approach to the understanding of probability and statistical inference. We demonstrate how to verify hypotheses using the BF in practice and provide concrete examples of how it modifi es conclusions about empirical fi ndings based on the NHST procedure and the interpretation of p-values. We discuss the advantages of the BF – particularly the validation of a null hypothesis. Additionally, we provide some guidelines on how to do Bayesian statistics using the freeware statistical program JASP 0.8.

Journal

Year

Issue

26

Physical description

Dates

published
2016
online
2017-02-17

Contributors

References

Document Type

Publication order reference

Identifiers

YADDA identifier

bwmeta1.element.ojs-doi-10_7206_DEC_1733-0092_79
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.