Πέμπτη 23 Απριλίου 2015

Έλεγχος διαφοράς

Quantitative


Έλεγχος διαφοράς δύο μέσων


Διαφορά Μέσων


Συχνά, σε έρευνες και μελέτες, παρουσιάζεται ανάγκη να αποφασίσουμε μεταξύ δύο υποθέσεων για τη διαφορά, μ1 − μ2 , της μέσης τιμής μ2 ενός πληθυσμού από τη μέση τιμή μ1 ενός άλλου πληθυσμού. Για παράδειγμα, σε μια μελέτη για την περιεκτικότητα των ζαχαρότευτλων σε σάκχαρα, πρέπει να αποφασίσουμε αν η μέση περιεκτικότητα μιας ποικιλίας ζαχαρότευτλων σε σάκχαρα,μ1, είναι ίση ή όχι με τη μέση περιεκτικότητα μιας άλλης ποικιλίας ζαχαρότευτλων,μ2, δηλαδή αν μ1 − μ2=0 ή μ1 − μ2≠0 .

Σε μια άλλη έρευνα, ενδιαφερόμαστε να συγκρίνουμε το μέσο επίπεδο ενός αιματολογικού δείκτη στους ενήλικες άνδρες που πάσχουν από κάποια συγκεκριμένη ασθένεια, με το μέσο επίπεδο του αιματολογικού δείκτη στους ενήλικες άνδρες που δεν πάσχουν από τη συγκεκριμένη ασθένεια.
Είναι προφανές, ότι τέτοιου είδους προβλήματα είναι προβλήματα στατιστικού ελέγχου υποθέσεων. Μπορούμε όμως, και σε αυτές τις περιπτώσεις, να εφαρμόσουμε τη μέθοδο στατιστικού ελέγχου υποθέσεων που περιγράψαμε στα προηγούμενα; Η απάντηση είναι ναι. Η μέθοδος στατιστικού ελέγχου υποθέσεων που εφαρμόζουμε και σε αυτές τις περιπτώσεις ελέγχων, δε διαφέρει, ως προς τη λογική της, από αυτήν που εφαρμόσαμε για τον έλεγχο μιας παραμέτρου ενός μόνο πληθυσμού. Με μια, όμως, προφανή διαφορά. Η απόφασή μας για το αν θα απορρίπτουμε ή δε θα απορρίπτουμε τη μηδενική υπόθεση, δε θα βασίζεται πλέον σε ένα αλλά σε δύο τυχαία δείγματα (ένα από κάθε πληθυσμό) και επομένως, όπως είδαμε όταν μιλήσαμε για διαστήματα εμπιστοσύνης που αφορούν παραμέτρους δύο πληθυσμών, πρέπει να διακρίνουμε την περίπτωση που τα δύο δείγματα είναι ανεξάρτητα μεταξύ τους από την περίπτωση που τα δύο δείγματα δεν είναι ανεξάρτητα.


Πηγή:[1]

Συνεπώς, παρόμοια με τον έλεγχο υποθέσεων εργαζόμαστε και για να συγκρίνουμε διαφορές μέσων τιμών και διασπορών από διαφορετικά δείγματα:
- για το κατά πόσο αυτές οι διαφορές είναι τυχαίες ή αντανακλούν σε  πραγματικές.
Για τις διαφορές μέσων τιμών από δύο διαφορετικά δείγματα υπάρχουν δύο δυνατά σενάρια:
• τα δείγματα μπορούν να διαταχθούν σε αντιστοιχία ένα-με-ένα, π.χ. ζεύγη παρατηρήσεων πριν/μετά.
• ανεξάρτητα δείγματα (ίσως και με διαφορετικό μέγεθος) όπου δε γίνεται ή δεν έχει νόημα η ένα με ένα αντιστοίχιση των παρατηρήσεων
\RightarrowΓενικά, ο έλεγχος των υποθέσεων που κανουμε για τους μέσους των δύο πληθυσμων, έστω μ1 και μ2, λαμβάνουν σαν αρχική υπόθεση H0:μ1=μ2 έναντι των εναλλακτικών:
  • H1:μ1\neqμ2 ή
  • H1:μ1<μ2 ή
  • H1:μ1>μ2
Πρώτη περίπτωση: δείγματα διατάξιμα κατά ζεύγη: Δοκιμή συγκεκριμένης δίαιτας σε δείγμα n=49 άτομα.
Παίρνω διαφορές ΔΒ = Βάρος (μετά) - Βάρος (πριν)
Αν δεν είχε αποτέλεσμα περιμένω μ(ΔΒ) = 0 = H0 Εναλλακτική: έχασαν βάρος, άρα μ(ΔΒ) < 0 = H1 Αν ισχύει η μηδενική υπόθεση περιμένω κανονική κατανομή των διαφορών (ΔΒ) . Αλλά σ = άγνωστο τότε χρησιμοποιώ s = σx = \frac{s}{\sqrt{n}} με τη βοήθεια του οποίου βρίσκω το z (κανονικό αφού δείγμα > 30)
Έστω επίπεδο εμπιστοσύνης α = 0.05 Βρίσκω κρίσιμη περιοχή z \leq -1.65
Έστω ότι n = 49, \bar{x}= -5, s = 3.5 επομένως \sigma_{\bar{x}}=3.5/7=0.5 => z = (-5 -0) / 0.5 = -10 σαφώς στην κρίσιμη περιοχή, άρα η δίαιτα έφερε αποτέλεσμα.
Αν το δείγμα ήταν κάτω των 30 ατόμων θα χρησιμοποιούσαμε κατανομή του t υποθέτοντας κανονική
κατανομή του πληθυσμού.

Παράδειγμα 2
Καθηγητές αγγλικών θέλουν να ελέγξουν αν εφαρμόζοντας τη νέα μέθοδο με προγράμματα για ασκήσεις εξ'αποστάσεως (μέσω Η/Υ) η απόδοση των μαθητών παραμένει η ίδια ή βελτιώνεται. Επομένως H0μ1=μ2 και η εναλλακτική H1μ1<μ2.
Έστω οι βαθμολογίες 9 μαθητών:
  • Με την παλιά μέθοδο (Χ) : 35, 31, 29, 25, 34, 40, 27, 32, 31
  • Με τη νέα μέθοδο (Υ) : 32, 37, 35, 28, 41, 44, 35, 31, 34
και επίπεδο εμπιστοσύνης α=0.05.
Οι δειγματικοί μέσοι είναι Xμ=31.56 και Yμ=35.22
και διακυμάνσεις {s}_{X}^{2}=\frac{1}{8}\times160.22 και {s}_{Υ}^{2}=\frac{1}{8}\times195.56
Βρίσκουμε t= \frac{35.22-31.56}{\sqrt{\frac{195.56+160.22}{9+9-2}}}=1.64
και επειδή Xα=t_{n_{1}+n_{2}-2;\alpha}=t_{16;0.05}=1.76 .
Έχουμε t=1.64<t_{16;0.05}</math>=1.76 και άρα απορρίπτουμε τη μηδενική υπόθεση.

Παράδειγμα 3: σφάλμα τύπου ΙΙ. Επειδή τα επίπεδα εμπιστοσύνης είναι λίγο πολύ αυθαίρετα, υπάρχει ο κίνδυνος να απορριφθούν παρατηρήσεις που ισχύουν, ως τυχαίες. Χρειάζεται προσοχή και διεύρυνση των δειγμάτων αν υπάρχει σχετική υποψία. Π.χ. παρατηρήσεις σε ζεύγη διδύμων που έχουν ανατραφεί χωριστά (σε οικογένεια και ίδρυμα) για την επίπτωση στο δείκτη ευφυίας iq έδωσε:
Ζεύγη Οικογένεια Ίδρυμα Διαφορά
1 105           95 -10
2 95           83 -12
3 103          103   0
4 98           96  -2
5 103           97  -6
Μηδενική υπόθεση H0: μ = 0 Εναλλακτική:H1 μ \neq 0 επίπεδο Εμπιστοσύνης α = 5% Υποθέτοντας κανονική κατανομή πληθυσμού, η κατανομή του t δίνει κρίσιμη περιοχή |t| \geq 2.78 \bar{x}= — 6, s = 5.1 == t = \frac{(\bar{x} - \mu)}{s\sqrt{n}} = — 6/2.3= 2.61 άρα μη σημαντικό αποτέλεσμα. (df = 5 - 1 = 4 και μοιράζοντας το 0.05 στις δύο ουρές της κατανομής βρίσκω Ρ(4; 0.025) = 2.776) Αλλά το δείγμα είναι πολύ μικρό και η απόρριψη είναι οριακή. Αν πάρουμε εμπιστοσύνη α = 10% βρίσκουμε |t| \geq 2.13 που περιλαμβάνει το δείγμα. Με την πιο αυστηρή εμπιστοσύνη υπάρχει κίνδυνος να απορρίψουμε μια σωστή θεωρία!

Δεύτερη περίπτωση: ανεξάρτητα δείγματα. Κλασσικό παράδειγμα: δείγμα συγκρινόμενο με τυφλό δείγμα. Εδώ δεν έχει νόημα να κάνουμε αντιστοιχία και να πάρουμε διαφορές γιατί δεν υπάρχει συγκεκριμένη αντιστοιχία. Πώς εργαζόμαστε: Οι παρατηρήσεις δίνουν δύο μέσες τιμές μ12 Διατυπώνουμε τη μηδενική υπόθεση H0: Εναλλακτική υπόθεση H_1: \mu_1 \neq{\mu_2} ή μ1 > μ2ή μ1 < μ2, ανάλογα με τη θεωρία. Επίπεδο Εμπιστοσύνης α = 1% ή 5% Χρησιμοποιούμε z ή t, ανάλογα με το μέγεθος του δείγματος και την "κανονικότητα" του πληθυσμού.
z= \frac{\bar{x_1} - \bar{x_2}}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} ή t= \frac{\bar{x_1} - \bar{x_2}}{s\sqrt{\frac{1}{n_1} + \frac{2}{n_2}}} όπου s= \frac{(n_1 -1)s_1^2 (n_2 -1)s_2^2}{n_1 +n_2 -2}
Βρίσκουμε z = 3.13. Αν α = 1%, τοτε |z|\leq 2.33 και αν η εναλλακτική είναι μ1 < μ2 τότε βρισκόμαστε στην κρίσιμη περιοχή.

==

Αν μπορούμε να υποθέσουμε ότι οι διακυμάνσεις \sigma ^{2} _{1} και \sigma ^{2} _{2} είναι ίσες, τότε οι διακυμάνσεις των δειγμάτων, s^{2}_{1} και s^{2}_{2}, δίνουν δύο διαφορετικές εκτιμήσεις για την κοινή διακύμανση. Ο συνδυασμός των δύο διαφορετικών εκτιμητών σε μία ενοποιημένη εκτίμηση θα δώσει μία καλύτερη εκτίμηση της διακλυμανσης.
 center
Από τα δύο δείγματα μαζί μπορούμε να λάβουμε ενοποιημένη εκτίμηση, s^{2}_{p} με (n1 − 1) + (n2 − 1) = (n1 + n2 − 2) συνολικά βαθμούς ελευθερίας.

Στους ελέγχους για τη διαφορά των μέσων δύο πληθυσμων διακρίνουμε περιπτώσεις στις οποίες έχουμε


A)Ανεξάρτητα δείγματα,γνωστες/άγνωστες διακυμάνσεις και μεγάλα δείγματα.

Για ανεξάρτητα δείγματα με μέσες τιμές χ,ψ και δειγματικές διασπορές S^{2}_{1} και S^{2}_{2} αντίστοιχα, ισχύει
\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{\mathit{{\sigma}}^{2}}{n}+\frac{\mathit{{\sigma}}_{2}^{2}}{m}}}\sim N(0,1)
όταν οι διασπορές είναι γνωστές, και
\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{s^{2}}{n}+\frac{s_{2}^{2}}{m}}}\sim N(0,1)
όταν οι διασπορές είναι άγνωστες.
To τεστ γίνεται ως εξής:
Μονόπλευρος έλεγχος \Rightarrow H01 − μ2 = δ και H11 − μ2 > δ ή H01 − μ2 = δ και H11 − μ2 < δ
Δ.Ε.: R = Z > Za ή R = Z < − Za
Αμφίπλευρος έλεγχος \Rightarrow H01 − μ2 = δ και H_{1}:\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2}\neq \delta
Δ.Ε.: R=\left|{Z}\right|>Z_{a/2}
Στατιστικό: Z=\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{\mathit{{\sigma}}^{2}}{n}+\frac{\mathit{{\sigma}}_{2}^{2}}{m}}}\sim N(0,1) ή Z=\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{s^{2}}{n}+\frac{s_{2}^{2}}{m}}}\sim N(0,1)
Αν όμως τα δείγματα δεν είναι αναξάρτητα, τότε η διακύμανση της τυχαίας μεταβλητής \bar X_1 - \bar X_2, δίνεται από τον τύπο
\sigma^2_{\bar X_1 - \bar X_2} = \alpha^2_{\bar X_1} + \sigma^2_{\bar X_2} - 2 cov(\bar X_1, \bar X_2)

B)Ανεξάρτητα δείγματα,κανονικός πληθυσμός και άγνωστες αλλά ίσες διακυμάνσεις.

Σ'αυτήν την περίπτωση ισχύει Z=\frac{x-y-( \mu_{1}- \mu_{2})}{\sqrt{\frac{s^{2}}{n}+ \frac{s^{2}}{m}}\sqrt{\frac{(n-1)^{2}S^{2}_{1}+(m-1)^{2}S^{2}_{2}} {n+m-2}}} \sim t_{n+m-2}
To τεστ είναι:
Μονόπλευρος έλεγχος\Rightarrow H01 − μ2 = δ και H11 − μ2 > δ ή H01 − μ2 = δ και H11 − μ2 < δ
Δ.Ε.: R = t > tn + m − 2;a ή R = t < tn + m − 2;a
Αμφίπλευρος έλεγχοςRightarrow H01 − μ2 = δ και H_{1}:\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2}\neq \delta
Δ.Ε.: R=\left|{t}\right|>t_{n+m-2;a/2}
Στατιστικό: t=\frac{x-y- \delta}{\sqrt{\frac{s^{2}}{n}+ \frac{s^{2}}{m}}\sqrt{\frac{(n-1)^{2}S^{2}_{1}+(m-1)^{2}S^{2}_{2}} {n+m-2}}} \sim t_{n+m-2}


Γ)Ανεξάρτητα δείγματα,κανονικός πληθυσμός, άγνωστες και διαφορετικές διακυμάνσεις.

Σε αυτήν την περίπτωση η τυχαία μεταβλητή είναι t=\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{s_{1}^{2}}{n}+\frac{s_{2}^{2}}{m}}}\sim t_{\mathit{{\nu}}}, όπου ν οι βαθμοίελευθερίας της κατανομής. Όταν n=m τότε ν=2(n-1).
Ο έλεγχος ορίζεται ως εξής:
Μονόπλευρος έλεγχος\Rightarrow H01 − μ2 = δ καιH11 − μ2 > δ ή H01 − μ2 = δ και H11 − μ2 < δ
Δ.Ε.: R = t > tν;a ή R = t < tν;a
Αμφίπλευρος έλεγχος\Rightarrow H01 − μ2 = δ και H_{1}:\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2} \neq \delta
Δ.Ε.: R=\left|{t}\right|>t_{\mathit{{\nu}};a/2}
Στατιστικό: t=\frac{[X-Y-(\mathit{{\mu}}_{1}-\mathit{{\mu}}_{2})]}{\sqrt{\frac{s_{1}^{2}}{n}+\frac{s_{2}^{2}}{m}}}\sim t_{\mathit{{\nu}}}


Έλεγχος διαφοράς ζεύγους


Ας υποθέσουμε ότι ερευνούμε κατά πόσο ένα τυχαίο δείγμα φοιτητών παίρνουν καλύτερους βαθμούς στις εξετάσεις που δίνουν την Παρασκευή ή τη Δευτέρα. Ένα δείγμα οκτώ φοιτητών έδωσε τα ακόλουθα αποτελέσματα:
ΑρχικάΕξέταση ΠαρασκευήςΕξέταση ΔευτέραςΔιαφορά
Μ.Υ.98908
Β.Κ.948410
Ρ.Τ.91901
Γ.Α.88835
Ρ.Σ.86806
Τ.Ξ.82775
Λ.Σ.80764
Ξ.Β.76724
Στην αρχή ενδέχεται να μπείτε στον πειρασμό να χρησιμοποιήσετε τη διαδι­κασία ελέγχου της διαφοράς δύο μέσων, διατυπώνοντας τη μηδενική υπόθεση μα − μβ = 0. Κάνοντας τις αντίστοιχες πράξεις θα μπορούσε να σας οδηγήσει να πιστέ­ψετε ότι δεν υπάρχει στατιστικώς σημαντική διαφορά στις βαθμολογίες των εξετά­σεων τις δύο ημέρες της εβδομάδας.
Παρόλα αυτά, με μια ματιά στον πίνακα μπορείτε να δείτε ότι κάθε φοιτητής πήρε υψηλότερη βαθμολογία την Παρασκευή απ’ ό,τι τη Δευτέρα, κάτι που υποδη­λώνει ότι υπάρχει πρόβλημα στην παραπάνω ανάλυση. Το πρόβλημα είναι ότι υ­πάρχει τόσο μεγάλη μεταβλητότητα στις βαθμολογίες των διαφόρων φοιτητών που τείνει να υπερκαλύψει τη διαφορά που παρουσιάζεται ανάμεσα στις δύο ημέρες. Η προηγούμενη ανάλυση δεν είναι κατάλληλη επειδή δεν έχουμε να κάνουμε με ένα τυχαίο δείγμα της Παρασκευής και ένα ανεξάρτητο τυχαίο δείγμα της Δευτέρας αλλά έχουμε ένα ζεύγος δειγμάτων. Δηλαδή, ένα δείγμα στο οποίο έχουμε ζεύγη τιμών, από μία για την Παρασκευή και τη Δευτέρα για κάθε φοιτητή. Σε αυτή την περίπτωση, θα πρέπει να εκτελέσουμε τον παρακάτω έλεγχο t:
  • Υποθέτουμε ότι η διαφορά στις βαθμολογίες της Παρασκευής και της Δευ­τέρας για κάθε φοιτητή προέρχεται από μια κανονική κατανομή με μέσο μD και διακύμανση \sigma_D^2.
  • Η μηδενική υπόθεση είναι ότι μD = 0
  • Έστω X_{D_i} η διαφορά των τιμών του ζεύγους i. Υπολογίζουμε το μέσο όρο \bar{X}_D, ο οποίος και θα έχει κανονική κατανομή με μέσο μD και διακύμανση \sigma_D^2 / n.
  • Υπολογίζουμε το στατιστικό στοιχείο ελέγχου T = \frac {\sqrt{n} \bar{X}_D} {S_D}, όπου SD είναι η τυπική απόκλιση του δείγματος (με n − 1 στον παρονομαστή) των διαφορών.
Εκτελούμε τον έλεγχο με την t-κατανομή με n-1 βαθμούς ελευθερίας σύμφωνα με το επίπεδο σημαντικότητας.

Έλεγχος σύγκρισης των διακυμάνσεων δύο πληθυσμών


Έλεγχος σύγκρισης για την ισότητα δύο πληθυσμών

Ο δείκτης για την ισότητα διακυμάνσεων δύο κανονικών πληθυσμών δίνεται από τη σχέση: F_{n_1 -1,n_2 -1} = \frac {s^{2}_{1}}{s^{2}_{2}}
  • Δίπλευρος έλεγχος:
     - σ1 = σ2
          - H0: σ1 = σ2
          - H1: σ1 \neq σ2

  • Μονόπλευρος έλεγχος:
      - σ1 \leq σ2
          - H0: σ1 = σ2
          - H1: σ1 > σ2
Ο έλεγχος θα στηριχτεί στις τιμές των S^2_1, S^2_2 που προκύπτουν από δύο ανεξάρτητα δείγματα ως εκτιμήσεις των \sigma^2_1, \sigma^2_2. Μέτρο σύγκρισης των δύο διακυμάνσεων αποτελεί η τιμή του λόγου S_1^2 / S_2^2 αν H_1: \sigma_1^2 > \sigma_2^2 ή του λόγου S_2^2 / S_1^2 αν η διατύπωση της εναλλακτικής υπόθεσης είναι H_1: \sigma^2_1 < \sigma^2_2. Γνωρίζουμε ότι όταν κάθε μία από τις S_1^2, S_2^2 ακολουθεί την κατανομήX2 με n1 − 1,n2 − 1 βαθμούς ελευθερίας, τότε ο λόγος S_1^2 / S_2^2 ακολουθεί την κατανομή F με n1 − 1,n2 − 1 βαθμούς ελευθερίας, τότε ο λόγος S_1^2 / S_2^2 ακολουθεί την κατανομή F με n1 − 1 = /nu1,n2 − 1 = ν2 βαθμούς ελευθερίας
Άρα S_1^2/S^2_2 \rightarrow F_{\nu _1, \nu _2}
Η παραπάνω σχέση μας επιτρέπει να προσφύγουμε στους πίνακες των τιμών της κατανομής F για τον έλεγχο υποθέσεων σχετικά με τη σύγκριση δύο διακυμάνσεων. Στη συνέχεια ανατρέχουμε στους πίνακες της F σε επίπεδο σημαντικότητας α και ν12 βαθμούς ελευθερίας.

Τέλος, λαμβάνοντας υπόψη μας το επίπεδο σημαντικότητας, απορρίπτουμε την H0:
  • Αν f < F_{n_{1}-1;n_{2}-1;1-\alpha/2} ή f < F_{n_{1}-1;n_{2}-1;\alpha/2} για το δίπλευρο έλεγχο και
  • Αν f < F_{n_{1}-1;n_{2}-1;\alpha} ή f > F_{n_{1}-1;n_{2}-1;\alpha} για το μονόπλευρο.


Παράδειγμα 1

Ένας οικονομολόγος θέλει να ελέγξει την υπόθεση αν η διακύμανση των τιμών των μετοχών έχει μικρύνει.
Λύση
Πληθυσμός 1: Πριν
n1 = 25
s^2_1=9.3
H_0: \sigma ^2_1 \leq \sigma ^{2^2}_{2_1}
Πληθυσμός 2: Μετά
n2 = 24
s^2_2=3.0
H_0: \sigma ^2_1 > \sigma ^{2}_{2}
F_{n1 - 1, n2-1} = F_{24, 23} = \frac {s^2_1}{s^2_2} = \frac {9.3}{3.0} = 3.1
\alpha = 0.05 \quad F_{24, 23} = 2.01

\alpha = 0.01 \quad F_{24, 23} = 2.70


Παράδειγμα 2

Σημειώθηκε για 15 μέρες το κλείσιμο δύο μετοχών (Χ,Υ). Με βάση τα παρακάτω δεδομένα, μπορούμε να συμπεράνουμε ότι η μεταβλητότητα είναι μεγαλύτερη στην πρώτη μετοχή;
\Rightarrowα=0.05
\RightarrowXμ=37.58
\RightarrowYμ=38.24
\Rightarrow{s}_{X}^{2}=1.54
\Rightarrow{s}_{X}^{2}=2.96
Μηδενική Υπόθεση H0\mathit{{\sigma}}_{X}^{2}=\mathit{{\sigma}}_{Y}^{2} έναντι της H1=\mathit{{\sigma}}_{X}^{2}>\mathit{{\sigma}}_{Y}^{2}

Έτσι f =\frac{\mathit{{\sigma}}_{X}^{2}}{\mathit{{\sigma}}_{Y}^{2}}=\frac{1.54}{2.96}.
Και F_{n_{1}-1;n_{2}-1;\alpha}=F_{14,14;0.05}=2.46.
Αφού f=0.52<F_{n_{1}-1;n_{2}-1;0.05}=2.46
δεν απορρίπτουμε τη μηδενική υπόθεση.

ΕΛΕΓΧΟΙ ΓΙΑ ΤΟ ΛΟΓΟ ΔΙΑΚΥΜΑΝΣΕΩΝ

Έλεγχος για το λόγο \sigma_1^2/\sigma_2^2 των διακυμάνσεων δύο ανεξάρτητων κανονικών πληθυσμών
Για Δείγματα οποιουδήποτε μεγέθους
με γνωστούς μέσους μ1 και μ2
και H_0 :   \sigma_1^2=\sigma_2^2
η στατιστική ελέγχου F= \frac{\frac{\sum_{i=1}^{n_1} (x_i - \mu_i)^2}{n_1}}{\frac{\sum_{i=1}^{n_2} (y_i - \mu_2)^2}{n_2}}
και H1 : \sigma_1^2#\sigma_2^2\sigma_1^2<\sigma_2^2\sigma_1^2>\sigma_2^2
και κρίσιμη περιοχή
F\leq f_{n_1 , n_21, \frac{\alpha}{2}}^L ή F\leq f_{n_1, n_2, \frac{\alpha}{2}}^U
F\leq f_{n_1, n_2, \alpha}^L
F\geq f_{n_1, n_2, \alpha}^L

- με άγνωστους μέσους μ1 και μ2

και H_0 : \sigma_1^2=\sigma_2^2
F=\frac{s_1^2}{S_2^2}
και H1 : \sigma_1^2#\sigma_2^2\sigma_1^2<\sigma_2^2\sigma_1^2>\sigma_2^2
και κρίσιμη περιοχή
F\leq f_{n_1 -1, n_2 -1, \frac{\alpha}{2}}^L ή F\leq f_{n_1 -1, n_2 -1, \frac{\alpha}{2}}^U
F\leq f_{n_1 -1, n_2 -1, \alpha}^L
F\geq f_{n_1 -1, n_2 -1, \alpha}^L


Έλεγχος διαφοράς ποσοστών

  • Εκτελούμε τον έλεγχο Α nα φορές με κάθε δοκιμή να έχει άγνωστη πιθανότητα επιτυτχίας pα. Αν ονομάσουμε Xα το πλήθος των επιτυχιών τότε έχουμε την \hat{p}_{\alpha} = \frac {X_{\alpha}} {n_{\alpha}} να αποτελεί εκτιμήτρια της pα.
  • Εκτελούμε τον έλεγχο Β nβ φορές με κάθε δοκιμή να έχει άγνωστη πιθανότητα επιτυτχίας pβ. Αν ονομάσουμε Xβ το πλήθος των επιτυχιών τότε έχουμε την \hat{p}_{\beta} = \frac {X_{\beta}} {n_{\beta}} να αποτελεί εκτιμήτρια της pβ.

Διακυμάνσεις ίσες

Υπολογίζουμε το δείκτη: z=\frac{(\hat{p}_\alpha - \hat{p}_\beta) - ({p}_\alpha - {p}_\beta)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_\alpha} + \frac{1}{n_\beta})}} όπου \hat{p}=\frac{x_\alpha + x_\beta}{n_\alpha + n_\beta}
Ο έλεγχος γίνεται με την περιοχή αποδοχής ή απόρριψης της κανονικής κατανομής. Για παράδειγμα αν θέλετε να ελέγξετε την υπόθεση στο επίπεδο σημαντικότητας του 5%, θα πρέπει να την αποδεχθείτε αν το Ζ βρίσκεται ανάμεσα στις τιμές –1,96 και 1,96· διαφορετικά, θα πρέπει να την απορρίψετε.

Διακυμάνσεις διαφορετικές

Υπολογίζουμε το δείκτη: z=\frac{(\hat{p}_\alpha - \hat{p}_\beta) - (p_\alpha - p_\beta)}{\sqrt{\frac{\hat{p}_\alpha(1 - \hat{p}_\alpha)}{n_\alpha} + \frac{\hat{p}_\beta(1 - \hat{p}_\beta)}{n_\beta}}}
Ο έλεγχος γίνεται πάλι με την κανονική κατανομή.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου