Analiza i interpretacja wyników oceniania zewnętrznego


ANALIZA I INTERPRETACJA
ANALIZA I INTERPRETACJA
ANALIZA I INTERPRETACJA
WYNIKÓW OC
WYNIKÓW O ENIANIA
C
WYNIKÓW OCENIANIA
ENIANIA
I EGZAMINOWANIA
I EGZAMINOWANIA
I EGZAMINOWANIA
Wydział Badań i Ewaluacji CKE
Warszawa, listopad 2007
Wydanie 2., uzupełnione
ANALIZA I INTERPRETACJA
ANALIZA I INTERPRETACJA
ANALIZA I INTERPRETACJA
WYNIKÓW OCENIANIA
WYNIKÓW OCENIANIA
WYNIKÓW OCENIANIA
I EGZAMINOWANIA
I EGZAMINOWANIA
I EGZAMINOWANIA
Opracowanie:
Jolanta Czarnotta-Mączyńska, Marta Firsiuk,
Małgorzata Lipska, Zofia Lisiecka
Redaktor cyklu:
Zofia Lisiecka
Wydawca: Wydział Badań i Ewaluacji CKE
00-842 Warszawa, ul. Aucka 11
tel. 022 656 37 41
e-mail: badania@cke.edu.pl
Wydanie 2., uzupełnione
Warszawa, listopad 2007
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Cykl broszur Teoria i praktyka egzaminowania powstał w odpowiedzi na zapotrzebowanie
uczestników procesu egzaminowania na syntetyczne, popularyzatorskie ujęcie trudnej
problematyki związanej z diagnostyką edukacyjną, w szczególności zaś z ocenianiem
wewnątrzszkolnym i egzaminowaniem zewnętrznym. W kolejnych publikacjach przybliżo-
ne zostaną kwestie związane z planowaniem badań osiągnięć uczniów, jakością
materiałów egzaminacyjnych, metodą pomiaru dydaktycznego, organizacją i przepro-
wadzaniem egzaminów, analizą i interpretacją wyników egzaminu, wykorzystaniem
wyników egzaminów w podnoszeniu jakości pracy szkoły, etc.
Cykl przeznaczony jest przede wszystkim dla nauczycieli i dyrektorów szkół, ale może też
stanowić pomoc dla tych, którym nieobojętna jest jakość polskiej edukacji  wizytatorów,
opiekujących się szkołami pracowników jednostek samorządów terytorialnych, rodziców,
dziennikarzy.
Mamy nadzieję, że niniejsza broszura, w swojej strukturze przypominająca ilustrowany
słownik tematyczny, przybliży Państwu podstawy statystyki, dostarczając licznych
przykładów, jak można wyniki prowadzonych analiz wykorzystać w praktyce. Liczymy też,
iż ilustrujące pojęcia statystyczne cytaty z publikacji przygotowanych przez Centralną
Komisję Egzaminacyjną dopomogą w niełatwej drodze od teorii do praktyki oceniania i
egzaminowania.
Wydział Badań i Ewaluacji CKE 3
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
SPIS TREŚCI
Podstawowe parametry statystyczne pomocne w analizie ilościowej wyników................s. 5
Miary położenia............................................................................................................s. 7
Miary tendencji centralnej.......................................................................................s. 7
Modalna....................................................................................................& ..........s. 8
Mediana...................................................................................................................s.8
Średnia arytmetyczna.............................................................................................s. 8
Średnia ważona......................................................................................................s. 9
Kwantyle.................................................................................................................s. 9
Kwartyle..................................................................................................................s. 9
Zastosowanie podstawowych miar tendencji centralnej..................s. 12
Miary rozproszenia (zróżnicowania) ....................................................................s. 14
Rozstęp................................................................................................................s. 14
Wariancja..............................................................................................................s. 14
Odchylenie standardowe.......................................................................................s.15
Miary współzmienności..............................................................................................s. 16
Korelacja...............................................................................................................s. 16
Przykładowe zestawienie wyników egzaminu zewnętrznego....................................s. 17
Podstawowe parametry statystyczne pomocne w analizie ilościowej wyników zadań
egzaminacyjnych i testu..................................................................................................s. 18
Rozkład liczebności..............................................................................................s. 18
Aatwość zadania/testu..........................................................................................s. 19
Trudność zadania/testu........................................................................................s. 22
Frakcja opuszczeń................................................................................................s. 22
Moc różnicująca zadania......................................................................................s. 23
Rzetelność pomiaru..............................................................................................s. 23
Efekt standardowy................................................................................................s. 25
Wynik standardowy..............................................................................................s. 26
Skale znormalizowane....................................................................................................s. 28
Pojęcie normy............................................................................................................s. 28
Normalizacja wyników testowania........................................................................s. 29
Obszar wyników typowych.........................................................................s. 29
Definicje wybranych skal znormalizowanych.............................................................s. 32
Skala staninowa...................................................................................................s. 32
Standardowa  piątka ...........................................................................................s. 34
Skala centylowa....................................................................................................s. 36
Skala akademicka CEEB.....................................................................................s. 37
Przykłady analiz wyników egzaminów zewnętrznych.....................................................s. 42
Analiza i interpretacja wyników staninowych uczniów i szkół....................................s. 42
Analizy porównawcze i korelacyjne...........................................................................s. 57
Zastosowanie wybranych skal znormalizowanych w analizie wyników matury podczas
rekrutacji na wyższe uczelnie....................................................................................s. 59
yródła danych.................................................................................................................s. 62
Polecana literatura..........................................................................................................s. 62
Wydział Badań i Ewaluacji CKE 4
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
PODSTAWOWE PARAMETRY STATYSTYCZNE
POMOCNE W ANALIZIE ILOŚCIOWEJ WYNIKÓW
Analiza ilościowa wyników polega na zebraniu, zestawieniu, statystycznym opracowaniu
i interpretacji danych uzyskanych podczas badań edukacyjnych, psychologicznych, spo-
łecznych, itp. Opiera się na analizie statystycznej, dzięki czemu uzyskujemy możliwość
1
dokładniejszego porównania i opisu badanych grup lub zjawisk0F0F0F0F . Tabela 1. zawiera cha-
rakterystykę podstawowych wskazników pomocnych w prowadzeniu analiz i interpretowa-
niu wyników oceniania osiągnięć uczniów.
Tabela 1. Podstawowe parametry statystyczne wykorzystywane w analizie i prezentacji wyników osiągnięć
2
edukacyjnych [6]1F1F1F1F
Parametry statystyczne Parametry statystyczne Sposoby porządkowania
służące do analizy służące do analizy i grupowania
zadań i testu wyników testowania wyników testowania
Porządkowanie i grupowanie zaob-
Ustalenie miar Ustalenie miar
Analiza zadania/testu serwowanych wartości zmiennej
położenia rozproszenia
(tu: wyników testowania uczniów)
Tabela 2. Podstawowe parametry statystyczne wykorzystywane w analizie i prezentacji wyników osiągnięć
edukacyjnych  charakterystyka [6]
Nazwa parametru Oznaczenie Objaśnienie
stosunek liczby uczniów, którzy nie podjęli się rozwiązania danego
frakcja opuszczeń
fo zadania (opuścili je) w teście do liczby egzaminowanych uczniów
zadania
stosunek liczby punktów uzyskanych przez ucznia/ów do maksy-
łatwość zadania/testu p
malnej liczby punktów możliwych do zdobycia za zadanie lub test
stosunek liczby uczniów, którzy nieprawidłowo rozwiązali zadanie
trudność zadania q
w teście do liczby egzaminowanych uczniów
moc różnicująca np. D50, zdolność zadania (zadań testowych) do odróżniania uczniów o
zadania Rpb wyższych i niższych osiągnięciach egzaminacyjnych
średnia arytmetyczna średni wynik uzyskany przez badaną grupę uczniów (np. klasę
X
wyników szkolną)
wynik środkowy zbioru wyników egzaminowania określonej popu-
mediana Me lacji (np. klasy szkolnej), uporządkowanych w kolejności malejącej
lub rosnącej
kwartyle Q układ wyników w procentowych przedziałach 25, 50 i 75
modalna (dominanta) Mo wynik najczęściej występujący w badanej grupie
rozstęp różnica pomiędzy najwyższym a najniższym wynikiem uzyskanym
R
(obszar zmienności) przez daną grupę uczniów podczas badania
średnia arytmetyczna kwadratów odchylenia wyników uzyskanych
wariancja s2x
przez uczniów od ich średniej wartości
odchylenie miara rozrzutu wyników, pozwalająca na ustalenie przedziału wy-
sx
standardowe ników typowych
1
Por. W.P. Zaczyński, Statystyka w pracy badawczej nauczyciela, Warszawa 1997, Wydawnictwo  Żak , s.
3-5.
2
Cyfry w nawiasach kwadratowych wskazują zródło danych, których wykaz zamieszczono na końcu
opracowania.
Wydział Badań i Ewaluacji CKE 5
Aatwość
Trudność
Wariancja
zadania
Moc
różnicująca
średnia
arytmetyczna
Modalna
Mediana
Kwantyle
Rozstęp
Wariancja
testu
Odchylenie
standardowe
Rozkład
punktowy
Rozkład
liczebności
Rozkład
staninowy
Rozkład
centylowy
Skala CEEB
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
obszar wyników przedział wyników na skali mieszczący się pomiędzy sumą
OWT
typowych a różnicą średniej arytmetycznej i odchylenia standardowego
np. alfa wskaznik powtarzalności wyników testowania; dokładność
rzetelność
Cronbacha pomiaru
skala staninowa - dziewięciostopniowa skala znormalizowanego rozkładu wyników
 standardowa piątka - pięciostopniowa skala znormalizowanego rozkładu wyników
dziewięćdziesięciodziewięciostopniowa skala znormalizowanego
skala centylowa -
rozkładu wyników
Wydział Badań i Ewaluacji CKE 6
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
MIARY POAOŻENIA
Miary położenia wskazują miejsce, w którym leży wartość (liczba) najlepiej reprezentująca
wszystkie wielkości wchodzące w skład danego zbioru wyników.
Miary tendencji centralnej
Terminem tendencja centralna określa się wartość, która położona jest najbliżej najwięk-
szego skupienia wartości i dlatego można ją uznać za typową dla całego zbioru badanych.
Do najczęściej stosowanych miar należą: średnia arytmetyczna, wartość modalna i
3
mediana2F2F2F2F .
4
Przykład: Prezentowane przez system egzaminacyjny3F3F3F3F doroczne wyniki szkół zawierają informa-
cje o tych miarach:
Tabela 3. Miary tendencji centralnej dla wyników sprawdzianu 2007 Szkoły Podstawowej w M. [7]
5
Miary tendencji centralnej służą do wyznaczenia wartości, wokół której grupują się dane4F4F4F4F .
Wykres 1. pozwoli nam wskazać te parametry dla sprawdzianu 2006.
Wykres 1. Rozkład wyników krajowych sprawdzianu 2006 [2]
3
G.A. Ferguson, Y. Takane, Analiza statystyczna w psychologii i pedagogice, PWN, Warszawa 2004, s.69.
4
Zob.: www.cke.edu.pl  tu: Wyniki szkół.
5
W. Starzyńska, Statystyka praktyczna, PWN, Warszawa 2002, s.47.
Wydział Badań i Ewaluacji CKE 7
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Modalna (dominanta, moda)
Modalna (oznaczana często symbolem D lub Mo) jest wynikiem, który w badanej populacji
występuje najczęściej, tzn. jest np. najczęściej uzyskaną liczbą punktów, najczęściej wy-
bieraną odpowiedzią.
Na sprawdzianie w 2006 roku modalna przyjęła wartość 33, co oznacza, że taką liczbę
punktów uzyskało najwięcej uczniów piszących ten sprawdzian.
Mediana
Mediana (Me, M) jest wartością dzielącą wyniki pomiaru uporządkowane od najwyższego
do najniższego (lub odwrotnie) dokładnie na połowy. Aby ją wyznaczyć, porządkujemy
wszystkie wyniki określonej populacji (np. klasy szkolnej, szkoły, uczniów szkół w woje-
wództwie, czy też wszystkich uczniów w kraju, którzy np. przystąpili do egzaminu) w kolej-
ności malejącej lub rosnącej. Następnie otrzymany zbiór dzielimy na pół. W przypadku
nieparzystej liczby badanych (wyników), medianę stanowi wartość środkowa.
Przykład: Testowaniu zostało poddanych trzynastu uczniów. Ich wyniki zostały uporządkowane od
najniższego do najwyższego: 2, 3, 4, 4, 6, 8, 9, 11, 12, 15, 16, 16, 18. Zatem medianą będzie wy-
nik siódmy, czyli 9 punktów.
Jeżeli liczba badanych (wyników) jest parzysta, medianę wyznaczamy, obliczając średnią
6
dwóch środkowych wyników5F5F5F5F .
Przykład:. Testowaniu zostało poddanych dwunastu uczniów. Ich wyniki zostały uporządkowane
od najniższego do najwyższego: 2, 3, 4, 4, 6, 8, 9, 11, 12, 15, 16, 16. Zatem medianą będzie wynik
szósty i siódmy, czyli 8,5 punktu [8 + 9 = 8,5].
Podczas sprawdzianu przeprowadzonego w 2006 roku, mediana przyjęła wartość 26
punktów (patrz: Wykres 1.) i była nieznacznie wyższa niż średnia, co oznacza, że dla du-
żej części uczniów sprawdzian ten okazał się dość łatwy. Dowodzi tego też  najpopular-
niejszy wynik, czyli modalna  33 punkty.
Średnia arytmetyczna
Średnia arytmetyczna informuje o tym, ile punktów teoretycznie otrzymałby każdy uczeń
za rozwiązanie testu, gdyby wszystkie uzyskane przez badanych punkty rozdzielić między
nich po równo. Zatem statystyczny uczeń, który przystąpił do sprawdzianu 2006 (patrz:
Wykres 1.) średnio uzyskał 25,32 pkt. Średnią arytmetyczną oznacza się najczęściej sym-
7
bolem X i oblicza według wzoru6F6F6F6F :
gdzie:
Xi
"
Xi oznacza sumę wszystkich mierzonych wartości (punktów), a N liczbę pomiarów
"
X =
N (uczniów).
6
B. Niemierko, Testy osiągnięć szkolnych. Podstawowe pojęcia i techniki obliczeniowe. WSiP, Warszawa
1975, s. 56-57.
7
Por. G.A. Ferguson, Y. Takane, op.cit., s.69-70.
Wydział Badań i Ewaluacji CKE 8
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Przykład: Mamy liczby: 1, 2, 3, 2, 2, 6. Średnią z tych liczb otrzymamy, sumując je i dzieląc przez
1+ 2 + 3 + 2 + 2 + 6 16
liczbę ich wystąpień: X = = = 2,67
6 6
W powszechnym użyciu średnia arytmetyczna zastępowana jest słowem przeciętna, jak
np. przeciętna ocen.
Uwaga: Należy pamiętać o tym, że średnia arytmetyczna jest miarą bardzo wrażliwą na
wyniki skrajne (tj. najniższe i najwyższe). Jeżeli mamy pojedynczy wynik znacząco niższy
8
lub wyższy od pozostałych, to wpłynie on na wartość średniej7F7F7F7F , zwłaszcza w przypadku
niewielkiej grupy badanych. Na przykład w zespole klasowym, w którym przeważa grupa
uczniów o bardzo wysokich wynikach kształcenia, niski wynik pojedynczego ucznia zna-
cząco wpłynie na obniżenie średniej, a wynik żadnego ucznia nie będzie zbliżony do śred-
niej.
Średnia ważona
Średnią ważoną liczymy wówczas, gdy poszczególne wartości mają różne wagi (rangi), tj.
wyższe znaczenie, nierównorzędną ważność. Obliczamy ją według wzoru:
gdzie:
"niX niX to iloczyn średniej i rangi (wagi), a"niX oznacza sumę tych iloczynów;" N to su-
X =
N
"
ma wag poszczególnych wartości.
Przykład: Uczeń uzyskał następujące oceny szkolne: ze sprawdzianu  5, z pracy domowej  3, z
odpowiedzi  4 i 3 (średnia 3,5). Załóżmy, że większą wartość informacyjną dla nauczyciela o
osiągnięciach edukacyjnych ucznia mają stopnie uzyskane ze sprawdzianu niż z odpowiedzi ust-
nej, dlatego poszczególnym aktywnościom ucznia podlegającym ocenie nadajemy odpowiednią
rangę (w statystyce  wagę). Dajmy na to, że sprawdzianowi nadajemy wagę 3, pracy domowej 1,
odpowiedziom ustnym 2. Sumę tych wartości - 6 wpisujemy w mianowniku.
5 " 3 + 3"1+ 3,5 " 2 25
Średnią ważoną obliczamy w następujący sposób: X = = = 4,17
3 +1+ 2 6
Gdybyśmy obliczali tylko średnią arytmetyczną, uzyskalibyśmy wynik niższy: X =3,75.
Kwantyle
Kwantyle to wartości, które dzielą badaną zbiorowość na części pozostające ze sobą w
odpowiednim stosunku. Do najczęściej stosowanych należą kwartyle, dzielące zbioro-
wość na 4 części, decyle (na 10 części) i percentyle (na 100 części).
Kwartyle
Definiuje się je jako wartości cechy badanej zbiorowości, przedstawionej w postaci szere-
gu statystycznego (czyli uporządkowanego według określonego kryterium, np. od naj-
mniejszego do najwyższego wyniku), które dzielą zbiorowość na cztery części pod wzglę-
dem liczby jednostek. Części te pozostają do siebie w określonych proporcjach. Kwartyle
są wartościami granicznymi w szeregu wyników wyznaczających te części.
8
B. Niemierko, op.cit., s.52.
Wydział Badań i Ewaluacji CKE 9
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Kwartyl zerowy to wartość minimalna uzyskana przez badanych (patrz: rozstęp wyników).
Kwartyl pierwszy  odcina dolną ćwiartkę uporządkowanego zbioru wyników, czyli 25%
wyników ma od niego mniejszą wartość, a 75% większą. Z kolei kwartyl drugi dzieli zbiór
na połowę i stanowi medianę. Trzeci kwartyl wyznacza górną ćwiartkę wyników, czyli 75%
wyników ma od niego mniejszą wartość, a 25% wyższą. Natomiast kwartyl czwarty to war-
tość maksymalna wyników.
Podanie kwartyli wzbogaca informację o łatwości danego arkusza. Im trudniejszy test dla
9
uczniów, tym niższe będą wartości poszczególnych kwartyli.8F8F8F8F
Rozstęp ćwiartkowy jest różnicą wyniku pomiędzy trzecim i pierwszym kwartylem. Mierzy
on poziom zróżnicowania tylko części jednostek, pozostałych po odrzuceniu 25%
jednostek o wartościach najmniejszych (Q1) i 25% jednostek o wartościach największych
(Q3). Ponieważ między pierwszym i trzecim kwartylem znajduje się z definicji 50%
wyników, dlatego im większy jest rozstęp, tym większe zróżnicowanie badanej cechy.
Przykład: Tabela 4. przedstawia podział na kwartyle obliczony dla sprawdzianu 2006 (por. też
Rysunek 1.). Rozstęp ćwiartkowy wynosi 13, bo kwartyl trzeci przyjął wartość liczbową 32, a
kwartyl pierwszy  19 [32  19 = 13].
Tabela 4. Podział kwartylowy i rozstęp ćwiartkowy wyników sprawdzianu 2006 [6]
1. kwartyl  najwyższy wynik uczniów z pierwszej ćwiartki (25%) wyników 19
2. kwartyl (mediana)  wynik środkowy w zbiorze wyników sprawdzianu 26
3. kwartyl  najwyższy wynik uczniów z trzeciej ćwiartki (75%) wyników 32
4. kwartyl  najwyższy wynik ze sprawdzianu 40
rozstęp ćwiartkowy (3. kwartyl minus 1. kwartyl) 13
Kwartyle możemy wyznaczyć graficznie, tak jak to pokazano na Rysunku 1.
Rysunek 1. Wyznaczanie kwartyli dla wyników sprawdzianu 2006 [6]
Dla przykładu przeanalizujmy i zinterpretujmy wyniki sprawdzianu 2006 uczniów pewnej
szkoły podstawowej.
Przykład: W Szkole Podstawowej w Iksowie sprawdzian pisało stu uczniów. Informacji o rozkła-
dzie ich wyników dostarczą nam: Tabela 5., Wykres 2. oraz Rysunek 1. Rozstęp wyników (40 pkt.
 3 pkt. = 37 pkt.) dowodzi, że w tej szkole sprawdzian pisała dość zróżnicowana populacja
uczniów, gdyż znalazł się wśród nich i taki, którego wynik to zaledwie 3 pkt., ale jest też dwóch
9
H. Szaleniec, M.K. Szmigel, Doskonalenie kompetencji nauczycieli w zakresie oceniania zewnętrznego,
Wydawnictwo Zamiast korepetycji, Kraków 2001, s.62-63
Wydział Badań i Ewal uacji CKE 10
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
uczniów o wyniku maksymalnym. Widać jednak wyraznie, że grupa 25% dzieci o najsłabszych
wynikach z testu, to uczniowie o bardzo zróżnicowanych osiągnięciach, bo należą do niej zarówno
ci, którzy zdobyli zaledwie 3 czy 4 punkty, jak i ci, którzy uzyskali ich 17, 18 czy 19. Bardziej jedno-
rodną grupę stanowią uczniowie o wynikach najwyższych, bo ich wyniki zawierają się w przedziale
od 33 do 40 punktów. Przeciętny wynik ucznia w tej szkole to 26 punktów (tyle wynosi mediana).
Rozstęp ćwiartkowy pokazuje nam wynik grupy 50% uczniów, którzy napisali test średnio (pamię-
tajmy  w porównaniu z wynikami innych uczniów tej szkoły, a nie  w ogóle ). Zróżnicowanie ich
wyników jest mniejsze (13 punktów) niż w grupie uczniów o najniższych osiągnięciach (17 punk-
tów). W tej szkole największa liczba uczniów (siedmiu) uzyskała 27 punktów (to modalna).
Tabela 5. Rozkład wyników sprawdzianu 2006 w SP w Iksowie (N=100) [6]
Wynik
0. kwartyl  najniższy wynik ze sprawdzianu 3 pkt.
1. kwartyl  najwyższy wynik uczniów z pierwszej ćwiartki (25%) wyników 19 pkt.
2. kwartyl (mediana)  wynik środkowy w zbiorze wyników sprawdzianu 26 pkt.
3. kwartyl  najwyższy wynik uczniów z trzeciej ćwiartki (75%) wyników 32 pkt.
4. kwartyl  najwyższy wynik ze sprawdzianu 40 pkt.
rozstęp (wynik najwyższy minus wynik najniższy) 37 pkt.
rozstęp ćwiartkowy (3. kwartyl minus 1. kwartyl) 13 pkt.
Wykres 2. Rozkład wyników sprawdzianu 2006 w SP w Iksowie (N=100) [6]
liczba egzaminowanych:
7
N=100
6
5
4
3
2
1
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
liczba punktów uzyskanych przez uczniów za test
Wydział Badań i Ewal uacji CKE 11
częstość
dany wynik)
(liczba uczniów, którzy uzyskali
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Zastosowanie podstawowych miar tendencji centralnej
Rysunek 2. Rozkład symetryczny
Na Rysunku 2. przedstawiony jest rozkład wyników, gdzie
średnia, mediana i modalna (dominanta) przyjęły tę samą
wartość, tj. znajdują się w tym samym miejscu. Rozkład wy-
ników w związku z tym jest symetryczny. Rozkłady syme-
tryczne rzadko występują w praktyce szkolnej związanej z
badaniem osiągnięć uczniów. Najczęściej mamy do czynienia
z wykresami asymetrycznymi.
Rozkład stanowiący lustrzane odbicie rozkładu zaprezento-
Rysunek 3. Rozkład u-kształtny
wanego na Rysunku 2., w którym dominują wyniki skrajne 
najwyższe i najniższe, nazywamy u-kształtnym (Rysunek
3.). W wypadku rozkładu normalnego u-kształtnego media-
na i średnia mają wartości najniższe i pokrywają się ze so-
bą. Taki układ wyników często wynika z użycia niezbyt traf-
nego narzędzia pomiarowego (testu).
Rysunek 4. Rozkład asymetryczny lewostronnie
Jeżeli średnia jest niższa od modalnej i mediany, uzyskuje-
my rozkład wyników asymetryczny ujemnie (patrz: Rysunek
4.). Rozkład zwany ujemnieskośnym lub lewoskośnym,
oznacza że uczniowie w większości uzyskali wysokie wyniki
w teście lub na egzaminie.
Rysunek 5. Rozkład asymetryczny prawostronnie
Rozkład, w którym modalna jest niższa od mediany, a me-
diana niższa od średniej, nazywany jest dodatnioskośnym
lub prawoskośnym (Rysunek 5.). Taki rozkład wyników
oznacza, że większość uczniów uzyskała niskie wyniki w te-
ście lub na egzaminie, bo rozwiązywane zadania okazały się
dla nich trudne.
Rysunek 6. Rozkład dwumodalny
Rozkład, w którym wystąpiły dwie dominanty
(modalne) nazywamy dwumodalnym. Taki
rozkład wyników oznacza, że w badaniu ma-
my do czynienia z dwiema grupami uczniów o
różnych osiągnięciach. Rysunek 6. przedsta-
wia przykłady trzech typowych, symetrycz-
nych układów dwumodalnych.
Wydział Badań i Ewal uacji CKE 12
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Przykład: Wykres 3. prezentuje rozkłady wyników przeprowadzonych w 2007 r. dwóch części eg-
zaminu gimnazjalnego. Ich odmienne ukształtowanie zwraca uwagę na różnicę w rozkładzie wyni-
ków z części humanistycznej i matematyczno-przyrodniczej egzaminu  lewoskośny rozkład wyni-
ków z części humanistycznej (kolor niebieski) świadczy o większej liczbie w populacji wyników
wysokich, prawoskośność rozkładu wyników z części matematyczno-przyrodniczej (kolor żółty)
wskazuje zaś na dominację wyników niskich i średnich. Tak więc, mimo że oba testy pisali ci sami
uczniowie, sprawiły im one różną trudność.
Wykres 3. Egzamin gimnazjalny 2007  rozkład wyników krajowych w części humanistycznej (kolor
niebieski) i matematyczno-przyrodniczej (kolor żółty) [4]
4,5%
4,0%
3,5%
3,0%
2,5%
2,0%
1,5%
1,0%
0,5%
0,0%
punkty
Wydział Badań i Ewal uacji CKE 13
% liczebności
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
MIARY ROZPROSZENIA (ZRÓŻNICOWANIA)
Miary tendencji centralnej nie wystarczają, aby w pełni scharakteryzować i porównać ba-
dane cechy populacji. Może się bowiem zdarzyć, że w kolejnych pomiarach, mimo iż śred-
nia, mediana i modalna przyjmą identyczną wartość, wyniki będą różnić się w istotny spo-
sób (zob. Rysunek 7.). Stąd, by dokładniejszej scharakteryzować badane grupy, oblicza
się miary rozproszenia (rozrzutu), które opisują, jak bardzo wyniki te odchylają się od war-
tości centralnej, jak bardzo są zróżnicowane. Są to wskazniki dyspersji. Należą do nich:
rozstęp wyników pomiaru, wariancja i odchylenie standardowe. Im mniejszą wartość
liczbową przyjmuje współczynnik dyspersji, tym większe jest skupienie wyników pomiarów
wokół średniej i tym mniej są one zróżnicowane.
Rysunek 7. Przykład różnic rozkładów przy identycznej wartości centralnej
Jeśli wariancja jest mała, wówczas wyniki poszczególnych pomiarów leżą w pobliżu war-
tości średniej (rozkład w kształcie wąskiego dzwonu). Jeżeli jest ona duża, to wyniki są
bardziej rozproszone (rozkład przyjmuje kształt szerokiego dzwonu).
Rozstęp
Rozstęp jest różnicą między najwyższym i najniższym wynikiem. Pokazuje, jak różne wy-
niki uzyskali badani uczniowie.
Przykład: Mamy kolejne liczby: 4, 8, 9, 45, 32, 13. Rozstęp liczymy, odejmując od najwyższej licz-
by liczbę najniższą w szeregu: 45  4 = 41.
W przypadku wyników sprawdzianu 2006 (Wykres 1.), wynikiem najniższym był wynik mi-
nimalny  0 punktów (uzyskało go 23 uczniów na 473 924 zdających), zaś wynik maksy-
malny to 40 punktów  ten wynik uzyskało 5498 osób (1,2%). Zatem rozstęp wynosi 40.
Wariancja
Wariancja jest kwadratem odchylenia standardowego, gdzie
"oznacza sumę obserwacji
(wyników).
2
2
"x "x "(X
2
s2 = gdy = - X )
N
gdzie: x2 to suma kwadratów odchyleń, N  liczebność populacji, X  wynik ucznia, X  średnia arytme-
"
tyczna z testu (egzaminu).
Wydział Badań i Ewal uacji CKE 14
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
W celu uzyskania x2 , należy:
"
obliczyć odchylenie od średniej dla każdego ucznia (X - X ),
sprawdzić, czy suma odchyleń od średniej równa się zero,
podnieść do kwadratu każde odchylenie od średniej, żeby zlikwidować wartości
ujemne,
10
zsumować wszystkie odchylenia od średniej.9F9F9F9F
Wariancja opisuje wielkość błędu, jaki popełniamy wtedy, kiedy średni wynik traktujemy
jako dobre odzwierciedlenie wszystkich wyników indywidualnych. Mała wariancja (niewiel-
kie zróżnicowanie wyników wokół wartości średniej) wskazuje, że średni wynik dobrze od-
zwierciedla wyniki indywidualne. Duża wariancja informuje, że wartości średniej nie można
11
traktować jako rzetelnej miary wyników indywidualnych.10F10F10F10F
Odchylenie standardowe
Odchylenie standardowe, które jest kwadratowym pierwiastkiem z wariancji, określa
zmienność wyników w obrębie średniej. Służy m.in. do opisu zróżnicowania wyników.
Obliczamy je następująco:
2 2
2
gdy = - X )
"x
"x "(X
s =
N
gdzie: x2 to suma kwadratów odchyleń, a N  liczebność populacji.
"
Gdy zmienność wyników rośnie, zwiększa się odległość pomiaru od średniej, czyli im
większe odchylenie standardowe, tym rozproszenie wyników większe. Im mniejsze jest
odchylenie standardowe, tym większe jest skupienie wartości zmiennej wokół średniej. Im
większe odchylenie standardowe, tym mniej precyzyjna informacja wynika z porównania
analizowanego wyniku do średniej (patrz: Rysunek 7.)
Najlepiej odchylenie standardowe można opisać na rozkładzie normalnym, o którym
w dalszej części materiałów.
Przykład: Odchylenie standardowe wyników sprawdzianu 2006 (patrz: Wykres 1.) wynosi 8,6 pkt.
10
D. Sołtys, M.K. Szmigel, Doskonalenie kompetencji nauczycieli w zakresie diagnozy edukacyjnej,
Wydawnictwo  Zamiast korepetycji , Kraków 1997, s. 55
11
Elżbieta Hornowska, Testy psychologiczne. Teoria i praktyka, Wydawnictwo Naukowe SCHOLAR,
Warszawa 2003, s. 70.
Wydział Badań i Ewal uacji CKE 15
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
MIARY WSPÓAZMIENNOŚCI
Miary współzmienności opisują stopień, w jakim są ze sobą związane dwie zmienne.
Korelacja
Korelacja (łac. wzajemny związek) to współzależność jakichś zjawisk lub obiektów. Anali-
zy korelacyjne prowadzimy wówczas, gdy chcemy zbadać związki między niejednorodny-
mi zmiennymi. W systemie egzaminacyjnym coraz częściej szuka się powiązań między
wynikami różnych egzaminów.
Oto przykład analizy wyników 30 uczniów jednego z oddziałów szkolnych Gimnazjum
w L., uzyskanych na sprawdzianie 2004 i egzaminie gimnazjalnym 2007. Każdy z punktów
obrazuje pozycję na skali wyników jednego ucznia, opisaną dwiema zmiennymi: wynikiem
sprawdzianu (maks. 40 pkt.) oraz jednej z części egzaminu gimnazjalnego (maks. 50 pkt.).
By uchwycić ogólną prawidłowość, możemy wykreślić linię trendu, zwaną linią regresji,
która powinna być jak najlepiej dopasowana do wszystkich 30 punktów.
Wykres 4. Korelacja wyników sprawdzianu i egzaminu gimnazjalnego klasy IIId Gimnazjum w L. [6]
50
45
Wynik Kamila J.:
40
22 pkt. na sprawdzianie,
35
27 pkt na egzaminie gimnazjalnym.
30
25
20
15
10
r = 0,82488
5
0
0 5 10 15 20 25 30 35 40
wynik sprawdzianu
Najczęściej używanym wskaznikiem korelacji jest współczynnik r korelacji liniowej Pe-
arsona. Odzwierciedla on stopień liniowej zależności pomiędzy dwoma zbiorami danych,
dając możliwość porównania zróżnicowania wartości zmiennej wokół linii regresji z całym
12
zróżnicowaniem wartości tej zmiennej.11F11F11F11F Jego wartość mieści się w zakresie od -1,0 do
1,0 włącznie i informuje o sile związku pomiędzy zmiennymi (1  całkowita korelacja, 0 
jej brak). Liczymy go wg wzoru (może nas w tym zastąpić komputer):
n 2
'
ś# gdzie r to pierwiastek z ułamka, w którego liczniku mamy sumę kwadratów odległości
ś# ź#
y
"# - y
i
# #
i=1 poszczególnych przypadków od linii regresji, a w mianowniku  sumę kwadratów odle-
r = ą
2
n -
ś# - ź#
y
"# ś# głości od średniej; y to punkt na linii regresji odpowiadający wartości xi
Y
i
i=1 # #
Znak przy współczynniku zależy od nachylenia linii regresji. Gdy jest rosnąca (jak na Wy-
kresie 4.), znak jest dodatni. Mówimy wtedy, że korelacja jest dodatnia (im większa war-
tość X, tym większa wartość Y). Gdy linia regresji jest malejąca, mamy do czynienia z ko-
relacją ujemną (im większa wartość X, tym mniejsza Y).
12
Zob. K. Konarzewski, Jak uprawiać badania oświatowe. Metodologia praktyczna, WSiP, Warszawa 2002,
s. 186-189.
Wydział Badań i Ewal uacji CKE 16
egzaminu gimnazjalnego
wynik części humanistyczn
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Przykładowe zestawienia wyników egzaminu zewnętrznego
Po zebraniu wszystkich wyników pomiaru (testowania, egzaminowania), otrzymujemy  su-
13
rowy materiał statystyczny12F12F12F12F , który, aby móc go właściwie zinterpretować w odniesieniu
do badanej populacji, powinien być usystematyzowany i odpowiednio opisany. Analiza
wartości parametrów statystycznych umożliwi scharakteryzowanie badanych zbiorowo-
ści w sposób systematyczny.
Przykład: Aby trafnie wnioskować o osiągnięciach edukacyjnych uczniów przystępujących do eg-
zaminów zewnętrznych, oblicza się  biorąc pod uwagę liczbę zdających  następujące parametry
statystyczne:
Tabela 6. Podstawowe dane i parametry statystyczne sprawdzianu 2006 [2] [6]
Parametry Komentarz
Liczba egzaminowanych (N) 473 924 % Sprawdzian 2006 pisało prawie pół miliona uczniów.
Aatwość testu egzaminacyjnego % Aatwość testu na poziomie 0,62 wskazuje na fakt, iż był on
0,62
(p) umiarkowanie trudny dla uczniów.
% Statystyczny uczeń zdający ten egzamin uzyskał 25 na 40
25 pkt.
Średnia arytmetyczna ( X )
punktów możliwych do uzyskania.
% Uczeń, który uzyskał wynik plasujący się w środku wyników
Mediana (Me, M) 26 pkt. rozkładu uporządkowanego rosnąco otrzymał 26 punktów,
czyli 65% punktów możliwych do uzyskania.
% Na sprawdzianie 2006 uczniowie uzyskiwali najczęściej 33
Modalna (dominanta) (Mo, D) 33 pkt.
punkty.
% Maksymalna liczba punktów możliwa do uzyskania w
Maksymalny wynik (xmax) 40 pkt.
sprawdzianie to 40 punktów.
% W 2006 roku 5498 uczniów w kraju uzyskało ze spraw-
Najwyższy wynik 40 pkt.
14
dzianu wynik maksymalny.13F13F13F13F
% Najniższy wynik 0 pkt. na sprawdzianie miało tylko 23
Najniższy wynik 0 pkt.
uczniów.
% W r. 2006 rozstęp wyników wyniósł 40 pkt., przybierając
Rozstęp (R) 40 pkt.
wielkość maksymalną.
Wariancja (s2x) 73,3
% 68% uczniów osiągnęło wynik w przedziale wyników typo-
Odchylenie standardowe (sx) 8,6 pkt. wych (stanowiącym 2/3 wszystkich wyników), uzyskując od
17 do 34 punktów.
Kwartyle % Rozkład wyników egzaminu zbliżony jest do normalnego,
z wyraznym przesunięciem w stronę wyższych wyników.
1.  25% 18 pkt.
2.  50% 26 pkt. 25% uczniów uzyskało wynik równy lub niższy od 19 punk-
3.  75% tów; 50% uczniów uzyskało wynik równy lub niższy od 26
32 pkt.
punktów; 75% uczniów uzyskało wynik równy lub niższy od
32 punktów.
13
 Surowy wynik testowania to suma punktów uzyskanych przez badanego za rozwiązanie testu. Por. B.
Niemierko, Testy osiągnięć szkolnych. Podstawowe pojęcia i techniki obliczeniowe, Warszawa 1975, WSiP,
s. 116.
14
Najwyższy wynik z testu nie zawsze oznacza wynik maksymalny (liczba punktów możliwa do uzyskania za
rozwiązanie całego testu). Może się np. zdarzyć, że żaden z piszących sprawdzian uczniów w szkole nie
uzyska 40 punktów.
Wydział Badań i Ewal uacji CKE 17
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
PODSTAWOWE PARAMETRY STATYSTYCZNE
POMOCNE W ANALIZIE ILOŚCIOWEJ WYNIKÓW
ZADAC EGZAMINACYJNYCH I TESTU
Rozkład liczebności
Rozkład liczebności to najprostsza forma przedstawiania wyników testowania. Polega na
uporządkowaniu danych od wyniku najwyższego do najniższego (lub odwrotnie) w formie
tabeli bądz wykresu, z uwzględnieniem liczebności zaobserwowanych wartości zmiennej
15
(wyników).14F14F14F14F
Przykład: Klasa szkolna liczy 25 uczniów. W wyniku klasyfikacji śródrocznej z matematyki jeden
uczeń uzyskał ocenę celującą, trzech ocenę bardzo dobrą, sześciu ocenę dobrą, dziesięciu ocenę
dostateczną, trzech dopuszczającą i dwóch niedostateczną. Rozkład liczebności przedstawia się
więc następująco:
Tabela 7., Wykres 5. Rozkład wyników oceniania wewnątrzszkolnego za I okres w klasie Ib SP w B. [6]
Rozkład liczebności ocen w klasie VI b
Ocena Liczba uczniów
12
10
celująca 1
10
bardzo dobra 3
8
6
dobra 6
6
dostateczna 10
4 3 3
2
dopuszczająca 3
2 1
niedostateczna 2
0
celująca bardzo dobra dobra dostateczna dopuszczająca niedostateczna
razem 25
W pomiarze dydaktycznym rozkład liczebności wykorzystywany jest do graficznej prezen-
tacji wyników, najczęściej w postaci wykresu słupkowego, gdzie na osi poziomej umiesz-
czona jest liczba punktów, a na pionowej podana jest liczba albo procent uczniów, którzy
dany wynik uzyskali. Wyniki mogą być prezentowane co 1 punkt lub pogrupowane w klasy.
Przykład: Rozkład liczebności wykorzystywany jest w raportach CKE do prezentacji wyników eg-
zaminów (zobacz np. Rozkład wyników krajowych sprawdzianu 2006 przedstawiony na Wykresie
1.) lub charakterystyki zróżnicowania populacji, czego przykładem może być Wykres 6., ukazujący
zależność między płcią maturzysty 2007 a wyborem przedmiotu zdawanego na maturze.
Wykres 6. Wybór przedmiotów
35%
obowiązkowych a płeć
30%
29%
30%
27%
maturzysty 2007  histogram.
[5] 25% 22%
18%
20%
13% 13%
15% 12% 12%
12%
10%
5%
0%
kobiety mężczyzni
biologia geografia historia matematyka wiedza o społeczeństwie
15
B. Niemierko, Testy osiągnięć..., s. 50. Sposób grupowania wyników testowania został również opisany w
części Normalizacja wyników testowania.
Wydział Badań i Ewal uacji CKE 18
liczba uczniów
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Aatwość zadania / testu
Aatwość zadania (bądz całego testu) jest wskaznikiem używanym zarówno podczas ana-
lizy wyników egzaminów zewnętrznych, jak i wyników testowania wewnątrzszkolnego. Jest
16
to wskaznik pozytywny, tzn. taki, którego wartość rośnie wraz ze wzrostem osiągnięć.15F15F15F15F
Aatwość zadania (testu), rozumiana jako stosunek sumy punktów uzyskanych przez zda-
jących za zadanie lub test do iloczynu liczby egzaminowanych uczniów i maksymalnej
liczby punktów możliwych do uzyskania za zadanie lub test, liczona jest według wzoru:
"x gdzie:
px =
x  suma punktów uzyskanych za rozwiązanie zadania lub testu
"
nk
n  liczba egzaminowanych uczniów
k  maksymalna liczba punktów możliwych do uzyskania przez ucznia za rozwiązanie
danego zadania lub całego testu
Przykład: 30 uczniów rozwiązywało zadanie punktowane w skali 0-3. Maksymalną liczbę punktów
(3 pkt.) uzyskało dziewięciu uczniów, 2 punkty  trzech, 1 punkt  piętnastu, a pozostałych trzech 
0 p. Zatem suma punktów uzyskanych za rozwiązanie zadania wynosi: 9 x 3 + 3 x 2 +15 x 1 = 48.
Natomiast za poprawne rozwiązanie tego zadania wszyscy uczniowie mogli uzyskać 90 punktów:
30 x 3 = 90. Współczynnik łatwości zadania wynosi więc 0,53 [48 : 90 = 0,53].
W przypadku zadań punktowanych 0-1, łatwość zadania jest stosunkiem liczby uczniów,
którzy prawidłowo rozwiązali to zadanie, do liczby uczniów biorących udział w testowaniu.
Wyraża to wzór:
gdzie:
p  oznacza łatwość zadania punktowanego 0-1
n
p
p = np  liczba uczniów, którzy rozwiązali zadanie
n
n  liczba uczniów testowanych
Przykład: 30 uczniów rozwiązywało zadanie punktowane w skali 0-1. Prawidłowej odpowiedzi
udzieliło 14. Zatem współczynnik łatwości zadania wynosi 0,47 [14 : 30 = 0,47].
Wskaznik łatwości zadania/testu pozwala określić stopień trudności zadania dla ucznia lub
grupy uczniów, pokazując poziom opanowania badanej czynności. Jego wartości gra-
niczne to 0 (nikt nie sprostał zadaniu) i 1 (wszyscy piszący rozwiązali je prawidłowo). In-
terpretację współczynnika łatwości przedstawia Tabela 8.
17
Tabela 8. Interpretacja współczynnika łatwości16F16F16F16F
0  0,19 0,20  0,49 0,50  0,69 0,70  0,89 0,90  1,00
zadanie
zadanie zadanie zadanie zadanie
umiarkowanie
bardzo trudne trudne łatwe bardzo łatwe
trudne
Aatwość zadania wyrażamy ułamkiem dziesiętnym (0,7) lub w procentach (70%).
16
B. Niemierko, Pomiar wyników kształcenia, WSiP, Warszawa 1999, s. 152-154.
17
Jw.
Wydział Badań i Ewal uacji CKE 19
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Rysunek 8. Przykładowa prezentacja wyniku uzyskanego za rozwiązanie zadania ze sprawdzianu 2006 [2]
łatwość
Interpretując wskaznik łatwości, trzeba zawsze pamiętać o tym, że jego wartość odnosi się
do stopnia opanowania czynności badanej danym zadaniem (zgodnie z zapisem w karto-
tece testu) i w ten sposób powinna być rozumiana.
Przykład: W 2006 roku 70% uczniów klas VI opanowało umiejętność odczytywania danych
z mapy (potrafiło wskazać kierunek geograficzny pośredni) badaną zadaniem 17.  patrz: Rysunek
8. i Tabela 9. Oznacza to równocześnie, że współczynnik łatwości tego zadania przyjął wartość 0,7
i mieści się w obszarze zadań łatwych.
Tabela 9. Fragment kartoteki (planu) testu S-A1 sprawdzianu 2006 ze wskaznikami łatwości
zadań/czynności [2]
Maks.
Sprawdzana czynność ucznia Nr
Nr zadania liczba Aatwość
Uczeń: standardu
pkt.
1 odczytuje tekst popularnonaukowy 1 1.1 0,90
2 odczytuje tekst popularnonaukowy 1 1.1 0,85
3 odczytuje tekst popularnonaukowy 1 1.1 0,78
4 wykonuje obliczenia dotyczące temperatury 1 5.3 0,48
... ....
15 wykorzystuje w sytuacji praktycznej własności liczb 1 5.5 0,62
16 sprawdza wyniki z warunkami zadania 1 3.9 0,52
17 odczytuje dane z mapy 1 1.4 0,70
18 wykonuje obliczenia dotyczące długości 1 5.3 0,55
Wskaznik łatwości obliczany jest również np. dla obszarów standardów egzaminacyjnych.
W tym przypadku interpretujemy go w odniesieniu do stopnia opanowania umiejętności
badanych danym standardem. Tak przedstawiane bywają wyniki uczniów i szkół w
raportach OKE i CKE (Rysunek 8.), tak prezentowane są zainteresowanym w Internecie
(Tabela 10. i Rysunek 9.).
Wydział Badań i Ewal uacji CKE 20
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 10., Rysunek 9. Przykład prezentacji osiągnięć uczniów szkoły w R. na sprawdzianie 2007 [7]
Aby zinterpretować wyniki uczniów wyrażone wskaznikiem łatwości, konieczne jest ustale-
nie umownego progu, którego osiągnięcie pozwoli uznać, że dana umiejętność jest opa-
nowana zadowalająco. Określenie progu  zaliczenia umożliwi tym samym zidentyfikowa-
nie najważniejszych potrzeb edukacyjnych (braków) uczniów i podjęcie decyzji dotyczą-
cych zmian/modyfikacji w procesie kształcenia. Zgodnie z propozycją prof. Bolesława
Niemierki można przyjąć, że normę biegłości stanowić będzie 70% punktów możliwych do
18
uzyskania za rozwiązanie zadań/testu17F17F17F17F , nie znaczy to jednak, że wewnątrzszkolny sys-
tem oceniania szkoły nie może stanowić inaczej.
Przykład: W 2006 roku uczniowie przystępujący do sprawdzianu uzyskali 63,3% punktów
możliwych do uzyskania. Zatem test zastosowany na egzaminie okazał się dla zdających
umiarkowanie trudny, bo łatwość testu przyjęła wartość 0,63. W stopniu zadowalającym uczniowie
opanowali umiejętności z obszaru standardów  Czytanie (patrz: Wykres 7.). W pozostałych nie
osiągnęli progu 70%. Wobec tego wszelkie zmiany lub modyfikacje procesu dydaktycznego w
szkole powinny przede wszystkim dotyczyć kształcenia umiejętności opisanych w pozostałych
obszarach standardów wymagań egzaminacyjnych, szczególnie w obszarze  Wykorzystanie
wiedzy w praktyce .
Wykres 7. Wyniki sprawdzianu 2006 w obszarach umiejętności (dla uczniów rozwiązujących arkusz
standardowy) [2]
Co potrafi statystyczny szóstoklasista 2006?
90% :&
76,6%
80%
68,5%
70%
60,5%
55,6%
60%
49,1%
50%
40%
30%
20%
10%
0%
czytanie pisanie rozumowanie korzystanie z informacji wykorzystanie wiedzy w
praktyce
Uwaga: Analizując wyniki egzaminów, należy pamiętać, że co roku stosuje się testy, które
mogą obejmować inne treści i mieć różny stopień trudności. Nie należy zatem wprost po-
18
Por. B. Niemierko, Pomiar sprawdzający w dydaktyce, Warszawa 1990, s. 357.
Wydział Badań i Ewal uacji CKE 21
procent punktów
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
równywać surowych (punktowych lub procentowych) wyników z kolejnych lat, w zamian
posługując się skalą znormalizowaną.
Wskaznik łatwości jest użyteczny również w różnorodnych analizach porównawczych pro-
wadzonych w ramach wewnątrzszkolnych badań osiągnięć edukacyjnych uczniów.
Przykład: Analizując zestawienie wyników wewnątrzszkolnych badań osiągnięć edukacyjnych
uczniów klasy VIa Szkoły Podstawowej w C.  Wykres 8.), łatwo możemy wskazać zadania, które
sprawiły uczniom szczególne kłopoty (np. zad. 4-8, 10), i te, które pokazały, że czynności nimi ba-
dane opanowane zostały w stopniu zadowalającym (zad. 11-13). Jakie to czynności  wskaże kar-
toteka, czyli zestawienie czynności sprawdzanych testem. Bez sięgnięcia do niej, nauczyciel nie
jest w stanie ocenić efektywności swej pracy z uczniem.
Wykres 8. Fragment wewnątrzszkolnej analizy wyników badań osiągnięć edukacyjnych uczniów klasy VIa na
tle wyników Szkoły Podstawowej w C. [6]
Stopień opanowania czynności badanych testem przez uczniów klasy VI a
0,93
0,93
1
0,90
0,84
0,83
0,9
0,81
0,8
0,69
0,69
0,65
0,62
0,7 0,60
0,61
0,56
0,55
0,6
0,46
0,43 0,43
0,5
0,37
0,36
0,34
0,4
0,30
0,29
0,30
0,26
0,25
wynik szkoły
0,3
wynik klasy
0,2
0,03
0,1
0
1 2 3 4 5 6 7 8 9 10 11 12 13
numer zadania
Trudność zadania / testu
W analizach wyników testu złożonego z zadań punktowanych 0-1, wartości liczbowe
wskaznika łatwości zadania wykorzystuje się do obliczania wskaznika trudności tegoż za-
dania. Dostarcza on jakościowej informacji o stopniu trudności zadania testowego, bo im
niższy jest wskaznik łatwości zadania, tym jest ono trudniejsze (tzn. rozwiązuje go mniej
uczniów). Inaczej mówiąc, parametr trudność zadania jest odwrotnością łatwości, bo
wskazuje, jaki odsetek uczniów nie rozwiązał danego zadania. Test, w którym dominują
zadania o takich wartościach, prowadzi do skośności dodatniej rozkładu wyników testo-
wych.
Trudność zadania punktowanego 0-1 jest to stosunek liczby uczniów,
q = 1 - p
którzy nie rozwiązali prawidłowo tego zadania, do liczby uczniów
19
biorących udział w testowaniu18F18F18F18F .
gdzie: p  łatwość zadania/testu, q  trudność zadania/testu.
Przykład: Trudność zadania, które ma współczynnik łatwości 0,73, wynosi 0,27, bo 1  0,73=0,27.
Jest to wskaznik rzadziej stosowany w analizach wyników testowania niż łatwość zadania,
stąd jego mniejsza popularność w szkolnych analizach statystycznych.
19
B. Niemierko, Pomiar wyników ..., op. cit., s. 153.
Wydział Badań i Ewal uacji CKE 22
łatwość zadania
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Frakcja opuszczeń
W analizie poprawności dydaktycznej i stosowności zadań testowych uwzględnia się rów-
nież zadania, które uczniowie pominęli, czyli pozostawili bez odpowiedzi z powodu braku
czasu, utraty motywacji lub zbyt wysokiej trudności zadania.
Frakcja opuszczeń zadania wyrażona jest stosunkiem liczby uczniów, którzy opuścili za-
danie, do liczby egzaminowanych uczniów.
no gdzie:
fo = fo  frakcja opuszczeń, no  liczba opuszczeń, n  liczba uczniów.
n
Frakcja opuszczeń zadania nie powinna przekraczać 0,15. Jeżeli jest większa, zadanie
może nie być poprawne dydaktycznie (merytorycznie, redakcyjnie lub pod względem trud-
20
ności)19F19F19F19F , należy mu się ponownie przyjrzeć przed następnym zastosowaniem, zwracając
uwagę również na jego kategorię taksonomiczną (np. zadania sprawdzające czynności z
kategorii A, badającej zapamiętywanie wiadomości, mogą być opuszczane częściej, po-
nieważ uczniowie nie zapamiętali szczegółowych informacji) oraz na ich miejsce w teście
(zadania opuszczane w końcowej części mogą świadczyć o braku czasu na ich rozwiąza-
nie). Frakcja opuszczeń to informacja ważna przede wszystkim dla konstruktorów testów
(także nauczycielskich).
Przykład: Do potrzeb analizy wyników testowania sporządzono zbiorczą tabelę (Tabela 11.).
Tabela 11. Fragment analizy zbiorczej wyników testowania [6]
Nr 20
1 2 3 4 5 ... .... 17 18 19
0,19 0,05 0,05 0,17 0,00 ... ... 0,02 0,11 0,18 0,03
f0
Z prezentowanego zestawienia wynika, że frakcja opuszczeń zadań nr 1, 4, 19 przyjęła wartość
powyżej 0,15. Zatem zadania 1 i 4 wymagają pogłębionych analiz konstrukcyjnych, ponieważ są to
zadania umieszczone na początku testu, w związku z tym powód ich opuszczenia jest inny niż
brak czasu na rozwiązanie zadania przez ucznia. Również zadanie 19. należy poddać dodatko-
wym analizom jakościowym, ponieważ to nie jego umieszczenie pod koniec testu spowodowało
brak rozwiązania. Uczniowie podejmowali próbę zmierzenia się z ostatnim zadaniem (frakcja
opuszczeń 0,03), a więc można przypuszczać, że na pracę mieli wystarczająco dużo czasu.
Moc różnicująca zadania
Moc różnicująca zadania jest informacją o związku wyniku tego zadania z wynikami in-
nych zadań danego testu. Jest mierzona korelacją wyników zadania z wynikami testu, któ-
rego jest częścią. Miara ta posiada zdolność do odróżniania uczniów o wyższych i niż-
21
szych osiągnięciach. Przyjmuje wartość od -1 do +120F20F20F20F . Jest wskaznikiem wykorzystywa-
nym w procesie konstruowania testu po pierwszym zastosowaniu narzędzia (po testowa-
niu próbnym lub na etapie standaryzacji). Informuje o zdolności zadania do rozróżniania
uczniów na podstawie ich osiągnięć, czyli odpowiada na pytanie, jak zadanie rozróżnia
egzaminowanych uczniów. Im wyższy wskaznik mocy różnicującej, tym zadanie jest kon-
strukcyjnie lepsze. Zadanie o wysokiej mocy różnicującej rozwiązują uczniowie lepsi, na-
tomiast słabsi nie. Natomiast ujemny wskaznik oznacza, że zadanie jest prawdopodobnie
niepoprawnie skonstruowane i wymaga pogłębionej analizy jakościowej.
20
Ibidem, s. 152.
21
Ibidem, s.154-155.
Wydział Badań i Ewal uacji CKE 23
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Moc różnicująca zadania punktowanego 0-1 obliczana jest według wzoru:
gdzie:
x - x p
p
rpb  wskaznik mocy różnicującej, tzw. punktowo-dwuseryjny, korelacyjny
rpb =
st q
x  średnia arytmetyczna wyników uczniów, którzy wykonali zadanie
p
x  średnia arytmetyczna wyników testu
st  odchylenie standardowe wyników egzaminowania
p  łatwość zadania
q  trudność zadania
W praktyce często stosowany jest prostszy, ale mniej doskonały wskaznik zastępczy mocy
różnicującej zadania punktowanego 0-1, oznaczany D50 i obliczany według wzoru:
D50 = pL -pS gdzie:
D50  wskaznik mocy różnicującej, tzw. połówkowy
pL  łatwość zadania w lepszej połowie wyników egzaminu
pS  łatwość zadania w słabszej połowie wyników egzaminu
Przykład: Aby obliczyć wskaznik mocy różnicującej D50, należy uszeregować wyniki od najwyż-
szego do najniższego. Otrzymany zbiór dzielimy na połowy i obliczamy wskaznik łatwości dla wyż-
szej (lepszej) i dla niższej (słabszej) połówki rozwiązań, a następnie znajdujemy różnicę.
Załóżmy, że współczynnik łatwości dla uczniów w  lepszej połowie (tych, którzy uzyskali lepszy
wynik w teście) rozwiązujących dane zadanie wyniósł 0,75, a dla radzących sobie słabiej  0,31.
Moc różnicująca zadania wyrażona wskaznikiem D50 wyniesie więc 0,44. Jeżeli test składał się z co
najmniej 25 zadań, to przykładowe zadanie dobrze różnicuje osiągnięcia uczniów. Gdyby wartość
wskaznika mocy różnicującej wyniosła 0, znaczyłoby to, iż liczba poprawnych odpowiedzi w obu
grupach uczniów jest jednakowa.
22
Interpretacja wskaznika mocy różnicującej jest skomplikowana21F21F21F21F . Najczęściej rozważane
są trzy zależności wyznaczające wartość tego wskaznika:
1. zależność od łatwości zadania (np. zadania najtrudniejsze i najłatwiejsze nie różni-
cują osiągnięć uczniów),
2. zależność od rodzaju kryterium,
3. zależność od długości danego testu.
Przybliżone progi zadowalających wartości wskaznika mocy różnicującej przedstawia Ta-
bela 12.
23
Tabela 12. Interpretacja wskaznika mocy różnicująca zdań w testach o różnej długości 22F22F22F22F
Liczba zadań w teście Minimalna moc różnicująca zadań Zadowalająca moc różnicująca zadań
100 0,10 0,22
25 0,20 0,42
10 0,32 0,60
5 0,45 0,75
22
Więcej na ten temat można przeczytać w: Pomiar wyników..., s. 156-158.
23
Za: B. Niemierko, ibidem, s. 158.
Wydział Badań i Ewal uacji CKE 24
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Rzetelność pomiaru
Rzetelność jest miarą dokładności pomiaru dokonywanego za pomocą testu. Najogólniej
rozumiana jest jako powtarzalność (stałość) wyników pomiaru w określonych warunkach.
Oznacza to, że uczniowie badani ponownie po jakimś czasie w porównywalnych warun-
24
kach tym samym testem uzyskują podobne wyniki23F23F23F23F .
Jednym ze sposobów szacowania rzetelności jest obliczenie alfy Cronbacha wg wzoru:
gdzie:
2
# ą ś#
k
"
ą  współczynnik rzetelności (alfa Cronbacha)
ś#1 - 2 i ź#
ą =
ś# ź#
k  liczba pomiarów cząstkowych składających się na zmienną x
k - 1 ą
x
# #
2
 suma wariancji wyników k pomiarów cząstkowych
"ąi
2
ą  wariancja zmiennej x
x
W przypadku wewnętrznej zgodności testu k jest liczbą zadań w teście, ąi2 wariancją wy-
2
ników i-tego zadania, zaś ą wariancją wyników testowania.
x
W przypadku zadań punktowanych 0-1, rzetelność szacuje się z wykorzystaniem wzoru
KR20 (Kudera i Richardson nr 20):
gdzie:
# p q ś#
m
"
rtt  współczynnik rzetelności KR20
ś#1 - 2i i ź#
rtt =
ś# ź#
m - 1 ą
m  liczba zadań w teście (długość testu)
x
# #
pi  łatwość i-tego zadania
2
ą  wariancja wyników testowania
x
qi  trudność i-tego zadania
Współczynnik rzetelności może przybierać wartości w przedziale 0-1. Wartość 0 oznacza,
że cała zmienność wyników pochodzi z błędów pomiaru, zatem różnice między osiągnię-
ciami uczniów są wyłącznie losowe, a test niewiele mierzy. Natomiast wartość 1 oznacza,
25
że wyniki testowania są wolne od błędów pomiaru24F24F24F24F . Ponieważ nie ma idealnego testu,
należy wiedzieć, jak duży popełniamy błąd, stosując konkretne narzędzie badawcze i
określić granice interpretacji otrzymanego wyniku testowego. Innymi słowy, rzetelność
26
pomiaru jest to wielkość błędu, jaki możemy popełnić, interpretując wyniki danego testu25F25F25F25F .
27
Efekt standardowy 26F26F26F26F
Do zmierzenia wpływu określonego czynnika na wynik całej badanej populacji wykorzystu-
je się wskaznik zwany efektem standardowym, który obliczany jest według wzoru:
gdzie:
x1 - x2
d  efekt standardowy
d =
s
x1  średnia grupy pierwszej (eksperymentalnej, którą będziemy porównywać)
x2  średnia grupy drugiej (kontrolnej, bazowej, do której będziemy porównywać)
s  odchylenie standardowe
24
Ibidem, s.192.
25
Ibidem, s.196.
26
Więcej na ten temat można przeczytać w: B. Niemierko, Pomiar wyników..., s. 192-219.
27
Przykłady w: Ewa Stożek, O czym mówi efekt standardowy?, [w:] Holistyczne i analityczne metody dia-
gnostyki edukacyjnej, Perspektywy informatyczne egzaminów szkolnych, red. B. Niemierko, G. Szyling, Fun-
dacja Rozwoju UG, Gdańsk 2005, s.520-525; także: www.ptde.org.pl
Wydział Badań i Ewal uacji CKE 25
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Odchylenie obliczane jest wg wzoru:
2 2
(N1 -1)s1 +(N2 -1)s2
s =spooled=
N1 +N2 -2
Efekt standardowy pozwala m. in. na porównywanie uzyskanej przewagi bez względu na
właściwości skali i rozkładu wyników.
Pozwala na porównywanie wyników różnych grup (np. równoległych oddziałów klasowych)
pod względem określonej cechy, umiejętności. Proponuje się następującą skalę siły efek-
tu:
28
Tabela 13. Skala siły efektu według Cohena 27F27F27F27F
d = 0,2 d = 0,5 d = 0,8
mały efekt (wpływ) średni efekt (wpływ) duży efekt (wpływ)
Efekt standardowy jest corocznie wykorzystywany w prezentacji wyników sprawdzianu. Z
jego pomocą analizowany jest między innymi wpływ na wynik egzaminu płci czy też wiel-
kości miejscowości.
Dla przykładu, fragment sprawozdania ze sprawdzianu 2007, dotyczący wpływu płci na wynik
egzaminu:  Analiza efektu standardowego płci w latach 2002-2007 wykazuje, że do roku 2004
przewaga dziewcząt rosła, w kolejnych dwóch latach nieznacznie zmalała, a w bieżącym roku po-
29
nownie wzrosła. 28F28F28F28F .
Wykres 9. Efekt standardowy na sprawdzianie 2002-2007 [3]
Wynik standardowy
Wynik standardowy jest wskaznikiem zbliżonym do efektu standardowego. Pozwala na
umieszczenie wyniku pojedynczego ucznia na skali, niezależnie od wielkości średniej i
odchylenia standardowego. Jest informacją o tym, w jakiej odległości od średniej mierzo-
nej w odchyleniach standardowych znajduje się wynik ucznia. Wyniki standardowe mają
średnią 0 i odchylenie standardowe 1. O ile efekt standardowy służy do porównywania
grup, wynik standardowy umożliwia porównywanie wyników ucznia w obrębie badanej
30
grupy.29F29F29F29F Wyniki standardowe stosuje się w celu porównania wyników uzyskanych przy
użyciu różnych narzędzi pomiaru, np. wyniku ucznia uzyskanego w części humanistycznej
28
Za: E. Stożek, ibidem.
29
Osiągnięcia uczniów kończących szkołę podstawową w roku 2007. Sprawozdanie ze sprawdzianu 2007,
Centralna Komisja Egzaminacyjna, Warszawa, maj 2007, s. 15.
30
E. Stożek, op.cit., s. 523-524.
Wydział Badań i Ewal uacji CKE 26
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
i matematyczno-przyrodniczej egzaminu gimnazjalnego. Wynik standardowy jest obliczany
31
według wzoru30F30F30F30F :
gdzie:
x - x
x  wynik pojedynczego ucznia
z =
s
x  średni wynik z testu
s  odchylenie standardowe w teście
Rysunek 10. Rozkład normalny wyników standardowych
31
G.A. Ferguson, Y. Takane, op. cit., s.92-93.
Wydział Badań i Ewal uacji CKE 27
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
SKALE ZNORMALIZOWANE
Skale znormalizowane są stosowane w statystycznych analizach danych uzyskiwanych w
badaniach, które obejmują duże próby. W związku z tym nie normalizuje się wyników
egzaminów zewnętrznych ani na poziomie szkoły, ani tym bardziej na poziomie kla-
sy szkolnej, wykorzystuje się je natomiast w analizach np. na poziomie kraju.
Pojęcie normy
W powszechnym rozumieniu termin norma oznacza ustaloną, przyjętą zasadę, wzór, regu-
łę, kanon lub ilość, miarę, granicę przewidzianą jako wymaganą lub obowiązującą w ja-
kimś zakresie. Z pojęciem tym nierozerwalnie łączą się takie właściwości, jak powszech-
ność, masowość, częstość występowania określonej cechy lub zachowania w badanej
populacji (por. Hornowska, 2003). Natomiast z punktu widzenia statystyki normą jest to, co
opisywane jest jako zachowanie większości, czy też jako zachowanie średnie lub przecięt-
ne. Inaczej mówiąc, normą jest typowy wynik w teście otrzymany przez określoną grupę
badanych osób. Dzięki niemu można ustalić np. rzeczywistą wartość surowego wyniku
testowego, uzyskanego przez ucznia w stosunku do wyników otrzymanych przez pozosta-
łe badane osoby, bowiem norma nie oznacza, że test został dobrze rozwiązany, ale opisu-
je poziom typowego wykonania tegoż testu.
Przystąpiwszy do egzaminów zewnętrznych, uczeń otrzymuje wynik punktowy (spraw-
dzian i egzamin gimnazjalny) lub procentowy (matura). Jest to tzw. wynik surowy, które-
go bez określonego punktu odniesienia nie można interpretować, zatem oceniać, czy to
wynik wysoki, czy też niski. Dopiero przeniesienie wyników surowych na wspólną skalę
pozwoli na ustalenie norm, dokonywanie porównań i nadanie wynikom znaczenia treścio-
wego, tj. określenie, jaka jest np. pozycja wyniku pojedynczego ucznia (szkoły) względem
wyników innych zdających (szkół).
W badaniach używa się różnych sposobów przedstawiania norm. Punktem wyjścia w ich
ustalaniu jest rozkład normalny wyników, tzw. krzywa Gaussa-Laplace a. Do najczęściej
32
spotykanych należą normy standardowe, rangowe lub równoważnikowe31F31F31F31F .
Dla przykładu: w Polsce do interpretacji wyników egzaminów zewnętrznych stosuje się
standardową skalę staninową, zaś skala centylowa służy do analizy wskaznika eduka-
cyjnej wartości dodanej (EWD). Natomiast do interpretacji wyników uzyskanych w Pro-
gramie Międzynarodowej Oceny Umiejętności Uczniów OECD (PISA) wykorzystuje się
skalę równoważnikową CEEB. Trwają prace nad zastosowaniem tej skali w komuniko-
waniu wyników matury 2008.
Rysunek 11. przedstawia wybrane skale wykorzystywane w badaniach psychologicznych
i pedagogicznych.
32
Elżbieta Hornowska, op. cit., s.134
Wydział Badań i Ewal uacji CKE 28
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Rysunek 11. Wybrane normy typu standardowego
Normalizacja wyników testowania
Rozkład normalny, stanowiący podstawę do tworzenia skal znormalizowanych, uzyskuje
się przez dopasowanie krzywej do wyników testowania ujętych w przedziały, graficznie
przedstawione za pomocą histogramu. Zatem wynik w skali standardowej jest przekształ-
ceniem (przy użyciu odpowiedniej funkcji) wyniku surowego w zmienną, której kształt roz-
kładu z góry ustalamy. Należy pamiętać, że rozkład normalny jest rozkładem idealnym,
teoretycznym.
 Przepis na wyznaczenie rozkładu normalnego:
1. Uporządkuj wartości zmiennej (rosnąco)  oblicz częstości wartości zmiennej przypa-
dające na każdą z kategorii:
Tabela 14.
Wartości zmiennej Częstość
0 2
1 3
2 2
11 13
28 15
32 2
39 10
40 2
45 5
Wydział Badań i Ewal uacji CKE 29
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
2. Umieść wyniki w przedziałach (podziel wartości zmiennej na przedziały, pamiętając, że
liczba przedziałów nie powinna być mniejsza od 5 i większa od 20).
Tabela 15. Wartości zmiennej Częstość
0 - 10 7
10 - 20 13
20 - 30 15
30 - 40 12
40 - 50 7
3. Na tej podstawie narysuj histogram, który przedstawia rozkład zmiennej.
Przedziały, które wcześniej zostały ustalone, zaznacza się na osi współrzędnych. Często-
ści wyznaczają wysokość (w obrębie określonego przedziału  oś y). Na osi x zaznaczone
są wyniki.
Rysunek 12. Histogram
Histogram umożliwia poznanie typu rozkładu zbiorowości statystycznych wg badanej ce-
chy.
4. Przez środek przedziałów wyznaczonych w punkcie 2. przeprowadz krzywą, która nigdy
nie łączy się z zerem, ale dąży do nieskończoności.
5. Wyznaczona krzywa to krzywa normalna. Obszar pod krzywą posiada określone wła-
ściwości: od +1 do -1 odchylenia standardowego rozciąga się obszar wyników typowych
obejmujących ok. 68% wszystkich przypadków; od +2 do -2 odchyleń standardowych za-
wiera się ok. 95% wszystkich wyników, od +3 do -3 odchyleń zawiera się ok. 99% wszyst-
kich przypadków. Innymi słowy, w przypadku rozkładu normalnego procent wartości wyni-
33
ków między obliczonymi współczynnikami odchylenia standardowego jest stały32F32F32F32F .
Rysunek 13. Procent wartości wyników między współczynnikami odchylenia standardowego w rozkładzie
normalnym.
33
W.P. Zaczyński, Statystyka w pracy badawczej nauczyciela, Warszawa 1997, s. 19.
Wydział Badań i Ewal uacji CKE 30
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Obszar wyników typowych
Obszar wyników typowych (OWT) przy rozkładzie normalnym obejmuje 2/3 wszystkich
wyników (ok. 68%). Jego granice stanowią wartości, które obliczamy z jednej strony
odejmując od średniej arytmetycznej wartość odchylenia standardowego, z drugiej 
dodając te dwa współczynniki do siebie.
Rysunek 14. Wyznaczanie obszaru wyników typowych
_ _ _
x + sx
x - s x x
OWT
Przykład: Obszar wyników typowych sprawdzianu 2006 (patrz: Wykres 1.) mieści się w przedziale
od 16,7 do 33,9 punktów. Wyznaczyliśmy go, odejmując i dodając od/do średniej (25,3 pkt.)
wartość odchylenia standardowego (8,6 pkt.). [25,3  8,6 = 16,7; 25,3 + 8,6 = 33,9]
Ponieważ wyniki egzaminu są wyrażane liczbą całkowitą, po zaokrągleniu wyników, rezultaty
typowe dla uczniów piszących sprawdzian 2006 zawrą się w przedziale <17; 34>.
Wydział Badań i Ewal uacji CKE 31
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Definicje wybranych skal znormalizowanych
Skala staninowa
Skala staninowa (od ang. standard nine), zwana także standardową dziewiątką, jest ska-
lą dziewięciostopniową, zaproponowaną w 1942 r. przez Guilforda. Średnia arytmetycz-
na staninów wynosi 5, a odchylenie standardowe 2 (dokładnie 1,96). Staniny wewnętrzne,
od drugiego do ósmego, mają jednakową długość, wynoszącą połowę odchylenia stan-
dardowego, i rozciągają się od -1,75 do +1,75 odchylenia standardowego wyników
w rozkładzie normalnym. Staniny zewnętrzne, pierwszy i dziewiąty, nie mogą być unor-
34
mowane co do długości, bo muszą zawierać minimalny i maksymalny wynik na tej skali.33F33F33F33F
Rysunek 15. Skala staninowa
Skalę staninową wyników budujemy poprzez uporządkowanie wyników surowych od wyni-
ku najniższego do najwyższego i podzielenie ich na 9 przedziałów, które kolejno zawiera-
ją: 4% wyników najniższych, 7% wyników bardzo niskich, 12% wyników niskich, 17% wy-
ników niżej średnich, 20% wyników średnich oraz analogicznie w górę 17% wyników wyżej
średnich, 12% wyników wysokich, 7% wyników bardzo wysokich i 4% wyników najwyż-
szych.
35
Rysunek 16. Rozkład normalny a skala staninowa wyników egzaminu 34F34F34F34F
Następnie dla kolejnych staninów wyznacza się przedziały punktowe. Polega to na ustale-
niu liczby punktów uzyskanych przez uczniów zdających egzamin w danym roku, którzy
uzyskali wynik mieszczący się w danym przedziale.
34
B. Niemierko, Pomiar wyników ..., op. cit., s. 271-272.
35
E. Hornowska, op. cit., s.137.
Wydział Badań i Ewal uacji CKE 32
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Przykład: Dla stanina 1. będzie to przedział zawierający wyniki punktowe 4% uczniów, którzy uzy-
skali najniższe wyniki na teście. Analizując wyniki zdających (patrz: Tabela 15.), stwierdzimy, iż do
czteroprocentowej grupy uczniów, którzy na sprawdzianie 2006 wypadli najsłabiej, zaliczają się ci,
którzy za rozwiązanie testu uzyskali od 0 do 9 punktów; są to 23 osoby, które mają wynik zerowy,
68 uczniów, którzy zdobyli jeden punkt, 210 uczniów, którzy uzyskali dwa punkty, 470  trzy, itd.,
aż do wyniku 4829 uczniów, którzy zdobyli dziewięć punktów, czyli do zbliżenia się w kolumnie
 Procent skumulowany do granicy 4% badanej populacji. Granica odcięcia 1. stanina w przypadku
sprawdzianu 2006 przebiegnie na poziomie 3,688% populacji (niedobór 0,312% jest tu niższy niż
w przypadku, gdybyśmy do przedziału punktowego dla stanina 1. zechcieli zaliczyć także wynik 10
punktów, co dałoby nam aż 0,961% powyżej graniczne 4%). Analogicznie postępujemy, wyznacza-
jąc przedziały następnych staninów  drugi na granicy 11% populacji (4% dla pierwszego stanina +
7% dla drugiego), trzeci  23% (4%+7%+12%), itd.
Tabela 16. Rozkład staninowy wyników sprawdzianu 2006 [1]
Liczba Procent
Egzamin Częstość Procent Stanin Opis skali
punktów skumulowany
0 23 0,0049 0,0049
1 68 0,0146 0,0196
2 210 0,0452 0,0648
3 470 0,1011 0,1659
wynik
4 946 0,2035 0,3694
1 najniższy
5 1540 0,3313 0,7007
4%
6 2271 0,4886 1,1893
7 2922 0,6286 1,8180
8 3863 0,8311 2,6491
9 4829 1,0389 3,6880
10 5917 1,2730 4,9610
11 6954 1,4961 6,4571
bardzo niski
2
7%
12 8114 1,7457 8,2028
13 9232 1,9862 10,1890
14 10531 2,2657 12,4546
15 11540 2,4828 14,9374
niski
16 12700 2,7323 17,6697 3
12 %
17 13626 2,9315 20,6012
18 14715 3,1658 23,7671
19 15486 3,3317 27,0988
20 15866 3,4135 30,5122
4 niżej średni
21 16429 3,5346 34,0468
17 %
22 16872 3,6299 37,6767
23 17010 3,6596 41,3363
24 17126 3,6845 45,0208
25 17098 3,6785 48,6994
26 17301 3,7222 52,4215
średni
5
20 %
27 17087 3,6761 56,0977
28 17436 3,7512 59,8489
29 17321 3,7265 63,5754
Wydział Badań i Ewal uacji CKE 33
Sprawdzian 2006
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
30 17478 3,7603 67,3357
31 17733 3,8151 71,1508
6 wyżej średni 17%
32 17931 3,8577 75,0086
33 18398 3,9582 78,9668
34 18135 3,9016 82,8684
35 17728 3,8141 86,6824 7 wysoki 12%
36 17420 3,7478 90,4302
37 15775 3,3939 93,8241
8 bardzo wysoki 7%
38 13510 2,9066 96,7307
39 9698 2,0865 98,8171
9 najwyższy 4%
40 5498 1,1829 100
Ogółem 464807 100,00
Uwaga: Wyniki egzaminów normalizowane są corocznie, dlatego  choć przedziały pro-
centowe dla staninów są stałe  to przedziały punktowe w poszczególnych latach różnią
się między sobą tak, jak różnią się wyniki uczniów lub szkół w danym roczniku.
Standardowa  piątka
Podobnie jak skalę staninową, tworzy się pięciostopniową skalę zwaną  standardową piąt-
ką . Różnica między skalami polega na tym, że zamiast dziewięciu, tworzy się pięć prze-
działów, które kolejno zawierają: 7%, 24%, 38%, 24%, 7% wyników uporządkowanych od
wyniku najniższego do najwyższego. Poszczególne stopnie skali charakteryzowane są
następująco: niski, niżej średni, średni, wyżej średni, wysoki. Średnia w skali pięcio-
stopniowej wynosi 3, a odchylenie standardowe 1. Za pomocą tej skali prezentowane są
wyniki mniejszych zbiorów.
Rysunek 17. Rozkład wyników w pięciostopniowej skali standardowej
Skalę tę wykorzystywano do prezentacji wyników egzaminów zewnętrznych w powiatach.
Przykładowo  jak na Rysunku 18.
Wydział Badań i Ewal uacji CKE 34
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Rysunek 18. Średnie wyniki sprawdzianu 2005 w powiatach [1]
Uwaga: Należy pamiętać, że przedziały punktowe wyników prezentowane w tej skali,
w kolejnych latach będą się zmieniały, podobnie jak w przypadku skali staninowej.
Przykład: Tabela 17. pokazuje, że osiągnięcia szkół podstawowych w powiecie X w stosunku do
innych szkół w kraju w kolejnych latach zdecydowanie różniły się, choć szkoły te co roku uzyskiwa-
ły średni wynik 27 punktów.
Tabela 17. Znormalizowane średnie wyniki szkół podstawowych w powiatach w skali pięciostopniowej w
latach 2004-2007 [1] [6]
]
Stopień skali
1 2 3 4 5
Wynik
niski niżej średni średni wyżej średni wysoki
Przedział
punktowy
21,8-23,5 23,6-24,5 24,6-25,5 25,6-27,0 27,1-29,4
2004 r.
Przedział
punktowy
26,4-27,6 27,7-28,4 28,5-29,4 29,5-30,7 30,8-33,0
2005 r.
Przedział
punktowy 21,6-23,2 23,3-24,2 24,3-25,3 25,4-26,9 27,0-29,6
2006 r.
Przedział
punktowy
23,7-24,7 24,8-25,5 25,6-26,5 26,6-28,0 28,1-30,4
2007 r.
Podobnie jak w przypadku skali staninowej, prezentacja wyników w skali pięciostopniowej
pozwala np. władzom powiatu zorientować się, jakie miejsce zajmują prowadzone przez
nich szkoły pośród wyników krajowych. Dla szkół z terenu danego powiatu oznacza to, że
jeżeli np. ich wynik znajduje się w 3. przedziale, to 31% powiatów w kraju uzyskało wynik
niższy niż te szkoły, 38% wynik porównywalny, a w 31% powiatów wyniki piszących
sprawdzian były wyższe.
Wydział Badań i Ewal uacji CKE 35
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 10. Ranga wyniku w stosunku do innych wyników badania w skali  standardowej piątki [6]
5 93% 7%
4 69% 24% 7%
3 31% 38% 31%
2 7% 24% 69%
1 7% 93%
wynik niższy wynik porównywalny wynik wyższy
Skala centylowa
Skala centylowa jest skalą rangową, w której otrzymane wyniki dzielone są na 99 prze-
działów (centyli). W celu ustalenia wartości tych przedziałów, porządkuje się wyniki
wszystkich zdających od wyniku najniższego do najwyższego, a następnie otrzymany
zbiór przelicza na 100 równych części. Potem określa się granice między tymi częściami
na skali wyników i oznacza je jako centyle. Każdy centyl obejmuje około 1% wyników.
Ponieważ skala centylowa rozpoczyna się od 0, w całości składa się ona ze 101 jedno-
stek. Środek skali, a więc jego medianę, wyznacza centyl 50. Oznacza to, że powyżej 50
centyla znajdują się wyniki odnoszące się do większego niż przeciętny poziomu wykona-
nia testu, a poniżej do słabszego. Zatem centyl to punkt na skali, poniżej którego leży
określony odsetek rozkładu.
Mimo że centyl definiowany jest jako odsetek, nie jest tym samym co wynik procentowy,
mówi nam bowiem o odsetku osób, które znajdują się poniżej określonego centylem punk-
36
tu na skali35F35F35F35F , a nie o poprawności wykonania zadań w teście.
Rysunek 19. Związek między centylami a rozkładem normalnym
36
Elżbieta Hornowska, op. cit., s.146-147.
Wydział Badań i Ewal uacji CKE 36
skala pięciostopniowa
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Numer kolejny najbliższego centyla stanowi rangę centylową danego wyniku, czyli okre-
śla procent uczniów o wyniku niższym niż dany wynik. Rangi centylowe są miarami pozy-
cyjnymi osiągnięć uczniów. Wskazują miejsce uczniów w grupie uczniów uporządkowanej
według wyników testowania. Należy pamiętać o tym, że pozycja wyniku nie oznacza speł-
nienia wymagań programowych. Często występującym błędem jest mylenie rang centylo-
37
wych z procentem rozwiązanych zadań36F36F36F36F .
Skala akademicka (CEEB)
Skala CEEB (College Entrance Examination Board), tzw. skala akademicka, stosowana
jest w amerykańskim Teście Uzdolnień Akademickich (American College Test) oraz w
programie OECD/PISA.
Podobnie jak inne prezentowane tu skale, oparta jest na modelu rozkładu normalnego 
przy średnim wyniku 500 pkt., ok. 2/3 uczniów ma wynik mieszczący się w przedziale 400-
600 punktów. Pełna skala obejmuje przedział od 200 do 800 punktów.
Skala ta konstruowana jest też w oparciu o normy typu równoważnikowego, dla których
punktem odniesienia są najczęściej wiek ucznia lub rok i miesiąc nauczania w roku szkol-
38
nym. 37F37F37F37F Równoważniki wieku lub klasy to liczby, które wskazują na rok i miesiąc życia
bądz kolejne lata i miesiące nauki, odpowiadające średniej arytmetycznej lub medianie
wykonania testu na danym etapie rozwoju. Innymi słowy, równoważnik ucznia będącego
typowym przedstawicielem swojej grupy, który z testu otrzymał np. 40 punktów, może wy-
nosić 3,6. Oznacza to, że taki właśnie wynik osiągają przeciętnie uczniowie w trzecim mie-
siącu nauki w VI klasie. Zatem równoważniki klasy (lub wieku) wskazują opóznienia albo
przyspieszenie w uczeniu się, bądz to w stosunku do średnich osiągnięć uczniów tej samej
klasy, bądz w stosunku do rówieśników.
Przedstawiona na Rysunku 20. skala równoważników lat nauki szkolnej ma średnią
odpowiadającą 12 latom nauki. Zatem nieco ponad 95% wyników odchyla się, w górę lub
w dół od średniej, nie więcej niż o 6 klas nauki, a około 68% odchyla się nie więcej niż o
trzy klasy.
37
Bolesław Niemierko, Pomiar wyników..., s.267-271.
38
Zob. Elżbieta Hornowska, op. cit., s.150-154 oraz Bolesław Niemierko, Koncepcje matury,  Dyrektor
Szkoły nr 1 i 2, 2007.
Wydział Badań i Ewal uacji CKE 37
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
39
Rysunek 20. Związek między skalą równoważnikową i skalą CEEB a rozkładem normalnym38F38F38F38F
W najbliższych planach CKE przewiduje komunikowanie wyników egzaminu maturalnego
polskich uczniów z użyciem także tej skali.
39
Bolesław Niemierko, Koncepcje matury...
Wydział Badań i Ewal uacji CKE 38
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
PRZYKAADY ANALIZ
WYNIKÓW EGZAMINÓW ZEWNTRZNYCH
Analiza i interpretacja wyników staninowych uczniów i szkół
Znormalizowana skala staninowa wykorzystywana jest zarówno w przypadku analizy
wyników indywidualnych, jak i zbiorowości (np. uczniów danej szkoły).
40
Przykład: Prezentując doroczne wyniki szkół w Internecie39F39F39F39F , ukazano wyniki surowe uczniów tej
szkoły pomieszczone na skali staninowej
Tabela 18., Rysunek 21. Sposób prezentowania wyników szkoły [7]
oraz porównano rezultaty uzyskane przez uczniów tej szkoły do wyników innych szkół w Polsce:
Analiza indywidualnego wyniku w odniesieniu do innych zdających jest niezbędna
szczególnie wtedy, gdy chcemy porównać wyniki uczniów zdających egzamin w różnych
latach.
Przykład: Uczennica kończąca szkołę podstawową, która na sprawdzianie uzyskała 32 punkty, w
kolejnych latach ze swoim wynikiem punktowym lokowałaby się w różnych staninach: w 2002 roku
uzyskałaby piąty stanin (wynik średni), w 2003  szósty (wyżej średni), w 2004  siódmy (wysoki),
w 2005 piąty (średni), a 2006 i 2007  roku szósty (wyżej średni). (Por. Tabela 19.)
40
www.cke.edu.pl - tu: Wyniki szkół
Wydział Badań i Ewal uacji CKE 39
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 19. Przedziały punktowe skali staninowej dla wyników uczniów na sprawdzianie w latach 2002-07 [3]
Stanin
1 2 3 4 5 6 7 8 9
Wynik
bardzo niżej wyżej bardzo
najniższy niski średni wysoki najwyższy
niski średni średni wysoki
Przedział
29  32
punktowy
0  15 16  20 21  24 25  28 33  35 36  37 38 39  40

2002 r.
Przedział
32  34
punktowy
0  15 16  19 20  23 24  27 28  31 35  36 37  38 39  40

2003 r.
Przedział
32  34
punktowy
0  10 11  15 16  19 20  23 24  27 28  31 35  37 38  40

2004 r.
Przedział
29  32
punktowy
0  13 14  18 19  23 24  28 33  35 36  37 38 39  40

2005 r.
Przedział
30  33
punktowy
0  9 10  13 14  18 19  23 24  29 34  36 37  38 39  40

2006 r.
Przedział
31  33
punktowy
0  11 12  15 16  20 21  25 26  30 34  35 36  37 38  40

2007 r.
Prezentacja wyników egzaminów zewnętrznych na skali staninowej pozwala uczniowi zo-
rientować się, jakie miejsce zajmuje ze swymi wynikami wśród wyników innych
uczniów, którzy zdawali egzamin w danym roku, a szkole  jaka jest jej pozycja
względem innych szkół. Dla ucznia X oznacza to, że jeżeli np. jego wynik znajduje się w
2. staninie, to 4% uczniów uzyskało wynik niższy niż ten, który był jego udziałem, 7% uzy-
skało wynik porównywalny z jego wynikiem, a 89% wszystkich uczniów piszących egzamin
miało wynik wyższy niż osiągnięty przez niego.
Wykres 11. Ranga wyniku w stosunku do innych wyników badania w skali staninowej [6]
Porównanie wyniku ucznia/szkoły z wynikami innych zdających/szkół
96% 4%
0%
9
89% 7% 4%
8
77% 12% 11%
7
60% 17% 23%
6
40% 20% 40%
5
23% 17% 60%
4
11% 12% 77%
3
4% 7% 89%
2
0% 96%
4%
1
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
wynik niższy wynik porównywalny wynik wyższy
Nauczyciele i rodzice powinni przyjrzeć się wynikom uczniów szczególnie bacznie, gdyż
pokazują one nie tylko stan uczniowskich osiągnięć  na dziś , ale też są dobrym progno-
stykiem sukcesów w uczeniu się na kolejnych etapach edukacyjnych. W Tabeli 20. i
na Rysunku 22. kolorami zaznaczono strefy wyników: niskich (kolor czerwony), średnich
(żółty) i wysokich (zielony), wyodrębniając obszar zagrożenia niskimi osiągnięciami oraz
wskazując grupę uczniów, których wynik świadczy o znacznym potencjale edukacyjnym.
Wydział Badań i Ewal uacji CKE 40
stanin
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 20. Przedziały punktowe skali staninowej dla wyników części matematyczno-przyrodniczej egzaminu
gimnazjalnego 2007 r.[4] [6]
Stanin
1 2 3 4 5 6 7 8 9
Wynik
bardzo niżej wyżej bardzo
najniższy niski średni wysoki najwyższy
niski średni średni wysoki
Przedział
0  10 11  13 14  16 17  20 21  26 27  33 34  40 41  45 46  50
punktowy
strefa wyników niskich strefa wyników średnich strefa wyników wysokich
2007 r.
Rysunek 22. Rozkład wyników części matematyczno-przyrodniczej egzaminu gimnazjalnego 2007 z
wyodrębnieniem stref wyników: niskich, średnich i wysokich [4] [6]
4,5%
STREFA WYNIKÓW ŚREDNICH
STREFA WYNIKÓW
4,0% Warto bacznie monitorować postępy
NISKICH
tych uczniów, bo stagnacja bądz regres
Uczniowie zagrożeni niskimi
3,5% osiągnięć są dla nich grozne.
osiągnięciami  pomóżmy im
to zmienić!
3,0%
STREFA WYNIKÓW
2,5%
WYSOKICH
To uczniowie o znacznym
2,0%
potencjale - nie zgubmy tych
pereł!
1,5%
1,0%
0,5%
0,0%
punkty
Możliwość porównania własnych osiągnięć edukacyjnych z osiągnięciami innych
zdających egzaminy zewnętrzne jest szczególnie ważna w przypadku matury, ponieważ
pozwala uczniowi na określenie własnych szans w rywalizacji o przyjęcie na studia.
Przykład: Oto surowe (w procentach) wyniki Anny Kowalskiej zdającej maturę w 2006 r.
Wykres 12. Indywidualny wynik procentowy z egzaminu maturalnego 2006 [6]
Wyniki procentowe egzaminu maturalnego 2006 Anny Kowalskiej
wiedza o społ. D R 70%
historia D R 70%
język rosyjski pis. D R 70%
język rosyjski ustny D R 70%
geografia O R 70%
geografia O P 70%
język angielski pis. O R 70%
język angielski pis. O P 70%
język angielski ustny O R 70%
język polski pis. O R 70%
język polski pis. O P 70%
język polski ustny O 70%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
O  przedmiot wybrany jako obowiązkowy, D  przedmiot dodatkowy, P  poziom podstawowy, R  poziom rozszerzony
Wydział Badań i Ewal uacji CKE 41
% liczebności
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Gdyby Anna poprzestała na ich analizie, mogłaby pozostawać w przekonaniu, iż jej osiągnięcia są
nie tylko stabilne (ze wszystkich zdawanych przedmiotów uzyskała ten sam wynik), ale i dość wy-
sokie (70% punktów możliwych do uzyskania). Gdy jednak odniesiemy jej wyniki do wyników in-
nych osób zdających dany przedmiot, może się okazać, iż ubiegając się o przyjęcie np. na oblega-
ną filologię angielską, mogłaby mieć ograniczone szanse, ponieważ większość jej konkurentów
uzyskała wynik lepszy od jej wyników. Znormalizowane wyniki uczniów powinny też zainteresować
ich nauczycieli, gdyż pokazują, czy kształcą efektywnie, przyczyniając się do sukcesu w przyjęciu
na studia.
Wykres 13. Indywidualny wynik staninowy egzaminu maturalnego 2006 [6]
Wyniki staninow e egzam inu maturalnego 2006 Anny Kow alskiej
wiedza o społ. D R
8
historia D R
8
język rosyjski pis. D R
7
język rosyjski ustny D R 4
geografia O R
8
geografia O P 7
język angielski pis. O R
7
język angielski pis. O P
5
język angielski ustny O R
5
język polski pis. O R
8
język polski pis. O P 8
język polski ustny O
4
1 2 3 4 5 6 7 8 9
Aby stwierdzić, jakie osiągnięcia mają uczniowie, których wyniki mieszczą się w poszcze-
gólnych przedziałach skali staninowej, dokonuje się pogłębionej analizy statystycznej ich
wyników.
Tabela 21. Wyniki w obszarach a poziomy osiągnięć uczniów (fragment analizy) [2]
Przedział Nazwa
Obraz osiągnięć uczniów
punktowy wyniku
NAJNIŻSZY
Stanin 1. (uzyskany
przez 3,7%
1- 9 p
uczniów)
Wydział Badań i Ewal uacji CKE 42
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
NIŻEJ
ŚREDNI
Stanin 4.
(uzyskany
19- 23 p
przez 17,6%
uczniów)
Przykłady: Na podstawie analizy wyników i zadań zastosowanych na sprawdzianie, CKE ustaliła
następujące normy osiągnięć szóstoklasistów zdających sprawdzian w 2006 r: poziom konieczny
 20 punktów (50% punktów możliwych do uzyskania) i poziom zadowalający  28 punktów (70%
punktów możliwych do uzyskania). Analizując Tabelę 21. widzimy, iż uczniowie z najsłabszymi
wynikami z testu (1. stanin), nie osiągnęli poziomu koniecznego w żadnym z badanych obszarów
standardów wymagań egzaminacyjnych. W obszarze  Czytanie poziom zadowalający osiągnęli
dopiero uczniowie z 4. staninem (na egzaminie otrzymali od 19 do 23 punktów). Natomiast ci sami
szóstoklasiści nie opanowali na poziomie koniecznym umiejętności z obszaru  Rozumowanie i
 Wykorzystanie wiedzy w praktyce .
Podobnej analizie możemy poddać poziom osiągnięć uczniów w obszarach umiejętności badanych
testami gimnazjalnymi. Oto co potrafią gimnazjaliści, którzy na egzaminie w 2007 r. z przedmiotów
matematyczno-przyrodniczych uzyskali wyniki niskie (0-16 pkt.), średnie (17-33 pkt.) i wysokie (34-
50 pkt.).
Wykres 14. Osiągnięcia uczniów z części matematyczno-przyrodniczej egzaminu gimnazjalnego 2007 w
obszarach wymagań egzaminacyjnych [4] [6]
100 STREFA
STREFA
STREFA
WYNIKÓW
WYNIKÓW
90
WYNIKÓW
ŚREDNICH
WYSOKICH
NISKICH
80
70
60
50
40
30
20
10
0
0-16 17-33 34-50
przedział wyników (w punktach)
obszar I obszar II obszar III obszar IV
Obszar I Umiejętne stosowanie terminów, pojęć i procedur z zakresu przedmiotów matematyczno-
przyrodniczych niezbędnych w praktyce życiowej i dalszym kształceniu
Obszar II Wyszukiwanie i stosowanie informacji
Obszar III Wskazywanie i opisywanie faktów, związków i zależności, w szczególności przyczynowo-skutkowych,
funkcjonalnych, przestrzennych i czasowych
Obszar IV Stosowanie zintegrowanej wiedzy i umiejętności do rozwiązywania problemów
Wydział Badań i Ewal uacji CKE 43
poziom opanowania
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Bardziej szczegółowych informacji o poziomie osiągnięć uczniów dostarczy analiza
wskazników łatwości poszczególnych zadań w arkuszu egzaminacyjnym, dokonana w od-
niesieniu do pozycji wyniku ucznia na skali staninowej.
Przykład: Staniny uporządkowane od najniższego (1.) do najwyższego (9.), grupują uczniów, któ-
rzy coraz lepiej opanowali poszczególne umiejętności (opisane w kartotece testu) badane na
sprawdzianie 2006. Z przedstawionego fragmentu zestawienia wynika, iż poziom osiągnięć ko-
niecznych oraz zadowalających tych zdających jest nierównomierny, bo niektóre umiejętności są
opanowane w stopniu koniecznym przez uczniów uzyskujących wynik w 1. staninie, a w zadowala-
jącym w 3., zaś inne  dopiero przez uczniów osiągających wyniki powyżej średniej (6 stanin 
poziom konieczny) i wynik wysoki (7. stanin  poziom zadowalający).
Tabela 22. Pogłębiona analiza statystyczna wykonania zadań sprawdzianu 2006 (fragment zestawienia) [2]
Nr
Maks.
Aatwość zadania/kryterium w staninach
Badana czynność ucznia
zadania/
liczba
kryte-
(z numerem standardu)
pkt 1 2 3 4 5 6 7 8 9
rium
1 odczytuje tekst popularnonaukowy (1.1) 1
0,51 0,69 0,81 0,90 0,95 0,97 0,99 0,99 1,00
2 odczytuje tekst popularnonaukowy (1.1) 1
0,45 0,58 0,71 0,83 0,91 0,95 0,98 0,99 1,00
3 odczytuje tekst popularnonaukowy (1.1) 1
0,34 0,49 0,62 0,74 0,83 0,89 0,94 0,97 0,99
4 wykonuje obliczenia dotyczące temperatury (5.3) 1 0,14 0,17 0,21 0,31 0,48 0,65 0,78 0,89 0,97
5 odczytuje tekst popularnonaukowy (1.1) 1 0,41 0,56 0,67 0,79 0,87 0,93 0,96 0,98 0,99
6 odczytuje tekst popularnonaukowy (1.1) 1
0,27 0,44 0,62 0,78 0,89 0,95 0,98 0,99 1,00
7 umieszcza datę w przedziale czasowym (3.1) 1
0,09 0,19 0,36 0,59 0,79 0,90 0,95 0,98 0,99
8 rozpoznaje własności figur geometrycznych (3.6) 1 0,14 0,21 0,28 0,38 0,50 0,61 0,72 0,82 0,95
9 rozpoznaje własności figur geometrycznych (3.6) 1 0,17 0,26 0,37 0,52 0,68 0,78 0,85 0,91 0,97
10 odczytuje tekst poetycki (1.1) 1 0,20 0,26 0,33 0,45 0,60 0,73 0,84 0,93 0,98
11 posługuje się czynnie terminami (1.2) 1
0,43 0,60 0,71 0,81 0,87 0,92 0,95 0,98 0,99
... ..... ... ... ... ... ... ... ... ... ... ...
Pole białe  uczniowie nie osiągnęli poziomu koniecznego; pole czerwone  uczniowie osiągnęli poziom konieczny;
pole granatowe  uczniowie osiągnęli poziom zadowalający.
Przykład: Nauczyciele znający pozycję wyników poszczególnych uczniów z danej klasy na skali
staninowej, mogą przeanalizować ich osiągnięcia bardzo dokładnie, w odniesieniu do każdego
rozwiązywanego na teście zadania. Mogą je także porównać z osiągnięciami statystycznego pol-
skiego ucznia. Oto łatwość zadań (ich poziom opanowania) z gimnazjalnego testu matematyczno-
przyrodniczego 2007  dla uczniów, których wyniki są odpowiednio w pierwszym (Wykres 15.),
piątym (Wykres 16.) i dziewiątym (Wykres 17.) staninie.
Wykresy 15.-17. Poziom opanowania umiejętności badanych zadaniami testu gimnazjalnego 2007 w części
matematyczno-przyrodniczej przez ucznia, którego wynik za cały test mieści się w 1., 5. i 9. staninie [4]
Legenda:
Obszar I Umiejętne stosowanie terminów, pojęć i procedur z zakresu przedmiotów matematyczno-
przyrodniczych niezbędnych w praktyce życiowej i dalszym kształceniu
Obszar II Wyszukiwanie i stosowanie informacji
Obszar III Wskazywanie i opisywanie faktów, związków i zależności, w szczególności przyczynowo-skutkowych,
funkcjonalnych, przestrzennych i czasowych
Obszar IV Stosowanie zintegrowanej wiedzy i umiejętności do rozwiązywania problemów
Wydział Badań i Ewal uacji CKE 44
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
1. stanin
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
umiejętność
obszar I obszar II obszar III obszar IV
5. stanin
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
umiejętność
obszar I obszar II obszar III obszar IV
9. stanin
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
umiejętność
obszar I obszar II obszar III obszar IV
Wydział Badań i Ewal uacji CKE 45
poziom opanowania
7
8
9
1
2
3
4
5
6
10
11
17
18
26
27
13
14
15
16
19
20
21
23
24
25
12
22
28
30.1
30.2
30.3
30.4
33.1
33.2
33.3
33.4
31.1
31.2
31.3
29.1
29.2
34.1
34.2
34.3
32.1
32.2
32.3
32.4
poziom opanowania
7
8
9
1
2
3
4
5
6
10
11
17
18
26
27
13
14
15
16
19
20
21
23
24
25
12
22
28
30.1
30.2
30.3
30.4
33.1
33.2
33.3
33.4
31.1
31.2
31.3
29.1
29.2
34.1
34.2
34.3
32.1
32.2
32.3
32.4
poziom opanowania
7
8
9
1
2
3
4
5
6
10
11
17
18
26
27
13
14
15
16
19
20
21
23
24
25
12
22
28
30.1
30.2
30.3
30.4
33.1
33.2
33.3
33.4
31.1
31.2
31.3
29.1
29.2
34.1
34.2
34.3
32.1
32.2
32.3
32.4
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Analiza wyników egzaminacyjnych uczniów rozpoczynających naukę w szkole programo-
wo wyższej okazuje się niezbędna w procesie diagnozy wstępnej, może też ułatwić
przydział uczniów do poszczególnych oddziałów szkolnych, a pózniej posłużyć do
analiz porównawczych, pomocnych w badaniu efektywności kształcenia.
Przykład: Oto rozkład wyników ze sprawdzianu uczniów przyjętych do klas pierwszych w Gimna-
zjum w Igrekowie. Zastosowanie skali staninowej pozwala kontrolować potencjał klasy  na wej-
ściu , pozwoli także dokonać analizy postępów tych uczniów po trzech latach nauki w szkole:
Tabela 23. Rozkład wyników  na wejściu uczniów Gimnazjum w Igrekowie [6]
Stanin
1 2 3 4 5 6 7 8 9
Wynik
bardzo niżej wyżej bardzo
najniższy niski średni wysoki najwyższy
niski średni średni wysoki

I a
Ania B.


I b


I c


I d
Karol C.

Rozkład wyników uczniów z poszczególnych oddziałów dowodzi, iż podczas przyjmowania
uczniów do poszczególnych klas zastosowano segregację szkolną, co szczególnie jaskrawo wi-
dać na przykładzie klas Ic (językowej) i Id (ogólnej). W pierwszej z nich nie ma uczniów z niskim
potencjałem; odmiennie rzecz ma się w przypadku Id, w której zgromadzono uczniów z niskimi i
średnimi wynikami. Szczególnie pilnie należałoby śledzić osiągnięcia Karola C., który w tym od-
dziale szkolnym może mieć trudności z czynieniem postępów na swoją miarę.
Analiza wyników egzaminacyjnych nowo przyjętych uczniów może też pomóc nauczycielom w
planowaniu pracy dydaktycznej z uczniami w poszczególnych oddziałach.
Postępy, które poczynili uczniowie w trakcie trzyletniej nauki w gimnazjum w Igrekowie, można
zbadać na różne sposoby. Oprócz pogłębionych badań jakościowych, przydatnej informacji może
dostarczyć analiza porównawcza wyników uczniów  na wejściu i  na wyjściu  ze sprawdzianu i
egzaminu gimnazjalnego.
Przeanalizujmy to na przykładzie klasy oznaczonej literą  b . Oto wyniki staninowe 31 uczniów
tego oddziału, uzyskane na sprawdzianie 2004 oraz na egzaminie gimnazjalnym 2007 (przykład
ograniczono tu do wyników z części matematyczno-przyrodniczej tego egzaminu).
Wydział Badań i Ewal uacji CKE 46
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 18. Wyniki absolwentów klasy IIIb  na wejściu i  na wyjściu z gimnazjum [6]
9 9 9
8 8 8 8 8 88 8 8 8 8
8
77 7 7 7 7 7 77 7
7
6 6 66 6 6 66 66 66
6
5 5 55 5
5
4 4 4 4 4 4
4
3 3 3 3 3 3 3 3 3
3
22 2 2 2
2
1 1
1
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
nr ewidencyjny ucznia
wynik sprawdzianu 2004 wynik cz. mat.-przyr. egz. gimn. 2007
Różnica pomiędzy wynikami sprawdzianu i egzaminu gimnazjalnego poszczególnych uczniów po-
zwala wstępnie ocenić efektywność kształcenia w tej klasie. Bardziej precyzyjnie uczynić to moż-
41
na, posługując się wskaznikiem edukacyjnej wartości dodanej.40F40F40F40F
Wykres 19. Postępy uczniów klasy IIIb Gimnazjum w Igrekowie [6]
3 3
3
2 2
2
1 1 1 1 1 1 1 1 1 1
1
0 0 0 0 0 0 0 0 0
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
-1
-1 -1 -1 -1 -1 -1 -1
-2
-3
-4
-5
-5
Uczniow ie
postęp (S2004 - MPG2007)
Wykres 20. ukazuje miarę postępu w tym oddziale szkolnym. Wartości dodatnie oznaczają postęp
(w przypadku ucznia oznaczonego nr 11 i 19. aż o 3 staniny), zero  stagnację, zaś wartości
ujemne  regres (w skrajnym przypadku ucznia o nr. 3. aż o 5 staninów!). W klasie IIIb, w porów-
naniu ze stanem wejściowym mierzonym wynikami sprawdzianu, niższe wyniki  na wyjściu ze
szkoły miało 8 osób, 9 osób ukończyło szkołę z wynikiem staninowym identycznym jak uzyskane 3
lata wcześniej, zaś aż 14 osób zdobyło wynik wyższy.
41
Więcej na temat EWD w 14. numerze Biuletynu Badawczego Egzamin na stronie www.cke.edu.pl oraz w
dalszej części materiałów. Kalkulator do obliczania edukacyjnej wartości dodanej w gimnazjum  także na
stronie domowej CKE.
Wydział Badań i Ewal uacji CKE 47
stanin
Postęp
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 20. Postępy uczniów klasy IIIb Gimnazjum w Iksowie [6]
liczba uczniów
0
3 2
2 2
1 10
0 9
-1 7
-2 0
-3 0
-4 0
-5 1
0
3 2 1 0 -1 -2 -3 -4 -5
Wykresy 21.-23. szczegółowo pokazują, jak w klasie  b pracowano z uczniami, którzy przyszli do
szkoły z wynikami niskimi (1.-3. stanin), średnimi (4.-6. stanin) i wysokimi (7.-9. stanin). Ich analiza
pokazuje, że szczególnie zajęto się w tej klasie wyrównywaniem szans edukacyjnych uczniów
najsłabszych  żadna spośród 11 osób nie uzyskała na egzaminie gimnazjalnym wyniku niższego
niż na sprawdzianie, 2 miały identyczny i aż 10  wyższy. Mniej skutecznie pracowano z grupą
uczniów o wynikach mieszczących się w staninach środkowych (4.-6.)  postępów nie poczynił
żaden z nich. Wyniki uczniów o najwyższym potencjale edukacyjnym okazały się najbardziej
zróżnicowane  4 osoby poczyniły postępy, 5 uzyskało wyniki gorsze niż w szkole podstawowej,
reszta z 12-osobowej grupy pozostała z wynikiem uzyskanym 3 lata wcześniej.
Wykresy 21.-23. Efektywność pracy z uczniami o niskim, średnim i wysokim potencjale edukacyjnym  na
wejściu [6]
Postępy uczniów ze strefy wyników niskich
Postępy uczniów ze strefy wyników
(1-3 stanin)
średnich (4-6 stanin)
3 3
3
2
2 2
2
1
1 1 1 1 1 1
0 0 0 0 0
1
0 0
0
1 2 3 4 5 6 7 8
-1
1 2 3 4 5 6 7 8 9 10 11
-1
-1 -1 -1
-2
-2
uczeń
uczeń
Postępy uczniów ze strefy wyników wysokich (7-9 stanin)
2
1 1 1 1
1
0 0 0
0
-1 1 2 3 4 5 6 7 8 9 10 11 12
-1 -1 -1 -1
-2
-3
-4
-5
-5
uczeń
Wydział Badań i Ewal uacji CKE 48
postęp
postęp
postęp
postęp
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Identycznie jak dla uczniów, wyznacza się przedziały punktowe w kolejnych staninach dla
szkół, z tą tylko różnicą, że przy podziale na stopnie skali uwzględnia się średnie wyniki
punktowe szkoły. Zatem np. w 2002 roku w pierwszym staninie lokowały się te szkoły
podstawowe, których średni wynik punktowy znalazł się w przedziale od 7,5 aż do 24,2
punktów, a w 2006 r., kiedy to szkół z niskim wynikiem przybyło, przedział ten zaczynał się
od 4 punktów jako średniej dla szkoły, a kończył już na 19,1 pkt.
Tabela 24. Skala staninowa średnich wyników szkół dla sprawdzianu 2002-2007 [3]
Stanin
1 2 3 4 5 6 7 8 9
Wynik
bardzo niżej wyżej bardzo
najniższy niski średni wysoki najwyższy
niski średni średni wysoki
Przedział
punktowy 7,5-24,2 24,3-26 26,1-27,4 27,5-28,7 28,8-30 30,1-31,3 31,4-32,8 32,9-34,6 34,7-39,5
2002 r.
Przedział
punktowy 7,7-23,1 23,2-24,9 25,0-26,3 26,4-27,6 27,7-28,9 29,0-30.1 30,2-31,3 31,4-32,8 32,9-39,0
2003 r.
Przedział
punktowy 2,0-19,6 19,7-21,4 21,5-22,9 23,0-24,3 24,4-25,7 25,8-27,2 27,3-28,9 29,0-31,2 31,3-39,5
2004 r.
Przedział
punktowy 11,0-23,7 23,8-25,6 25,7-27,0 27,1-28,4 28,5-29,7 28,8-31,0 31,1-32,3 32,4-33,8 33,9-39,2
2005 r.
Przedział
4,0
punktowy -19,1 19,2-20,9 21,0-22,6 22,7-24,1 24,2-25,7 25,8-27,3 27,4-29,0 29,1-31,3 31,4-39,0
2006 r.
Przedział
punktowy 7,2-20,8 20,9-22,6 22,7-24,1 24,2-25,4 25,5-26,8 26,9-28,2 28,3-29,7 29,8-31,7 31,8-39,5
2007 r.
Uwaga: Zainteresowani analizą wyników egzaminów zewnętrznych poszczególnych szkół
(a są nimi nie tylko nauczyciele, ale także rodzice, nadzór pedagogiczny, samorządy
lokalne, media), nie powinni poprzestawać na oglądzie parametrów związanych z
prezentacją wyników surowych (te bowiem podlegają corocznym wahaniom związanym
choćby z łatwością egzaminu czy liczbą piszących), ale muszą sięgać także do wyników
znormalizowanych. Jest to szczególnie istotne, kiedy pragniemy porównywać wyniki danej
szkoły w kolejnych latach.
Przykład: Tabela 25. pokazuje, że osiągnięcia Szkoły Podstawowej w R. w stosunku do innych
szkół w kraju w kolejnych latach zdecydowanie różniły się, choć szkoła ta wciąż uzyskiwała
identyczny wynik surowy 26 punktów.
Tabela 25. Znormalizowane wyniki Szkoły Podstawowej w R. w kolejnych latach, a surowy wynik 26 pkt. [6]
stanin
Rok
1 2 3 4 5 6 7 8 9
7,5-24,2 24,3-26,0 26,1-27,4 27,5-28,7 28,8-30,0 30,1-31,3 31,4-32,8 32,9-34,6 34,7-39,5
2002
7,7-23,1 23,2-24,9 25,0-26,3 26,4-27,6 27,7-28,9 29,0-30,1 30,2-31,3 31,4-32,8 32,9-39,0
2003
2,0-19,6 19,7-21,4 21,5-22,9 23,0-24,3 24,4-25,7 25,8-27,2 27,3-28,9 29,0-31,2 31,3-39,5
2004
11,0-23,7 23,8-25,6 25,7-27,0 27,1-28,4 28,5-29,7 28,8-31,0 31,1-32,3 32,4-33,8 33,9-39,2
2005
4,0-19,1 19,2-20,9 21,0-22,6 22,7-24,1 24,2-25,7 25,8-27,3 27,4-29,0 29,1-31,3 31,4-39,0
2006
7,2-20,8 20,9-22,6 22,7-24,1 24,2-25,4 25,5-26,8 26,9-28,2 28,3-29,7 29,8-31,7 31,8-39,5
2007
Wydział Badań i Ewal uacji CKE 49
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Z kolei Tabela 26. zawiera wyniki szkoły D, której efektywność niektórzy postrzegali jako niestabil-
ną, gdyż na kolejnych sprawdzianach uzyskiwała na przemian: 27,5 pkt. od 31,1 pkt.
Tabela 26. Surowe wyniki sprawdzianu w szkole D (średnia punktów uzyskanych przez uczniów) w latach
2002-2007 [6]
rok wynik szkoły (śr. pkt.)
2002 27,5 pkt.
2003 31,1 pkt.
2004 27,5 pkt.
2005 31,1 pkt.
2006 27,5 pkt.
2007 31,1 pkt.
Opinia ta jest krzywdząca, gdyż w porównaniu z innymi placówkami w Polsce, szkoła D jest pla-
cówką, której osiągnięcia systematycznie rosną  od  kapitału początkowego 4. stanina, poprzez
kolejne cztery lata utrzymywania wysokiego wyniku (7. stanin), po kolejny wzrost w roku 2007,
pozwalający na osiągnięcie wyniku bardzo wysokiego (8. stanin):
Tabela 27., Rysunek 23. Surowe (średnia punktów uzyskanych przez uczniów) oraz znormalizowane (stani-
nowe) wyniki sprawdzianu w szkole D w latach 2002-2007 [6] [7]
rok wynik szkoły (śr. pkt.) wynik szkoły (stanin)
27,5 pkt.
2002 4
31,1 pkt.
2003 7
27,5 pkt.
2004 7
31,1 pkt.
2005 7
27,5 pkt.
2006 7
31,1 pkt.
2007 8
W celu ułatwienia analizy osiągnięć edukacyjnych uczniów w danej szkole w kolejnych
latach, pod adresem www.cke.edu.pl, w zakładce Wyniki szkół, prezentowane jest
0H0H0H0H
zestawienie wyników tejże szkoły w odniesieniu do znormalizowanych wyników krajowych:
Tabela 28., Rysunek 24. Wyniki szkoły Z ze sprawdzianów 2002-2007 na tle osiągnięć innych szkół w
Polsce [7]
Szkoła powinna analizować swoje wyniki jeszcze dokładniej, badając np. efektywność
pracy grup nauczycieli. Oto przykład takiej szkolnej analizy.
Przykład: Tabela 29. przedstawia wyniki staninowe szkoły K., która  gdybyśmy analizowali
jedynie jej wyniki surowe: zawsze 28 punktów z każdej części egzaminu  pracowała z kolejnymi
rocznikami uczniów jednakowo efektywnie. Analiza wyników odniesionych do osiągnięć innych
szkół w kraju dowodzi, że ta rzekoma stabilizacja nie jest prawdą ani w przypadku nauczycieli
przedmiotów matematyczno-przyrodniczych (stały wzrost w latach 2002-2004 oraz utrzymanie
wysokiej pozycji  7. stanin  przez 4 kolejne lata), ani tym bardziej w przypadku nauczycieli
przedmiotów humanistycznych.
Wydział Badań i Ewal uacji CKE 50
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 29. Znormalizowane wyniki szkoły K. z obu części egzaminu gimnazjalnego 2002-2007, uzyskującej
stały wynik 28 pkt. [6]
stanin
rok
1 2 3 4 5 6 7 8 9
MP
2002 H
H MP
2003
MP
2004 H
H
2005 MP
2006 H MP
2007 H MP
H wynik części humanistycznej egzaminu MP wynik części matematyczno-przyrodniczej egzaminu
Wnikliwa analiza wyników egzaminu pozwala też zbadać efektywność kształcenia w po-
szczególnych oddziałach szkolnych.
Przykład: Oto wyniki matury 2007 z biologii zdawanej na poziomie podstawowym w LO w Matu-
rowie. Egzamin zdawało 65 osób z wszystkich 8 oddziałów tej szkoły. Wykres 24. przedstawia ich
osiągnięcia  najczęściej uzyskiwanym wynikiem w szkole okazał się 3. stanin (uzyskało go 15
uczniów, czyli prawie ź zdających). Wysokie wyniki (staniny 7.-9.) uzyskało tylko 12 osób (18,5%).
Wykres 24. Wyniki matury 2007 w LO w Maturowie z biologii na poziomie podstawowym na tle rozkładu
krajowego [6]
25
24,6
20
20
20
15,4
17 17
15
12,3
10,8
12 12
10
6,2 6,2
7 7
3
5
1,5
4 4
0
1 2 3 4 5 6 7 8 9
wynik staninowy
szkoła (%) kraj
Korzystając z  Karty wyników matury 2007 można odczytać, iż próg zdawalności egzaminu (30%)
zbiega się w tym przypadku z wynikiem granicznym dla 2. stanina:
Tabela 30. Karta wyników matury z biologii na poziomie podstawowym w 2007 r. [5]
Stanin Wyniki na świadectwie
1 0% - 20%
2 21% - 30%
3 31% - 40%
4 41% - 50%
5 51% - 61%
6 62% - 70%
7 71% - 78%
8 79% - 84%
9 85% - 100%
Oznacza to, że aż 10 uczniów tej szkoły (15% zdających) nie przekroczyło tego progu:
Wydział Badań i Ewal uacji CKE 51
częstość (%)
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 25. Wyniki matury 2007 w LO w Maturowie z biologii na poziomie podstawowym w 2007 r. [6]
20
15
15
13
11
10
8
7
4 4
5
2
1
0
1 2 3 4 5 6 7 8 9
w ynik staninow y
Wykres 26. dostarcza szczegółowych informacji o efektywności kształcenia w poszczególnych
oddziałach szkolnych. Zdecydowanie poniżej oczekiwań (przeważająca liczba wyników średnich i
niskich, najwyższy wynik w 7. staninie) wypadła klasa IIIc, ekologiczna, w której realizowano
rozszerzony program nauczania biologii. Z klasy IIIa, ukierunkowanej na przedmioty ścisłe, maturę
z biologii pisało zaledwie 7 osób. Dwie z nich poradziły sobie z egzaminem dobrze (7. i 8. stanin),
wyniki pozostałych zaś mieszczą się w strefie wyników średnich. Jeśli uczniowie ci wybierali się na
studia medyczne, wyniki te raczej nie zapewniły im sukcesu w rekrutacji.
Wykres 26. Wyniki matury 2007 w LO w Maturowie z biologii na poziomie podstawowym dla poszczególnych
oddziałów szkolnych [6]
9
8
7
6
5
4
3
2
1
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
liczebność
IIIa  mat.-inf. IIIb  humanist. IIIc  ekologiczna
IIId  ekonomiczna IIIe  artystyczna IIIf  turyst.-sport.
Wydział Badań i Ewal uacji CKE 52
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
1
2
1
1
2
2
1
6
4
2
1
1
3
3
1
2
1
3
3
2
3
1
liczebność
wynik staninowy
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Analizy porównawcze i korelacyjne
Dzięki temu, iż już kilka roczników uczniów przystępowało do egzaminów po kolejnych
etapach edukacyjnych, możemy szukać związków pomiędzy poszczególnymi wynikami
egzaminów pisanych przez tych samych uczniów.
Poszukiwanie związku pomiędzy wynikami egzaminów pisanych przez tych samych
uczniów stanowi podstawę badania efektywności pracy szkoły. Najbardziej zaawansowa-
ną metodologię stosuje się w przypadku obliczania wskaznika edukacyjnej wartości do-
danej, opartej na analizie regresji wyników z egzaminów  na wejściu (np. ze sprawdzia-
nu) i  na wyjściu (z egzaminu gimnazjalnego). Wykres 27. przedstawia wyniki całej popu-
lacji uczniów piszących sprawdzian w 2003, a egzamin gimnazjalny w 2006 r. (prawie pół
miliona obserwacji). Dopasowana do  chmury wyników krzywa dzieli ów zbiór na wyniki
wyższe niż oczekiwane (powyżej linii regresji), zgodne z oczekiwaniami (leżące na krzy-
wej) oraz poniżej oczekiwań (wyniki pod krzywą).
Wykres 27. Sprawdzian a wynik części matematyczno-przyrodniczej egzaminu gimnazjalnego [8]
Dokonanie szczegółowych analiz wyników danej szkoły umożliwia zastosowanie Kalkula-
42
tora EWD, udostępnionego na stronie internetowej CKE.41F41F41F41F Pozwala on na wprowadzenie
nie tylko takich podstawowych danych, jak wynik egzaminu ucznia, ale uwzględnia też ta-
kie zmienne, jak płeć czy dysleksja.
Szkoły mogą także posiłkować się analizami wyników, które same gromadzą.
Przykład: Oto wyniki uczniów Gimnazjum nr 1 w K. uzyskane na sprawdzianie i obu częściach
egzaminu gimnazjalnego. 33 obserwacje (kolorowe punkty) na Wykresie 28. obrazują związek
miedzy dwoma wynikami ucznia  ze sprawdzianu i egzaminu gimnazjalnego (odrębnie dla obu
części tego egzaminu).
42
W chwili obecnej możliwe jest obliczenie EWD dla r. 2005 i 2006 w gimnazjach.
Wydział Badań i Ewal uacji CKE 53
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 28. Wyniki uczniów Gimnazjum nr 1. w K.  na wejściu i  na wyjściu [6]
50
45
40
35
30
25
20
15
10
5
0
0 5 10 15 20 25 30 35 40
sprawdzian
wynik GH wynik GMP
Jeśli obszar wykresu podzielimy na pola ukazujące zależności pomiędzy wynikiem wyjściowym i
wejściowym (np. pole nr 1  niski wynik ze sprawdzianu, ale wysoki wynik z egzaminu gimnazjal-
nego; pole nr 3  wysoki ze sprawdzianu i wysoki wynik gimnazjalny; pole nr 9  wysoki wynik ze
sprawdzianu, zaprzepaszczony w gimnazjum  tu niski wynik), uzyskamy wstępną informację o
efektywności kształcenia w danej szkole. Już na tej podstawie możemy bowiem zadawać sobie
pytania o skuteczność kształcenia np. w odniesieniu do uczniów, których wyniki po gimnazjum
okazały się zdecydowanie poniżej oczekiwań związanych z wynikiem  na wejściu .
Wykres 29. Wyniki uczniów w Gimnazjum nr 1. w K.  na wejściu i  na wyjściu w obszarach wyników: ni-
skich, średnich i wysokich [6]
50
1
2 3
45
40
35
30
4
5 6
25
20
15
10
7 8 9
5
0
0 5 10 15 20 25 30 35 40
sprawdzian
wynik GH wynik GMP
W sprawozdaniach CKE z 2007 r. znajdziemy kolejne przykłady takich porównań. Oto kil-
ka z nich.
Przykład: Tabele 31. i 32. pokazują istotny związek pomiędzy wynikami ucznia z obu części eg-
zaminu gimnazjalnego, zdeterminowany ich wysoką korelacją. Uważna analiza obu tabel pozwa-
la też obalić funkcjonujący przez lata mit o  zdeklarowanych humanistach , którzy w szkole nie
radzą sobie z przedmiotami ścisłymi  tylko nieznaczny odsetek populacji (0,1%-0,2%) uzyskał
wyniki skrajne: wysoki z jednej, a niski z drugiej części egzaminu.
Wydział Badań i Ewal uacji CKE 54
egzamin gimnazjalny
egzamin gimnazjalny
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 31. Wyniki uczniów z obu części egzaminu gimnazjalnego 2007 [4]
staniny  część matematyczno-przyrodnicza 2007
1 2 3 4 5 6 7 8 9
1
1,3% 1,4% 1,0% 0,5% 0,1% 0% 0% 0% 0%
2
0,9% 1,8% 1,9% 1,3% 0,5% 0,1% 0% 0% 0%
3
0,7% 2,1% 3,1% 3,3% 1,8% 0,4% 0,1% 0% 0%
4
0,3% 1,4% 3,0% 4,8% 4,3% 1,6% 0,5% 0,1% 0%
5
0,1% 0,6% 1,9% 4,6% 7,0% 4,7% 2,3% 0,6% 0,1%
6
0% 0,1% 0,5% 1,7% 4,2% 4,7% 3,6% 1,6% 0,5%
7
0% 0% 0,1% 0,5% 1,9% 2,9% 3,1% 1,8% 0,8%
8
0% 0% 0% 0,2% 0,8% 1,7% 2,3% 1,7% 1,0%
9
0% 0% 0% 0% 0,2% 0,6% 1,2% 1,2% 1,0%
Tabela 32. Wyniki uczniów z obu części egzaminu gimnazjalnego 2007 [4]
część matematyczno-przyrodnicza egzaminu gimnazjalnego w roku 2007
Strefa wyników niskich Strefa wyników średnich Strefa wyników wysokich
(0-16 pkt.) (17-33 pkt.) (34-50 pkt.)
Strefa wyników
niskich 14% 8% 0,1%
(0-23 pkt.)
Strefa wyników
średnich 8% 38% 9%
(24-39 pkt.)
Strefa wyników
wysokich 0,2% 9% 14%
(40-50 pkt.)
Liczne analizy porównawcze można czynić także, porównując wyniki egzaminu gimna-
zjalnego i matury. Oto kilka przykładów ze sprawozdania CKE Osiągnięcia maturzystów
43
w 2007 r. 42F42F42F42F
Przykład: Maturzyści 2007 zdawali egzamin gimnazjalny w latach 2002-2004. Większość z nich to
tegoroczni absolwenci liceów ogólnokształcących, którzy przystępowali do tego egzaminu w roku
2004. W komputerowych bazach okręgowych komisji egzaminacyjnych odszukano wyniki wszyst-
kich obecnych maturzystów wraz z informacją, do jakiej strefy należą. Z poniższego wykresu moż-
na odczytać, że duża część uczniów z niskimi wynikami egzaminu gimnazjalnego nie kontynuowa-
ła nauki w szkołach kończących się maturą, wybierając zasadnicze szkoły zawodowe. Tylko ok.
10% uczniów o niskim potencjale edukacyjnym trafiło do liceów i techników.
43
Osiągnięcia maturzystów w roku 2007. Sprawozdanie z egzaminu maturalnego 2007, Centralna Komisja
Egzaminacyjna, czerwiec 2007, s. 119-125.
Wydział Badań i Ewal uacji CKE 55
staniny  cz. humanistyczna 2007
w roku 2007
część humanistyczna
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Wykres 30. Wyniki egzaminu gimnazjalnego zdawanego przez maturzystów 2007 [5]
Procent populacji maturzystów 2007, którzy na swoim egzaminie
gimnazjalnym mieli wyniki znajdujące się we wskazanych strefach
część matematyczno - 12,4% 57,3% 30,3%
przyrodnicza
8,9% 59% 32,1%
część humanistyczna
strefa niskich wyników strefa średnich wyników strefa wysokich wyników
Warto tu przypomnieć, że z konstrukcji skali staninowej wynika, iż strefa wyników niskich danej
części egzaminu gimnazjalnego w każdym roku obejmuje 23% populacji zdających, strefa wyników
średnich  54%, strefa wyników wysokich  23%.
Absolwenci gimnazjów z lat 2002-2004 kontynuowali naukę w szkole ponadgimnazjalnej: liceum
ogólnokształcącym (LO), liceum profilowanym (LP), technikum (T) czy zasadniczej szkole
zawodowej. Absolwenci szkół zawodowych też mogli kontynuować naukę w liceum (LU) bądz
technikum uzupełniającym (TU) i po jego ukończeniu przystąpić do matury. Sprawdzono, w jakich
strefach (niskich, średnich, wysokich) znajdowały się wyniki egzaminu gimnazjalnego
tegorocznych maturzystów, absolwentów pięciu typów szkół. Zwracają uwagę znaczne różnice w
strukturze wyników gimnazjalnych populacji uczniów wybierających różne typy szkoły kończące się
maturą.
Wykres 31. Wyniki egzaminu gimnazjalnego zdawanego przez maturzystów 2007 a ich wybór typu szkoły [5]
Pr ocent mat ur zyst ów 2007, absolw entów poszczególnych t ypów szkół,
któr zy m ieli w yniki części mat emat yczno- pr zyr odniczej
egzam inu gim nazjalnego w e w skazanych str efach
5,8% 51,8% 42,4%
LO
20,3% 66, 1% 13,6%
T
25,5% 66,0% 8,6%
LP
33,3% 58,3% 8,3%
TU
59,5% 38,1% 2,4%
LU
st r efa niskich wyników str efa ś r ednich wyników str efa wysokich wyników
Przykład: Każdy z maturzystów roku 2007 wybierał jeden egzamin obowiązkowy spośród siedmiu
przedmiotów ogólnych (biologia, chemia, fizyka i astronomia, geografia, historia, matematyka lub
wiedza o społeczeństwie) bądz trzech przedmiotów artystycznych (historia muzyki, historia sztuki,
wiedza o tańcu). Populacje zdających obowiązkowe egzaminy z tych przedmiotów są rozłączne.
Trudno więc wprost porównywać wyniki matur z tych przedmiotów. Korzystając z możliwości po-
działu populacji maturzystów 2007 na grupy zdających ten sam egzamin gimnazjalny zbadano, jaki
Wydział Badań i Ewal uacji CKE 56
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
potencjał na wejściu do szkoły ponadgimnazjalnej mieli abiturienci zdający różne obowiązkowe
egzaminy. Zwracają uwagę znaczne różnice w strukturze grup zdających. Biorąc pod uwagę
wspólny punkt odniesienia, jakim są wyniki tego samego egzaminu gimnazjalnego, można stwier-
dzić, że najsłabszy potencjał mieli zdający obowiązkowo wos i geografię, najmocniejszy  zdający
obowiązkowo fizykę.
Wykres 32. Wyniki egzaminu gimnazjalnego zdawanego przez maturzystów 2007 a ich wybór typu szkoły [5]
Pr ocent m at ur zyst ów 2007, zdają cych wskaz ane egz am i ny obowią zkow e,
kt ór zy m i el i w yni ki części m at em at ycz no- pr z y r odni cz ej egz am inu
gi m nazjal nego w e w skazanych st r ef ach
20, 0% 64, 1% 15, 9%
wiedza o społeczeń st wie
16, 0% 66, 2% 17, 8%
geogr af ia
13, 8% 59, 5% 26, 7%
biologia
6, 0% 55, 8% 38, 2%
hist or ia
42, 7% 54, 9%
chem ia 2, 5%
36, 3% 62, 6%
ma te ma t y k a1, 1%
75, 1%
fizyka z ast r onom ią0,6% 24, 3%
str ef a niskich w yników str ef a ś r ednich wy ników s tr ef a wy sokic h wy nik ów
Przykład: Po zakończeniu egzaminu maturalnego zbadano powiązania między wynikami obu
egzaminów  matury i egzaminu gimnazjalnego  dla poszczególnych zdających. W roku 2007
maturzyści przystępujący do egzaminu z tego samego przedmiotu na różnych poziomach
(podstawowym albo rozszerzonym) stanowili rozłączne grupy. Ponownie korzystając z możliwości
podziału populacji maturzystów 2007 na grupy zdających ten sam egzamin gimnazjalny zbadano,
jaki potencjał na wejściu do szkoły ponadgimnazjalnej mieli abiturienci zdający egzamin z tego
samego przedmiotu na różnych poziomach.
W poniższych tabelach w kolumnach jest podział na strefy wyników pisemnego egzaminu
maturalnego ze wskazanego przedmiotu na wskazanym poziomie, w wierszach  podział na strefy
wyników odpowiedniej części egzaminu gimnazjalnego. Porównanie sum kolejnych wierszy
pozwala na charakteryzację potencjału  na wejściu zdających maturę na danym poziomie.
Możliwe są porównania zarówno w obrębie jednego przedmiotu (różne poziomy egzaminu), jak i
obrębie jednego poziomu (różne przedmioty). Warto zwrócić uwagę na łączny procent tych,
których wyniki obu egzaminów (matury i egzaminu gimnazjalnego) znajdują się w tej samej strefie.
Tabele 33., 34. Wyniki egzaminu gimnazjalnego i matury 2007 [5]
egzamin maturalny egzamin maturalny
Strefa wyników Strefa wyników
Strefa wyników Strefa wyników Strefa wyników Strefa wyników
średnich z wysokich z
niskich z matematyki niskich z biologii na średnich z biologii na wysokich z biologii na
matematyki na matematyki na
na poziomie poziomie poziomie poziomie
poziomie poziomie
podstawowym podstawowym podstawowym podstawowym
podstawowym podstawowym
Strefa wyników niskich Strefa wyników niskich
na egzaminie na egzaminie
gimnazjalnym w części gimnazjalnym w części
1% 0% 0% 13% 6% 0%
matematyczno-
matematyczno-
przyrodniczej przyrodniczej
Strefa wyników Strefa wyników
średnich na egzaminie średnich na egzaminie
gimnazjalnym w części gimnazjalnym w części
17% 44% 6%
16% 33% 3%
matematyczno-
matematyczno-
przyrodniczej przyrodniczej
Strefa wyników
Strefa wyników
wysokich na egzaminie
wysokich na egzaminie
gimnazjalnym w części
gimnazjalnym w części
1% 7% 5%
4% 32% 10%
matematyczno-
matematyczno-
przyrodniczej
przyrodniczej
Wydział Badań i Ewal uacji CKE 57
egzamin gimnazjalny
egzamin gimnazjalny
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Przykład: Wszyscy maturzyści obowiązkowo zdają pisemny egzamin z języka polskiego. Biorąc
pod uwagę ten punkt odniesienia, podjęto próbę porównania wyników maturzystów zdających na
tym samym poziomie (podstawowym albo rozszerzonym) pisemne egzaminy z różnych przedmio-
tów obowiązkowych (są to rozdzielne populacje).
Widać dużą zgodność wyników matury na poziomie podstawowym z przedmiotu wybranego
i z języka polskiego. Ponad połowa zdających ma wyniki dokładnie w tej samej strefie z obu tych
przedmiotów. Dla maturzystów ze średnimi wynikami poziomu podstawowego z języka polskiego
matematyka była trudniejsza niż historia.
Tabele 35., 36. Związek pomiędzy wynikami zdającego maturę 2007 z różnych przedmiotów [5]
egzamin maturalny egzamin maturalny
Strefa wyników Strefa wyników Strefa wyników Strefa wyników Strefa wyników Strefa wyników
niskich z języka średnich z języka wysokich z języka niskich z języka średnich z języka wysokich z języka
polskiego na polskiego na polskiego na polskiego na polskiego na polskiego na
poziomie poziomie poziomie poziomie poziomie poziomie
podstawowym podstawowym podstawowym podstawowym podstawowym podstawowym
Strefa wyników niskich
Strefa wyników niskich
z matematyki na
z historii na poziomie
9% 15% 2%
6% 5% 0%
poziomie
podstawowym
podstawowym
Strefa wyników
Strefa wyników
średnich z matematyki
średnich z historii na
9% 40% 14%
13% 42% 14%
na poziomie
poziomie
podstawowym
podstawowym
Strefa wyników
Strefa wyników
wysokich z matematyki
wysokich z historii na
1% 6% 5%
1% 8% 9% na poziomie
poziomie
podstawowym
podstawowym
Połowa populacji maturzystów zdających na poziomie rozszerzonym zarówno język polski
(pisemnie) jak i historię ma wyniki dokładnie w tej samej strefie. Do wyjątków należą przypadki, w
których niskim wynikom z historii (języka polskiego) towarzyszą wysokie wyniki z drugiego
przedmiotu. Układ wyników (średni i wysoki) przeważa nad układem (średni i niski).
Tabela 37. Związek pomiędzy wynikami zdającego maturę 2007 z różnych przedmiotów [5]
egzamin maturalny
Strefa wyników Strefa wyników Strefa wyników
niskich z języka średnich z języka wysokich z języka
polskiego na polskiego na polskiego na
poziomie poziomie poziomie
rozszerzonym rozszerzonym rozszerzonym
Strefa wyników niskich
z historii na poziomie
6% 11% 2%
rozszerzonym
Strefa wyników
średnich z historii na
8% 31% 14%
poziomie
rozszerzonym
Strefa wyników
wysokich z historii na
1% 13% 13%
poziomie
rozszerzonym
Wydział Badań i Ewal uacji CKE 58
egzamin maturalny
egzamin maturalny
egzamin maturalny
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Zastosowanie wybranych skal znormalizowanych w analizie
wyników matury podczas rekrutacji na wyższe uczelnie
Załóżmy, że Wyższa Szkoła Nauk Wszelakich w X ustaliła, iż w 2007 r. rekrutacja na Wy-
dział Rozwoju Kariery prowadzona będzie na podstawie wyników egzaminu maturalnego
z:
matematyki na poziomie rozszerzonym,
języka obcego na poziomie podstawowym,
jednego z następujących przedmiotów zdawanych na poziomie podstawowym: wos,
historia, biologia, chemia, fizyka, geografia.
Nim rekrutacja się odbędzie, Senat uczelni zlecił swoim pracownikom naukowym analizę
porównawczą wyników maturalnych osób ubiegających się o przyjęcie na ten wydział w
roku 2006, z zastosowaniem różnych skal rozkładu wyników, oraz poprosił o zarekomen-
dowanie skali, w której powinny być wyrażone wyniki maturalne kandydatów.
Przykład: Podczas rekrutacji na rok akademicki 2006/07 do Wyższej Szkoły Rozwoju Kariery bra-
no pod uwagę następujące wyniki egzaminu maturalnego:
matematyka na poziomie podstawowym,
matematyka na poziomie rozszerzonym,
język obcy na poziomie podstawowym,
język obcy na poziomie rozszerzonym,
do wyboru przez kandydata jeden z przedmiotów: wos, historia, biologia, chemia, fizyka lub
geografia  zdawany na poziomie podstawowym.
Tu przyjrzyjmy się wynikom jedynie czworga kandydatów, w dodatku zdających maturę zarówno w
2006, jak i w 2005 roku (mogli ubiegać się o przyjęcie na studia na równych prawach, ponieważ
zdawali tzw. nową maturę). Tak się składa, iż każdy z nich uzyskał ze wszystkich branych pod
uwagę przedmiotów 70% punktów.
Tabela 38. Wyniki procentowe (x%) kandydatów na studia w Wyższej Szkole Nauk Wszelakich [6]
Beata Kowalewska Bartosz Nowak Kajetan Mądry Kinga Szmit
Wybrane
matura 2005 matura 2005 matura 2006 matura 2006
przedmioty
1 2 3 4
matematyka P 70% 70% 70% 70%
70% 70% 70% 70%
matematyka R
70%
język angielski P
70%
język angielski R
język niemiecki P 70%
język niemiecki R 70%
język francuski P 70%
język francuski R 70%
język hiszpański P 70%
język hiszpański R 70%
wos P 70%
70%
historia P
geografia P 70%
biologia P 70%
chemia P
fizyka P
Wydział Badań i Ewal uacji CKE 59
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Jak wybrać najlepszych? Analiza surowego wyniku odpada, bo procentowy nie różnicuje (przypo-
mnijmy  wszyscy zdobyli 70% punktów), a punktowy nie nadaje się do porównań ze względu na
różną liczbę punktów możliwych do uzyskania na egzaminach z różnych przedmiotów (stąd na
świadectwie podaje właśnie wynik procentowy).
Podjęty trud znormalizowania wyników pozwala na zaistnienie wyników indywidualnych
kandydatów na studia w kontekście osiągnięć ich konkurentów. Oto wyniki czworga naszych
kandydatów: staninowy, standardowy, centylowy oraz na skali CEEB.
Tabela 39. Znormalizowane wyniki kandydatów na studia w Wyższej Szkole Nauk Wszelakich [6]
Kandydatka 1. Beata Kowalewska  matura 2005
Wynik Wynik
Wynik
standardowy CEEB
Wynik staninowy
Wybrane
centylowy
x - x x - x
przedmioty
xst.nine
500+ 100 xcentyl
s s
matematyka P 6 0,7 569 72
8 1,8 676 95
matematyka R
4 -0,4 461 31
język angielski P
5 0,3 528 57
język angielski R
7 1,0 603 83
historia P
Kandydat 2. Bartosz Nowak  matura 2005
Wybrane Wynik Wynik Wynik Wynik
przedmioty staninowy standardowy CEEB centylowy
matematyka P 6 0,7 569 72
8 1,8 676 95
matematyka R
język niemiecki P 5 -0,1 488 42
język niemiecki R 6 0,5 553 68
geografia P 6 0,7 573 74
Kandydat 3. Kajetan Mądry  matura 2006
Wybrane Wynik Wynik Wynik Wynik
przedmioty staninowy standardowy CEEB centylowy
matematyka P 5 0,2 524 69
7 1,3
matematyka R 626 69
język francuski P 4 -0,4 459 70
język francuski R 6 0,5 545 69
biologia P 7 1,2 620 70
Kandydatka 4. Kinga Szmit  matura 2006
Wybrane Wynik Wynik Wynik Wynik
przedmioty staninowy standardowy CEEB centylowy
matematyka P 5 0,2 524 69
7
matematyka R 1,3 626 69
język hiszpański P 3 -0,6 445 70
język hiszpański R 5 0,3 529 69
wos P 6 0,5 554 69
Porównanie wyników znormalizowanych może przynieść rezultat w postaci tzw. listy rankingowej,
wykorzystywanej w rekrutacji studentów. Tabela 20. pokazuje miejsce kandydata, na którym
plasuje się jego wynik wyrażony w każdej z wyżej wskazanych skal.
Wydział Badań i Ewal uacji CKE 60
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
Tabela 40. Pozycja rankingowa kandydatów na studia w Wyższej Szkole Nauk Wszelakich w roku 2006 ze
względu na przyjętą skalę normalizacji wyników
Beata Kowalewska Bartosz Nowak Kajetan Mądry Kinga Szmit
Wybrane przedmioty matura 2005 matura 2005 matura 2006 matura 2006
SN SD CB CE SN SD CB CE SN SD CB CE SN SD CB CE
matematyka P I I I I I I I I II II II II II II II II
matematyka R I I I I I I I I II II II II II II II II
język obcy P II II II III I I I II II II III I III III IV I
język obcy R II II IV III I I I II I I II I II II III I
przedmiot wybrany P I II II I II III III II I I I I II IV IV III
gdzie: P  poziom podstawowy egzaminu maturalnego, R  poziom rozszerzony
SN  wynik staninowy, SD  wynik standardowy, CB  wynik na skali CEEB, CE  wynik centylowy,
I, II, III, IV  pozycja w rankingu
Oczywiście podczas rekrutacji, przede wszystkim z przyczyn czasowych, uczelnia nie może wyko-
rzystywać wielu skal. Decydując się na jedną z nich, trzeba by odrzucić te, które słabo różnicują
(tu: staninową). W przypadku Wyższej Szkoły Nauk Wszelakich, zaproponowano Senatowi uczel-
ni, by podczas rekrutacji prowadzonej w kolejnych latach wykorzystywać wyniki uczniów wyrażone
z użyciem akademickiej skali CEEB.
Mimo iż przykład Wyższej Szkoły Nauk Wszelakich jest przykładem wymyślonym, wiele
wskazuje na to, iż w niedalekiej przyszłości podczas rekrutacji uczelnie coraz chętniej bę-
dą sięgać po wyniki znormalizowane.
Wydział Badań i Ewal uacji CKE 61
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
yRÓDAA DANYCH
[1] Sprawdzian 2006. Sprawozdanie Centralnej Komisji Egzaminacyjnej, Warszawa 2006; zob. też:
www.cke.edu.pl/images/stories/Sprawdzian/raport_ws_akt.pdf
[2] Osiągnięcia uczniów kończących szkołę podstawową w roku 2007. Sprawozdanie Centralnej
Komisji Egzaminacyjnej, Warszawa 2006; zob. też:
www.cke.edu.pl/images/stories/Sprawdzian/raport_ws_akt.pdf
[3] Osiągnięcia uczniów kończących gimnazjum w roku 2007. Sprawozdanie z egzaminu
maturalnego 2007. Centralna Komisja Egzaminacyjna. Warszawa, czerwiec 2007; zob. też:
1H1H1H1H
www.cke.edu. pl/index.php?option=content&task=view&id=141&Itemid=122
[4] Osiągnięcia maturzystów w roku 2007. Sprawozdanie z egzaminu maturalnego 2007.
Centralna Komisja Egzaminacyjna. Warszawa, czerwiec 2007; zob. też:
www.cke.edu.pl/images/stories /Wyniki07mat/sprawozdanie_ogolne_a.pdf
[5] Opracowania własne Wydziału Badań i Ewaluacji Centralnej Komisji Egzaminacyjnej
[6] Wyniki szkół ze sprawdzianów i egzaminów 2002-07 oraz matury 2007  www.cke.edu.pl - tu:
2H2H2H2H
Wyniki szkół
[7] Edukacyjna wartość dodana, cz. 2. Biuletyn Badawczy Egzamin, nr 14/2007, www.cke.edu.pl -
3H3H3H3H
tu: Badania, analizy, wyniki
POLECANA LITERATURA
Blalock H.M. Statystyka dla socjologów, Warszawa 1977, Wydawnictwo Naukowe PWN
Brzeziński J. Metodologia badań psychologicznych, Warszawa 1996, Wydawnictwo Naukowe
PWN
Brzeziński J. Trafność i rzetelność testów psychologicznych. Wybór tekstów, Gdańsk 2005,
Gdańskie Wydawnictwo Psychologiczne
Ferguson G. A., Takane Y. Analiza statystyczna w psychologii i pedagogice, Warszawa 2003,
Wydawnictwo Naukowe PWN
Guilford J.P. Podstawowe metody statystyczne w psychologii i pedagogice, Warszawa 1964,
Wydawnictwo Naukowe PWN
Hornowska E. Testy psychologiczne. Teoria i praktyka, Warszawa 2003, Wydawnictwo Na-
ukowe  Scholar
Konarzewski K. Jak uprawiać badania oświatowe. Metodologia praktyczna, Warszawa 2002,
WSiP
Luszniewicz A. Statystyka nie jest trudna, Warszawa 2001, Polskie Wydawnictwo Ekonomicz-
ne
Aomnicki A. Wprowadzenie do statystyki dla przyrodników, Warszawa 2003, Wydawnictwo
Naukowe PWN
Nawojczyk M. Przewodnik po statystyce dla socjologów, Kraków 2002, SPSS Polska
Niemierko B. Pomiar wyników kształcenia, Warszawa 1999, WSiP
Niemierko B. Testy osiągnięć szkolnych. Podstawowe pojęcia i techniki obliczeniowe, Warsza-
wa 1975, WSiP
Sołtys D., Szmigel M.K., Doskonalenie kompetencji nauczycieli w zakresie diagnozy edukacyj-
nej, Kraków 1997., Wydawnictwo  Zamiast korepetycji
Starzyńska W. Statystyka praktyczna, Warszawa 2002, Wydawnictwo Naukowe PWN
Szaleniec H., Szmigel M.K., Doskonalenie kompetencji nauczycieli w zakresie oceniania ze-
wnętrznego, Kraków 2001, Wydawnictwo  Zamiast korepetycji
Wieczorkowska G., Kochański P., Eljaszuk M. Statystyka. Wprowadzenie do analizy danych
sondażowych i eksperymentalnych, Warszawa 2003, Wydawnictwo Naukowe  Scholar
Zaczyński W.P. Praca badawcza nauczyciela, Warszawa 1995, WSiP
Zaczyński W.P. Statystyka w pracy badawczej nauczyciela, Warszawa 1997, Wydawnictwo
 Żak
Wydział Badań i Ewal uacji CKE 62
Anal i za i i nterpretacj a wyni ków oceni ani a i egzami nowani a
NOTATKI
Wydział Badań i Ewal uacji CKE 63


Wyszukiwarka

Podobne podstrony:
Analiza i interpretacja badań laboratoryjnych
Analiza i interpretacja tekstów literackich
kontekstowa interpretacja wynikow egzaminu gimnazjalnego
Badanie krwi Morfologia krwi interpretacja wyników
Lab(4 5) Interpretacja wyników badań SMA
Salome Stochel Analiza i interpretacja reklamy
ANALIZA I INTERPRETACJA DZIEŁA
Praktyczna interpretacja wyników badań laboratoryjnych krwi psów i kotów
literaqtura analizy interpretacje
analiza i interpretacja wybranych wierszy leśmiana (2)

więcej podobnych podstron