Zagadnienia do egzaminu Dydaktyka Informatyki (III rok/5l)
1. Percepcja informacji przez człowieka
[======================================================================]
2. Oprogramowanie dydaktyczne i quasi-dydaktyczne
[======================================================================]
3. Komputerowe wspomaganie procesów uczenia się - nauczania
[======================================================================]
4. Klasyczne zasady nauczania w odniesieniu do informatyki
[======================================================================]
5. Skuteczność nauczania wspierana przez multimedia
[======================================================================]
6. Podział środków dydaktycznych
[======================================================================]
7. Komputer jako środek dydaktyczny
[======================================================================]
8. Cechy multimedialnego programu dydaktycznego
[======================================================================]
9. Podział programów dydaktycznych
[======================================================================]
10. Pojecie multimedialnego programu dydaktycznego
[======================================================================]
11. Pojecie barwy, atrybuty barwy
Barwa i jej atrybuty
Nasza intuicyjna, psychofizjologiczna zdolność identyfikowania barw jest oparta zasadniczo na odróżnianiu trzech atrybutów barwy: odcienia, nasycenia i jasności (ew. jaskrawości). Przez atrybut barwy należy rozumieć charakterystyczną, nieodłączną właściwość wrażenia barwy, która służy do opisania jednej z jej trzech cech. Wszystkie barwy można bowiem podzielić na achromatyczne i chromatyczne. Pierwsze z nich to barwy od bieli poprzez neutralne szarości do czerni. Mają one tylko jeden atrybut barwy: jasność wobec wtórnych źródeł światła, a jaskrawość przy pierwotnych źródłach światła. Pozostałe barwy są więc barwami chromatycznymi o trzech atrybutach, toteż do ich specyfikowania wymagana jest trójwymiarowa przestrzeń. Ponieważ wszystkie barwy chromatyczne i achromatyczne cechują się jasnością (jaskrawością), przyjęto tę skalę za oś główną, pionową w bryłach barw. Wynika z tego, że barwę chromatyczną możemy przedstawić jako mieszaninę bieli i światła monochromatycznego, natomiast opisać ją możemy za pomocą jasności, odcienia i nasycenia (rys. 4.).
|
Rys. 4. Trzy atrybuty barw formują bryłę barw |
Jasność ilościowo określająca barwę wyrażana jest w jednostkach fotometrycznych. Odcień barwy i nasycenie określają barwę jakościowo, wyrażając jej chromę. Na wykresach chromatyczności CIE barwę wyraża się zwykle za pomocą równoważnej długości fali i czystości pobudzenia albo czystości kolorymetrycznej.
Odcień barwy
Najbardziej charakterystyczną właściwością wrażenia barwy chromatycznej jest jej odcień. Stanowi on cechę jakościową barwy. Właśnie ta cecha tworzy nazwy barw, takich jak: żółta, purpurowa, niebieska itd. Odpowiednikiem psychofizjologicznego atrybutu barwy, odcienia, jest w kolorymetrii parametr barwy Helmholtza: długość fali dominującej (ld), tzn. długość fali bodźca monochromatycznego, którego zmieszanie w odpowiednim stosunku z określonym bodźcem achromatycznym (np. światłem białym) utworzy rozpatrywany bodziec barwowy. Barwy w sektorze purpury określa się natomiast przez długość fali dopełniającej, nadając jej na wykresie chromatyczności długości fali barwy przeciwległej. Wartość tę oznacza się wtedy przez (�ld). Postępuje się tak dlatego, że purpura nie jest barwą widmową, a więc nie ma własnej długości fali.
Nasycenie
Nasycenie to właściwość wrażenia wzrokowego umożliwiająca ocenę udziału barwy chromatycznej, czystej, we wrażeniu ogólnym. Różnicuje ono barwy nasycone i nienasycone. Z punktu widzenia fizyki nasycenie barwy można w przybliżeniu określić na podstawie składu widmowego barwy. Im większe nasycenie barwy, tym mniejszy udział w jej widmie promieniowania fal o innych długościach niż fali dominującej, która, jak wiadomo, wiąże nasycenie z odcieniem barwy. Wielkość nasycenia jest również ściśle związana z jej jasnością (jaskrawością). Przykładowo: barwami nienasyconymi są pastele, gdyż zawierają więcej światła białego niż barwy żywe, intensywne. Odpowiednikiem nasycenia w kolorymetrii jest czystość pobudzenia (pe) lub kolorymetryczna (pc). Wyrażają one stopień nasycenia barwy, który jest wyznaczany przez stosunek ilości światła monochromatycznego o równoważnej długości fali do ilości światła białego. Im większe jest nasycenie barwy, tym większa jego wartość. Barwa o pełnym nasyceniu ma wartość równą jedności, zaś biel wartość zero.
Jasność (jaskrawość)
Jasność oznacza achromatyczny opis jasności odbieranej podczas obserwacji obiektu, jego powierzchni odbijającej światło, zaś jaskrawość odnosi się do obiektów samoświecących. Inaczej mówiąc, jasność to właściwość wrażenia wzrokowego powodująca, że ciało albo powierzchnia wydaje się przepuszczać lub odbijać większą lub mniejszą część światła padającego. Jej postrzeganie odpowiada w przybliżeniu wielkości fotometrycznej współczynnikowi luminancji, natomiast jaskrawość luminancji. W fotometrii luminancja jako parametr wizualny wyrażana jest w jednostce: kandela na 1 m2 (cd/m2). W przestrzeni barw, np. CIELAB, jest ona miarą jasności, której wielkość jest proporcjonalna do pierwiastka trzeciego stopnia z luminancji. Chodzi o wyrażenie postrzegania jasności w jak największej korelacji do jasności przedmiotu. Wielkość ta jest w pomiarach normalizowana i przyjmuje wartość od 0% do 100%. Oznaczana jest ona zwykle przez L*.
[======================================================================]
12. Klasyfikacja barw
- trzy barwy podstawowe: czerwona, żółta, niebieska (RGB - red green blue
- ze zmieszania barw podstawowych powstają barwy pochodne
- barwy kontrastowe to czerń + biel oraz barwy dopełniające, czyli takie które po zmieszaniu dadzą szarą:
[======================================================================]
13. Waga kolorów
[======================================================================]
14. Psychiczne oddziaływanie barwy na człowieka
[======================================================================]
15. Barwy bezpieczne
[======================================================================]
16. Programy prezentacyjne (stanowisko komputerowe, rzutnik - zasady tworzenia)
[======================================================================]
17. Zasady doboru barw
[======================================================================]
18. Dialog człowieka z komputerem
[======================================================================]
19. Grafika na ekranie monitora
[======================================================================]
20. Zasady rozmieszczania grafik
[======================================================================]
21. Hipertekst a hiperłącze
[======================================================================]
22. Model struktury hipertekstu
[======================================================================]
23. Związek nauczania programowanego z programem multimedialnym
[======================================================================]
24. Zagadnienia optymalizacji węzłów
[======================================================================]
25. Pojęcie interfejsu użytkownika
[======================================================================]
26. Modelowanie i symulacja komputerowa
[======================================================================]
27. Zalety i wady modelowania i symulacji
[======================================================================]
28. Typografia
Typografia - termin mający szereg pokrewnych znaczeń związanych z użyciem znaków pisarskich w druku, prezentacją ich na ekranie monitora komputerowego itp.
poligrafia, drukarstwo, raczej w znaczeniu tradycyjnym, związanym ze stosowaniem czcionek
technika druku wypukłego, zwanego inaczej "typograficznym"
ogół zagadnień dotyczących projektowania drukowanych liter i innych znaków pisarskich (zarówno czcionek jak i fontów), oraz wzajemnych relacji pomiędzy tymi znakami i grupami znaków
układ graficzny drukowanej strony
sztuka użytkowa zajmująca się estetyką szaty graficznej publikacji
układ graficzny strony na witrynie WWW
[======================================================================]
29. Kroje pisma i rodziny pisma
Krój pisma to charakterystyczny obraz kompletu znaków pisma o jednolitych podstawowych cechach graficznych: stylu, rytmie, proporcji, dukcie, układzie lub kształcie szeryfów, właściwościach optycznych (czytelności) itp. Krój pisma może mieć wiele odmian, czasami nawet znacznie różniących się od kroju podstawowego, lecz nadal zachowujących w sposób konsekwentny podstawowe założenia graficzne danej rodziny krojów.
Krój pisma (łącznie z jego wszystkimi odmianami) jest dziełem autorskim podlegającym ochronie prawnej.
Krój pism (dawniej także karakter) - jeden z trzech podstawowych parametrów każdej czcionki i fontu (pozostałe dwa parametry to stopień i odmiana).
Spośród tych trzech parametrów krój jest najważniejszym elementem określającym charakterystyczny wygląd i unikalność każdej rodziny czcionek czy fontów. Stanowi o konkretnym, rozpoznawalnym wyglądzie niezależnie od wielkości znaków, czy ich atrybucie pogrubienia, pochylenia, szerokości itp.
Na świecie istnieje nieprawdopodobnie duża ilość fontów, ale większość z nich to drobne modyfikacje istniejących już krojów. Tak naprawdę takich najbardziej uznanych rodzajów fontów, jeśli chodzi o ich charakterystyczny kształt jest na świecie tylko kilkadziesiąt. Stanowią one kanon, do którego dorobiono całą rzeszę mniej lub bardziej udanych przeróbek. Łącznie z tych wszystkich fontów (sławnych pierwowzorów i ich przeróbek) korzysta się najczęściej, chociaż dochodzi do tego równie duża liczba fontów innych, rzadziej stosowanych, które raczej ciężko sklasyfikować po wyglądzie. Istnieje jednak kilka cech, według których można fonty uporządkować:
Jedno- i dwuelementowe
kroje jednoelementowe - wszystkie kroje pisma, w których litery (i oczywiście wszystkie pozostałe znaki) są zbudowane z kresek tej samej szerokości (czyli grubości). Inna nazwa to kroje linearne.
kroje dwuelementowe - w odróżnieniu od krojów jednoelementowych, kreski stanowiące znaki w tych krojach mogą różnić się szerokością, np. wszystkie pionowe są innej szerokości niż poziome, lub też gdy szerokość tych kresek zmienia się płynnie, dowolnie według uznania ich projektanta.
Kroje można podzielić również na:
Szeryfowe i bezszeryfowe
|
pismo bezszeryfowe |
|
pismo szeryfowe |
pismo szeryfowe - szeryfy to ozdobne, krótkie kreski stosowane w wielu krojach pisma do zwiększenia dekoracyjności danego fontu. Najczęściej są to poziome kreski będące stopkami liter, ale mogą występować również w innych miejscach znaków. Jeżeli dany font został zaprojektowany z wykorzystaniem szeryfów, to są one konsekwentnie stosowane w całym zestawie znaków pisarskich danego fontu, a w szczególności leżą one we wszystkich znakach na tej samej linii.
pismo bezszeryfowe - fonty nie mające szeryfów.
Drobna uwaga: Pracując z fontami, niezależnie od platformy komputerowej, oraz wersji językowej oprogramowania, często będziemy się natykać na dwa tajemnicze określenia: serif, oraz sans serif. Pierwsze oznacza szeryfy, a drugie, że to coś szeryfów jest pozbawione. "Sans" to po francusku - "bez", w tym przypadku - "bez szeryfów".
Szeryfy są co prawda ozdobnikami, ale nie zmienia to faktu, że szeryfowe kroje pisma należą do podstawowych fontów, stosowanych w bieżącej pracy do łamania tekstu, na równi z bezszeryfowymi. Zarówno fonty jedno- jak i dwuelementowe mogą być szeryfowe lub bezszeryfowe, ale konkretny font tylko: szeryfowy, lub bezszeryfowy (i tak samo: jedno- lub dwuelementowy).
Przyjmuje się, że łatwiej czyta się tekst jednolity wydrukowany krojem szeryfowym. Tekst na ekranie lepiej czyta się wyświetlony krojem bezszeryfowym. Także duże napisy (np. na bannerach) lepiej drukować krojem bezszeryfowym.
Trzeci podział, to:
Stałe i proporcjonalne
kroje stałe
kroje proporcjonalne
Łatwo zauważyć, że litera "i" jest znacznie węższa od litery "w". Przeważająca większość krojów to pisma proporcjonalne, co oznacza, że światła międzyliterowe (czyli odstępy pomiędzy sąsiednimi literami) w skali całego tekstu będą identyczne i wyrazy, lub inne napisy, będą wyglądać naturalnie. Osiągnąć to możemy tylko wtedy, gdy odległości pomiędzy środkami sąsiednich znaków będą mogły być różne (czyli zmieniać się proporcjonalnie).
Kroje stałe (np. Courier) stosuje się rzadko - tylko wtedy, gdy zależy nam, aby ilość znaków w każdym wierszu była ta sama, a znaki w pionie układały się w kolumnach, np. w imitacji tabel, wyciągach zawierających dużo cyfr, w listingach programów, itp. Zwykły tekst pisany krojem stałym wygląda brzydko, jak maszynopis, bo pary niektórych znaków będą bardzo ciasne, a inne nadmiernie odsunięte od siebie. Stałe kroje pisma nazywamy także pismem maszynowym. W normalnej pracy w DTP, a szczególnie przy pisaniu tzw. tekstu głównego stosuje się wyłącznie kroje proporcjonalne.
Inne typologie
Główny podział krojów ze względu na ich wygląd, to właśnie kroje jedno- i dwuelementowe, oraz szeryfowe i bezszeryfowe. Istnieje też kategoria krojów określana jako pisanki. Są to najrozmaitsze kroje pisma przypominające z wyglądu pismo odręczne, często kaligraficzne. Można jeszcze, niejako "na siłę", wyróżnić takie grupy krojów jak: ozdobne, eksperymentalne, itp... ale niewiele to mówi w praktyce. Jak widać z powyższego - niezbyt wiele można powiedzieć o rodzajach krojów, przynajmniej na poziomie zwykłego użytkownika programów graficznych. W sumie jest to zrozumiałe, bo trudno opisywać sztywnymi regułami tyle, często bardzo odmiennych i bardzo indywidualnych kształtów zestawów liter.
Co prawda istnieją szczegółowe i jasno zdefiniowane systemy podziałów krojów pisma, ale terminologii takiej nie używa się w bieżącej pracy studia DTP. Jest to terminologia wybitnie fachowa i posługują się nią tylko typografowie (projektanci krojów), wykształcone zawodowo osoby zajmujące się projektowaniem grafiki (czasami także realizacją) oraz pasjonaci typografii. Są to określenia typu: grotesk, antykwa etc., i wynikają z historii rozwoju liter.
Najbardziej znane kroje
Wśród rozmaitych krojów pisma istnieje zaledwie kilka najczęściej stosowanych krojów (oraz oczywiście masa ich zamienników). Najpopularniejsze do składu dużych, typowych tekstów są dwa kroje: Times i Helvetica. Nie są to jedyne kroje spośród powszechnie używanych, ale faktycznie są jednymi z najpopularniejszych.
Times Roman - najpopularniejszy krój proporcjonalny, dwuelementowy z szeryfami. Inna popularna nazwa kroju o niemal identycznym wyglądzie to Times New Roman, Dutch 801, Nimbus Roman, Toronto.
Helvetica - najpopularniejszy krój proporcjonalny, jednoelementowy, bezszeryfowy. Jej najbardziej znane zamienniki to: Arial, Swiss 721.
Courier - najbardziej znany krój stały.
Oprócz krojów zawierających znaki pisarskie istnieją też kroje będące zestawami najprzeróżniejszych symboli jak strzałki, elementy geometryczne, znaki uśmiechniętej twarzy, otwartej i zamkniętej koperty, a nawet kroje składające się z tematycznych zestawów takich, jak: znaki drogowe, znaki zodiaku, nuty, symbole matematyczne, a nawet zwierzęta czy samochody. Do najpopularniejszych krojów pisma zawierających piktogramy należą: Webdings, Wingdings, oraz Zapfdingbats.
[======================================================================]
30. Wielkość tekstu w MPD
[======================================================================]
31. Ogólne zasady składania tekstu
[======================================================================]
32. Elementy przyciągające uwagę
[======================================================================]
33. Inicjały, cienie, linie i ramki w MPD
[======================================================================]
34. Kontrasty w MPD
[======================================================================]
35. Ocena przydatności MPD
[======================================================================]
36. Pracownia informatyczna jej wyposażenie i organizacja pracy
[======================================================================]
37. Rozwój zawodowy nauczyciela informatyki
W Polsce ścieżka kariery zawodowej nauczycieli przedstawia się następująco:
nauczyciel stażysta
nauczyciel kontraktowy
nauczyciel mianowany
nauczyciel dyplomowany
profesor oświaty
[======================================================================]
38. Kontrola wiedzy i umiejętności ucznia na lekcjach informatyki
[======================================================================]
39. Wewnątrzszkolny i przedmiotowy system oceniania
[======================================================================]
40. Podstawa programowa kształcenia ogólnego z zakresu przedmiotów informatycznych
[======================================================================]
41. Program nauczania i podręcznik - zasady wyboru
[======================================================================]
42. Matura z informatyki (zasady, organizacja i przebieg)
(patrz załączniki)
[======================================================================]
43. Metoda projektów (możliwości zastosowań na TI)
[======================================================================]
44. Dane a informacje
[======================================================================]
45. Kompetencje a kwalifikacje
[======================================================================]
46. Zasady tworzenia testu dydaktycznego
[======================================================================]
47. Technologia informacyjna - eksplikacja pojęcia
Technologia informacyjna, IT (akronim od ang. Information Technology) - jedna z dziedzin informatyki (włącznie ze sprzętem komputerowym oraz oprogramowaniem używanym do tworzenia, przesyłania, prezentowania i zabezpieczania informacji), łącząca telekomunikację, narzędzia i inne technologie związane z informacją. Dostarcza ona użytkownikowi narzędzi, za pomocą których może on pozyskiwać informacje, selekcjonować je, analizować, przetwarzać, zarządzać i przekazywać innym ludziom.
Wartość rynku IT w Polsce w roku 2007 przekroczyła 23,1 miliardy złotych. Oznacza to wzrost o 27,8% w porównaniu do roku 2006. W roku 2006 rynek rozwijał się w tempie 8,9%. Wzrost w roku 2007 był zatem trzykrotnie wyższy niż w roku poprzednim.
[======================================================================]
48.Technologia informatyczna - eksplikacja pojęcia
[======================================================================]
49. Kompetencje kluczowe w zakresie informatyki
[======================================================================]
50. Kompetencje w społeczeństwie informacyjnym wg RE
[======================================================================]
51. Społeczeństwo informacyjne czy informatyczne
[======================================================================]
52. Kompetencje informatyczne czy informacyjne
[======================================================================]
53. Zasada ustawiczności kształcenia
[======================================================================]
54. Nauczanie zdalne - na czym polega i jakie z tego wynikają korzyści
[======================================================================]
55. Telepraca
Telepraca (zdalna praca), biuro w domu, forma organizacji pracy polegająca na świadczeniu pracy poza siedzibą przedsiębiorstwa, jednak w kontakcie z przełożonymi i współpracownikami za pomocą urządzeń telekomunikacyjnych.
Te urządzenia to: telefon, telefaks, wideofon. Dzięki coraz powszechniejszej dostępności światowej sieci informatycznej - Internetu w telepracy zastosowanie znalazła poczta elektroniczna (e-mail), oraz stała się możliwa praca grupowa i praca przez Internet dzięki zdalnemu dostępowi do zasobów sieci komputerowej przedsiębiorstwa. O wyborze odpowiedniej techniki decyduje specyfika wykonywanej pracy.
Cel: poprawa produktywności i redukcja kosztów (dojazdy, powierzchnia biurowa).
Wymagania: sprawnie działająca sieć telekomunikacyjna.
Uważa się, że telepraca umożliwia pracownikom łatwiejsze pogodzenie obowiązków służbowych ze sprawami osobistymi i rodzinnymi. Jest to zaletą szczególnie dla kobiet. Ponadto telepracownicy są mniej zestresowani.[potrzebne źródło] Telepraca to również możliwość zatrudnienia osób niepełnosprawnych.
W praktyce nie jest to takie oczywiste.
Jeśli sytuacja nie jest przymusowa, kobiety i niepełnosprawni chcą wyrwać się ze środowiska, w którym czują się jak uwięzieni. Zajmowanie się dzieckiem lub osobą niepełnosprawną nie pozostawia czasu na pracę pełnoetatową; pozostaje przyjmowanie zleceń. Do telepracy trzeba mieć predyspozycje psychiczne;[potrzebne źródło] ich brak może doprowadzić do zakłócenia naturalnego rytmu funkcjonowania i zaburzeń zdrowia.[potrzebne źródło] Menedżerowie też muszą posiadać umiejętności precyzyjnego planowania i koordynowania pracy: zdalne nadzorowanie, instruowanie, uzgadnianie poglądów - są trudne, a czasem niemożliwe. Ten system pracy zaczęły wykorzystywać firmy MLM. Jedną z takich firm jest M&M Network, która zajmuje się dystrybucją usługi WLR na skalę ogólnopolską.[potrzebne źródło]
Przykłady telepracowników:
administratorzy sieci
tłumacze
księgowi
dziennikarze
pracownicy naukowi
przedstawiciele handlowi
Zalety telepracy to przede wszystkim
redukcja kosztów wynajmu pomieszczeń biurowych, dojazdów do pracy a także kosztów zatrudnienia
wzrost wydajności pracy
elastyczność miejsca i czasu pracy dla pracownika
możliwość zatrudniania osób niepełnosprawnych i korzystających z urlopu wychowawczego
zmniejsza konflikty w pracy
Wady telepracy:
trudność w odseparowaniu pracy od domu
brak bezpośredniego nadzoru / kontroli
dłuższy dzień w pracy
uzależnia od techniki
osłabia osobiste kontakty między pracownikami
[======================================================================]
56. Technologia BT
[======================================================================]
57. Sieci komputerowe - typologia
PODZIAŁ SIECI ZE WZGLEDU NA OBSZAR I TOPOLOGIA:
Wyróżnia się cztery najczęsciej stosowane topologie:
- szynowa (magistralowa),
- pierścieniowa,
- gwieździsta,
- drzewiasta.
Wymienione topologie są strukturami logicznymi technicznie nie muszą być w taki sposób zorganizowane.
Topologia szynowa (magistralowa) to konfiguracja, w której wszystkie komputery podłączone są do wspólnego medium transmisyjnego rozprowadzającego w sposób bierny sygnał. Dołączenie lub odłączenie komputera nie wpływa na pracę pozostałych urządzeń w sieci. Maksymalną długość łącza oraz ilość podłączonych stacji definiują normy w zależności od typu łącza. Przy intensywnej transmisji danych może dochodzić do konfliktów. Topologia ta charakteryzuje się niskim poziomem bezpieczeństwa, gdyż wszystkie dane transmitowane są jednym łączem, a więc ich przechwycenie przez nieuprawnionego użytkownika jest wysoce prawdopodobne. Przerwanie medium transmisyjnego (magistrali) powoduje zaprzestanie działania całej sieci, dodatkowo należy nadmienić, że lokalizacja uszkodzeń i błędów transmisji jest stosunkowo trudna.
Topologia pierścieniowa jest strukturą, w której stacje sieciowe są podłączone do okablowania tworzącego pierścień. Dane w układzie krążą w koło, ale tylko w jedną stronę, poszukując adresu przeznaczenia. W porównaniu do sieci szynowej, wzrasta wydajność sieci. Stosowana jest w sieciach Token Ring oraz FDD (Fiber Distributed Data Interface - to cyfrowa sieć o topologii podwójnych przeciwbieżnych pierścieni).
W topologii gwieździstej kable sieciowe są połączone w jednym wspólnym punkcie w którym znajduje się hub lub przełącznik. Topologia ta jest w odróżnieniu od topologii szynowej odporna na uszkodzenia pojedynczych jednostek, lub połączeń z nią. Jej zaletą jest bezpieczeństwo i wydajność. Stosowana w Token Ring.
Topologia drzewiasta jest strukturą podobną do topologii szynowe, z tą różnicą, że są tu możliwe gałęzie z wieloma węzłami.
[======================================================================]
58. Społeczeństwo informacyjne
Społeczeństwo informacyjne - tym terminem określa się społeczeństwo, w którym towarem staje się informacja traktowana jako szczególne dobro niematerialne, równoważne lub cenniejsze nawet od dóbr materialnych. Przewiduje się rozwój usług związanych z 3P (przechowywanie, przesyłanie, przetwarzanie informacji).
Termin został wprowadzony w 1963 roku przez Japończyka T. Umesao (wersja oryginalna "jōhōka shakai") w artykule o teorii ewolucji społeczeństwa opartego na technologiach informatycznych, a spopularyzowany przez K. Koyama w 1968 roku w rozprawie pt. "Wprowadzenie do Teorii Informacji" (Introduction to Information Theory). W Japonii powstał również "Plan utworzenia społeczeństwa informacyjnego, jako cel narodowy na rok 2000". Była to realna strategia zakładająca informatyzację kraju, prowadzącą do rozwoju intelektualnego kraju oraz tworzenia wiedzy, a nie dalsze uprzemysławianie kraju i wzrost dóbr materialnych.
Społeczeństwo informacyjne odnosi się do technicznych narzędzi komunikacji, magazynowania i przekształcania informacji.
Teorie rozwoju społecznego przedstawiają społeczeństwo informacyjne jako kolejny etap rozwoju społecznego, po społeczeństwie przemysłowym. Nazywane jest ono również społeczeństwem post nowoczesnym, ponowoczesnym lub poprzemysłowym. Z punktu widzenia społecznego podziału pracy, społeczeństwem informacyjnym jest zbiorowość, w której większość spośród zawodowo czynnych, zatrudnionych jest przy przetwarzaniu informacji. D. Bell określał pracę człowieka przednowoczesnego jako grę człowieka z przyrodą, człowieka nowoczesnego jako grę człowieka z naturą nieożywioną a pracę człowieka ponowoczesnego jako grę między ludźmi. Cechy charakterystyczne społeczeństwa informacyjnego to m.in.:
Wysoko rozwinięty sektor usług, przede wszystkim sektor usług nowoczesnych (bankowość, finanse, telekomunikacja, informatyka, badania i rozwój oraz zarządzanie). W niektórych krajach w tym sektorze pracuje przeszło 80% zawodowo czynnej ludności, przy czym sektor usług tradycyjnych przekracza nieznacznie 10%.
Gospodarka oparta na wiedzy.
Wysoki poziom scholaryzacji społeczeństwa.
Wysoki poziom alfabetyzmu funkcjonalnego w społeczeństwie.
Postępujący proces decentralizacji społeczeństwa.
Renesans społeczności lokalnej.
Urozmaicanie życia społecznego.
Cechy i funkcje społeczeństwa informacyjnego
Właściwości społeczeństwa informacyjnego:
Wytwarzanie informacji - masowy charakter generowanych informacji, masowe zapotrzebowanie na informację i masowy sposób wykorzystywana informacji.
Przechowywanie informacji - techniczne możliwości gromadzenia i nieograniczonego magazynowania informacji.
Przetwarzanie informacji - opracowywanie technologii i standardów umożliwiających m.in. ujednolicony opis i wymianę informacji.
Przekazywanie informacji - przekazywanie informacji bez względu na czas i przestrzeń.
Pobieranie informacji - możliwość odbierania informacji przez wszystkich zainteresowanych.
Wykorzystywanie informacji - powszechne, otwarte i nielimitowane korzystanie z internetu jako źródła informacji.
Funkcje społeczeństwa informacyjnego:
Edukacyjna - upowszechnienie wiedzy naukowej oraz uświadamianie znaczenia podnoszenia kwalifikacji.
Komunikacyjna - Społeczeństwo informacyjne ma za zadanie stworzenie możliwości komunikowania się wielu różnorodnych grup w obrębie całości społeczeństwa globalnego.
Socjalizacyjna i aktywizująca - mobilizacja osób czasowo lub stale wyłączonych z możliwości swobodnego funkcjonowania społeczeństwa. Cechuje się także wykonywaniem zawodu bez konieczności wychodzenia z domu i aktywizacją niepełnosprawnych.
Partycypacyjna - możliwość prowadzenia debat i głosowania w internecie.
Organizatorska - tworzenie warunków konkurencyjności na rynku.
Ochronna i kontrolna - stworzenie mechanizmów obrony obywateli i instytucji przed wirtualną przestępczością.
Rozwój społeczeństwa informacyjnego
Rozwój społeczeństwa informacyjnego obejmuje:
pełną liberalizację rynku
rozległą infrastrukturę telekomunikacyjną
spójne i przejrzyste prawodawstwo
nakłady finansowe na badania i rozwój
nieskrępowany dostęp do sieci wszystkich operatorów
szeroki i tani dostęp do internetu
publiczny dostęp do informacji
umiejętność wymiany danych bez względu na odległość
wysoki odsetek zatrudnienia w usługach
W ostatnich latach kluczowe znaczenie miały światowe wydarzenia: World Summit on the Information Society (WSIS) (Genewa 2003 - Tunis) - patrz linki zewnętrzne.
Rozwój społeczeństwa informacyjnego w USA - Rozwój społeczeństwa informacyjnego rozpoczął się od realizacji planu odwołującego się do koncentracji badań nad nowymi technologiami w celu obrony przed komunizmem. W latach 1940 do 1960 nastąpił wzrost wydatków w USA na zbrojenia. W roku 1955 powstał Semi - Automatic Ground Environment System (SAGE - skomputeryzowany system obrony powietrznej). Działaniami wspomagającymi rozwój Społeczeństwa Informacyjnego w USA były prace ekspertów skupionych w Research and Development Corporation (RAND) w Kalifornii. Projektowali oni zintegrowany system planowania, programowania i budżetowania (Planning, Programming and Budgeting System - PPBS). RAND stała się z czasem zapleczem intelektualnym Pentagonu oraz komórką planowania społeczeństwa przyszłości. Kolejnym elementem rozwoju Społeczeństwa informacyjnego w USA było stworzenie sieci ARPA-NET. Stworzona została ona w celu wymiany informacji między komórkami badawczymi znajdującymi się w cywilnych i wojskowych instytutach badawczych. Projekt ten został uznany za początek internetu. Później rząd Stanów zjednoczonych stworzył teoretyczne i polityczne uzasadnienie realizowanych projektów. Później departament stanu zabiegał o przeforsowanie na forum ONZ doktryny "swobodnego przepływu informacji" która była uzupełnieniem do doktryny "wolnego handlu" i była opozycją do promowanej przez ZSRR "narodowej suwerenności". Moderatorem rewolucji komunikacyjnej było USA. Organami sterującymi rozwojem amerykańskiego społeczeństwa informacyjnego są ośrodki akademickie.
Rozwój społeczeństwa informacyjnego w Japonii - w 1972 r. stworzono plan mający doprowadzić do powstania nowego typu społeczeństwa oraz wdrożeniu przyjętych założeń.
Wyróżnia się cztery fazy dochodzenia do japońskiego społeczeństwa informacyjnego:
I FAZA (1945-1970) - dominacja meganauki
II FAZA (1955-1980) - okres organizacji i przedsiębiorstw
III FAZA (1970-1990) - okres usług społecznych i społeczeństw
IV FAZA (1980-2000) - okres prywatnych jednostek i istot ludzkich
Działania japońskiego rządu (Stworzenie pierwszego społeczeństwa informacyjnego firm prywatnych) - zaowocowały przyspieszeniem realizacji przyjętej strategii.
Rozwój społeczeństwa informacyjnego w Europie - Za początek tworzenia społeczeństwa informacyjnego w Europie uznaje się rok 1994. Został wtedy opublikowany Raport Bangemanna (Europa i Społeczeństwo Globalnej Informacji. Zalecenia dla Rady Europy). Raport stał się przyczyną publicznej debaty na temat społeczeństwa informacyjnego. Zaproponowano w nim 10 inicjatyw w celu rozwoju nowoczesnych technik teleinformacyjnych. Obejmuje on obszary:
telepraca
szkolenia na odległość
sieci łączące uczelnie i jednostki badawcze
usługi teleinformatyczne dla małych i średnich przedsiębiorstw
zarządzanie ruchem drogowym
kontrolę ruchu powietrznego
sieci na użytek sektora zdrowia
komputeryzację sektora zamówień publicznych
transeuropejską sieć administracji publicznej
infostradę dla obszarów miejskich
W lipcu 1996 roku została opublikowana zielona księga "living and working in Information Society. People First.. Mówi on o konsekwencjach wynikających z transformacji oraz o wpływie nowoczesnych technologii (ICT) na ich życie. W projekcie e Europe - An information society for All (1999) określono cel budowy nowego typu społeczeństwa wykorzystującego możliwości tzw. nowej gospodarki. W roku 1999 opublikowano Zieloną Księgę Public Sector Information: a Key Resource for Europe wskazywał na korzyści dla obywateli i całej gospodarki płynące z wykorzystania technologii telekomunikacyjnych i informatycznych. Całościowy plan budowy społeczeństwa informacyjnego został uchwalony na posiedzeniu w Lizbonie 23-24 marca 2000 r. (strategia lizbońska). W 2000 roku na szczycie w Feira przyjęto plan działań eEurope 2002 - An Information Society for All. W Göteborgu został przyjęty plan, który uznawał konieczność modernizacji i przyspieszenia reform w krajach kandydujących do Unii Europejskiej. Na szczycie w Sewilli został przyjęty plan eEurope 2005 Information Society for All, który zobowiązał kraje członkowskie do:
rozwinięcia usług elektronicznych (e-government, e-learning)
wprowadzenia elektronicznej opieki zdrowia (e-health)
zapewnienia powszechnego dostępu do internetu
W maju 2005 roku na szczycie Rady Europy został przyjęty program European Information Society 2010, według którego technologie informacyjne są motorem trwałego wzrostu i warunkiem budowy społeczeństwa informacyjnego. Europa chce obecnie stworzyć Globalne Społeczeństwo Informacyjne
Wieloaspektowość definicji społeczeństwa informacyjnego
Kryterium identyfikacji |
Opis |
Techniczne |
decydujące znaczenie ma rozwój technologiczny |
Ekonomiczne |
najważniejsze znaczenie dla jego dalszego rozwoju ma wiedza i informacja |
Zawodowe |
nie tylko stwarza możliwości, ale też wymusza specjalizację pracy i produkcji |
Przestrzenne |
społeczeństwem informacyjnym jest każde państwo narodowe zdolne do określenia zasobów alokacyjnych i władczych oraz do rozpoznania potrzeb swych obywateli |
Kulturowe |
kultura współczesna staje się rzeczywistością wirtualną, a świat jest kreowany przez media |
[======================================================================]
59. Mapa dydaktyczna i zasady jej konstruowania
[======================================================================]
60. Informacja werbalna a informacja wizualna
[======================================================================]
61. Różnice pomiędzy animacją a symulacja komputerową
[======================================================================]
62. Spiralny model kształcenia informatycznego
[======================================================================]
63. Cele kształcenia informatycznego
[======================================================================]
64. Założenia do konstruowania MPD
[======================================================================]
65. Arkusz kalkulacyjny jako narzędzie symulacji
[======================================================================]
66. Projektowanie dydaktyczne
Projektowanie dydaktyczne
Projektowanie nauczania zakłada systemowe podejście do planowania kształcenia i jest w swej istocie tworzeniem systemu dydaktycznego .
Dydaktycy w swym konsekwentnym działaniu dążą do rozciągnięcia możliwie pełnej kontroli nad warunkami w jakich przebiega proces uczenia się. Nauczanie zatem ma się stać ciągiem czynności wywołujących, inspirujących i kontrolujących, dostosowanych i adekwatnych do prawidłowości przebiegu procesu uczenia się.
We współczesnej dydaktyce proces nauczania-uczenia się traktowany jest jako zbiór elementów (czynności), z których można tworzyć dowolne konfiguracje pasujące do różnych założeń, bądź warunków procesu nauczania.
Jak każdy system, tak i system kształcenia jest uporządkowanym zbiorem elementów oraz związków
i zależności miedzy nimi , tworzącym jakąś całość, która służy założonym celom.
Istotą działania systemu jest współdziałanie wszystkich jego składników i powiązań,
a efektem realizacja celu, bądź celów.
Z projektowaniem systemów kształcenia mamy do czynienia na różnych szczeblach. W skali kraju systemy projektują, specjalnie przez władze oświatowe powołane, zespoły programowe, przygotowuje się założenia do opracowania podręczników, produkuje się pomoce dydaktyczne.
Każdy kraj ma charakterystyczny dla siebie system kształcenia, będący połączeniem swoistych dla każdego systemu elementów (W.Okoń):
nauczycieli, ich kompetencji, metod pracy, zaangażowania;
uczniów, ich potrzeb, motywacji, zainteresowań i postaw;
treści kształcenia, doboru i układu, sposobów weryfikacji wiedzy;
środowiska kształcenia, społeczno-materialne warunki.
Jednak można przez system dydaktyczny rozumieć (R.M.Gagne, C.Galloway) również układ zasobów
i czynności przeznaczony do wspierania uczenia się. Można projektować systemy na niższym poziomie, do pojedynczych zajęć włącznie. Wtedy zależnie od założonego celu kształcenia planujemy przebieg procesu kształcenia :
odpowiednio dobierając i organizując treści kształcenia,
tworząc efektywne metody kształcenia,
organizując przebieg procesu nauczania-uczenia się w najkorzystniejsze formy kształcenia,
dobierając interesujące środki kształcenia.
Gdy przedmiotem opracowania są mniejsze systemy kształcenia, mówimy raczej
o projektowniu dydaktycznym, gdyż punkt ciężkości znajduje się po stronie nauczania,
a nie samego systemu. Choć należy z całą mocą podkreślić, iż projekt dydaktyczny zawsze ma charakter systemowy!
Wszystkie bowiem wymienione składniki procesu pozostają we wzajemnych związkach między sobą nawzajem, zatem gdy dokonujemy modyfikacji jednego z elementów systemu - procesu kształcenia,
a pozostawiamy bez zmian pozostałe, musimy się liczyć z nikłymi efektami tych modyfikacji. Próby doskonalenia procesu kształcenia mają szanse powodzenia wówczas, gdy towarzyszą im poczynania zmieniające przynajmniej te elementy systemu między którymi wspomniane związki występują najsilniej (T.Lewowicki).
Zgodnie z wymienionym porządkiem (struktura dydaktyki jest liniowa) istnieje silna współzależność między celami i treściami kształcenia, treściami i metodami, metodami
i formami oraz środkami dydaktycznymi. Ponadto, obok tych najsilniejszych związków między poszczególnymi elementami systemu, każdy ze składników systemu pozostaje
w bezpośrednim lub pośrednim związku ze wszystkimi pozostałymi.
W celu sporządzenia projektu dydaktycznego czy to dla działu tematycznego, czy poszczególnych zajęć proponuję skorzystać z modelu opracowanego przez Dicka i Careya, gdyż jest on najbliższy rzeczywistości dydaktycznej szkół wyższych.
Ważne: Każdy człon dowolnego modelu systemu dydaktycznego musi spełniać jedną z trzech funkcji:
1) określanie zadań nauczania,
2) nauczanie,
3) ocenianie efektywności nauczania.
Węzłowymi czynnościami w planowaniu nauczania jest określenie celów wykonawczych, przygotowanie materiałów dydaktycznych oraz narzędzi kontroli.
Do najważniejszych czynności w procesie planowania zaliczamy:
1) poklasyfikowanie celów kształcenia według rodzaju uczenia się;
2) sporządzenie listy potrzebnych działań dydaktycznych;
3) wybranie środków umożliwiających te działania;
4) przygotowanie odpowiednich warunków do uczenia się.
Czynności zachodzące w trakcie przedstawionych na rysunku dziewięciu faz projektowania dydaktycznego. |
Faza 1: cele nauczania Cel można zdefiniować jako pożądany stan rzeczy. Ogólnym celom dydaktycznym trzeba nadać bardziej szczegółową postać, nim przystąpi się do sporządzenia dydaktycznego projektu ich osiągnięcia. W tej fazie projektant musi zapytać: jakie cele reprezentują pożądany stan rzeczy? W celach pedagogicznych są wyrażone wyniki kształcenia. Dotyczą one wszystkich czynności, których wykonanie jest możliwe dzięki uczeniu się. Częściej niż nauczanie wielkich działów programowych planuje się nauczanie pojedynczych kursów. Opisując kurs w terminach celu (wyniku) unikamy niejasności.
Na przykład: Język angielski 1 - ma na celu doprowadzenie do tego, aby studenci umieli napisać w ciągu godziny zwarte wypracowanie na dowolny temat w poprawnej angielszczyźnie. Cel formułowany bardziej ogólnie np. „analiza konfliktów w powieściach” nie jest jednoznaczny, nie określono jakie umiejętności posiądzie uczestnik kursu, czy chodzi Aby rozstrzygnąć kwestię, czy łączyć cele szczegółowe w jednym planie nauczania, czy też raczej wymagają one odrębnych planów dla każdego celu oddzielnie, należy dokonać analizy rodzaju osiągnięć (zachowań), do których mają dojść studenci w trakcie realizacji kursu. Gagne nazywa je kategoriami zdatności i wyróżnia pięć ich rodzajów, zastrzegając przy tym, że każda kategoria ma jeszcze swoje subkategorie. |
Pięć rodzajów przyswojonych zdatności
Zdatność Przykłady zachowania
Umiejętność intelektualna Obliczenie przekątnej prostokąta Użycie po przyimku zaimka w bierniku
Strategia poznawcza Znalezienie reguły mnemotechnicznej dla zapamiętania słowa w obcym języku Przeformułowanie problemu
Informacja werbalna Przytoczenie treści danego paragrafu kodeksu karnego Odtworzenie przebiegu wypadku samochodowego
Umiejętność merytoryczna Spiłowanie krawędzi blatu stołu Napisanie litery E
Postawa Wybieranie lektury z zakresu fantastyki naukowej Wybieranie biegania jako stałej formy ćwiczeń fizycznych
|
Uczenie się umiejętności intelektualnej to tyle, co uczenie się jak wykonać czynność umysłową, którą Anderson nazywa wiedzą proceduralną. Uczenie się zaś tego co istnieje, co ma swoje właściwości, co można opisać to są niezbędne dla każdego informacje werbalne, gdyż aby funkcjonować sprawnie w zakresie „wiedzy, jak” konieczne jest opanowanie „wiedzy, że”.
Umiejętności umysłowe można klasyfikować ze względu na stopień złożoności. Umiejętność rozwiązywania problemów jest nabyciem pewnej reguły nadrzędnej. Aby do niej dojść trzeba zacząć od rozróżnień Strategie poznawcze to specjalny i bardzo ważny rodzaj umiejętności; są to zdatności zarządzające własnym uczeniem się człowieka, zapamiętywaniem i myśleniem. Istnieją specyficzne strategie poznawcze, będące wynikiem charakterystycznej dla danej dyscypliny wiedzy metodologii, niektóre jednak są bardziej ogólne, jak na przykład proces zwany wnioskowaniem lub indukcją.
Zgodnie ze współczesną terminologią teorii procesu uczenia się strategia poznawcza jest procesem kontroli, wewnętrznym procesem dzięki któremu uczący się wybiera i modyfikuje sposoby odbioru informacji, uczenia się, zapamiętywania i myślenia. Między strategiami poznawczymi w obrębie jakiejś dziedziny wiedzy (geometrii czy literatury) a strategiami poznawczymi obejmującymi szerszy zakres zachodzi ważna różnica. Te drugie są nazywane wykonawczymi albo strategiami metapoznawczymi ze względu na to, że rządzą wykorzystywaniem innych strategii i obejmują przetwarzanie informacji niezależnie od tego, Profesor Kruszewski uważa, że obecnie, prawdopodobnie pod wpływem nauki poznawczej (cognitive science), zdaje się przeważać pogląd, że uczymy się zawsze strategii poznawczej dotyczącej czegoś, jakiegoś spójnego i względnie ograniczonego obszaru wiadomości, na którym łatwo zachodzi transfer, np. gry w szachy, fizyki, interpunkcji; trzeba w jakimś stopniu znać materiał, żeby zastosować do niego właściwą strategię poznawczą. Informacje werbalne to rodzaj wiedzy, który jesteśmy w stanie wyrazić. Jest to „wiedza, że” zwana wiedzą deklaratywną.
W naszej pamięci spoczywa wiele często używanych lub gotowych do użycia informacji. Wiedza werbalna przechowywana jest w pamięci w postaci siatki sądów i zgodnie z regułami językowymi. Uczymy się pojęć, a więc wiedzy „co dana nazwa znaczy”. Każdy indywidualnie, zależnie od wiedzy wyjściowej i kontekstu, w jakim następuje uczenie się, nadaje poszczególnym pojęciom subiektywne znaczenia. Uczymy się faktów, które mają swoje desygnaty określające relacje i związki, tworząc układ wewnętrznie powiązanych elementów. Uczymy się też wiedzy zorganizowanej, powiązanych ze sobą w większe całości faktów. Sieć sądów tworząca nową wiedzę zostaje przyłączona do obszerniejszej sieci już istniejącej w pamięci. Umiejętność motoryczna należy do najbardziej naturalnych zdatności człowieka. Przyswojenie umiejętności motorycznych dokonuje się najlepiej poprzez wykonywanie działań w różnych kontekstach. Wymiarami osiągnięcia umiejętności motorycznych jest szybkość, dokładność, siła i płynność ruchów ciała. W miarę ćwiczenia powstaje centralnie zorganizowany program motoryczny, który kontroluje ruchy, bez otrzymywania od receptorów informacji zwrotnej. Umiejętności ruchowe daje się zwykle podzielić na umiejętności składowe - składające się na całość osiągnięcia jednocześnie lub w układzie chronologicznym.
Postawy, to sfera emocjonalna człowieka. Kształtowanie postaw ma bezpośredni związek Rozpatrywana jako zdatność postawa jest trwałym stanem umysłu wpływającym na dokonywanie wyboru kierunku działania. Postawa jest stanem wewnętrznym, który wpływa na dokonywany przez człowieka wybór działania. Warunki sprzyjające uczeniu się postaw i środki, za pomocą których wpływa się na zmiany w postawach już istniejących, to sprawa złożona i nie do końca wyjaśniona. Cele pojedynczego kursu obejmują zwykle kilka kategorii zdatności. Jedna z przyczyn trudności w określaniu celów pedagogicznych wynika z konieczności przetworzenia formy celów - od ogólnych do coraz bardziej szczegółowych. Trzeba rozpisać cel ogólny na wiele kolejnych szczebli, żeby zdobyć pewność, że każde zagadnienie zawarte w programie przybliża studenta o kolejny krok do odległego celu. Każdy cel wykonawczy kursu określa, jakie konkretne osiągnięcie jest spodziewane jako efekt nauczania. Faza 2: analiza dydaktyczna Faza druga i trzecia (analiza ucznia) mogą pojawić się w dowolnym porządku lub równocześnie. Celem analizy dydaktycznej jest określenie jakie umiejętności ze strony ucznia są niezbędne, żeby osiągnąć cel. Dokonuje się analizy zadania (analiza proceduralna), w której wyniku powstaje lista kolejnych czynności składających się na dana procedurę. Na przykład: aby zrealizować ćwiczenie z chemii student musi znać sekwencję czynności i sens ich następstwa oraz efekt do którego zmierza. Innym rodzajem analizy dydaktycznej jest przetwarzanie informacji, która ma ujawnić jakie operacje umysłowe wykonuje człowiek, który opanował złożoną umiejętność. Na przykład: aby student doszedł samodzielnie do uogólnienia, musi wcześniej dokonać analizy składowych pojęć lub zjawisk, aby dokonać analizy musi wcześniej wyodrębnić elementy składowe oraz określić kryteria porównania i oceny. Ważnym rezultatem analizy dydaktycznej jest klasyfikacja zadań. Polega ona na przyporządkowaniu wyników uczenia się do kategorii określający typ uczenia się. Czy kształtowaniu podlegać będą umiejętności umysłowe, takie jak: rozróżnienie, pojęcia konkretne, pojęcia abstrakcyjne, reguły proste lub nadrzędne, czy strategie poznawcze czyli wewnętrznie kierowane procesy kontrolne, których funkcją jest regulowanie innych procesów uczenia się. Mogą to być strategie kontroli, kodowania, odzyskiwania z pamięci, rozwiązywania problemów. W trakcie projektowania jakiejś jednostki dydaktycznej mogą być potrzebne wszystkie rodzaje analizy albo którakolwiek z nich. Faza 3: właściwości ucznia (studenta) W projektowaniu dydaktycznym należy uwzględnić różnice indywidualne wśród uczących się. Założenie indywidualizacji kształcenia, jako wskazania dla dydaktycznego zróżnicowania oddziaływań edukacyjno-wychowawczych uwzględniającego owe różnice ma oczywiście większe znaczenia na niższych szczeblach kształcenia. Nie znaczy to jednak, że można pominąć ten aspekt planowania dydaktycznego w odniesieniu do nauczania akademickiego.
Elementarnemu zróżnicowaniu podlega poziom wiedzy wyjściowej studenta, stwierdzenie czy jest on wystarczająco przygotowany do podjęcia uczenia się danego materiału. Inny aspekt, to są cechy osobowości, takie jak: indywidualne zdolności, postawa wobec uczelni Profesor Lewowicki widzi pole indywidualizowania procesów kształcenia studentów w zakresie tworzenia indywidualnych programów nauczania, naukowej organizacji procesu nauczania, nauczania programowanego oraz określenia procesów kształcenia swoistych dla różnych kierunków studiów. Faza 4: cele wykonawcze Aby umożliwić planowanie i zorganizowanie nauczania oraz przygotowanie materiałów trzeba „przetłumaczyć” potrzeby i cele ogólne na cele wykonawcze, dostatecznie szczegółowe, by można było dzięki nim ocenić czy nauczanie zmierza w kierunku wytyczonego celu ogólnego. Lista szczegółowych, uporządkowanych celów pomoże się zorientować, jak wielki ma być projektowany system, ułatwi koordynację prac nad jego przygotowaniem, pozwoli ustalić, jakie prace trzeba przedsięwziąć, żeby zapewnić materialne i kadrowe warunki realizacji projektu. Wyrażanie celów raczej w kategoriach osiągnięć studentów niż treści nauczania lub czynności nauczyciela ułatwia pomiar osiągnięć. Cele wykonawcze spełniają następujące funkcje: 1) umożliwiają stwierdzenie, czy nauczanie pozostaje w związku z osiąganiem celów; 2) umożliwiają skupienie uwagi w trakcie planowania kursu, bądź zajęć na opracowaniu właściwych warunków dla przebiegu procesu uczenia się; 3) ukierunkowują prace nad przygotowaniem narzędzi pomiaru osiągnięć. Briggs mówi o „punktach zakotwiczenia” w procesie planowania dydaktycznego, owe kotwice to: cele, proces nauczania i kontrola, napomina przy tym, iż koniecznie muszą być ze sobą zgodne. Oczywiście to cele powinny stanowić wytyczną do nauczania i kontroli. Cele wykonawcze (szczegółowe) definiujemy jako dokładnie określone zdatności. Przystępując do sporządzania projektu trzeba znać odpowiedź na pytanie: „Jakie zmiany zajdą w studentach po procesie kształcenia?” Ustalenie celów ma zagwarantować, że to, co jest oceniane, i to co jest komunikowane jako zamierzony wynik uczenia się, ma taki sam sens. W modelu zaprezentowanym na rysunku umieszczono przygotowanie zadań testowych przed opracowaniem strategii nauczania w przekonaniu, iż przygotowując test po zakończeniu pracy nad przygotowaniem zajęć można mimowolnie skupić uwagę bardziej na treści nauczania, niż na osiągnięciach. Projektant jeśli zechce, może odwrócić tę kolejność. Faza 5: zadania testu sprawdzającego Kontrola osiągnięć pozwala ocenić jakość systemu dydaktycznego, dostarcza danych w celu ewentualnego usprawnienia nauczania. Wtedy jest to kontrola kształtująca, którą prowadzi się głównie w fazie konstruowania systemu. Kiedy nie planuje się dalszych zmian, przychodzi czas na kontrolę zbierającą, aby stwierdzić efektywność i wartość kursu w ostatecznej formie. Zasady przygotowania narzędzi pomiaru osiągnięć są podobne zarówno wtedy, gdy przygotowuje się testy dla każdej umiejętności w hierarchii uczenia się, jak i dla jednostki tematycznej lub kursu. Kryteriami (miernikami) kontroli zawsze będą poszczególne kategorie celów uczenia się, zapewnia to trafność pomiaru osiągnięć Oprócz testów sprawdzających, które pozwalają określić stopień realizacji celów, zdiagnozować niepowodzenia i wskazywać elementy systemu wymagające doskonalenia, są testy różnicujące. Nie mierzą one osiągnięć w zakresie oddzielnych, pojedynczych celów kursu; ujmują cele łącznie w różnych zestawach. Testy różnicujące są tak konstruowane, żeby dawały duży rozsiew wyników. Jak łatwo się zorientować kontroli sprawdzającej dokonujemy w trakcie trwania kursu, zaś różnicująca dotyczy sytuacji egzaminacyjnej. Faza 6: strategia nauczania Wszelkie nauczanie zmierza do realizacji ogniw dydaktycznych. Ogniwa procesu kształcenia mają zastosowanie do wszystkich dziedzin efektów uczenia się, różnicowaniu podlega natomiast szczegółowy sposób posługiwania się nimi. We wszystkich ogniwach dydaktycznych występują rysy wspólne, a jednocześnie każdy rodzaj pożądanego wyniku uczenia się wymaga wybrania cech szczególnych.
Zajęcia toczą się od zdarzenia do zdarzenia; jest to seria zdarzeń wciągających studenta Planowanie strategii nauczania jest ważnym składnikiem procesu projektowania dydaktycznego. Właśnie w tej fazie projektant musi być gotów połączyć swoją wiedzę merytoryczną z wiedzą z zakresu prawidłowości przebiegu procesu uczenia się i teorii projektowania dydaktycznego z doświadczeniem pedagogicznym i wiedzą o celach oraz studentach. Nie ma potrzeby dodawać, że to twórcza praca, element twórczości odgranicza sztukę od technologii projektowania dydaktycznego. Faza 7: materiały dydaktyczne
Terminem „materiały” określamy środki wspomagające realizację ogniw procesu dydaktycznego. Wybór
Materiał nauczania może być „dostarczany” z pomocą rozmaitych środków, może to być sprzęt naturalny Wśród kryteriów doboru środków dydaktycznych dominują trzy grupy czynników ukierunkowujący ich wybór: 1) fizyczne właściwości środków i ich potencjał edukacyjny; 2) cechy zadania dydaktycznego; 3) różnice indywidualne.
Nie bez znaczenia są również materialne możliwości uczelni, chodzi o dostępność środków, wielkość sal Faza 8: kontrola kształtująca Kontrolę kształtującą, jak już wspomniano, prowadzi się z zamiarem usprawnienia nauczania, aby było najbardziej efektywne dla największej liczby uczestników kursu. Posługiwanie się informacją zwrotną dotyczącą projektu w celu jego doskonalenia stanowi sedno podejścia systemowego. Projektowanie dydaktyczne pozbawione kontroli kształtującej jest niekompletne.
Proces projektowania jest procesem kolejnych przybliżeń; wraca się wielokrotnie do wcześniejszych faz, Faza 9: kontrola zbierająca
Kontrolą zbierającą jest w zasadzie badanie efektywności dydaktycznej całego systemu, Opisany dziewięciofazowy model projektowania dydaktycznego jest jednym z możliwych sposobów ujęcia tego procesu. Ogólnie podejście systemowe do nauczania polega na wykorzystywaniu w procesie planowania dydaktycznego założeń teorii uczenia się oraz empirycznej kontroli jako efektywnego sposobu ciągłego doskonalenia procesu kształcenia |
[=====================================================================]
=========Szkoła podstawowa=========
67. PODSTAWA PROGRAMOWA KSZTAŁCENIA OGÓLNEGO DLA SZKÓŁ PODSTAWOWYCH I GIMNAZJÓW
Nadrzędnym celem działań edukacyjnych szkoły jest wszechstronny rozwój ucznia. Edukacja szkolna polega na harmonijnej realizacji przez nauczycieli zadań w zakresie nauczania, kształcenia umiejętności i wychowania. Zadania te tworzą wzajemnie uzupełniające się i równoważne wymiary pracy każdego nauczyciela.
Szkoła w zakresie nauczania, co stanowi jej zadanie specyficzne, zapewnia uczniom w szczególności:
1) naukę poprawnego i swobodnego wypowiadania się, pisania i czytania ze zrozumieniem,
2) poznawanie wymaganych pojęć i zdobywanie rzetelnej wiedzy na poziomie umożliwiającym co najmniej kontynuację nauki na następnym etapie kształcenia,
3) dochodzenie do rozumienia, a nie tylko do pamięciowego opanowania przekazywanych treści,
4) rozwijanie zdolności dostrzegania różnego rodzaju związków i zależności (przyczynowo-skutkowych, funkcjonalnych, czasowych i przestrzennych itp.),
5) rozwijanie zdolności myślenia analitycznego i syntetycznego,
6) przekazywanie wiadomości przedmiotowych w sposób integralny, prowadzący do lepszego rozumienia świata, ludzi i siebie,
7) poznawanie zasad rozwoju osobowego i życia społecznego,
8) poznawanie dziedzictwa kultury narodowej postrzeganej w perspektywie kultury europejskiej.
W szkole uczniowie kształcą swoje umiejętności wykorzystywania zdobywanej wiedzy, aby w ten sposób lepiej przygotować się do pracy w warunkach współczesnego świata. Nauczyciele twarzą uczniom warunki do nabywania następujących umiejętności:
1) planowania, organizowania i oceniania własnej nauki, przyjmowania za nią coraz większej odpowiedzialności,
2) skutecznego porozumiewania się w różnych sytuacjach, prezentacji własnego punktu widzenia i uwzględniania poglądów innych ludzi, poprawnego posługiwania się językiem ojczystym, przygotowania do publicznych wystąpień,
3) efektywnego współdziałania w zespole i pracy w grupie, budowania więzi międzyludzkich, podejmowania indywidualnych i grupowych decyzji, skutecznego działania na gruncie zachowania obowiązujących norm,
4) rozwiązywania problemów w sposób twórczy,
5) poszukiwania, porządkowania i wykorzystywania informacji z różnych źródeł oraz efektywnego posługiwania się technologią informacyjną,
6) odnoszenia do praktyki zdobytej wiedzy oraz tworzenia potrzebnych doświadczeń i nawyków,
7) rozwijania sprawności umysłowych oraz osobistych zainteresowań,
8) przyswajania sobie metod i technik negocjacyjnego rozwiązywania konfliktów i problemów społecznych.
Nauczyciele w pracy wychowawczej, wspierając w tym zakresie obowiązki rodziców, zmierzają do tego, aby uczniowie w szczególności:
1) znajdywali w szkole środowisko wszechstronnego rozwoju osobowego (w wymiarze intelektualnym, psychicznym, społecznym, zdrowotnym, estetycznym, moralnym, duchowym),
2) rozwijali w sobie dociekliwość poznawczą, ukierunkowaną na poszukiwanie prawdy, dobra i piękna w świecie,
3) mieli świadomość życiowej użyteczności zarówno poszczególnych przedmiotów nauczania, jak całej edukacji na danym etapie,
4) stawali się coraz bardziej samodzielni w dążeniu do dobra w jego wymiarze indywidualnym i społecznym, godząc dążenie do dobra własnego z dobrem innych, odpowiedzialność za siebie z odpowiedzialnością za innych, wolność własną z wolnością innych,
5) poszukiwali, odkrywali i dążyli na drodze rzetelnej pracy do osiągnięcia celów życiowych i wartości ważnych dla odnalezienia własnego miejsca w świecie,
6) uczyli się szacunku dla dobra wspólnego jako podstawy życia społecznego oraz przygotowywali się do życia w rodzinie, w społeczności lokalnej i w państwie,
7) przygotowywali się do rozpoznawania wartości moralnych, dokonywania wyborów i hierarchizacji wartości oraz mieli możliwość doskonalenia się,
8) kształtowali w sobie postawę dialogu, umiejętność słuchania innych i rozumienia ich poglądów; umieli współdziałać i współtworzyć w szkole wspólnotę nauczycieli i uczniów.
Nauczyciele, mając na uwadze osobowy rozwój ucznia, współdziałają na rzecz tworzenia w świadomości uczniów zintegrowanego systemu wiedzy, umiejętności i postaw. Ma to szczególne zastosowanie w kształceniu zintegrowanym.
Integracji wiedzy nauczanej w szkole na różnych etapach kształcenia służy wprowadzenie kształcenia zintegrowanego w klasach I - III szkoły podstawowej oraz ścieżek edukacyjnych.
Działalność edukacyjna szkoły jest określona przez:
1) szkolny zestaw programów nauczania, który - uwzględniając wymiar wychowawczy - obejmuje całą działalność szkoły z punktu widzenia dydaktycznego,
2) program wychowawczy szkoły, który opisuje w sposób całościowy wszystkie treści i działania o charakterze wychowawczym i jest realizowany przez wszystkich nauczycieli,
3) program profilaktyki dostosowany do potrzeb rozwojowych uczniów oraz potrzeb danego środowiska, który opisuje w sposób całościowy wszystkie treści i działania o charakterze profilaktycznym skierowane do uczniów, nauczycieli i rodziców.
Szkolny zestaw programów nauczania, program wychowawczy szkoły oraz program profilaktyki tworzą spójną całość. Ich przygotowanie i realizacja są zadaniem zarówno całej szkoły, jak każdego nauczyciela.
Obok zadań wychowawczych i profilaktycznych nauczyciele wykonują również działania opiekuńcze odpowiednio do istniejących potrzeb.
Konieczne jest podejmowanie przez nauczycieli działań mających na celu wyrównywanie szans edukacyjnych uczniów.
Edukacja szkolna przebiega w następujących etapach edukacyjnych dostosowanych do okresów rozwojowych dziecka:
1) etap I - klasy I-III szkoły podstawowej,
2) etap II - klasy IV-VI szkoły podstawowej,
3) etap III - gimnazjum.
Ilekroć w załączniku jest mowa o:
1) zajęciach edukacyjnych - należy przez to rozumieć zajęcia o charakterze dydaktyczno-wychowawczym, w toku których odbywa się nauczanie przedmiotów (bloków przedmiotowych), kształcenie zintegrowane lub realizacja ścieżek edukacyjnych,
2) ścieżce edukacyjnej - należy przez to rozumieć zestaw treści i umiejętności o istotnym znaczeniu poznawczym i wychowawczym, których realizacja może odbywać się w ramach nauczania przedmiotów lub w postaci odrębnych zajęć,
3) etapie edukacyjnym - należy przez to rozumieć odpowiedni okres kształcenia o wyróżnionych celach, stanowiący całość dydaktyczną,
4) kształceniu zintegrowanym - należy przez to rozumieć system nauczania w klasach I - III szkoły podstawowej.
SZKOŁA PODSTAWOWA
I i II ETAP EDUKACYJNY
Nauczyciele w szkole podstawowej dostosowują sposób przekazywania odpowiedniej wiedzy, kształtowania umiejętności i postaw uczniów do naturalnej w tym wieku aktywności dzieci, umożliwiają im poznawanie świata w jego jedności i złożoności, wspomagają ich samodzielność uczenia się, inspirują je do wyrażania własnych myśli i przeżyć, rozbudzają ich ciekawość poznawczą oraz motywację do dalszej edukacji.
Edukacja w szkole podstawowej, wspomagając rozwój dziecka jako osoby i wprowadzając je w życie społeczne, ma na celu przede wszystkim:
1) prowadzić dziecko do nabywania i rozwijania umiejętności wypowiadania się, czytania i pisania, wykonywania elementarnych działań arytmetycznych, posługiwania się prostymi narzędziami i kształtowania nawyków społecznego współżycia,
2) rozwijać poznawcze możliwości uczniów, tak aby mogli oni przechodzić od dziecięcego do bardziej dojrzałego i uporządkowanego rozumienia świata,
3) rozwijać i przekształcać spontaniczną motywację poznawczą w motywację świadomą, przygotowywać do podejmowania zadań wymagających systematycznego i dłuższego wysiłku intelektualnego i fizycznego,
4) rozbudzać i rozwijać wrażliwość estetyczną i moralną dziecka oraz jego indywidualne zdolności twórcze,
5) umacniać wiarę dziecka we własne siły i w zdolność osiągania wartościowych i trudnych celów,
6) rozwijać zdolność odróżniania świata rzeczywistego od wyobrażonego oraz postaci historycznych od fantastycznych,
7) kształtować potrzeby i umiejętności dbania o własne ciało, zdrowie i sprawność fizyczną; wyrabiać czujność wobec zagrożeń dla zdrowia fizycznego, psychicznego i duchowego,
8) rozwijać umiejętności dziecka poznawania siebie oraz otoczenia rodzinnego, społecznego, kulturowego, technicznego i przyrodniczego dostępnego jego doświadczeniu,
9) wzmacniać poczucie tożsamości kulturowej, historycznej, etnicznej i narodowej,
10) stwarzać warunki do rozwoju wyobraźni i ekspresji werbalnej, plastycznej, muzycznej i ruchowej, zapewniać warunki do harmonijnego rozwoju fizycznego i psychicznego oraz zachowań prozdrowotnych,
11) zapewniać opiekę i wspomagać rozwój dziecka w przyjaznym, bezpiecznym i zdrowym środowisku w poczuciu więzi z rodziną,
12) uwzględniać indywidualne potrzeby dziecka i troszczyć się o zapewnienie mu równych szans,
13) stwarzać warunki do rozwijania samodzielności, obowiązkowości, podejmowania odpowiedzialności za siebie i najbliższe otoczenie,
14) stwarzać warunki do indywidualnego i grupowego działania na rzecz innych.
W szkole podstawowej szczególnie ważne jest stwarzanie przyjaznej atmosfery i pomaganie dziecku w dobrym funkcjonowaniu w społeczności szkolnej.
I ETAP EDUKACYJNY
KLASY I - III
KSZTAŁCENIE ZINTEGROWANE
Kształcenie na tym etapie jest łagodnym przejściem od wychowania przedszkolnego do edukacji prowadzonej w systemie szkolnym. Ma ono charakter zintegrowany.
Zajęcia edukacyjne prowadzi nauczyciel (nauczyciele) według ustalonego przez siebie planu, dostosowując czas zajęć i przerw do aktywności uczniów.
Nauczyciel (nauczyciele) układa zajęcia w taki sposób, aby zachować ciągłość nauczania i doskonalenia podstawowych umiejętności.
Wskazane jest takie organizowanie procesu dydaktyczno - wychowawczego, aby w każdym dniu wystąpiły zajęcia ruchowe, których łączny tygodniowy wymiar wynosi co najmniej 3 godziny.
Cele edukacyjne
Wspomaganie wszechstronnego i harmonijnego rozwoju ucznia, w tym szczególnie:
1) umiejętności służących zdobywaniu wiedzy (czytania, pisania i liczenia),
2) umiejętności nawiązywania i utrzymywania poprawnych kontaktów z innymi dziećmi, dorosłymi, z osobami niepełnosprawnymi, przedstawicielami innej narodowości i rasy itp.,
3) poczucia przynależności do społeczności szkolnej, środowiska lokalnego, regionu i kraju,
4) umiejętności działania w różnych sytuacjach szkolnych i pozaszkolnych,
5) rozbudzania potrzeby kontaktu z przyrodą.
Zadania szkoły
1. Uświadamianie uczniom, że wspólnoty takie jak: rodzina, środowisko lokalne i ojczyzna stanowią wielką wartość w życiu każdego człowieka, i że każdy ma wobec tych wspólnot obowiązki.
2. Uczenie zwyczajów, obyczajów i właściwych zachowań w środowisku rodzinnym, wobec kolegów szkolnych i nauczycieli.
3. Uczenie właściwych zachowań w stosunku do zwierząt i otaczającej przyrody.
4. Rozpoznanie poziomu sprawności warunkującego opanowanie przez uczniów podstawowych umiejętności: czytania, pisania i liczenia; odpowiednio do tego prowadzenie ćwiczeń usprawniających.
5. Kształtowanie właściwych nawyków higienicznych.
6. Zapoznanie dzieci z polską i światową klasyczną literaturą dziecięcą.
Treści nauczania
Edukacja na tym etapie obejmuje następujące treści nauczania i działania edukacyjne:
1) dom rodzinny - dziecko jako członek rodziny,
2) szkoła - dziecko jako uczeń, kolega, przyjaciel,
3) miejscowość, życie jej mieszkańców,
4) przyroda w otoczeniu dziecka,
5) ojczyzna, jej symbole i święta narodowe; baśnie i legendy narodowe,
6) obrazy z przeszłości (własnej rodziny, szkoły, miejscowości),
7) zabawy, zajęcia, przygody dzieci,
8) obrazy z życia dzieci w innych krajach,
9) wybrane wytwory kultury, sztuki, techniki,
10) rozmowy,
11) swobodne i spontaniczne wypowiedzi uczniów,
12) opowiadanie i opisywanie,
13) recytowanie wierszy i prozy,
14) zabawy i gry dramowe, teatralne,
15) uważne słuchanie wypowiedzi innych,
16) odbiór programów radiowych i telewizyjnych,
17) słuchanie baśni, opowiadań i legend, w tym z własnego regionu, jako inspiracji do słownego i pozasłownego wyrażania treści i przeżyć,
18) czytanie głośne sylab, wyrazów, zdań i tekstów,
19) czytanie ciche ze zrozumieniem,
20) różne źródła informacji i technologii informacyjnej, w tym korzystanie z czytelni i biblioteki szkolnej,
21) pisanie liter, łączenie liter w sylaby, pisanie wyrazów, zdań,
22) przepisywanie wyrazów, zdań, tekstów, powiązane z uzupełnianiem i przekształcaniem,
23) pisanie swobodnych tekstów, życzeń, zaproszeń, listów, opowiadań i opisów,
24) pisanie z wykorzystaniem elementarnych zasad pisowni,
25) stosunki przestrzenne, porządkowanie, klasyfikowanie,
26) liczenie (przeliczanie przedmiotów, niezależność liczby przedmiotów od sposobów ich przeliczania, porównywanie liczebności zbiorów),
27) liczby i ich zapis, stopniowe rozszerzanie zakresu liczbowego do 10 000, zapis dziesiątkowy,
28) działania arytmetyczne (dodawanie, odejmowanie, algorytmy dodawania i odejmowania pisemnego, mnożenie, algorytm mnożenia pisemnego przez liczby jednocyfrowe, dzielenie), kolejność wykonywania działań,
29) mierzenie, ważenie, obliczenia pieniężne, kalendarz,
30) matematyzowanie sytuacji konkretnych, rozwiązywanie zadań tekstowych jednodziałaniowych i łatwych zadań złożonych,
31) figury geometryczne, w tym trójkąt, kwadrat, prostokąt, koło,
32) obserwowanie zjawisk i procesów przyrodniczych dostępnych doświadczeniu dziecka i mówienie o nich,
33) formy ochrony środowiska przyrodniczego w najbliższej okolicy,
34) poznanie własnego ciała,
35) dbałość o zdrowie, higiena własna i otoczenia,
36) podobieństwa i różnice między ludźmi, zrozumienie a tolerancja,
37) żywność i żywienie,
38) bezpieczeństwo, w tym poruszanie się po drogach publicznych, rozpoznawanie sygnałów alarmowych o niebezpieczeństwie,
39) poznawanie pracy w wybranych zawodach,
40) urządzenia techniczne powszechnego użytku (bezpieczne użytkowanie),
41) wykorzystanie materiałów (papier, drewno, tkanina, metal, tworzywa sztuczne, materiały przyrodnicze) w działalności manualnej,
42) organizacja pracy (planowanie, organizacja stanowiska, racjonalne wykorzystanie materiału i czasu),
43) działalność plastyczna uczniów w różnych materiałach, technikach i formach z wykorzystaniem tradycji regionalnych,
44) różnorodność dziedzictwa i poszukiwań w sferze kultury,
45) wielość środków komunikacji (język przestrzeni, koloru, ciała itp.) oraz środków wyrazu plastycznego,
46) ekspresja i autoekspresja,
47) rozumienie, akceptacja i tolerancja dla innych wypowiedzi artystycznych,
48) kształtowanie otoczenia i form użytkowych,
49) krajobraz kulturowy,
50) brzmienie głosów, instrumentów muzycznych, dźwięk, rytm, tempo,
51) śpiew, gra na instrumentach, ruch z muzyką,
52) percepcja elementów akustyki środowiska człowieka, muzyki i utworów muzycznych,
53) gry i zabawy ruchowe, ćwiczenia terenowe, wędrówki piesze,
54) umiejętności ruchowe oraz ćwiczenia fizyczne korygujące postawę ciała,
55) przestrzeganie reguł w grach i zabawach ruchowych.
W szkołach, które organizują naukę języka mniejszości narodowej lub grupy etnicznej, język ten jest nauczany w ramach nauczania zintegrowanego. Treści nauczania w klasach I-III powinny być czerpane z podobnych kręgów tematycznych, jakie zostały określone powyżej, z uwzględnieniem kultury danej mniejszości narodowej lub grupy etnicznej.
II ETAP EDUKACYJNY
KLASY IV-VI
Począwszy od II etapu edukacyjnego wprowadza się przedmioty i następujące ścieżki edukacyjne o charakterze wychowawczo - dydaktycznym:
1) edukacja czytelnicza i medialna,
2) edukacja ekologiczna,
3) edukacja prozdrowotna,
4) wychowanie do życia w społeczeństwie:
a) wychowanie do życia w rodzinie,
b) wychowanie regionalne - dziedzictwo kulturowe w regionie,
c) wychowanie patriotyczne i obywatelskie.
Dyrektor szkoły zapewnia uwzględnienie problematyki ścieżek edukacyjnych w szkolnym zestawie programów nauczania. Realizację ścieżek edukacyjnych zapewniają nauczyciele wszystkich przedmiotów, którzy do własnego programu włączają odpowiednio treści danej ścieżki.
Częściowej realizacji tych treści można dokonać w czasie odrębnych, modułowych, kilkugodzinnych zajęć. Dotyczy to zwłaszcza ścieżki edukacyjnej "Wychowanie do życia w społeczeństwie".
===========Gimnazjum=============
GIMNAZJUM
III ETAP EDUKACYJNY
W gimnazjum nauczyciele wprowadzają uczniów w świat wiedzy naukowej, wdrażają ich do samodzielności, pomagają im w podejmowaniu decyzji dotyczącej kierunku dalszej edukacji i przygotowują do aktywnego udziału w życiu społecznym.
Edukacja w gimnazjum, wspomagając rozwój ucznia jako osoby i wprowadzając go w życie społeczne, ma na celu przede wszystkim:
1) wprowadzać ucznia w świat nauki przez poznanie języka, pojęć, twierdzeń i metod właściwych dla wybranych dyscyplin naukowych na poziomie umożliwiającym dalsze kształcenie,
2) rozbudzać i rozwijać indywidualne zainteresowania ucznia,
3) wprowadzać ucznia w świat kultury i sztuki,
4) rozwijać umiejętności społeczne ucznia przez zdobywanie prawidłowych doświadczeń we współżyciu i współdziałaniu w grupie rówieśniczej.
Ścieżki edukacyjne
W gimnazjum, obok przedmiotów, wprowadza się następujące ścieżki edukacyjne:
1) edukacja czytelnicza i medialna,
2) edukacja ekologiczna,
3) edukacja europejska,
4) edukacja filozoficzna,
5) edukacja prozdrowotna,
6) edukacja regionalna - dziedzictwo kulturowe w regionie,
7) kultura polska na tle cywilizacji śródziemnomorskiej,
8) obrona cywilna.
Dyrektor szkoły zapewnia uwzględnienie problematyki ścieżek edukacyjnych w szkolnym zestawie programów nauczania. Realizację ścieżek edukacyjnych zapewniają nauczyciele wszystkich przedmiotów, którzy do własnego programu włączają odpowiednio treści danej ścieżki.
[======================================================================]
68. Jak wybrać program nauczania informatyki
[======================================================================]
69. Cele dydaktyczne
[======================================================================]
70. Operacjonalizacja celów kształcenia
[======================================================================]
71. Co to jest rzetelność testu
Rzetelność testów - to dokładność dokonywanego przez niego pomiaru. Rzetelny test posiada niewielki margines błędu pomiaru. Rzetelność pomiaru testowego wynika z jego odporności na działanie czynników zewnętrznych. Wysoki poziom rzetelności pomiaru poziomu inteligencji czy cech psychicznych, dokonanego przy pomocy Testu Ravena sprawił, że żołnierze zbadani dwukrotnie tym testem (przed i po całonocnych ćwiczeniach) uzyskali identyczne rezultaty.
Rzetelność testu często określa się porównując rezultaty uzyskane przez osoby badane dwukrotnie tym samym testem. Im wyższy współczynnik korelacji między rezultatami dwukrotnego badania tym samym testem, tym wyżej ocenia się jego rzetelność. Brzeziński (2000) zwraca uwagę, że istotną rolę odgrywa czas, który dzieli pierwsze badanie od drugiego, a autorzy testu na ogół o tym nie wspominają. A fakt ten może wpłynąć na przeszacowanie wartości współczynnika korelacji. Inne metody oceny rzetelności testu to:
Porównanie rezultatów połówek tego samego testu - koreluje się wyniki uzyskane w odpowiedzi na parzyste i nieparzyste części testu
Porównanie wyników uzyskanych w badaniach dwoma alternatywnymi wersjami danego testu - problemem jest tu dbałość o identyczność obu wersji, co bywa trudne do osiągnięcia
Obliczanie właściwości statystycznych poszczególnych pozycji testowych - korelacja rezultatów poszczególnych zadań testowych z wynikiem ogólnym testu
Nie ma jednej, uniwersalnej metody określającej rzetelność testu.
[======================================================================]
72. Co to jest trafność testu
Trafność - test mierzy to, do czego został skonstruowany. Sprawności intelektualne nigdy nie występują w izolowanej postaci, nie można mierzyć np. wyłącznie uwagi, tylko uwagę w połączeniu ze spostrzeganiem lub zapamiętywaniem. Test uwagi jest wtedy trafny, gdy wysoki rezultat będzie zależał wyłącznie od sprawności uwagi, a nie np. od wysokiej sprawności zapamiętywania przy stosunkowo niskim poziomie uwagi.
Występują następujące rodzaje trafności:
Trafność diagnostyczna - w jakim stopniu test diagnozuje poziom określonej cechy występujący u danej jednostki
Trafność prognostyczna - w jakim stopniu test przewiduje zachowanie jednostki w sytuacji poza testowej
Trafność treściową zwaną też trafnością wewnętrzną - określana jest poprzez stwierdzenie, czy test jako całość ujawnia takie zachowanie osoby badanej, które będzie zgodne z tą cechą, którą objęto badaniami. Jeśli np. test ma badać przydatność zawodową, to wszystkie zawarte w nim zadania powinny być zgodne z wymaganiami psychofizycznymi stawianymi przez pracę w danym zawodzie.
Trafność teoretyczną - czy dany test został zredagowany zgodnie z daną teorią psychologiczną, która legła u podstaw jego tworzenia. Np. zgodnie z określonymi teoriami dana cecha ma charakter dychotomiczny i wtedy test musi wykazać jej obecność lub brak u osoby badanej. Inne cechy mogą mieć charakter ciągły i test musi wykazać, w jakim miejscu kontinuum danej cechy u określonej osoby się znajduje (jakie jest jej nasilenie).
Dwa pierwsze rodzaje trafności (diagnostyczna i prognostyczna) noszą nazwę trafności kryterialnej, mające na celu skonfrontowanie rezultatów badań testowych z jakimś kryterium zewnętrznym np. z wynikami w nauce lub z danymi obserwacyjnymi z zachowania osoby badanej. Poprawne określanie trafności zewnętrznej powinno być przeprowadzone w oparciu o poza testowe kryterium.
Określenie trafności treściowej testu jest również bardzo trudne. Trafność treściowa testu pogarsza się w miarę tego, jak test się starzeje. Np. testy wiadomości szkolnych, testy wiedzy zawodowej czy przydatności do pracy tracą swą trafność treściową, gdy zmieniają się programy szkolne czy wymagania stawiane na danym stanowisku pracy.
[======================================================================]
73. Organizacja pracowni informatycznej
[======================================================================]
74. Wyjaśnij zasadę powstawania obrazu na monitorze CRT
Działo elektronowe wystrzeliwuje elektrony wówczas, gdy temperatura jest na tyle wysoka, aby uwolnić od katody elektrony o ujemnym ładunku. Aby elektrony mogły dotrzeć do fosforu, najpierw muszą przejść przez elementy skupiające. W momencie wystrzelenia strumień elektronów ma kształt okrągły, lecz im bliżej do fosforu, tym bardziej jest zniekształcany i przyjmuje kształt eliptyczny. Jest to zjawisko analogiczne do astygmatyzmu. W związku z tym prowadzenie strumienia elektronów jest w nowoczesnych monitorach tak pomyślane, aby te zniekształcenia wyeliminować. Elementy skupiające mają sprawić, aby na początku drogi strumień elektronów był możliwie cienki, a następnie, po korekcji astygmatyzmu, został skierowany ściśle tam, gdzie w fazie finalnej uderza w specyficzny punkt pokryty fosforem.
Cewki odchylające wokół szyjki kineskopu tworzą pole magnetyczne, które kontroluje kierunek strumieni elektronów. Dodatnio naładowana anoda ściąga ujemne ładunki wytwarzane przez działo. Elektrony podążają w jej kierunku ze stałą prędkością, ale nigdy do niej nie docierają, bo kierowane są siłą cewek odchylających w stronę ekranu ulokowanego naprzeciw działa.
Moduł odchylania kieruje strumień kolejno z lewej strony na prawą, z powrotem do lewej krawędzi i znów z lewej strony na prawą, tylko jeden rząd niżej, zapewniając w ten sposób całkowite pokrycie ekranu strumieniem. Kiedy strumień dotrze do prawego dolnego rogu, cały proces zaczyna się od nowa od lewego górnego rogu.
Omiatanie ekranu strumieniem odbywa się tak szybko i często, że triady fosforyzujące nie zdążą jeszcze zgasnąć, kiedy są znów rozświetlane.
Powierzchnia kineskopu nie jest kulista, więc strumienie elektronów muszą mieć różne długości. Są krótsze w centrum ekranu i dłuższe w miarę docierania do jego narożników. To oznacza również, że czas, przez który strumienie podlegają odchyleniu, jest różny w zależności od kierunku ich promieniowania. Aby zniwelować to zjawisko, monitory CRT mają układ odchylania dynamicznie dopasowujący siłę swojego działania do miejsca, w którym strumień elektronów uderzy w powierzchnię kineskopu.
Zanim jednak strumień elektronów dotrze do punktów fosforu, przechodzi przez perforowany materiał umieszczony bezpośrednio przed fosforem. Nazywa się go maską.
Maska
W nowoczesnych monitorach element ten ma różną budowę, dopasowaną do określonych technologii CRT. Maska pełni kilka istotnych funkcji: filtruje strumień elektronów, formuje mniejsze, mniej okrągłe punkty, które mogą uderzać w poszczególne punkty fosforu bardziej precyzyjnie. Pozwala też wychwycić zabłąkane elektrony, dzięki czemu strumień uderza tylko w te punkty, w które powinien. Prowadząc elektrony do powłoki fosforowej o odpowiedniej barwie, pozwala na niezależną kontrolę jasności podstawowych kolorów.
W momencie, gdy strumień rozbija się na przodzie kineskopu, elektrony pobudzają fosfor odpowiadający pikselom obrazu, który ma zostać odtworzony na ekranie. Wtedy też następuje rozjaśnienie obrazu, światło jest emitowane przez indywidualne punkty fosforu. Ich bliskość sprawia, że oko ludzkie widzi tę kombinację jako jeden kolorowy piksel.
[======================================================================]
75. ECDL
Europejski Certyfikat Umiejętności Komputerowych (ang. European Computer Driving Licence, ECDL) - jednolity dla całej Unii Europejskiej certyfikat zaświadczający o posiadaniu podstawowych umiejętności w zakresie korzystania z komputera osobistego. Wcześniej nazywany w Polsce Europejskim Komputerowym Prawem Jazdy.
Inicjatywa Certyfikatu Komputerowego powstała w 1992 roku w Finlandii. Pierwszy Certyfikat Umiejetności Komputerowych wydano w 1994 roku. Do połowy 1996 roku w liczącej około 5 mln mieszkańców Finlandii ECDL posiadało już ponad 10 000 osób. Docelowo Finowie zakładają, że egzaminom podda się około miliona osób, czyli co piąty obywatel Finlandii. Później ta inicjatywa rozpowszechniła się na cały obszar Unii Europejskiej. Reguły egzaminu są identyczne na całym obszarze Unii.
Certyfikat ECDL zaświadcza, że jego posiadacz potrafi prawidłowo wykonywać na komputerze osobistym (mikrokomputerze) podstawowe zadania: edytować teksty, korzystać z arkuszy kalkulacyjnych i z sieci komputerowych. Kontrola tych umiejętności przeprowadzana jest w 7 egzaminach - 1 teoretycznym i 6 praktycznych - obejmujących następujące obszary zastosowań mikrokomputerów i technologii informatycznych:
Podstawy technik informatycznych
Użytkowanie komputerów
Przetwarzanie tekstów
Arkusze kalkulacyjne
Bazy danych
Grafika menedżerska i prezentacyjna
Usługi w sieciach informatycznych
Egzaminy te sprawdzają podstawowe umiejętności potrzebne zarówno w pracy zawodowej, jak i coraz częściej w życiu codziennym każdego obywatela Europy. Egzaminy muszą być zaliczone w ciągu 3 lat od, zaliczenia 1 z modułów.
W 2006 roku Polskie Biuro ECDL z siedzibą w Lublinie rozpoczęło wdrażanie certyfikatu na poziomie zaawansowanym - ECDL Advanced. Składa się on z 4 odrębnych egzaminów praktycznych, obejmujących następujące zakresy tematyczne:
AM3: Przetwarzanie tekstu, poziom zaawansowany
AM4: Arkusze kalkulacyjne, poziom zaawansowany
AM5: Bazy danych, poziom zaawansowany
AM6: Grafika menedżerska i prezentacyjna, poziom zaawansowany
W 2007 rozpoczęto certyfikację ECDL CAD oraz ECDL e-Citizen.
ECDL CAD to Europejski Certyfikat Umiejętności Komputerowego Wspomagania Projektowania. Zaświadcza o posiadaniu podstawowych umiejętności wykorzystania narzędzi CAD do tworzenia rysunków dwuwymiarowych (2D).
ECDL e-Citizen to w wersji polskiej e-Obywatel jest certyfikatem dla ludzi z ograniczoną wiedzą z zakresu informatyki i mechanizmów Internetu.
W 2008 rozpoczęto certyfikację ECDL WebStarter.
ECDL WebStarter to Europejski Certyfikat Umiejętności Komputerowego projektowania stron internetowych. Zaświadcza o posiadaniu podstawowych umiejętności wykorzystania narzędzi języka HTML do tworzenia stron i serwisów internetowych.
[======================================================================]
76. Wykorzystanie edukacyjne Internetu
[======================================================================]
77. Podręcznik multimedialny czym być powinien
[======================================================================]
78. Ćwiczenia multimedialne
[======================================================================]
79. Wirtualne laboratorium
[======================================================================]
80. Wiedza proceduralna a wiedza deklaratywna
[======================================================================]
81. Co oznacza stwierdzenie, że struktura wiedzy ucznia jest zamknięta
[======================================================================]
82. Co oznacza stwierdzenie, że struktura wiedzy ucznia jest otwarta
[======================================================================]
83. Jak określić umiejętności informatyczne ucznia
[======================================================================]
84. Jak sprawdzić wiedzę ucznia
[======================================================================]
85. Co to są umiejętności
[======================================================================]
86. Co to jest postawa i jak można ja zdefiniować dla potrzeb nauczania informatycznego
[======================================================================]
87. Omów model pamięci
[======================================================================]
88. Kognitywistyka a uczenie się
Kognitywistyka jest dziedziną nauki zajmującą się zjawiskami dotyczącymi działania umysłu, w szczególności ich modelowaniem. Na jej określenie używane są też pojęcia nauki kognitywne (ang. Cognitive Science), bądź nauki o poznaniu. Kognitywistyka jest nauką wybitnie interdyscyplinarną, znajduje się na pograniczu dziedzin psychologii (szczególnie psychologii poznawczej), neurologii, filozofii umysłu, sztucznej inteligencji, oraz lingwistyki. Zobacz: lingwistyka kognitywna.
Kognitywistyka jak odrębna dziedzina nauki wyodrębniła się w roku 1975 w Stanach Zjednoczonych. W roku 1976 zaczęto wydawać kwartalnik Cognitive Science. Program badawczy kognitywistyki został przedstawiony w tym samym roku przez Allena Newella oraz Herberta Simona w artykule Informatyka jako badania empiryczne.
Celem kognitywistyki jest wyjaśnienie działania umysłu.Pięć głównych pól badawczych w obrębie tej dziedziny to reprezentacja wiedzy, język, uczenie się, myślenie oraz percepcja. Coraz popularniejszym paradygmatem kognitywistyki staje się cognitive neuroscience - nauka, w której łączy się wiadomości pochodzące z tradycyjnych nauk o poznawaniu, psychologii, neurobiologii i wielu innych dyscyplin.
Jednym z najbardziej znanych specjalistów w tej dziedzinie w Polsce jest Włodzisław Duch.
[======================================================================]
89. Gry komputerowe - zalety i wady
Zalety gier komputerowych:
rozwijają spostrzegawczość, refleks, wyobraźnię przestrzenną;
ćwiczą sprawność koordynacji ruchowo - wzrokowej, rozwijają sprawność manualną (gry zręcznościowe);
koncentrują uwagę i wydłużają czas koncentracji;
wzbogacają wiedzę poprzez zabawę i rozrywkę, uczą wykorzystania tej wiedzy, utrwalają ją;
ćwiczą logiczne myślenie (gry logiczne i strategiczne), kojarzenie faktów;
zmuszają do podejmowania decyzji;
uczą samodzielności, radzenia sobie w nowych sytuacjach, zapewniając jednocześnie bezpieczeństwo - brak rzeczywistych konsekwencji złych decyzji, traktowanie ich w kategoriach możliwych błędów, akceptacja porażek;
aktywne działania dziecka rozwijają jego uwagę dowolną;
pobudzają do działań twórczych, rozwijają wyobraźnię;
zaspokajają pragnienia grającego (współzawodnictwo, wzrost poczucia sukcesu), wzmacniają poczucie własnej wartości;
uczą cierpliwości, wytrwałości;
redukują lęk, pomagają w leczeniu fobii;
umożliwiają aktywne rozładowanie emocji;
utrwalają nawyki poprzez powtarzalność; tworzą nawyki nieustannego poszukiwania wskazówek oraz informacji, samouczenia;
uczą podporządkowania regułom, tworzenia ładu, gospodarowania.
Wady gier komputerowych:
prowadzą do uzależnienia;
powodują zaburzenia widzenia świata i postrzegania granic między dobrem a złem, fikcją a rzeczywistością, oderwanie od rzeczywistości;
prowokują agresywne zachowania;
powodują zaburzenia koncentracji uwagi, niepokój, stany lękowe, rozchwianie emocjonalne, fantazjowanie a kłamstwa, nadpobudliwość, impulsywność, ekstremalne reakcje emocjonalne, nieadekwatne do sytuacji i bodźca, który je wywołuje;
dezorganizują życie poprzez złe zarządzanie czasem oraz niechęć do innych form aktywności;
osłabiają kontakty społeczne, nie uczą dobrej komunikacji interpersonalnej i praw rządzących grupami społecznymi;
zniechęcają do działań twórczych;
uodparniają na analogiczne sytuacje w świecie rzeczywistym, powodując zanik wrażliwości na przemoc, cierpienie czy ból;
powodują znieczulenie, zobojętnienie;
długotrwałe siedzenie i najczęściej nieodpowiednio przygotowane dla dziecka stanowisko komputerowe obciąża układ mięśniowo - szkieletowy, prowadzi do zwyrodnień, wad postawy, do zaniku mięśni;
nadmiernie obciążają narząd wzroku;
utrwalają złe nawyki poprzez powtarzalność;
dziecko zapomina o własnej osobowości, często identyfikując się z bohaterem ulubionej gry i przejmując jego zachowania wraz z systemem wartości.
Unikajmy gier, które:
powodują negatywne odczucia (lęk, odrazę, grozę, złość, agresję), a przedstawiony w nich świat opiera się na przemocy, niszczeniu, znęcaniu się, poniżaniu;
prezentują negatywne wzorce osobowe, zachowania.
Objawy uzależnienia dziecka:
niepokój, złe samopoczucie (ból głowy, zmęczenie, senność, zaburzenia snu, nadmierne pocenie się, moczenie się itp.), nadpobudliwość, rozdrażnienie, impulsywność, agresywne zachowania, rozwiązywanie problemów przy użyciu przemocy;
lęk, depresja po odejściu od komputera;
myślenie, mówienie i częste wykonywanie czynności związanych z grami;
utrata poczucia czasu w momencie gry, przymus gry;
oderwanie od innych zajęć;
rezygnacja z ruchu i zabaw na świeżym powietrzu, wielogodzinne przesiadywanie w zamkniętym pomieszczeniu;
unikanie kontaktu z rówieśnikami, trudności w nawiązywaniu nowych kontaktów, utrata dotychczasowych przyjaciół;
zapominanie o realnym świecie, brak reakcji na otoczenie;
unikanie rozmów i kontaktów z rodziną;
okłamywanie rodziców, niesłuchanie dorosłych, lekceważenie dorosłych autorytetów oraz praw i uczuć innych ludzi.
Reasumując - pamiętajmy, że rozumne korzystanie z komputera oraz gier
komputerowych powinno być bogactwem i służyć rozwojowi młodego człowieka, nie może stać się nieszczęściem i uzależnieniem.
[======================================================================]
90. Wirtualna rzeczywistość szansa czy zagrożenie
[======================================================================]
91. Etapy rozwiązywania problemów
[======================================================================]
92. Jak przygotować prezentacje multimedialną
pobierz załącznik ppt => http://www.sciaga.pl/tekst/zalacznik/16645/
[======================================================================]
93. Obszary zastosowań komputerów w edukacji
[======================================================================]
94. Czy warto uczyć programowania i dlaczego
[======================================================================]
95. Co daje nauczanie algorytmiki
[======================================================================]
96. Mgła, smog i dym informacyjny
Informacyjny smog oznacza nadprodukcję informacji, wynikającą z technicznej łatwości wprowadzania jej do sieci. W odróżnieniu od książki naukowej, której treść na drodze od autora do czytelnika podlega recenzji i redakcyjnemu uszlachetnieniu, w Internecie droga ta jest praktycznie zerowa: informacja wprowadzona przez dowolnego autora jest natychmiast dostępna dla innych użytkowników sieci. Stwarza to niebezpieczeństwo rozsyłania do licznych rzesz informacji bezsensownej, nieprawdziwej czy nawet szkodliwej. Paradoksalnie więc jedne z największych zalet sieci: globalny zasięg i szybkość przesyłania informacji, mogą być także jej głównymi wadami. Wystarczy wspomnieć tu o rozsyłanych ostatnio poprzez sieć wirusach "I love you", "Czernobyl" czy "Romeo i Julia", które sparaliżowały miliony komputerów na całym świecie i przyniosły olbrzymie, wymierne straty finansowe. Łatwość wytwarzania i rozsyłania informacji w połączeniu z brakiem kontroli i oceny ich jakości stanowi często zachętę do uaktywnienia się tych osób, których merytoryczne i moralne kompetencje nie pozwalają im zaistnieć na szerszym forum.
Metafora informacyjnej mgły oznacza ogromne rozproszenie informacji, które znacznie utrudnia poruszanie się po strukturach informacyjnych oraz wydłuża czas dostępu do informacji i przyczynia się do jej niejednolitości.
Informacyjny dym to treści zatrute nienawiścią, ksenofobią, brakiem tolerancji, przemocą i brutalnością, pornografią itd. Sieć jest znakomitym, anonimowym forum spotkań członków sekt, grup przestępczych, ludzi głoszących skrajne poglądy religijne, polityczne itp.
Wszystkie trzy negatywne aspekty Internetu przenikają się wzajemnie, bo przecież poruszając się w informacyjnej mgle możemy natrafić na informacyjny dym, który niewątpliwie jest częścią składową informacyjnego smogu. Co zatem robić, aby nie zginąć w tym zalewie informacyjnym i dokonać wyboru właściwej informacji? Użytkownik powinien dysponować własnym aksjologicznym systemem filtrującym.
[======================================================================]
97. Uczenie się uboczne - eksplikacja pojęcia
[======================================================================]
98. Zasady pracy ucznia z Internetem w ramach zajęć szkolnych
[======================================================================]
99. Standardy przygotowania nauczycieli w zakresie TI
STRESZCZENIE [pełny jest na - www.wsipnet.pl/dane/pliki/kluby/8/Standardy.pdf]
Przedstawione standardy przygotowania nauczycieli szkół podstawowych, gimnazjów i szkół
ponadgimnazjalnych w zakresie technologii informacyjnej (TI) i informatyki dotyczą:
• każdego nauczyciela;
• nauczyciela technologii informacyjnej, czyli:
- nauczyciela przedmiotu informatyka w szkole podstawowej,
- nauczyciela przedmiotu informatyka w gimnazjum,
- nauczyciela przedmiotu technologia informacyjna w zakresie kształcenia ogólnego
w szkole ponadgimnazjalnej;
• nauczyciela przedmiotu informatyka w zakresie kształcenia rozszerzonego w szkole ponadgimnazjalnej;
• szkolnego koordynatora technologii informacyjnej, którym jest nauczyciel pełniący dodatkowo funkcję doradcy innych nauczycieli w zakresie stosowania technologii informacyjnej
w nauczaniu
3. Standardy opracowano na podstawie wymagań stawianych szkołom i nauczycielom przez programowe standardy kształcenia, zawarte w Podstawie programowej
4. Prezentowane standardy, będące określeniem tego, co jest wartościowe, mogą być stosowane do oceny przygotowania nauczycieli w zakresie technologii informacyjnej i informatyki. Stanowić zatem mogą punkt odniesienia przy opracowywaniu programów kształcenia nauczycieli w tym zakresie w uczelniach wyższych oraz programów kształcenia i doskonalenia nauczycieli pracujących zawodowo. W konsekwencji, mogą przyczynić się do podniesienia poziomu przygotowania nauczycieli i stanowić bazę dla certyfikatów ich przygotowania.
Standardy mogą również posłużyć do opracowania kryteriów akredytacji w zakresie technologii informacyjnej i informatyki programów nauczania (np. na studium podyplomowym) i instytucji kształcących lub doskonalących nauczycieli
[======================================================================]
100. Pojęcie interfejsu użytkownika
Interfejs użytkownika (ang. User Interface, UI) — w technice część urządzenia odpowiedzialna za interakcję z użytkownikiem. Człowiek nie jest zdolny do bezpośredniej komunikacji z maszynami. Aby było to możliwe urządzenia są wyposażone w odpowiednie urządzenia wejścia-wyjścia tworzące razem interfejs użytkownika:
interfejs tekstowy — urządzenie wejściowe to klawiatura, a wyjściowe to drukarka znakowa lub wyświetlacz w trybie znakowym,
interfejs graficzny — wejście to urządzenie wskazujące (np. myszka), a wyjściowe to wyświetlacz graficzny,
interfejs strony internetowej — wejście i wyjście jest realizowane poprzez stronę internetową wyświetlaną w przeglądarce internetowej.
W informatyce najczęściej jako interfejs użytkownika rozpatruje się część oprogramowania zajmującą się obsługą urządzeń wejścia/wyjścia przeznaczonych dla interakcji z użytkownikiem. W komputerach zwykle za obsługę większości funkcji interfejsu użytkownika odpowiada system operacyjny, który narzuca standaryzację wyglądu różnych aplikacji. Zwykli użytkownicy postrzegają oprogramowanie wyłącznie poprzez interfejs użytkownika.
Specjalistami zajmującymi się projektowaniem interfejsów są projektanci interakcji bądź też architekci informacji łączący przygotowanie techniczne z wiedzą psychologiczną o przetwarzaniu informacji przez człowieka i wiedzą o ergonomii aplikacji. Przygotowany przez nich projekt trafia następnie do projektantów graficznych i programistów.
Naukowcy prowadzą badania nad nowymi interfejsami, takimi jak wirtualna rzeczywistość oraz interfejsami mózg-maszyna, które mogą ułatwić użytkownikowi współpracę z komputerem.
[======================================================================]
101. Co to jest model użytkownika
Model użytkownika: model wewnętrzny systemu, model interakcji z systemem. Model użytkownika powinien umożliwiać użytkownikowi poprawne wnioskowanie dotyczące przewidywanego zachowania systemu.
[======================================================================]
102. Wady i zalety interfejsu graficznego i tekstowego
[======================================================================]
103. Komputer multimedialny
- pecet przeznaczony do zastosowań multimedialnych. W najprostszej konfiguracji wyposażony w kartę dźwiękową, CD-ROM. Obecnie wszystkie komputery dostępne na rynku spełniają te wymagania.
[======================================================================]
104. Wyposażenie szkolnej pracowni informatycznej
[======================================================================]
105. Ocena przydatności informacji internetowej
[======================================================================]
106. Encyklopedie multimedialne
Co to jest Encyklopedia multimedialna?
- komputerowy, zapisany na CD-ROM-ie, odpowiednik tradycyjnej encyklopedii: ogólnej lub tematycznej. Na jednym krążku CD-ROM mieści się cała treść encyklopedii wydanej w wersji papierowej z tysiącami ilustracji, uzupełnionych dziesiątkami sekwencji dźwiękowych, animowanych i wideo. Encyklopedie te, dzięki zastosowaniu rozbudowanych systemów menu, możliwości wpisywania poszukiwanych haseł przy wykorzystaniu operatorów sumy i iloczynu logicznego wyrazów, które mają wystąpić w tekście i hasła, pozwalają na łatwy dostęp do poszukiwanych haseł, a dzięki zastosowaniu struktury odwołań hipertekstowych także na przemieszczanie się do haseł powiązanych ze sobą. Ilustracje i inne formy mediów towarzyszące hasłu są przy nim zaznaczone za pomocą odpowiednich ikon. Encyklopedie multimedialne obejmują także atlasy, zestawienia najważniejszych wydarzeń historycznych i słowniki języka, w którym wydana jest encyklopedia. Multimedialne formy i łatwość dostępu do treści czynią z encyklopedii na CD-ROM-ach funkcjonalne i atrakcyjne źródło wiadomości z różnych dziedzin wiedzy. Do korzystania z tych programów niezbędny jest zestaw komputerowy wyposażony w czytnik CD-ROM, kartę dźwiękową, głośniki i kolorowy monitor. Dodatkowym walorem encyklopedii jest bardzo niska w porównaniu z encyklopedią tradycyjnych cena oraz możliwość uaktualniania treści poprzez sieć Internet. Pierwszą encyklopedią w pełni multimedialną była ciągle uaktualniana i ceniona przez użytkowników "Encyklopedia Groliera", będąca multimedialnym odpowiednikiem dwudziestoczterotomowej amerykańskiej encyklopedii akademickiej. Najbardziej znaną i najwyżej ocenianą jest encyklopedia MS Encarta, której wydanie z 1996 zawiera ponad 27 000 obszernych artykułów, 9,5 godz. dźwięku, ponad 100 sekwencji wideo i animowanych, ponad 900 map, 8000 zdjęć, 11 prezentacji interaktywnych, setki tabel i grę testującą wiadomości. Także w 1996 ukazała się na CD-ROM-ie, pierwsza polska encyklopedia wydana przez wydawnictwo PWN.
[======================================================================]
107. Ergonomia psychiczna w pracy z systemem komputerowym
[======================================================================]
108. Ergonomia fizyczna w pracy z komputerem
Nie należy zapominać o ergonomii w czasie pracy z komputerem. Mimo, iż zakup komputera jest przemyślany w najdrobniejszych szczegółach, zaplanowanie miejsca pracy bywa często zaniedbywane. Jednakże warto poświęcić trochę czasu, aby zapobiec takim problemom jak bóle krzyża, karku i stawów oraz ich następstwom.
UWAGA: W TWOIM WŁASNYM INTERESIE LEŻY, ABY TWOJE MIEJSCE PRACY BYŁO WYGODNE I BEZPIECZNE. ZAUWAŻ, ŻE JEŚLI NIE URZĄDZISZ MIEJSCA PRACY ERGONOMICZNIE, MOŻESZ NARAZIĆ SIĘ NA PROBLEMY ZDROWOTNE A NAWET POWAŻNE KALECTWO.
Najważniejsze z punktu widzenia pracy przy komputerze są proporcje pomiędzy wysokością siedzenia i biurka (patrz rys.) oraz kąt nachylenia monitora.
Monitor powinien być pochylony na podstawie tak, aby jego powierzchnia znajdowała się pod kątem prostym do osi spojrzenia skierowanego około 30° w dół.
Wysokość regulowanego blatu biurka powinna zależeć od wzrostu użytkownika (patrz tabela poniżej). Wymiary podane w tabeli są przeciętnymi dla osoby średniego wzrostu (około 175 cm).
Krzesło powinno mieć wysokość około 42 - 53 cm. Oczywiście zależy to od wzrostu użytkownika.
Odległość pomiędzy dolną krawędzią stołu a siedzeniem krzesła powinna wynosić około 25 cm. Najlepiej nadaje się do tego krzesło biurowe z regulowaną wysokością, które można dostosować do wzrostu użytkownika. Krzesło powinno mieć także regulowane oparcie i podłokietniki.
Podczas pracy dłonie powinny spoczywać wygodnie na biurku. Przedramiona powinny tworzyć z osią ciała kąt 90°.
Monitor powinien być ustawiony tak, aby znajdował około 50 cm od oczu.
W czasie ustawiania monitora trzeba zwrócić uwagę na fakt, że odbicia światła sztucznego lub słonecznego będą powodować bóle oczu. Zauważ, że światło padające z okna spowoduje, że użytkownik będzie stale musiał przyzwyczajać wzrok do różnych jasności monitora, papieru, klawiatury i światła dziennego.
Wybierz starannie miejsce, w którym ustawisz komputer:
Komputera można używać wszędzie, gdzie temperatura jest odpowiednia dla człowieka. Nie są jednakże odpowiednie takie pomieszczenia, w których występuje wilgotność powyżej 70%, znaczne zabrudzenia lub zapylenie. Ponadto nie należy wystawiać komputera na działanie temperatur wyższych, niż +45°C lub niższych, niż +10°C.
Upewnij się, że kable połączeniowe łączące komputer z innymi urządzeniami nie będą naprężone.
Zadbaj o to, aby wszystkie kable zasilające i połączeniowe były ułożone tak, aby nie przeszkadzały w poruszaniu się.
Kiedy zapisujesz dane na dysku twardym Twojego komputera lub na dyskietkach, są one zapisywane jako informacja magnetyczna. Upewnij się, że nie ulegną one uszkodzeniu przez silne zewnętrzne pola magnetyczne lub elektryczne.
Ponieważ układy elektroniczne Twojego komputera mogą zostać uszkodzone przez drgania, nie powinno się ustawiać żadnych mechanicznych urządzeń na tej samej płaszczyśnie, na której stoi komputer. Jest to szczególnie ważne w przypadku drukarek igłowych, których wibracje mogą uszkodzić twardy dysk.
Na tylnej ścianie komputera znajduje się wentylator, który zapewnia właściwą temperaturę wewnątrz obudowy. Aby mógł on pracować poprawnie, otwory wentylacyjne nie mogą być zasłaniane. Spowodowałoby to uszkodzenie elementów wewnętrznych komputera przez wysoką temperaturę. Dlatego też nie jest wskazane ustawianie komputera np. na półce lub w zamkniętym regale.
[======================================================================]
109. Co to jest kompresja
Kompresja danych (ang. data compression) - polega na zmianie sposobu zapisu informacji tak, aby zmniejszyć redundancję i tym samym objętość zbioru. Innymi słowy chodzi o wyrażenie tego samego zestawu informacji, lecz za pomocą mniejszej liczby bitów.
Działaniem przeciwnym do kompresji jest dekompresja.
[======================================================================]
110. Kompresja bezstratna
Kompresja stratna i bezstratna [krótko opisane]
Kompresja dzieli się na bezstratną - w której z postaci skompresowanej można odzyskać identyczną postać pierwotną, oraz stratną - w której takie odzyskanie jest niemożliwe, jednak główne właściwości, które nas interesują, zostają zachowane, np. jeśli kompresowany jest obrazek, nie występują w postaci odtworzonej widoczne różnice w stosunku do oryginału. Pomimo to może się już nie nadawać zbyt dobrze np. do dalszej przeróbki czy do wydruku, gdyż w tych zastosowaniach wymaga się zachowania innych właściwości.
Algorytmy kompresji dzieli się na algorytmy zastosowania ogólnego oraz algorytmy do danego typu danych. Z definicji nie istnieją algorytmy kompresji stratnej zastosowania ogólnego, ponieważ dla różnych typów danych konieczne jest zachowanie różnych właściwości. Na przykład kompresja dźwięku używa specjalnego modelu psychoakustycznego, który nie ma sensu w zastosowaniu do obrazu, poza bardzo ogólnymi przesłankami dotyczącymi sposobu postrzegania rzeczywistości przez człowieka.
Większość algorytmów bezstratnych to algorytmy zastosowania ogólnego oraz ich drobne przeróbki, dzięki którym lepiej działają z określonymi typami danych. Nawet drobne poprawki mogą znacząco polepszyć wyniki dla pewnych typów danych.
Algorytmy kompresji stratnej często jako ostatniej fazy używają kompresji bezstratnej. W takim przypadku poprzednie fazy mają za zadanie nie tyle kompresować ile przygotować dane do łatwiejszej kompresji.
[=====dłuższy opis===========]
Kompresja bezstratna (ang. lossless compression) to ogólna nazwa metod upakowania informacji do postaci zawierającej zmniejszoną liczbę bitów, pod warunkiem, że metoda ta gwarantuje, że informację można z tej postaci odtworzyć do identycznej postaci pierwotnej.
Najważniejszym twierdzeniem o kompresji bezstratnej jest:Spis treści [ukryj]
1 Twierdzenie o zliczaniu (counting theorem)
2 Algorytmy kompresji bezstratnej
2.1 Popularne metody
3 Zobacz też
4 Linki zewnętrzne
Twierdzenie o zliczaniu (counting theorem)
Niemożliwe jest skonstruowanie funkcji przekształcającej odwracalnie informację na informację (czyli funkcji kompresji bezstratnej), która nie wydłuża jakiejś informacji o przynajmniej 1 bit, chyba że nie kompresuje ona żadnej informacji.
Dowód:
Załóżmy, że dana funkcja kompresuje choć jedną dowolną wiadomość do długości N bitów z dowolnej większej długości. Jest X wiadomości o długości nie większej od N bitów. Jeśli żadna z wiadomości zawierających nie więcej niż N bitów nie została wydłużona, to w wyniku otrzymujemy przynajmniej X+1 wiadomości o długości nie większej niż N bitów. Ponieważ X jest skończone to X+1>X, a więc jest to sprzeczne z założeniem, że takich wiadomości jest X. Co należało udowodnić.
Skonstruowanie funkcji, która wydłuża o nie więcej niż 1 bit jest trywialne. Dla dowolnej funkcji f(x), niech f'(x) będzie:
dla f(x) zawierającego mniej bitów niż x: f'(x)=<0,f(x)>
dla f(x) zawierającego więcej bitów niż x: f'(x)=<1,x>
dla f(x) zawierającego tyle samo bitów co x: f'(x)=<0,f(x)> lub f'(x)=<1,x> (nie ma to znaczenia)
Algorytmy kompresji bezstratnej
Algorytmy kompresji bezstratnej dobrze kompresują "typowe" dane, czyli takie w których występuje znaczna nadmiarowość informacji (redundancja).
Pewne rodzaje danych są bardzo trudne lub niemożliwe do skompresowania:
strumienie liczb losowych (niemożliwe do skompresowania),
strumienie liczb pseudolosowych (w praktyce trudne, choć teoretycznie bardzo dobrze kompresowalne),
dane skompresowane za pomocą tego samego lub innego algorytmu (w praktyce trudne).
Najczęściej używane metody kompresji bezstratnej można podzielić na słownikowe i statystyczne, choć wiele metod lokuje się pośrodku:
metody słownikowe poszukują dokładnych wystąpień danego ciągu znaków, np. zastępują 'the ' krótszą ilością bitów niż jest potrzebna na zakodowanie 4 niezwiązanych znaków. Jednak znajomość symbolu 'the ' nie pociąga za sobą usprawnień w kompresowaniu 'they' czy 'then'.
metody statystyczne używają mniejszej ilości bitów dla częściej występujących symboli, w przypadku praktycznie wszystkich oprócz najprostszych metod, prawdopodobieństwa zależą od kontekstu. A więc np. dla 'h' występującego po 't' używają mniejszej ilości bitów niż dla innych znaków w tym kontekście.
Popularne metody
kodowanie Shannona, Shannona-Fano, Huffmana, arytmetyczne
LZ77, LZ78 i pochodne (LZSS, LZP, LZW, LZMW, LZAP)
RLE
PPM
transformata Burrowsa-Wheelera, Move To Front
[======================================================================]
111. Kompresja stratna
Kompresja stratna — metody zmniejszania liczby bitów potrzebnych do wyrażenia danej informacji, które nie dają gwarancji, że odtworzona informacja będzie identyczna z oryginałem. Dla niektórych danych algorytm kompresji stratnej może odtworzyć informację w sposób identyczny.
Kompresja stratna jest możliwa ze względu na sposób działania ludzkich zmysłów, tj. wyższą wartość pewnych części danych nad innymi. Algorytmy kompresji stratnej zazwyczaj posługują się modelami psychoakustycznymi, psychowizualnymi itd., aby odrzucić najmniej istotne dane o dźwięku, obrazie, pozostawiając dane o wyższej wartości dla rozpoznawania tej informacji (akustycznej, wizualnej) przez zmysły. Ilość odrzucanych danych jest zazwyczaj określana przez stopień kompresji.
Z tego też względu nie istnieją algorytmy kompresji stratnej, które można stosować do dowolnego typu danych. Np. kompresja stratna plików wykonywalnych byłaby praktycznie niemożliwa do zastosowania, gdyż nie jest to informacja odczytywana przez zmysły, a przez maszynę.
Zwykle kompresję stratną stosuje się do:
obrazków
dźwięków
ruchomych obrazów, np. w filmie
Przy danych audiowizualnych zazwyczaj kompresuje się osobno dźwięk, a osobno obraz.
Prostym przykładem kompresji stratnej jest np. zachowanie tylko co drugiego piksela, lub odrzucenie 2 najmniej istotnych bitów. Takie metody jednak nie dają zazwyczaj tak zadowalających rezultatów jak oparte na modelach psychozmysłowych.
[-------------]
Algorytmy kompresji bezstratnej
Kodowanie Huffmana
Kodowanie arytmetyczne
Kodowanie Shannona, Shannona-Fano
LZ77, LZSS, LZP
LZ78, LZW, LZMW, LZAP
LZMA
PNG
RLE
PPM
Deflate
Bzip2 (oparty m.in. o transformaty Burrowsa-Wheelera i Move To Front)
Algorytmy wykorzystywane w kompresji stratnej
DCT
Falki
Kompresja fraktalna
MDCT
Transformata Karhunena Loeve
Systemy kompresji stratnej obrazu
JPEG
MPEG
Windows Media Video (wmv)
Systemy kompresji stratnej dźwięku
Vorbis (Ogg)
A/52 (AC3)
MP1, MP2, MP3
Musepack (mpc)
Windows Media Audio (wma)
ATRAC (używany w Minidisc)
[======================================================================]
112. Grafika komputerowa
Grafika komputerowa - dział informatyki zajmujący się wykorzystaniem komputerów do generowania obrazów oraz wizualizacją rzeczywistych danych. Grafika komputerowa jest obecnie narzędziem powszechnie stosowanym w nauce, technice, kulturze oraz rozrywce.
Chociaż grafika komputerowa koncentruje się głównie na specjalistycznych algorytmach i strukturach danych, to jednak siłą rzeczy musi czerpać z innych dziedzin wiedzy. Na przykład aby uzyskać obrazy fotorealistyczne, należy wiedzieć jak w rzeczywistym świecie światło oddziałuje z przedmiotami. Podobnie, aby symulacja jazdy samochodem była jak najwierniejsza, należy wiedzieć, jak obiekty fizyczne ze sobą oddziałują.
Od kilkunastu lat grafika komputerowa jest też kolejną dyscypliną artystyczną - dzieła powstałe przy jej zastosowaniu nazywa się grafiką cyfrową, infografią lub digitalprintem.
Przykładowe zastosowania
kartografia,
wizualizacja danych pomiarowych (np. w formie wykresów dwu- i trójwymiarowych),
wizualizacja symulacji komputerowych,
diagnostyka medyczna,
kreślenie i projektowanie wspomagane komputerowo (CAD),
przygotowanie publikacji (DTP),
efekty specjalne w filmach,
gry komputerowe.
Klasyfikacja
Ponieważ celem grafiki jest generowanie obrazów, dlatego jednym z głównych kryteriów klasyfikacji jest technika ich tworzenia:
Grafika wektorowa
obraz jest rysowany za pomocą kresek lub łuków. Niegdyś powstawał tak obraz na ploterach kreślących, ale jeszcze do lat 80. XX wieku były wykorzystywane monitory CRT, które kreśliły obraz w analogiczny sposób jak oscyloskopy.
Grafika rastrowa
obraz jest budowany z prostokątnej siatki leżących blisko siebie punktów (tzw. pikseli). Głównym parametrem w przypadku grafiki rastrowej jest wielkość bitmapy, czyli liczba pikseli, podawana na ogół jako wymiary prostokąta.
Identyczny podział istnieje, jeśli weźmie się pod uwagę reprezentację danych w programach komputerowych:
Grafika wektorowa - w tym przypadku nazwa może być nieco myląca, ponieważ obrazy mogą składać się nie tylko z wektorów (odcinków), ale również z innych figur geometrycznych. Cechą grafiki wektorowej jest to, że zapamiętywane są charakterystyczne dla danych figur dane (parametry), np. dla okręgu będzie to środek i promień, dla odcinka współrzędne punktów końcowych, a dla krzywych parametrycznych współrzędne punktów kontrolnych. Program, jeśli musi narysować obraz na urządzeniu (bądź to rastrowym, bądź wektorowym), na podstawie posiadanych danych wygeneruje obraz tych figur - bardzo ważną zaletą tej reprezentacji to możliwość dowolnego powiększania obrazów, bez straty jakości.
Grafika rastrowa - do zapamiętania obrazu rastrowego potrzebna jest dwuwymiarowa tablica pikseli nazywana powszechnie bitmapą. Nazwa wzięła się stąd, że początkowo były rozpowszechnione systemy wyświetlające obrazy czarno-białe, więc w takim przypadku pojedynczy piksel mógł być opisany przez jeden bit. Jednak gdy powszechniejsza stała się grafika kolorowa, piksele zaczęły być opisywane więcej niż jednym bitem - wówczas pojawiła się nazwa pixmapy, która jednak nie przyjęła się (chociaż jest stosowana np. w X Window).
Przewagą reprezentacji wektorowej nad rastrową jest to, że zawsze istnieje dokładna informacja o tym, z jakich obiektów składa się obraz. W przypadku obrazów bitmapowych tego rodzaju informacja jest tracona, a jedyne, czego można bezpośrednio się dowiedzieć, to kolor piksela. Istnieją jednak metody, które pozwalają wydobyć z obrazów bitmapowych np. tekst, czy krzywe.
W chwili obecnej dominują wyświetlacze rastrowe, więc programy wykorzystujące grafikę wektorową są zmuszone przedstawiać idealne figury geometryczne w skończonej rozdzielczości.
Kolejnym kryterium, wg którego klasyfikuje się zastosowania grafiki, jest charakter danych:
Grafika dwuwymiarowa (grafika 2D)
wszystkie obiekty są płaskie (w szczególności każdy obraz rastrowy wpada do tej kategorii).
Grafika trójwymiarowa (grafika 3D)
obiekty są umieszczone w przestrzeni trójwymiarowej i celem programu komputerowego jest przede wszystkim przedstawienie trójwymiarowego świata na dwuwymiarowym obrazie.
Jeszcze jednym kryterium jest cykl generacji obrazu:
Grafika nieinterakcyjna
program wczytuje uprzednio przygotowane dane i na ich podstawie tworzy wynikowy obraz. Tak działa np. POV-Ray, który wczytuje z pliku definicję sceny trójwymiarowej i na jej podstawie generuje obraz sceny.
Grafika interakcyjna
program na bieżąco uaktualnia obraz w zależności od działań użytkownika, dzięki temu użytkownik może od razu ocenić skutki. Bardzo ważne w tym przypadku jest, że czas odświeżenia obrazu nie może być zbyt długi. Dlatego w przypadku grafiki interakcyjnej akceptuje się i stosuje uproszczone metody rysowania obiektów, aby zminimalizować czas oczekiwania.
Grafika czasu rzeczywistego
program musi bardzo szybko (kilkadziesiąt razy na sekundę) regenerować obraz, aby wszelkie zmiany były natychmiast uwidocznione. Grafika czasu rzeczywistego ma szczególnie znaczenie w różnego rodzaju symulatorach, jest również powszechna w grach komputerowych.
[======================================================================]
113. Nośniki informacji
Pamięć masowa (ang. mass memory, mass storage) - pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych w przeciwieństwie do pamięci RAM i ROM. Pamięć masowa zapisywana jest na zewnętrznych nośnikach informacji. Nośniki informacji zapisywane i odczytywane są w urządzeniach zwanych napędami.
Nośniki magnetyczne:
dyski stałe - pamięć o dostępie bezpośrednim; nośniki danych zainstalowane w macierzach dyskowych
taśmy magnetyczne - pamięć o dostępie sekwencyjnym zapisywana i odczytywana w napędzie taśmowym
Napędy optyczne:
CD-ROM
płyty DVD
płyty Blu-Ray Disk
płyty HD DVD
Pamięci półprzewodnikowe (pozbawione części mechanicznych), współpracujące z różnymi złączami komunikacyjnymi:
pamięci USB.
karty pamięci
SSD
[======================================================================]
114. Prawo Moora
Prawo Moore'a w oryginalnym sformułowaniu mówi, że ekonomicznie optymalna liczba tranzystorów w układzie scalonym podwaja się co 18-24 miesiące. Obserwację tę przypisuje się Gordonowi Moore'owi, jednemu z założycieli firmy Intel.
Zakres znaczenia
Termin ten jest też używany do określenia praktycznie dowolnego postępu technologicznego. "Prawo Moore'a", mówiące że "moc obliczeniowa komputerów podwaja się co 24 miesiące" jest nawet popularniejsze od oryginalnego prawa Moore'a.
Podobnie (z innym okresem) mówi się o:
stosunku mocy obliczeniowej do kosztu
ilości tranzystorów w stosunku do powierzchni układu
rozmiarach RAM
pojemności dysków twardych
przepustowości sieci
Nie wszystko jednak podlega tak rozszerzonemu prawu Moore'a: latencja (pamięci, dysków twardych, sieci komputerowych) spada bardzo powoli, pomimo rosnącej przepustowości. W niewielkim stopniu spadły też ceny typowych komputerów, ich rozmiar czy pobór mocy.
Granice prawa Moore'a
Jednym z głównych powodów, dzięki któremu ten wykładniczy wzrost jest możliwy, jest stosowanie coraz mniejszych elementów w procesie fabrykacji. Współcześnie dominują technologie 90, 65 i ostatnio 45 nm, kiedy we wczesnych latach 90. używano technologii 500 nm. Rozmiary te nie mogą się jednak zmniejszać w nieskończoność: w pewnym momencie takie tranzystory musiałyby być mniejsze od atomów. Inne istotne ograniczenie wynikają ze skończoności prędkości światła, stawiając nieprzekraczalną barierę minimalnego czasu potrzebnego na nawiązanie komunikacji między oddalonymi od siebie elementami komputerów lub sieci komputerowych.
Ze względu na niemożliwość zejścia z rozmiarem struktur poniżej rozmiaru atomu prawo to musi kiedyś przestać obowiązywać. Nie stanie się to nagle, będzie to raczej trwający proces spowalniania polepszania pewnych parametrów, jak szybkość czy pojemność. Od wielu lat powtarzane zapowiedzi, że czas obowiązywania prawa Moore'a właśnie dobiega końca, dotychczas nie spełniały się, aczkolwiek w listopadzie 2006 sam Gordon Moore oświadczył, że według niego za 2-3 lata (w 2008 lub 2009 roku) prawo to przestanie obowiązywać
[======================================================================]
115. Unowocześnianie treści kształcenia informatycznego
[======================================================================]
116. Ocena szkolna - czym jest
[======================================================================]
117. Jakie kryteria musi spełnić uczeń by uzyskać ocenę celującą
Ocenę celującą otrzymuje uczeń, który posiadł wiedzę i umiejętności znacznie wykraczające poza program nauczania przedmiotu w danej klasie, samodzielnie i twórczo rozwija własne uzdolnienia oraz biegle posługuje się zdobytymi umiejętnościami i wiedzą w rozwiązywaniu zadań szkolnych i pozaszkolnych (osiąga sukcesy w olimpiadach i konkursach przedmiotowych). Pozostałe oceny są mierzalne i mieszczą się w odpowiednich przedziałach punktacji podanych przez nauczycieli przedmiotowych. Uczeń, który w wyniku klasyfikacji rocznej uzyskał minimum 4.75 średniej ocen z przedmiotów obowiązkowych i co najmniej ocenę bardzo dobrą z zachowania otrzymuje promocję z wyróżnieniem.
[======================================================================]
118. Jaki jest związek oceny szkolnej z treściami kształcenia.
[======================================================================]
119. Objaśnij znaczenie skrótu dpi
dpi (ang. dots per inch) - liczba plamek przypadająca na cal długości. Jednostka stosowana do określenia rozdzielczości drukarek, ploterów, naświetlarek itp. Pojęcie to jest bardzo rozpowszechnione i często stosowane także jako potoczny zamiennik określeń pokrewnych: ppi (pixels per inch - pikseli na cal) czyli jednostek rozdzielczości obrazów bitmapowych oraz spi (samples per inch - próbek na cal) czyli jednostek rozdzielczości skanerów.
Jednostka dpi opisuje stopień oddawania szczegółów kształtu obrazu w sterowanych komputerowo urządzeniach drukujących, naświetlających, a także wycinających, grawerujących itp. Określa gęstość możliwych do uchwycenia szczegółów obrazu, który jest rozumiany jako układ plamek, których środki pozostają w stałych odległościach względem siebie a ułożone są w rzędach i kolumnach. Rozdzielczość pozioma (w rzędach) jest rzeczywistą rozdzielczością urządzenia i jeśli nie podano inaczej, oznacza także rozdzielczość pionową.
Coraz częściej jednak wiele typów urządzeń posiada rozdzielczość pionową będącą wielokrotnością rozdzielczości rzeczywistej, co tylko częściowo odpowiada prawdzie, gdyż rozwiązane jest to w ten sposób, że plamki w sąsiednich rzędach nachodzą częściowo na siebie.
Odpowiednikiem dpi w miarach metrycznych jest jednostka dpc (ang. dots per cm). W bieżącej pracy w DTP jest to jednak jednostka używana znacznie rzadziej, a jej zastosowanie ogranicza się praktycznie tylko do niektórych prac pomiarowych lub badawczych oraz do podawana jej dla wymogów formalnych.
[======================================================================]
120. Wymień kryteria oceny MPD
[======================================================================]
121. Omów kryterium adresata w kontekście MPD
[======================================================================]
122. Omów kryterium merytoryczne w kontekście MPD
[======================================================================]
123. Omów kryterium dydaktyczne w kontekście MPD
[======================================================================]
124. Omów kryterium obsługi technicznej w kontekście MPD
[======================================================================]
125. Omów kryterium wychowawcze w kontekście MPD
[======================================================================]
126. Omów kryterium ergonomiczne w kontekście MPD
[======================================================================]
127. Barwy a psychika użytkownika MPD
[======================================================================]
128. Komputer kwantowy
Komputer kwantowy - układ fizyczny do opisu którego wymagana jest mechanika kwantowa, zaprojektowany tak, aby wynik ewolucji tego układu reprezentował rozwiązanie określonego problemu obliczeniowego.
Historia
Na możliwość budowy komputerów wykorzystujących prawa fizyki kwantowej zwrócił uwagę na początku lat 80. Paul Benioff z Argonne National Laboratory w Stanach Zjednoczonych. Kompletną teorię działania komputera kwantowego stworzył w połowie lat 80. David Deutsch z brytyjskiego Uniwersytetu Oksfordzkiego. Dołączył doń następnie polski informatyk i fizyk Artur Ekert, też związany na stałe z Oksfordem. Do zbudowania takiego komputera zapalono się w 1994 roku, gdy Peter Shor z AT&T Bell Labs w Murray Hill wymyślił algorytm, który przy użyciu komputera kwantowego mógłby szybko rozkładać bardzo duże liczby na iloczyny liczb pierwszych.
Zasada działania
Dane w komputerach kwantowych są reprezentowane przez aktualny stan kwantowy układu stanowiącego komputer. Jego ewolucja odpowiada procesowi obliczeniowemu. Odpowiednie zaplanowanie ewolucji układu kwantowego, czyli stworzenie odpowiedniego algorytmu kwantowego pozwala teoretycznie na osiągnięcie wyników w znacznie efektywniejszy sposób, niż za pomocą tradycyjnych komputerów.
Podstawowymi elementami budowy kwantowego komputera są kwantowe bramki logiczne. Kwantowy bit, tzw. kubit, zgodnie z prawami mikroświata nie będzie miał ustalonej wartości 1 lub 0, tak jak bit w standardowym komputerze. W trakcie obliczeń będzie się znajdował w jakimś stanie pośrednim. Rządzi tym prawo prawdopodobieństwa, podobnie jak położeniem elektronu w atomie. Kubit jest kwantową superpozycją zera i jedynki. Pojedynczy wynik obliczeń komputera kwantowego będzie niepewny. Istotne staje się wykonanie całej serii obliczeń i dopiero ich średnia wartość z dużą dokładnością określi prawidłowy wynik - tym dokładniejszy, im więcej komputer dokona obliczeń. Kubit niesie w sobie naraz o wiele więcej informacji niż zero-jedynkowy bit. Dlatego jest w stanie wykonać równolegle wiele obliczeń.
Fizycy od dawna mają kandydatów na kubity - cząstki elementarne, np. foton lub elektron. Przełom nastąpił pod koniec 1995 roku. Jednocześnie w kilku ośrodkach udało się skonstruować kwantowe bramki, które przetwarzałyby kubity. Grupa prof. H. Jeffa Kimble'a z Kalifornijskiego Instytutu Technologii w Pasadenie posłużyła się atomem cezu złapanym w optyczną pułapkę pomiędzy lustrami (rolę kubitów grały fotony światła o różnej polaryzacji). Z kolei grupa Chrisa Monroe z Narodowego Instytutu Standardów i Technologii w Boulder w Kolorado wykorzystała atom berylu oświetlany światłem lasera. Jeszcze inną bramkę kwantową, wykorzystując atom rydbergowski, stworzył zespół Serge'a Haroche'a z francuskiego Ecole Normale Superieure. Do tej pory wykonano już kilka prostych (kilku-kubitowych) komputerów, których obliczenia potwierdzają teorię. Już wcześniej tworzono również oprogramowanie dla tych maszyn.
13 lutego 2007 firma D-Wave Systems zaprezentowała układ, nazywany pierwszym na świecie komputerem z rejestrem kwantowym. Nie ma jednak pewności, czy można go tak nazwać: zaprezentowano bowiem jedynie jego działanie, pomijając budowę.
Rejestr kwantowy to np. zespół atomów, z których każdy realizuje jeden z kubitów. Każdy ciąg zer i jedynek, o długości równej rozmiarom rejestru, daje się zapisać w kubitach tego układu (tak samo jak w komórkach pamięci rejestru konwencjonalnego, ale w rejestrze takim w danej chwili może być zapisany jeden tylko ciąg zero-jedynkowy). Rejestr kwantowy, jako złożony z kubitów, może być w stanie będącym dowolną superpozycją wielu ciągów zero-jedynkowych. Jeśli w takim rejestrze kwantowym zapisana by została jakaś duża baza danych, wykonanie pewnej operacji na kubitach tego rejestru byłoby równoznaczne z wykonaniem tej operacji na wszystkich danych naraz.
Jeśli rejestr kwantowy zawiera superpozycję bardzo wielu uzyskanych równolegle wyników, to aby wyłuskać z niego potrzebne nam dane, potrzebujemy algorytmów kwantowych. Algorytmy wykonywane przez komputer kwantowy są algorytmami probabilistycznymi. Oznacza to, że uruchamiając ten sam program na komputerze kwantowym dwukrotnie, można by było otrzymać zupełnie różne wyniki ze względu na losowość procesu kwantowego pomiaru.
Komputer kwantowy, mimo że wykorzystywałby inne właściwości fizyczne niż klasyczne komputery, nie umożliwiałby rozwiązywania nowej klasy problemów. Każdy problem rozwiązywalny przez komputer kwantowy może zostać rozwiązany przez komputer klasyczny. Jednak dzięki specyficznym własnościom komputerów kwantowych pewne problemy można byłoby rozwiązać znacznie szybciej, co w praktyce znacznie poszerzyłoby zakres problemów do jakich mogą być użyte komputery. Klasycznym przykładem jest tutaj algorytm faktoryzacji Shora, służący do rozbijania liczb na czynniki pierwsze. Wykonanie podobnego algorytmu dla kilkudziesięcio-cyfrowych liczb na współczesnych komputerach przekroczyłoby średnią długość życia człowieka, a dla liczb jeszcze większych - czas istnienia wszechświata. Na komputerach kwantowych możliwe byłoby wykonanie tych operacji w bardziej realnym okresie.
W najczęściej spotykanym modelu obliczeń kwantowych stan układu kwantowego reprezentowany jest za pomocą wektora w skończeniewymiarowej przestrzeni Hilberta (kubit). Natomiast przeprowadzane operacje są opisywane za pomocą macierzy unitarnych.
Idea kwantowego komputera też ma swoje słabe strony. Najpoważniejsza z nich nazywa się dekoherencją. Polega ona na tym, że stany kwantowe będące superpozycjami stanów stacjonarnych są nadzwyczaj nietrwałe. Pod wpływem oddziaływania czynników zewnętrznych układ "wypada" ze stanu superpozycji i "przeskakuje" do jednego ze stanów stacjonarnych. Dokonuje się to w ciągu drobnego ułamka sekundy. Nawet najmniejszy kontakt z otoczeniem może wpłynąć na wynik pomiaru. Jednym z testowanych sposobów na rozwiązanie tego problemu jest przetrzymywanie atomów w pułapkach magnetycznych i sterowanie nimi za pomocą impulsów światła laserowego.
[======================================================================]
129. Architektura komputera
Architektura komputera - sposób organizacji elementów tworzących komputer. Pojęcie to używane jest dosyć luźno. Może ono dzielić systemy komputerowe ze względu na wiele czynników, zazwyczaj jednak pod pojęciem architektury rozumie się organizację połączeń pomiędzy pamięcią, procesorem i urządzeniami wejścia-wyjścia.
Innym, stosowanym potocznie znaczeniem terminu "architektura komputera" jest typ procesora wraz z zestawem jego instrukcji. Właściwszym określeniem w tym przypadku jest model programowy procesora (ang. ISA - Instruction Set Architecture).
Klasyfikacje
Ze względu na rodzaj połączeń procesor-pamięć i sposób ich wykorzystania dzielimy architektury zgodnie z taksonomią Flynna:
SISD (Single Instruction Single Data) - skalarne
SIMD (Single Instruction Multiple Data) - wektorowe (macierzowe)
MISD (Multiple Instruction Single Data) - strumieniowe
MIMD (Multiple Instruction Multiple Data) - równoległe
Ze względu na sposób podziału pracy i dostęp procesora do pamięci możemy podzielić architektury na:
SMP (Symmetric Multiprocessing) - symetryczne
ASMP (Asymmetric Multiprocessing) - asymetryczne
NUMA (Non-Uniform Memory Access) - asymetryczne
AMP (Asynchronous Multiprocessing) - asynchroniczne
MPP (Massively Parallel Processors)
Ze względu na sposób organizacji pamięci i wykonywania programu:
architektura von Neumanna
architektura harvardzka
architektura mieszana
[======================================================================]
130. Generacje komputerów
Generacje komputerów to umowny podział komputerów cyfrowych, zależnie od zastosowanej technologii.
0 generacja - przed pojawieniem się uniwersalnych, elektronicznych maszyn cyfrowych, np. przekaźnikowy Z3
1 generacja - budowane na lampach elektronowych, np. XYZ
2 generacja - budowane na tranzystorach, np. ZAM 41
3 generacja - budowane na układach scalonych małej i średniej skali integracji, np. Odra 1305
4 generacja - budowane na układach scalonych wielkiej skali integracji, np. komputer osobisty (PC)
5 generacja - projekty o niekonwencjonalnych rozwiązaniach, np. komputer optyczny.
Zerowa i piąta generacja nie przez wszystkich jest podawana.
Komputery zerowej generacji to maszyny konstruowane przed pojawieniem się uniwersalnych, elektronicznych maszyn cyfrowych, o możliwościach dzisiejszych prostych i średnich kalkulatorów programowanych.
Podstawową ich cechą jest brak aktywnych elementów elektronicznych (lamp i tranzystorów). Budowane były na elementach mechanicznych (np. Z1) lub elektromagnetycznych (np. przekaźnikowy Z3). Do budowy próbowano także wykorzystać gotowe arytmometry elektromechaniczne np. maszynę do fakturowania w PARK.
Mechaniczny Z1 (replika)
Przekaźnikowy Harvard Mark I
Podstawowe cechy
* brak elementów elektronicznych
* oddzielne pamięci programu i danych o różnej organizacji i formacie (architektura harvardzka)
* pamięć szybka o pojemności kilku do kilkudziesięciu słów, czasem ograniczona do samych rejestrów
* pamięć pomocnicza na papierowej taśmie perforowanej
* pamięć stała w postaci przełączników, np. Harvard Mark I, lub okablowania
* arytmetyka dziesiętna, lub dwójkowa
* przeważnie nie były maszyną Turinga
* szybkość do kilku rozkazów na sekundę
* programowanie w języku maszynowym. Jedynie Z4 posiadał asembler (moduł Planfertigungsteil).
Osiągnięcia
* arytmetyka binarna i liczby zmiennoprzecinkowe
* rozkazy warunkowe
* podprogram
* podział na bloki: arytmometr, pamięć, jednostka sterująca i urządzenia wejścia/wyjścia
* język programowania (asembler)
* mikroprogram
Uwagi
* Nie zalicza się do nich maszyn analitycznych.
* Zerowa generacja nie przez wszystkich jest podawana.
* Czasem błędnie zalicza się do niej ENIAC-a, posiadającego prymitywną organizację, ale zbudowanego głównie na lampach.
* Komputery zerowej i pierwszej generacji, o organizacji odmiennej od współczesnych, nazywamy wczesnymi komputerami.
Polskie konstrukcje
* PARK
* PARC
* GAM-1
Komputer pierwszej generacji to komputer zbudowany na lampach elektronowych np. XYZ.
Inne przykłady komputerów:
Atanasoff-Berry Computer (USA, 1939) - komputer ABC był już w technologii lampowej i działał w arytmetyce binarnej. Nigdy nie został skończony.
Electronic Numerical Integrator and Computer (USA, 1945) - John Mauchly oraz Presper Eckert zbudowali ENIACa w technologii lampowej, był on początkowo programowany za pomocą zestawienia obwodów przy pomocy kabli połączeniowych, później kart perforowanych.
Komputer drugiej generacji jest to komputer, w którym do budowy elementów logicznych - bramek - wykorzystano elementy półprzewodnikowe. Były nimi wynalezione w połowie XX w. tranzystory. Do komputerów takich zaliczał się np. ZAM 41, Cray-1.
Charakteryzowały się:
mniejszymi wymiarami
większą bezawaryjnością
mniejszym poborem prądu
Powyższe cechy pozwoliły na budowę szybszych i jednocześnie bardziej skomplikowanych maszyn.
Komputer trzeciej generacji to komputer zbudowany na układach scalonych małej i średniej skali integracji np. Odra 1305.
Komputer czwartej generacji to komputer zbudowany na układach scalonych wielkiej skali integracji np. komputer osobisty (PC).
Komputer piątej generacji to projekty o niekonwencjonalnych rozwiązaniach, np. komputer optyczny, komputer kwantowy.
W reklamach i marketingu używana do podkreślenia nowych rozwiązań.
[======================================================================]