119003

119003



•    W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..'*.

•    A.Mazurkiewicz, (cytat za: W.M.Turski, Propedeutyka informatyki, PWN, Warszawa 1985) „Informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach, przesyłana między pewnymi obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.”

•    W. Flakiewicz określa informację jako: „... czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości”.

•    Tsitchizris i I,ochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na podstawie danych”

W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyłana między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiektach (np. komputerach) i stosowana do zarządzania pewnymi obiektami Obiekt może być komputerem, ale nic musi być nim.

W rozumieniu cybernetyki, informacja jest to: każdy czynnik, dzięki któremu obiekt otaczający go (człowiek, organizm żywy, organizacja, urządzenie automatyczne) może polepszyć swoja znajomość otoczenia i bardziej sprawnie przeprowadzać celowe działanie.

Najbardziej precyzyjna definicja, pochodząca z teorii informacji podchodzi do informacji jako do miary niepewności zajścia pewnego zdarzenia (otrzymania określonego wyniku pomiaru, wyemitowania określonej wiadomości przez źródło) spośród skończonego zbioru zdarzeń możliwych.

Teoria informacji - Dział MATEMATYKI na pograniczu STATYSTYKI i INFORMATYKI dotyczący informacji oraz jej transmisji, KOMPRESJI, kryptografii itd. Za ojca TEORII INFORMACJI uważa się ClAl DE E. SHANNONA. który w latach 1948-1949 ogłosił fundamentalne prace z tej dziedziny.

Podstawowe założenia ilościowej teorii informacji polega na tym, że komunikat zawiera tym więcej informacji, im mniejsze jest prawdopodobieństwo jego wystąpienia.

Cechy informacji:

•    jest niezależna od obserwatora;

•    jest różnorodna;

•    jest niewyczerpywalna;

•    może być powielana w czasie i przestrzeni;

•    można ją przetwarzać, nie powodując jej zużycia;

•    jest subiektywna - ma inne znaczenie dla różnych odbiorców;

•    opisuje obiekt ze względu na tylko jedną jego cechę;

•    przejawia cechę synergii (Synergia to współdziałanie różnych czynników, skuteczniejsze niż suma ich oddzielnych działań. Przykładowo: umiejętności kluczowe, nabyte w ramach jednego przedmiotu, skutkują w przypadku pozostałych, pomagając w uzyskiwaniu osiągnięć przez uczniów.)

2



Wyszukiwarka

Podobne podstrony:
26.    Projekt jako nowoczesna metoda w procesie edukacji i pracy społeczeństwa infor
Informacja menedżerska SIM Informacja menedżerska to wszelka jednostkowa lub zbiorcza wiadomość, któ
O co w tym wszystkim chodzi? Zagadnienie określane w informatyce jako teoria interakcji człowieka z
Informacja w pracy biurowej Informacja to wiadomość o procesach, czynnościach i zjawiskach zachodząc
Rys. 2.2. Aspekty nauki Naukę określa się także jako „ ... rzemiosło uczonych, czyli ogół czynności
img030 (35) na określić trafnie (i wdzięcznie) jako „pacyfikację przez cappuccino" (Zukin 2000)
img099 (16) 99 rzadziej używaną, jest określenie powiększenia lunety jako stosunku wielkości przedmi
0000036(3) sprawy kiłowej itd. Określamy takie stanu jako jamistość rdzenia wtórną Rozpoznanie (syri
img038 38 3. Klasyfikacja metod rozpoznawania tyfikatora warto określić te metody jako klasyfikcję n
img099 99 rzadziej używaną, jest określenie powiększenia lunety jako stosunku wielkości przedmiotu w
img099 99 rzadziej używaną, jest określenie powiększenia lunety jako stosunku wielkości przedmiotu w

więcej podobnych podstron