• W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..'*.
• A.Mazurkiewicz, (cytat za: W.M.Turski, Propedeutyka informatyki, PWN, Warszawa 1985) „Informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach, przesyłana między pewnymi obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.”
• W. Flakiewicz określa informację jako: „... czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości”.
• Tsitchizris i I,ochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na podstawie danych”
W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyłana między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiektach (np. komputerach) i stosowana do zarządzania pewnymi obiektami Obiekt może być komputerem, ale nic musi być nim.
W rozumieniu cybernetyki, informacja jest to: każdy czynnik, dzięki któremu obiekt otaczający go (człowiek, organizm żywy, organizacja, urządzenie automatyczne) może polepszyć swoja znajomość otoczenia i bardziej sprawnie przeprowadzać celowe działanie.
Najbardziej precyzyjna definicja, pochodząca z teorii informacji podchodzi do informacji jako do miary niepewności zajścia pewnego zdarzenia (otrzymania określonego wyniku pomiaru, wyemitowania określonej wiadomości przez źródło) spośród skończonego zbioru zdarzeń możliwych.
Teoria informacji - Dział MATEMATYKI na pograniczu STATYSTYKI i INFORMATYKI dotyczący informacji oraz jej transmisji, KOMPRESJI, kryptografii itd. Za ojca TEORII INFORMACJI uważa się ClAl DE E. SHANNONA. który w latach 1948-1949 ogłosił fundamentalne prace z tej dziedziny.
Podstawowe założenia ilościowej teorii informacji polega na tym, że komunikat zawiera tym więcej informacji, im mniejsze jest prawdopodobieństwo jego wystąpienia.
Cechy informacji:
• jest niezależna od obserwatora;
• jest różnorodna;
• jest niewyczerpywalna;
• może być powielana w czasie i przestrzeni;
• można ją przetwarzać, nie powodując jej zużycia;
• jest subiektywna - ma inne znaczenie dla różnych odbiorców;
• opisuje obiekt ze względu na tylko jedną jego cechę;
• przejawia cechę synergii (Synergia to współdziałanie różnych czynników, skuteczniejsze niż suma ich oddzielnych działań. Przykładowo: umiejętności kluczowe, nabyte w ramach jednego przedmiotu, skutkują w przypadku pozostałych, pomagając w uzyskiwaniu osiągnięć przez uczniów.)
2