Technologia Informacyjna

Technologia Informacyjna

Dziedzina informatyki dająca ludziom

możliwości i narzędzia do pozyskiwania,

przetwarzania i zarządzania informacjami.

Łączy w sobie informatykę, telekomunikację

oraz wszelkie inne technologie związane

z informacją.

Informacja

Jest to właściwość pewnych obiektów, układów

lub systemów, a także relacja między

elementami zbiorów, której istotą jest

zmniejszenie niepewności (nieokreśloności).

Są to dane (w różnej postaci), które zostały

uporządkowane, usystematyzowane

i przedstawione w sposób umożliwiający

ustalenie pewnych schematów, a następnie

ich interpretację.

Źródła informacji

Źródłem informacji jest każdy obiekt

dostarczający informacji.

Klasyfikacja:

● tradycyjne - drukowane, pisane, np. książki,

czasopisma, materiały kserograficzne,

plansze, tablice;

● tradycyjne - elektroniczne, np. radio, telewizja

● nowej generacji - elektroniczne, np. Internet,

multimedialne programy dydaktyczne,

multimedialne słowniki, encyklopedie,

podręczniki, książki elektroniczne (e-booki,

audio-booki)

Kodowanie

Przedstawienie informacji umożliwiające

jej przekazanie dla odbiorcy, klasyfikację,

przetwarzanie, etc.

Kompresja i dekompresja

Kompresja – przekształcenie i zakodowanie

informacji dające w efekcie zmniejszenie jej

objętości (np. w celach transmisji, składowania,

archiwizacji).

Dekompresja – przywrócenie pierwotnej

informacji z postaci skompresowanej.

Rodzaje kompresji:

● bezstratna (kodowanie Huffmana, kodowanie

słownikowe Lempel-Ziv i pochodne, RLE, etc.)

● stratna (DPCM, JPEG, MPEG, oparte na

transformatach, etc.)

Archiwizacja

● zabezpieczenie informacji przed utratą.

● zabezpieczenie oraz odpowiednie

skatalogowanie informacji zapewniające nie

tylko ich ochronę, ale także odpowiedni

dostęp do nich w przyszłości.

Informacja

Formaty przedstawienia informacji:

● tekst

● grafika, wykres, zdjęcie

● mowa, dźwięk

● film, animacja

● inne

A jak to jest z punktu widzenia techniki?

Reprezentacja informacji:

● analogowo

● cyfrowo

Twierdzenie Nyquista

Sygnał można odtworzyć z

sekwencji próbek pod warunkiem,

że częstotliwość próbkowania jest

co najmniej dwukrotnie wyższa

niż najwyższa z częstotliwości

występujących w sygnale

Transmisja danych

Dane można przesłać:

● sygnałów elektrycznych, fal radiowych lub

światła

● jedno lub dwukierunkowo

● cyfrowo lub analogowo

● synchronicznie lub asynchronicznie

● w paśmie podstawowym lub szerokopasmowa

Medium transmisyjne:

● przewodowe – kabel symetryczny (np. Skrętka),

kabel współosiowy (koncentryczny), światłowód

(jednomodowy, wielomodowy), kable

energetyczne

● bezprzewodowe - fale elektromagnetyczne

(radiowe), promień lasera

Kierunek przesyłu:

● simpleks – transmisja tylko w jednym kierunku

● półdupleks – transmisja w obu kierunkach,

ale nie w tym samym czasie

● dupleks – transmisja w obu kierunkach w tym

samym czasie

Transmisja analogowa – przesył danych

analogowych z wykorzystaniem różnego

rodzaju modulowania (AM, FM, PM).

Transmisja cyfrowa – przesył danych cyfrowych

z zastosowaniem różnych rodzajów modulacji

impulsowej (PCM, PPM, PDM i in.)

Transmisja synchroniczna

(ang. Synchronous transmission) – przesył

danych następuje w ściśle określonych chwilach

czasu, synchronizowanych tzw. sygnałem

zegarowym, wspólnym dla nadajnika i odbiornika.

Sama transmisja odbywa się po dokonaniu

synchronizacji, ze stałą prędkością, a 'odbiorca'

musi zliczać przesyłane bity na podstawie czasu.

Transmisja asynchroniczna

(ang. Asynchronous transmission) — sposób

przesyłania pozwalający na nieregularne

wysyłanie danych, przy czym początek i koniec

transmisji oznaczane są odpowiednim znakiem.

Transmisja w paśmie podstawowym:

● sygnał jest reprezentowany przez dwa

poziomy napięcia w przewodzie - ujemny dla

wartości „1” i dodatni dla wartości „0”.

● cała szerokość pasma przenoszenia ośrodka

łączącego stacje jest zajęta dla pojedynczej

transmisji.

● sygnały rozchodzą się w obydwu kierunkach

wzdłuż przewodu.

Transmisja szerokopasmowa:

● sygnał należy zmodulować;

● do modulacji i demodulacji sygnałów

cyfrowych służy modem;

● wymaga łączy o dużym paśmie przenoszenia;

● sygnały wędrują tylko w jednym kierunku

wzdłuż przewodów, by to zmienić stosuje się

dwa przewody lu dzieli pasmo na dwa kanały.

Podstawowe pojęcia informatyki

Informatyka = Informacja + automatyka

Informatyka jest dziedziną wiedzy zajmującą się

algorytmami oraz gromadzeniem, wyszukiwaniem

i przetwarzaniem informacji za pomocą

komputerów i odpowiedniego oprogramowania.

● Elektroniczna maszyna cyfrowa

● Komputer

● Oprogramowanie

● Algorytm

● Program

● System komputerowy

Bity, bajty i cała reszta

W pamięci komputera dane są reprezentowane

jako sekwencje bitów – cyfr binarnego systemu

liczbowego. Sekwencje te są interpretowane

w kontekście wewnętrznych typów danych:

liczb całkowitych, liczb zmiennopozycyjnych

i znaków

Znak binarny - zmienna przyjmująca tylko

wartości 0 lub 1

Wektor znaków binarnych o długości:

1 – bit

4 – pół bajtu

8 – bajt

16 – słowo 16 bitowe, 2 bajtowe

32 – słowo 32 bitowe, 4 bajtowe

64 – słowo 64 bitowe, 8 bajtowe

Systemy liczbowe

Kod dwójkowy (binarny)

Podstawa: 2, zbiór cyfr: {0, 1}

Kod ósemkowy (oktalny)

Podstawa: 8, zbiór cyfr: {0, 1, 2, 3, 4, 5, 6, 7}

Kod dziesiętny (decymalny)

Podstawa: 10, zbiór cyfr: {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

Kod szesnastkowy (hexadecymalny)

Podstawa: 16, zbiór cyfr: {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B,

C, D, E, F}

Bity a znaki

Znak jest kodowany przy pomocy liczby,

która jest przedstawiona jako ciąg bitów.

Wartość tej liczby zależy od zastosowanego

kodowania.

Kodowanie znaków

● ASCII – 8 bitów, gdzie znak przedstawiony jest

jako liczba 7-mio bitowa, a ósmy bit jest bitem

kontrolnym (parzystości). Koduje 128 znaków.

● ISO 8859-2 (Latin-2) – wszystkie 8 bitów służy

do kodowania 256 znaków.

● Unicode – oparty na 16 lub 32 bitach,

w założeniu ma pokrywać wszystkie stosowane

na Ziemi znaki

Oprogramowanie systemowe?

Oprogramowanie systemowe – zestaw

programów sterujących działaniem komputera

i urządzeń z nim współpracujących, dających

środowisko pozwalające na używanie innych

programów.

Inaczej mówiąc, najczęściej utożsamiamy je

z systemem operacyjnym. Choć nie tylko.

System operacyjny

ang. Operating System, OS

Podstawowe zadania:

● planowanie i przydział czasu procesora

● kontrola i przydział pamięci operacyjnej

● zapewnienie synchronizacji i komunikacji

między zadaniami

● obsługa sprzętu i zapewnienie zadaniom

niezależnego dostępu do niego

Podział systemów operacyjnych

Ze względu na planowanie czasu procesora:

● RTS

● niedeterministyczne

Ze względu na pracę przełącznika zadań:

● z wywłaszczeniem

● bez wywłaszczenia

Przykłady

● DOS

● Windows 95, 98, ME

● Windows NT, 2000, XP, Vista, 7, seria Server

● OS/2

● UNIX i wszystkie *NIX

● Mac OS

● Novel NetWare

Jądro systemu operacyjnego

● planista czasu procesora

● przełącznik zadań

● moduł synchronizacji i komunikacji między

zadaniami

● moduł obsługi przerwań

● moduł obsługi pamięci

● inne elementy, zależne od przeznaczenia

Systemu

Społeczeństwo informacyjne

Jest to społeczeństwo w którym informacja

nie jest jedynie środkiem do pozyskiwania

dóbr materialnych, ale sama w sobie staje

się towarem, dobrem niematerialnym, często

cenniejszym niż dobra materialne.

Z punktu widzenia teorii rozwoju społeczeństw,

jest ono kolejnym etapem po społeczeństwie

przemysłowym. Jest nazywane także

społeczeństwem post nowoczesnym,

ponowoczesnym lub poprzemysłowym.

Większość ludzi czynnych zawodowo zajmuje

się przetwarzaniem informacji.

Główne cechy

● wysoko rozwinięte usługi nowoczesne

(bankowość, finanse, telekomunikacja,

informatyka, badania i rozwój, zarządzanie)

● gospodarka oparta na wiedzy

● wysoki poziom wykształcenia ludzi

● decentralizacja społeczeństwa

● odrodzenie się społeczności lokalnych

Garść historii

Termin społeczeństwo informacyjne został

użyty po raz pierwszy w 1963 roku w Japonii,

przez Tadao Umesao. I właśnie Japonia jako

pierwsza przyjęła w 1972 roku „Plan utworzenia

społeczeństwa informacyjnego, jako cel

narodowy na rok 2000”.

Co się w pełni udało, nawet przed wyznaczonym

czasem.

Co jest potrzebne?

● społeczeństwo wiedzy

● rozwój technologii cyfrowych

● cyfryzacja dokumentów

● systemy obiegu dokumentów

Społeczeństwo wiedzy

Z pojęciem społeczeństwa informacyjnego

wiąże się termin społeczeństwo wiedzy,

który to oznacza otwartość i odwagę

intelektualną ludzi tworzących społeczeństwo,

którzy są świadomi swoich możliwości

i aktywnie i innowacyjnie je wykorzystują.

Cyfrowy świat

● telekomunikacja

● informatyka

● komputery „pod strzechą”

● Internet

Dokumenty cyfrowe

Plik tekstowy, graficzny, muzyczny, filmowy lub

mieszany, powstały w wyniku wykorzystania

programu komputerowego, dający się zapisać,

a następnie odczytać. Ma cechy dokumentu,

czyli potwierdza prawdziwość danego

zdarzenia, okoliczności lub zjawiska.

Pamiętajmy, że należy odróżnić dokument

cyfrowy od dokumentu podpisanego

cyfrowo.

System obiegu dokumentów

Najprościej mówiąc – informatyczny system

służący do zarządzania obiegiem dokumentów

i zadań, działający o mechanizmy typu

workflow.

Gdzie najszybciej możemy się na nie natknąć?

● administracja publiczna

● banki

● operatorzy telekomunikacyjni

● wszelkie inne przedsiębiorstwa, które widzą

sens i potrzebę usystematyzowania

przepływu dokumentów

Jak zabezpieczyć dane?

Aspekty bezpieczeństwa danych:

● chcę aby dane były poufne (szyfrowanie)

● chcę aby danym można było ufać

(podpis elektroniczny)

Czym jest szyfrowanie

Szyfrowanie – proces kodowania informacji

pozwalający uczynić ją niezrozumiałą dla strony

trzeciej. Do szyfrowania stosuje się specjalne

algorytmy szyfrujące (szyfry).

Rodzaje szyfrów

● ograniczony (prosty) – zapewnia minimum

bezpieczeństwa, jest skuteczny gdy nie

znamy algorytmu użytego do zaszyfrowania

● z kluczem – oprócz algorytmu stosowana

jest także specjalna porcja danych zwana

kluczem, bez którego znajomości nie jest

możliwe odszyfrowanie przekazu. Stosowane

są dwa rodzaje szyfrów tego typu:

- z kluczem symetrycznym

- z kluczem asymetrycznym

Szyfry z kluczem symetrycznym

Zastosowany klucz jest stosowany zarówno

podczas szyfrowania, jak i podczas deszyfracji.

Albo każdy z tych kluczy można wyznaczyć

na podstawie drugiego z nich.

Szyfry z kluczami asymetrycznymi

Jest to sposób szyfrowania bazujący na dwóch

całkowicie różnych kluczach z których jeden

jest używany wyłącznie do szyfrowania, a drugi

wyłącznie do deszyfracji. Najważniejsze jest to,

że nawet jeśli zna się jeden z nich, to nie jest

możliwe wygenerowanie drugiego. Klucze te są

najczęściej generowane z użyciem par bardzo

dużych liczb pierwszych.

Szyfry z kluczem publicznym

Jest to szyfr z kluczem asymetrycznym, gdzie

jeden z kluczy został ujawniony. Najczęściej

jawny jest klucz służący do szyfrowania.

Podpis elektroniczny

Użycie szyfrowania z kluczami asymetrycznymi

dało nie tylko na zwiększenie bezpieczeństwa,

ale także pozwoliło użyć kryptografii do

poświadczania autentyczności dokumentów.

Jeżeli teraz wyobrazimy sobie, że stosujemy

algorytm z kluczem publicznym i ujawniamy

nie klucz służący do szyfrowania, ale do

deszyfracji, to każdy będzie mógł sprawdzić czy

wiadomość pochodzi od nas, czy od kogoś

innego.

Szyfrowanie całych dokumentów w celu ich

podpisania mija się z celem - jest wolne,

a podpis zajmuje co najmniej tyle samo ile

sam dokument. Dlatego algorytm pospisywania

został nieco zmodyfikowany – szyfrowany jest

tzw. skrót, czyli specjalny ciąg znaków

wygenerowany na podstawie podpisywanego

dokumentu.

Problem klucza publicznego – skąd mamy

pewność, że przynależy do danej osoby?

Rozwiązanie – poręczenie klucza przez osobę

trzecią, a dokładniej przez urząd certyfikacyjny.

Odbywa się to przez podpisanie klucza

publicznego prywatnym kluczem CA.

Alternatywnym rozwiązaniem jest zastosowanie

systemu wzajemnej certyfikacja użytkowników

(np. PGP).

Co to jest programowanie?

Programowanie – proces projektowania,

pisania, testowania i utrzymania kodu

źródłowego programów komputerowych.

Wymaga ono szerokiej wiedzy i doświadczenia

z zakresu technik projektowania, algorytmiki,

struktur danych, znajomości kompilatorów,

szczegółów architektury komputerów i/lub

systemów operacyjnych oraz jak one działają.

Historia

● automaty budowane od starożytności, które

miały możliwość zmiany wykonywanych

zadań przez wymianę elementów;

● krosno sterowane przy pomocy kart

perforowanych zbudowane przez Josepha

Marie Jacquarda (Francja, 1805);

● automat analityczny Charlesa Babbage'a,

opisany przez Adę Lovelace, która napisała

pierwszy program obliczający liczby

Bernoulliego (Anglia, 1833);

● pojawienie się pierwszych „prawdziwych”

komputerów pozwoliło „składać” programy

bezpośrednio w pamięci (kod maszynowy);

● pierwszy język programowania – assembler;

● FORTRAN – pierwszy język programowania

wysokiego poziomu (USA, 1954);

● pojawienie się terminali komputerowych

pozwalających rozstać się z kartami

perforowanymi (koniec lat 60-tych);

Co jest potrzebne ?

● komputer lub jego emulator

● edytor tekstów

● kompilator

● debugger

● biblioteki programistyczne

● inne narzędzia

Język programowania

Jest to formalny zbiór zasad określających

sposób zapisu algorytmów i innych zadań z

wykorzystaniem określonej składni i semantyki.

Języki programowania

Wszystkie języki programowania można

podzielić (m.in.) ze względu na:

● paradygmat programowania

● generację

● poziom

● sposób wykonywania

Przykłady paradygmatów programowania:

● programowanie proceduralne

● programowanie obiektowe

● programowanie zdarzeniowe

● programowanie logiczne

● …

Generacje języków programowania:

● 1GL – binarny kod maszynowy

● 2GL – assembler

● 3GL – zbliżone do języka naturalnego

● 4GL – pozwalają w szybki sposób tworzyć

gotowe programy (RAD)

● 5GL – nie używają algorytmów, a słownych

lub symbolicznych opisów problemu

Języki programowania o różnych poziomach:

● niskopoziomowe – operujące blisko sprzętu

● wysokopoziomowe – oderwane od sprzętu,

programista skupia się na problemie, a nie jak

ma obsłużyć jakieś urządzenie

Ze względu na sposób wykonywania mamy:

● interpretery

● kompilatory

Przykłady języków programowania:

● assembler

● FORTRAN

● Algol

● Basic

● Pascal/Delphi

● C/C++

● Java

● Perl

● PHP

Czym jest system informacyjny?

Według jednej z najprostszych definicji, podanej

w 1974 r. przez Z. Gackowskiego, są to układy

przetwarzające i kanały informacyjne. Czyli

można uznać, że jest to każdy złożony system,

który składa się z elementów przetwarzających

i przesyłających.

Uszczegóławiając i dostosowując do potrzeb

technologii informacyjnej, możemy powiedzieć,

że jest to wielopoziomowa struktura

pozwalająca na przetwarzanie informacji

wejściowych w wyjściowe. Realizowane jest

to za pomocą odpowiednich modeli i procedur.

Rodzaje systemów informacyjnych

Systemy informacyjne można podzielić na

bardzo wiele sposobów, jednak najczęściej

spotykanym w literaturze jest podział według

generacji:

● systemy transakcyjne

● systemy informacji kierowniczej

● systemy wspomagania decyzji

● systemy ekspertowe

● systemy sztucznej inteligencji

Systemy transakcyjne

Są to systemy tzw. generacji 1, powstały

i rozwijały się w latach 60-tych i 70-tych.

Służą głównie do rejestracji zdarzeń,

prowadzenia ewidencji, generowania raportów

i sprawozdań o ściśle określonej zawartości.

Dane na których operują są deterministyczne,

informacje pełne, porównywalne i wiarygodne.

Wykorzystywane modele i procedury są bardzo

proste, bazują na czterech podstawowych

działaniach.

Przykłady: ewidencja sprzedaży, bazy danych

Systemy informacji kierowniczej

Inaczej: systemy informowania kierownictwa.

Rozwinęły się w latach 70-tych i 80-tych. Służą

do w miarę swobodnego wydobywania danych,

ich wizualizacji i przesyłania do innych

systemów. Przetwarzane informacje są

deterministyczne, ale nie muszą być pełne ani

porównywalne. Zastosowane są modele proste

modele w postaci równań i modeli przepływów.

Dostarczają ogólnego poglądu nadzorowanych

procesów. Przykłady: kokpity menadżerskie,

hurtownie danych.

Systemy wspomagania decyzji

Trzecia generacja systemów informacyjnych

rozwinęła się w latach 80-tych i 90-tych.

Głównym ich zastosowaniem jest podejmowanie

rutynowych decyzji, diagnostyka, wnioskowanie,

analiza trendów itp. Dane są probabilistyczne,

często niepełne i obarczone błędem. Stosowane

są modele optymalizacyjne i symulacyjne o

dowolnej złożoności oraz bazy wiedzy.

Przykłady: analiza zdolności kredytowej,

symulacje zachowania się systemów (różnych).

Systemy ekspertowe

Rozwinęły się pod koniec lat 80-tych i w latach

90-tych. Zastosowania są bardzo zbliżone do

zastosowań systemów wspomagania decyzji.

Dane na których operują pochodzą z różnych

źródeł, niemal zawsze są niepełne, a bardzo

często sprzeczne. Wykorzystywane są modele

logiczne i heurystyczne (wiedza eksperta).

Przykłady: podejmowanie decyzji w sytuacjach

awaryjnych, interpretacja przepisów.

Systemy sztucznej inteligencji

Podstawową ich cechą jest możliwość uczenia

się na podstawie własnych doświadczeń.

Obszar zastosowań podobny jak poprzednich

systemów, podobnie jak źródła i precyzja

danych. Wykorzystane metody: przede

wszystkim całe spektrum sztucznych sieci

neuronowych uzupełnione innymi metodami

sztucznej inteligencji (głównie logika ostra

i rozmyta).

Przykłady: systemy sterowania, zaawansowane

systemy wspomagania decyzji.

System informacyjny czy

informatyczny?

Ważne jest aby nie mylić tych pojęć.

System informacyjny przeważnie obejmuje

znacznie większy obszar niż informatyczny.

Proces tworzenia systemów

informatycznych

Jeżeli mamy do czynienia z systemem

gotowym, to możemy przedstawić jego życie

jako następującą sekwencję zdarzeń:

● analiza wymagań

● dostosowanie (parametryzacja) systemu

● wdrożenie

● eksploatacja

● wycofanie

Możemy wyróżnić następujące fazy cyklu

życia systemu informatycznego tworzonego

„od zera”:

● analiza wymagań

● projektowanie systemu

● implementacja

● testowanie

● wdrożenie

● eksploatacja

● wycofanie

Prawo autorskie

1. Prawa przysługujące autorowi utworu

2. Przepisy prawne pozwalające autorowi

decydować o używaniu działa oraz

czerpaniu z tego korzyści majątkowych

©

Wyróżniamy dwa rodzaje praw autorskich:

● osobiste

● majątkowe

Autorskie prawa osobiste

Przysługują twórcy utworu i dają prawo do:

● autorstwa *

● podpisania utworu *

● nienaruszalności treści i formy utworu

● decyzji o pierwszym udostępnieniu

● nadzoru nad sposobem wykorzystania

Są to prawa NIEZBYWALNE.

*) te prawa przysługują autorowi programu komputerowego

Autorskie prawa majątkowe

Są nastawione na aspekty ekonomiczne i dają

twórcy utworu wyłączne prawo do:

● korzystania z utworu

● rozporządzania nim na wszystkich polach

eksploatacji

● wynagrodzenia za korzystanie z utworu.

Są to prawa ZBYWALNE.

Prawa autorskie – czas trwania

1. Osobiste – bezterminowo

2. Majątkowe – w zależności czy:

● należą do autora – jeśli jest znany do końca

jego życia i przez następne 70 lat, jeśli nie jest

znany to 70 lat od upublicznienia utworu

● zostały przez niego zbyte:

- nagrania audio i wideo – 50 lat od

upublicznienia lub ustalenia

- pozostałe – 70 lat od upublicznienia lub

Ustalenia

Utwór, czyli przedmiot praw

autorskich

Według polskiego prawa utworem jest: każdy

przejaw działalności twórczej o indywidualnym

charakterze, ustalony w jakiejkolwiek postaci,

niezależnie od wartości, przeznaczenia

i sposobu wyrażenia.

Co nie jest utworem?

● idee i pomysły, chyba że są wyrażone w oryginalnej postaci

● urzędowe dokumenty, materiały, znaki, symbole, akty

normatywne i ich projekty

● opublikowane opisy patentowe

● proste informacje prasowe

● tematy badawcze, teorie i fakty naukowe

● formy znane powszechnie i od dawna

● utwory wystawione na stałe w miejscach publicznych

● znaki firmowe użyte w calach informacyjnych

Korzystanie z utworów

Właściciel praw majątkowych może zezwolić

innym osobom na korzystanie z utworu. Mówi

się wtedy, że udziela on licencji.

Systemy licencjonowania

Copyright, All rights reserved – opiera się na

pełnym zastosowaniu prawa autorskiego.

Creative Commons, Some rights reserved –

pozwala na dowolną dystrybucję utworów,

jednak pod pewnymi warunkami.

Copyleft, All rights reversed – najbardziej

otwarta forma licencjonowania, pozwala na

dowolną modyfikację i redystrybucję dzieła.

Jest to wiele licencji mogących posiadać

cztery warunki, z czego pierwszy występuje

zawsze.

Uznanie autorstwa (Attribution (BY))

Użycie niekomercyjne (Noncommercial (NC))

Bez utworów zależnych (No Derivative Works (ND))

Na tych samych warunkach (Share Alike (SA))

Są to różne licencje pozwalające na dowolne

rozpowszechnianie i modyfikowanie utworów,

z zastrzeżeniem, że utwory pochodne muszą

być rozpowszechniane na tej samej licencji,

oraz do utworu musi być dołączony jej tekst.

Przykłady: GNU General Public License,

Design Science License, Free Art License.

Inne otwarte licencje na oprogramowanie:

X11 – użytkownik ma nieograniczone prawo do

używania, kopiowania, modyfikowania i

rozpowszechniania (w tym sprzedaży)

oryginalnego lub zmodyfikowanego programu

pod jednym warunkiem: we wszystkich

wersjach musi zachować pierwotne warunki

licencyjne i informacje o autorze.

Inne otwarte licencje na oprogramowanie:

BSD – jest najbardziej liberalna dla użytkownika:

zezwala na dowolną modyfikację kodu, jego

rozpowszechnianie w każdej postaci. Pozwala

także na rozprowadzanie programu bez postaci

źródłowej czy wręcz włączenia

rozpowszechnianego na jej zasadzie kodu do

zamkniętego oprogramowania. Jedynym

warunkiem jest załączenia informacji o autorach

oryginalnego kodu oraz treści samej licencji.

Sieci komputerowe

1. Pojęcie sieci komputerowej

2. Cele istnienia sieci komputerowych

3. Podstawowe topologie:

- magistrala

- hierarchiczna

- gwieździste

- pierścieniowe

- sieć

4. Elementy składowe sieci

5. Model ISO-OSI

Sztuczna inteligencja

1. Pojęcie inteligencji naturalnej i sztucznej

2. Sztuczna inteligencja jako nauka

3. Maszyna i człowiek – test Turinga

4. Metody sztucznej inteligencji:

- logika ostra

- logika rozmyta

- sztuczne sieci neuronowe

- inteligencja roju

5. Przykłady zastosowań sztucznej inteligencji

6. Porażki sztucznej inteligencji

AM – modulacja amplitudy

FM – modulacja częstotliwości

PM – modulacja fazy


Wyszukiwarka

Podobne podstrony:
Technologia informacji i komunikacji w nowoczesnej szkole
TECHNOLOGIE INFORMATYCZNE CRM
Technologia Informacyjna w moim życiu
Wykorzystanie technologii informacyjnych pokaz WTZ 4
test nr 7 wyrażenia regularne, STUDIA, LIC, TECHNOGIE INFORMACYJNE POLONISTYKA ZAOCZNE UW Uniwersyt
Technologia Informacyjna 22.11.2008, ściągnięte, IT, Technologia Informacyjna(5)
M3, WSFiZ Warszawa, Semestr II, Technologie informacyjne - ćwiczenia (e-learning) (Grzegorz Stanio)
2010 Grudzień 6, Rok I, Semestr I, Technologia Informacyjna
Zadania z, Studia, PK OŚ, technologia informacyjna, exel
Strona tytulowa referatu, Administracja, Semestr 1, Technologia informacyjna
Katalog Mediów Polskich, Informacja naukowa i bibliotekoznawstwo, Technologia informacyjna
KWERENDY dod 2, Szkoła, Semestr 1, Technologia informacyjna, Ćwiczenie 6
inf, SGGW, Niezbędnik Huberta, Leśnictwo, Semestr 1, Technologia Informacyjna, Egzamin
TI 7 odpowiedzi, Technologie Informacyjne
informatyka pyt, I rok, Technologia informacyjna
rozwój technologii informatycznej w turystyce
1 TECHNOLOGIA INFORMACYJNA wykł
lewkowicz,technologie informacyjne, pytania i odpowiedzi

więcej podobnych podstron