BIO-ALGORITHMS AND MED-SYSTEMS
JOURNAL EDITED BY MEDICAL COLLEGE – JAGIELLONIAN UNIVERSITY
Vol. 1, No. 1/2, 2005, pp. 3-8.
ANALIZA MOŻLIWOŚCI ZASTOSOWANIA METOD
SZTUCZNEJ INTELIGENCJI W MEDYCYNIE SĄDOWEJ
ANALYSIS OF ARTIFICIAL INTELLIGENCE METHODS
APPLICATION IN FORENSIC MEDICINE
E
LŻBIETA
F
ILIPOWICZ
*
,
J
OANNA
K
WIECIEŃ
**
,
M
AŁGORZATA
K
ŁYS
***
,
B
OGUSŁAW
F
ILIPOWICZ
**
*
Szpital Uniwersytecki, Collegium Medicum Uniwersytetu Jagiellońskiego,
Kraków, filip@ia.agh.edu.pl
**
Katedra Automatyki Akademii Górniczo-Hutniczej, Kraków, filip@ia.agh.edu.pl
***
Katedra Medycyny Sądowej, Collegium Medicum Uniwersytetu Jagiellońskiego,
Kraków, mpklys@cyf-kr.edu.pl
Streszczenie. Artykuł opisuje zastosowanie nowych systemów
bioinformatycznych w medycynie sądowej. Systemy biome-
tryczne już znalazły zastosowanie między innymi w geome-
trycznej identyfikacji twarzy. Są one niezbędne w identyfikacji
osobowej oraz w poszukiwaniu osób zaginionych. W ostatnich
latach nastąpił bardzo szybki rozwój badań nad chromosomem
Y, co pozwoliło na postęp w medycynie sądowej. Metody
sztucznej inteligencji mogą być pomocne w badaniach spor-
nego ojcostwa i ewolucji człowieka. Bioinformatyka oraz metody
biologii molekularnej, metody multiplex PCR będą pełnić bardzo
ważną funkcję w analizie sądowej DNA oraz w historycznych
i genealogicznych badaniach.
Słowa kluczowe: medycyna sądowa, systemy biometryczne,
chromosom Y, multiplex PCR, pojedyncze nukleotydowe
polymorfizmy
Abstract. This article reviews new bioinformatic systems in
forensic medicine. Biometric systems are already used in
forensic medicine for face geometry identification. They are
necessary in personal identification and missing persons
investigations. The field of Y-chromosome analysis and its
application to forensic science has undergone rapid
improvement in recent years. Artificial Intelligence is usefull in
paternity testing and in human evolutionary study. Bioinformatic
systems and multiplex PCR assay will play an important role in
the future of forensic DNA typing and historical and
genealogical research.
Key words: forensic medicine, biometric systems, Y-chro-
mosome, multiplex PCR, single nucleotide polymorphisms
1. Możliwości zastosowania metod
sztucznej inteligencji w medycynie są-
dowej.
Systemy biometryczne mogą być stosowane do identyfi-
kacji osobowej w medycynie sądowej. Systemy biometryczne
są obecnie jednym z najszybciej rozwijających się działów
informatyki na świecie. Kontrola biometryczna oparta jest na
specyficznych cechach organizmu, które są charakterystyczne
dla każdego człowieka [2], [3], [10], [11]. W chwili obecnej
najpopularniejsze techniki biometryczne można podzielić na
następujące grupy:
- systemy oparte o rozpoznawanie linii papilarnych,
- systemy oparte o rozpoznawanie geometrii twarzy,
- systemy oparte o rozpoznawanie mowy,
- systemy oparte o rozpoznawanie cech charaktery-
stycznych tęczówki oka.
Aktualnie dostępne są nowe systemy:
- oparte o rozpoznawanie DNA,
- oparte o rozpoznawanie obrazu żył,
- oparte o rozpoznawanie dna oka.
Systemy biometryczne są potrzebne w medycynie sądo-
wej celem identyfikacji osobowej. Są proste w instalacji,
niezawodne i tanie, jeśli chodzi o koszty utrzymania oraz
konserwacji. Ogólne zasady biometryki opierają się na
zapisywaniu w pamięci komputera określonego i niepowta-
rzalnego wzoru wybranej cechy, przechowywaniu tej
informacji, a następnie dopasowaniu określonej cechy
podczas procesu weryfikacji w oparciu o zapisany wzorzec
[2], [3], [10], [11].
Identyfikacja w medycynie sądowej polega więc na auto-
matycznym rozpoznaniu nieznanej osoby poprzez badanie
jednej lub kilku jej cech biometrycznych. System porównuje
aktualny obraz zapisany przez odpowiednie urządzenie
z wzorcami zapisanymi w scentralizowanej bazie danych.
Liczone jest prawdopodobieństwo przyporządkowane
każdemu obrazowi. Jeśli przekracza ono ustaloną wartość
krytyczną, system uznaje, że nieznana osoba została
zidentyfikowana. Jeśli kilka obrazów przekracza ową wartość,
przyjmuje się najbardziej prawdopodobny obraz za praw-
dziwy.
Artificial in
telligence
E. Filipowicz et al., Analiza możliwości zastosowania metod sztucznej inteligencji w medycynie sądowej
4
Linie papilarne są bardzo ważną cechą każdego ludzkiego
organizmu, gdyż pozwalają jednoznacznie zidentyfikować
człowieka. Podstawę identyfikacji odcisków palców stanowią
tzw. minutie. Są to punkty, które zaznaczają początek i koniec
charakterystycznych miejsc oraz miejsca przecięcia, widoczne
nawet gołym okiem. Czytniki wykorzystujące systemy
biometryczne pozwalają na szybkie i dokładne identyfikowanie
danej osoby. Istnieją dwa rodzaje takich urządzeń: w jednym
weryfikacja odbywa się w samym czytniku, w drugim zaś
proces ten odbywa się w komputerze PC połączonym
z małym skanerem, niewymagającym trudnego oprogramo-
wania. Niektóre czytniki działają na zasadzie fotografowania
opuszki palca przyłożonego do czytnika. Kod opisujący palec
może być zapisany jako ciąg symboli liter i cyfr, a więc kodem
ASCII. Możemy go bez trudu przechowywać w dowolnej bazie
danych, a na dodatek zajmuje on bardzo mało miejsca
w pamięci [10], [11].
Ludzkie oko posiada wiele cech, które mają zastosowanie
w biometryce. Nie istnieją dwie tęczówki, których szczegółowy
opis matematyczny byłby identyczny, nawet bliźnięta
jednojajowe mają różne tęczówki. U każdego człowieka
występują odmienne tęczówki w prawym i w lewym oku; są
niezmienne począwszy od 18 miesiąca życia aż do śmierci.
Unikalność jest jednym z najważniejszych problemów
dotyczących systemów biometrycznych. Obrazem jest
siateczka tkanki łącznej oraz innych widzianych elementów.
Taki kod, zawierający skrócony opis punktów charakterystycz-
nych, jest następnie porównywany z zapisanym obrazem
w bazie danych [10], [11].
Systemy rozpoznające geometrię twarzy są najbardziej
naturalnymi sposobami identyfikacji biometrycznej. Technolo-
gia rozpoznawania twarzy obecnie jest rozwijana w dwóch
kierunkach: pomiaru twarzy i tzw. metody eigenface
(właściwych twarzy). Technologia pomiaru twarzy polega na
pomiarze specyficznych cech twarzy i relacji pomiędzy tymi
pomiarami [10], [11]. Punkty pomiarowe pokazano na rys. 1.
Rys. 1. Przykład punktów pomiarowych twarzy
Metoda eigenface polega na porównywaniu uzyskanego
obrazu z gotowymi wzorcami umieszczonymi w pamięci. Jest
podobna do metody stosowanej w kryminalistyce czyli
portretów pamięciowych. Technologia identyfikacji opierającej
się na eigenface jest w początkowym stadium rozwoju
i jest bardzo obiecująca.
Tworzenie modeli stochastycznych jest elastyczną
i najbardziej ogólną metodą wykorzystywaną do zagadnień
systemów biometrycznych. Istnieje wiele nie w pełni jasnych
i dających się z trudem zdefiniować aspektów, związanych
z rozpoznaniem danej cechy. Modele probabilistyczne są
bowiem najbardziej odpowiednie w rozwiązywaniu zagadnień
związanych z występowaniem niepewnych bądź niekomplet-
nych informacji. Modele stochastyczne są ukrytymi modelami
Markowa, które uznane są za najbardziej przydatne do
rozpoznawania właściwości cech. Gdy wzorzec sam służy
jako odniesienie i jest przechowywany w pamięci, podejście
bazujące na ukrytym modelu Markowa reprezentuje
odniesienie przez model, tym samym wykazując wyższy
stopień abstrakcji i elastyczności [2], [3], [4].
Ukryty model Markowa HMM jest procesem stochasty-
cznym w podwójnym sensie, ze szczególnym uwzględnieniem
procesu stochastycznego, który nie jest obserwowany
a ukryty, a pewne informacje o nim można wydobyć,
posługując się innym zbiorem procesów stochastycznych,
które produkują sekwencje obserwowanych symboli. Ukryty
model Markowa jest scharakteryzowany przez łańcuch
Markowa o skończonej liczbie stanów i zbiór dystrybucji
wyjściowych. Parametry przejścia pomiędzy stanami w
łańcuchu Markowa modelują zmiany widmowe. Analiza tych
dwóch typów zmian jest podstawą, na której opiera się
rozpoznawanie właściwości cech tęczówki czy geometrii
twarzy. W celu zdefiniowania symboli do utworzenia ukrytego
modelu Markowa, musi być opracowany proces wydobywania
cech oparty na analizie konturu. Aby ułatwić przetwarzanie
wzorców, zastosowano technikę zwaną transformacją
miejscowej projekcji konturu RPCT, która transformuje
złożony wzór lub wzór wielokonturowy w jeden zewnętrzny
kontur. Przy wykorzystaniu tej techniki miejscowa projekcja i
przetwarzanie konturu są dokonywanie współbieżnie.
Podstawowa zasada, na której się opiera ta metoda polega na
tym, że wszystkie piksele wzorca są rzutowane na podstawy
projekcyjne (ang. projection bases). Następnie dokonywana
jest ekstrakcja z wzorca łańcucha konturu (ang. contour
chain). Wszystkie te operacje przekształcają obraz w jeden
kontur. Metoda RPCT może zostać podzielona na cztery typy
technik transformacyjnych, w zależności od wyboru baz
projekcyjnych, jak przedstawiono na rys. 2.
Rys. 2. Cztery typy przekształcenia RPCT: a) HRPCT – pozioma
(ang. horizontal RPCT), b) VRPCT – pionowa (ang. vertical RPCT),
c) HVRPCT – poziomo-pionowa (ang. horinzontal-vertical RPCT),
d) DDRPCT – diagonalno-diagonalna (ang. diagonal-diagonal RPCT)
Rys. 3 przedstawia schemat blokowy ogólnej struktury
systemu rozpoznawania znaków należących do zbiorów
znaków o dużej liczności. Proces rozpoznawania znaków
składa się z fazy treningowej i fazy klasyfikacji. Zapropono-
wano również użycie preklasyfikatora, który odgrywa istotną
rolę w procesie wstępnej redukcji kandydatów do dalszego
rozpoznawania.
Artificial in
telligence
E. Filipowicz et al., Analiza możliwości zastosowania metod sztucznej inteligencji w medycynie sądowej
5
Rys. 3. Struktura systemu rozpoznawania cechy
Podsumowując, ukryty model Markowa opiera się na
grafie skierowanym o skończonej liczbie węzłów zwanych
stanami, przy czym dla każdego ze stanów dane są
prawdopodobieństwa zdarzenia, że proces właśnie od tego
stanu wystartuje oraz dane są prawdopodobieństwa przejść
do stanów następnych [2], [3], [4].
W każdym ze stanów modelu dokonywana jest generacja
jednego z możliwych do zaobserwowania symboli elementar-
nych oraz podane są prawdopodobieństwa generacji dla
każdego takiego symbolu. Dla każdego ze znaków należą-
cych do danego języka tworzony jest oddzielny ukryty model
Markowa, dla którego prawdopodobieństwo generacji tego
znaku, składającego się z pewnych elementarnych symboli
jest największe. Na początku, po przypisaniu początkowych
wartości prawdopodobieństw, ukryty model Markowa musi
zostać poddany fazie treningowej, w której modyfikowane są
wartości tych prawdopodobieństw w oparciu o dostarczony
przez uczącego zbiór znanych znaków. Po wykonaniu
odpowiedniej liczby iteracji, ukryte modele Markowa są już
gotowe do rozpoznania zadanych znaków. Faza ta jest zwana
fazą testującą. Dla każdego z ukrytych modeli Markowa
obliczane jest prawdopodobieństwo generacji przez niego
zaobserwowanego znaku, przy czym na końcu wybierany jest
model dający największe prawdopodobieństwo tego
zdarzenia. Z ukrytymi modelami Markowa związanych jest
kilka bardzo ważnych zagadnień [2], [3], [4]:
- dobór kryterium parametrów, liczby stanów oraz wybór
typu modeli,
- dobór liczby obserwowanych elementarnych symboli,
- problem klasyfikacji wyników dostarczonych przez
poszczególne modele,
- problem treningu modeli.
Opisane modele mają więc zastosowanie w medycynie
sądowej, aktualnie pracuje się nad zastosowaniem systemów
biometrycznych w analizie DNA w hemogenetyce.
Zastosowanie bioinformatyki w technikach biologii mole-
kularnej pozwoliło na szybki rozwój hemogenetyki
w medycynie sądowej [1], [7], [13], [14].
2. Metody i algorytmy sztucznej inteli-
gencji
Sztuczne sieci neuronowe, algorytmy genetyczne
i sztuczne systemy immunologiczne reprezentują grupę
metod i technik, które w pewnym stopniu są symulacją
rozwiązań stworzonych przez naturę.
Algorytm genetyczny operuje na zakodowanej części
informacji. Gen jako potencjalna cecha dla systemów
biometrycznych jest to potencjalny bit w algorytmach
genetycznych [4], [5]. Chromosom to binarny ciąg kodowy
składający się z zer i jedynek. Każdy pojedynczy bit jest
odpowiednikiem pojedynczego genu. Ze względu na sposób
ułożenia genów w chromosomie można wyróżnić trzy
podstawowe sposoby kodowania:
• klasyczne – geny są heterogeniczne, czyli geny na
różnych pozycjach przechowują różne informacje. Stosuje
się je wtedy, gdy mamy określone niejednorodne cechy
osobnika i chcemy dobrać im optymalne wartości.
• permutacyjne – geny są homogeniczne, czyli przechowują
podobne informacje i są wymienialne. Tego typu kodowa-
nie stosuje się do rozwiązywania problemów kombinato-
rycznych.
• drzewiaste – chromosom nie jest liniowym ciągiem genów,
ale złożoną strukturą drzewiastą. Kodowanie drzewiaste
znajduje zastosowanie w tzw. programowaniu genetycz-
nym, czyli wszędzie tam, gdzie ewolucji podlegają reguły
matematyczne
Genotyp jest to zbiór (struktura) jednego lub więcej chromo-
somów. Genotyp może być już pojedynczym osobnikiem
danej populacji. Fenotyp występuje w przyrodzie po interakcji
ze środowiskiem. Inaczej fenotyp to zbiór parametrów,
rozwiązanie, punkt.
Algorytmy genetyczne (AG) są to algorytmy poszukiwania
oparte na mechanizmach doboru naturalnego oraz dziedzicz-
ności [4], [5]. Algorytm genetyczny zawiera w sobie elementy
teorii ewolucji Darwina, która zakłada, że przeżywają tylko
najlepiej przystosowane osobniki. W każdym pokoleniu
powstaje nowy zespół sztucznych organizmów (ciągów
bitowych), utworzonych z połączenia fragmentów najlepiej
przystosowanych osobników poprzedniego pokolenia. AG
wykorzystują efektywnie przeszłe doświadczenia do
określania nowego obszaru poszukiwań o spodziewanej
podwyższonej wydajności.
Populacja jest to pewien zbiór osobników. Każdy algorytm
genetyczny rozpoczyna działanie od początkowej populacji
Artificial in
telligence
E. Filipowicz et al., Analiza możliwości zastosowania metod sztucznej inteligencji w medycynie sądowej
6
ciągów kodowych, po czym generuje kolejne populacje
ciągów. Najczęściej populację początkową dla AG wybiera się
drogą losową. W każdym kolejnym cyklu w algorytmach
genetycznych populacja ma stały rozmiar, wszystkie
chromosomy podlegają wymianie na nowe. Elementarny
algorytm genetyczny jest skonstruowany z trzech następują-
cych operacji: reprodukcji, krzyżowania oraz mutacji.
Reprodukcja jest to proces, polegający na powieleniu
indywidualnych ciągów kodowych w stosunku zależnym od
wartości, jakie przybiera funkcja celu. Istnieją różne sposoby
powielania ciągów. Najczęściej spotykanym sposobem jest
metoda ruletki.
Krzyżowanie to operacja genetyczna, składająca się
z dwóch etapów. Najpierw kojarzymy w sposób losowy ciągi
kodowe z puli rodzicielskiej w pary, a następnie każda para
przechodzi proces krzyżowania.
Mutacja polega na wymianie pojedynczego bitu w chro-
mosomie. Prawdopodobieństwo wystąpienia mutacji w AG
jest bardzo małe. Mutacja jest błądzeniem przypadkowym
w przestrzeni ciągów kodowych. Jest stosowana tylko na
wypadek utraty ważnych składników rozwiązania.
AG nie przetwarzają bezpośrednio parametrów zadania,
lecz ich zakodowaną część [4], [5]. Prowadzą poszukiwania,
wychodząc nie z pojedynczego punktu, ale z pewnej ich
populacji. AG korzystają tylko z funkcji celu, nie zaś z jej
pochodnych lub pomocniczych informacji. Ponadto stosują
probabilistyczne, a nie deterministyczne reguły wyboru.
Ważnym elementem w AG jest cel optymalizacji. Cel
optymalizacji to zwiększenie efektywności aż do osiągnięcia
pewnego optimum. Głównym celem optymalizacji jest
ulepszenie. Czyli w AG optymalizacja sprowadza się do
poszukiwania maksimum funkcji. W algorytmach tych dążymy
do znalezienia globalnego maksimum, ale pewne odmiany
potrafią znaleźć też optima lokalne [4], [5].
Pierwszym krokiem w AG jest utworzenie populacji po-
czątkowej. Polega on na wybraniu określonej liczby
chromosomów, reprezentowanych przez ciągi bitowe
określonej długości. Nasz algorytm rozpoczyna swoje
działanie właśnie od tej wybranej populacji początkowej
i generuje kolejne (z założenia coraz lepsze) populacje
ciągów. Do nas należy ustalenie liczby populacji początkowej
(należy pamiętać, że ta liczba nie może być zbyt mała ani zbyt
duża). Po wprowadzeniu populacji początkowej przychodzi
pora na ocenę osobników znajdujących się w populacji. Na
tym etapie badamy cechy poszczególnych osobników [4], [5].
Krzyżowanie ma na celu wymianę materiału genetycz-
nego pomiędzy dwoma osobnikami. Mutacja występuje
z bardzo małym prawdopodobieństwem. Wystąpienie mutacji
zależne jest od współczynnika mutacji.
Algorytm, teoretycznie, może się nie kończyć (działa
w nieskończoność). Jednak przeważnie wprowadza się jakieś
ograniczenia. Najczęściej stosowane ograniczenia to:
uzyskanie wartości znanej wcześniej, określona liczbę iteracji
oraz brak poprawy wyników. Zatrzymanie algorytmu zależy od
zadania jakie wykonujemy [4], [5].
Sztuczne sieci neuronowe, będące bardzo uproszczo-
nym modelem mózgu ludzkiego, składają się z dużej liczby
jednostek – neuronów, posiadających umiejętność przetwa-
rzania informacji. Każdy neuron wchodzący w skład sieci
powiązany jest z innymi neuronami za pomocą łączy
o parametrach (tzw. wagach synaptycznych) zmienianych
w trakcie procesu uczenia i służących do komunikacji między
neuronami. Na podstawie bieżącego stanu aktywacji neuronu
i sygnałów wejściowych obliczany jest sygnał, jaki neuron wy-
syła do sieci poprzez jedno wyjście do pozostałych neuronów
(węzłów sieci). W czasie transmisji sygnał ten podlega
osłabieniu lub wzmocnieniu w zależności od charakterystyki
łącza. Większość budowanych sieci neuronowych składa się
z kilku warstw: wejściowej – służącej do wprowadzania do
sieci danych wejściowych, wyjściowej – wyznaczającej końco-
we rozwiązanie i ukrytych – przetwarzających sygnały w taki
sposób, aby wydostać pewne dane pośrednie konieczne do
wyznaczenia końcowego rozwiązania. Istnieje wiele rodzajów
sieci, które różnią się między sobą strukturą i zasadą działania
[8]. Najpopularniejszą obecnie strukturą sieci neuronowych są
perceptrony wielowarstwowe (MLP), należące do grupy sieci
z jednokierunkowymi połączeniami (rys. 4).
Rys. 4. Schemat trójwarstwowego MLP
Bardzo ważnym etapem całego procesu konstruowania
tych sieci jest określenie właściwej liczby warstw i neuronów
w warstwach. Okazuje się, że największe możliwości
posiadają nieliniowe sieci neuronowe o co najmniej trzech
warstwach, przy czym liczba neuronów w warstwach
wejściowej i wyjściowej jest określona przez rozwiązywany
problem, natomiast liczba neuronów w warstwie ukrytej zależy
od złożoności problemu, od typu funkcji aktywacji neuronów
tej warstwy, od algorytmu uczenia, od rozmiaru danych
uczących. Najpowszechniejszą metodą uczenia perceptronów
jest metoda wstecznej propagacji błędów. Chcąc właściwie
przeprowadzić proces uczenia sieci, napotykamy na wiele
trudności związanych m.in. z doborem odpowiedniego zbioru
uczącego oraz parametrów uczenia sieci [8].
Powolność i uciążliwość procesu uczenia metodą wstecz-
nej propagacji błędów w sieciach nieliniowych sprawiły, że
pojawiły się również inne rodzaje sieci neuronowych, między
innymi sieci rezonansowe (ART), sieci Hopfielda (ze
sprzężeniem zwrotnym), sieci Kohonena, sieci o radialnych
funkcjach bazowych (RBF), probabilistyczne sieci neuronowe
(PNN) [8].
Jednym z głównych problemów rozwiązywanych za po-
mocą sieci neuronowych jest klasyfikacja i rozpoznawanie
obrazów i dźwięków, wykorzystywane również w medycynie
sądowej. Sieci neuronowe (m.in. RBF) mogą być również
z powodzeniem stosowane do klasyfikacji chromosomów pod
warunkiem istnienia olbrzymiego zbioru danych, pozwalają-
cych na uczenie i testowanie sieci [6].
Artificial in
telligence
E. Filipowicz et al., Analiza możliwości zastosowania metod sztucznej inteligencji w medycynie sądowej
7
W ostatnich latach wśród metod sztucznej inteligencji
coraz większą popularnością cieszą się sztuczne systemy
immunologiczne. Natura układu immunologicznego (m.in.
selekcja klonalna, zdolność uczenia, pamięć immunologiczna,
samoorganizacja, odporność) czyni sztuczne systemy immu-
nologiczne przydatnymi do rozwiązywania problemów klasyfi-
kacyjnych, w szczególności problemów związanych z rozpo-
znawaniem znaków i analizy DNA. Obiektami systemu
immunologicznego są limfocyty typu T – wspomagające
i wykorzystywane w detekcji anomalii oraz typu B – przeciw-
ciała (rys. 5) wykorzystywane w systemach analizy danych,
zdolne do rozpoznawania antygenów i reagowania na nie.
R
ys. 5. Schemat limfocytu typu B
Limfocyty, reagując na określony antygen wychwytują
istotne właściwości antygenu. Pobudzone limfocyty typu B są
intensywnie klonowane w celu wychwycenia wszystkich
antygenów (selekcja klonalna). Klony podlegają mutacji, dzięki
której możliwe jest również wychwycenie antygenów
podobnych. W sztucznych systemach immunologicznych
antygeny tworzą zbiór danych klasyfikowanych, zaś przeciw-
ciała tworzą wzorce tych danych. Przeciwciała tworzące sieć
idiotypową modyfikowaną wraz z rozpoznawaniem kolejnych
antygenów pogrupowane są na zasadzie podobieństwa.
Jeżeli żadne z przeciwciał nie jest w stanie rozpoznać
antygenu, produkowana jest nowa komórka na wzór
antygenu. Każde nowo utworzone przeciwciało wprowadzane
jest w sąsiedztwo przeciwciał do niego podobnych. Algorytm
uczenia sieci idiotypowej przedstawiony jest na rys. 6.
W procesie klasyfikowania określonej cechy (antygenu) ze
zbioru przeciwciał wybieranych jest n elementów wraz z ich
sąsiedztwem. Antygen porównywany jest z wybranymi
przeciwciałami i obliczany jest stopień ich dopasowania oraz
poziom stymulacji komórki. Przeciwciało, dla którego stopień
dopasowania do antygenu przekracza próg stymulacji,
nazywane jest węzłem klasyfikującym. Dla każdego węzła
klasyfikującego badane jest również jego sąsiedztwo. Spośród
wszystkich węzłów uporządkowanych malejąco względem
dopasowania wybieramy przeciwciało o największym dopa-
sowaniu, które stanowi rozwiązanie naszego problemu [9].
W większości przypadków stosowane jest kodowanie
binarne przeciwciał i antygenów. Dla sekwencjonowania DNA
stosujemy kodowanie ternarne, ponieważ łańcuch DNA
zbudowany jest z 4 nukleotydów: A, T, G i C.
Istotną cechą odróżniającą sztuczne systemy immunolo-
giczne od algorytmów genetycznych jest tzw. metadynamika
(dzięki zapamiętywaniu przez sieć wyuczonych wzorców
istnieje możliwość douczania sieci poprzez prezentowanie
nowych danych). Poza tym o zmianach „gatunkowej
różnorodności” w systemach immunologicznych decyduje
selekcja klonalna i mutacja, natomiast w AG selekcja,
krzyżowania i mutacja.
Rys. 6. Algorytm uczenia sieci idiotypowej
Dzięki opracowanej mapie chromosomu Y, zastosowaniu
analizy pojedynczych polimorfizmów nukleotydowych (ang.
single nucleotide polymorphism – SNP) oraz wykorzystaniu
krótkich odcinków powtarzających (ang. short tandem repeat
– STR) nastąpił znaczny rozwój w medycynie sądowej
w następujących dziedzinach [1], [7], [13], [14]:
- badanie spornego ojcostwa,
- identyfikacja sprawców gwałtu,
- identyfikacja nieznanych zwłok oraz zaginionych osób.
Dzięki zastosowaniu techniki multiplex PCR – reakcji
łańcuchowej polimerazy z wieloma starterami można uzyskać
analizę 246 Y-SNP [12].
Aktualnie bardzo ważne jest tworzenie bazy danych DNA
oraz rozwój wymiany informacji pomiędzy laboratoriami
hemogenetyki [5], [9], [10], [12].
Artificial in
telligence
E. Filipowicz et al., Analiza możliwości zastosowania metod sztucznej inteligencji w medycynie sądowej
8
2. Podsumowanie
Nasz artykuł przedstawia kilka przykładów zastosowania
systemów bioinformatycznych w medycynie sądowej.
Urządzenia wykorzystujące systemy biometryczne są
użyteczne w identyfikacji linii papilarnych, tęczówki oka czy
też geometrii twarzy.
Tworzenie modeli stochastycznych jest elastyczną i naj-
bardziej ogólną metodą wykorzystywaną w zagadnieniach
systemów biometrycznych. Istnieje wiele nie w pełni jasnych
i dających się z trudem zdefiniować aspektów związanych
z rozpoznaniem danej cechy. Ponadto znajomość oraz
zastosowanie algorytmów genetycznych wydaje się nie-
zbędne w hemogenetyce, między innymi w identyfikacji DNA
nieznanych zwłok oraz w oznaczaniu spornego ojcostwa.
Literatura cytowana
1. Butler J. M.: Recent developments in Y-single tandem repaet
and Y-single nucleotide polymorphism analysis, Forensic Sci
Rev, 15: 91-108, 2003.
2. Filipowicz B.: Modele stochastyczne w badaniach operacyjnych.
Analiza i synteza systemów obsługi i sieci kolejkowych, WNT,
Warszawa 1996.
3. Filipowicz B., Kwiecień J.: Optymalizacja sieci kolejkowych przy
użyciu algorytmów genetycznych, AUTOMATYKA, Półrocznik,
Uczelniane Wydawnictwa Naukowo-Dydaktyczne AGH, Kraków
2003.
4. Filipowicz B.: Modelowanie i optymalizacja systemów
kolejkowych cz. 1. Systemy Markowskie, Przedsiębiorstwo
Poligraficzne T. Rudkowski, Kraków 1995.
5. Goldberg D.: Algorytmy genetyczne i ich zastosowanie, WNT,
Warszawa 1998.
6. Musavi M. T. i in.: Mouse chromosome classification by radial
basis function network with fast orthogonal search, Neural
Networks 11, 769-777, 1998.
7. Opolska-Bogusz B., Sanak M., Turowska M.: Genetic variation at
STR-TH01 locus in the South Polish population, Arch Med
Sadowej Krymino, 52(2): 99-101, 2002.
8. Tadeusiewicz R.: Sieci neuronowe, Akademicka Oficyna
Wydawnicza, Warszawa 1993.
9. Wierzchoń S. T.: Sztuczne systemy immunologiczne. Teoria
i zastosowania, Akademicka Oficyna Wydawnicza EXIT,
Warszawa 2001.
10. www.biometryka.com
11. www.logistyka.net.pl
12. http://ycc.biosci.arizona.edu
13. www.relive.genetics.com
14. http://genome.ucsc.edu
INFORMATYK
NARZĘDZIA DO IDENTYFIKACJI
OSOBNICZEJ ORAZ RELACJI
MIĘDZY-OSOBNICZEJ
MEDYCYNA SĄDOWA
DANE O TRADYCYJNYCH I INNYCH
STOSOWANYCH METODACH
IDENTYFIKACJI
INFORMATYK
AUTOMATYCZNE PRZESYŁANIE ORAZ
KONSTRUKCJA BAZY DANYCH
STATYSTYK
PORÓWNAWCZA ANALIZA
STATYSTYCZNA WYNIKÓW
TRADYCYJNYCH ORAZ
WG PROPONOWANEGO MODELU
Artificial in
telligence