1. Projektowanie współbieżne - istota, porównanie z konwencjonalnym:
Concurrent Engineering: powstało w 1986r. w Stanach Zjednoczonych w celu określenia metody organizacji prac przygotowawczych do uruchomienia produkcji nowego wyrobu, w której etapy projektowania, wykonania i badania prototypu, poprawek i korekcji, a następnie konstruowania i wykonania oprzyrządowania produkcyjnego nie są realizowane kolejno jako zamknięte etapy działania, lecz na tyle na ile jest to możliwe jednocześnie, równolegle z bieżącym przekazywaniem informacji o uzyskanych wynikach.
Nie ma granic między działami w przedsiębiorstwie. Członkowie grupy rekrutują się spośród pracowników różnych działów. Posługują się komunikacją komputerową. Projektem kieruje manager projektu. Zastosowanie zaawansowanej techniki komputerowej pozwala na stworzenie spójnego środowiska komputerowego, ułatwiającego realizację projektu. Fizyczny prototyp wyrobu zostaje zastąpiony przez modele.
1.1 Główne cele projektowania współbieżnego:
Głównym celem CE jest: - zredukowanie czasu „od pomysłu do rynku”
- podniesienie jakości produktu
- podniesienie jakości procesu wytwórczego
Lepiej więcej środków przeznaczyć na rozwój i badania we wczesnej fazie powstawania wyrobu.
.
2. Typizacja - definicja:
Jest to metoda normalizacji, polegająca na dokonywaniu wyboru z istniejącej lub zamierzonej różnorodności przeważnie mniejszej liczby rozwiązań optymalnych, przeznaczonych do upowszechniania. Istotą typizacji jest najczęściej wybór mniejszej liczby rozwiązań.
Model graficzny typizacji:
3. Unifikacja - definicja:
Jest to metoda normalizacji polegająca na zastąpieniu istniejącej różnorodności nową różnorodnością, składającą się z jednej odmiany lub z liczby odmian mniejszej od pierwotnej ich liczby.
Model graficzny unifikacji:
4. Porównanie typizacji i unifikacji (różnice między nimi):
Typizacja - wybór
Unifikacja - zastąpienie
5. Klasyfikacja - definicja:
Jest to podział (lub grupowanie) przedmiotów, pojęć i czynności według określonych cech charakterystycznych, które przyjmuje się jako zasadę podziału lub kryterium klasyfikacyjne.
Rozróżnia się: - klasyfikację logiczną - myślowe przygotowanie (plan) klasyfikacji
- klasyfikację rzeczową - segregowanie (sortowanie) przedmiotów, fizyczne
oddzielenie jednych od drugich lub łączenie ich w grupy na podstawie pewnego
podobieństwa między składnikami tych grup
Klasyfikowanie jest to czynność tworzenia klasyfikacji dla określonego zbioru elementów.
6. Warunki poprawności klasyfikacji:
Warunki decydujące o poprawności klasyfikacji to: - warunki formalne
- warunki merytoryczne
Warunki formalne - koncentrują się na zapewnieniu logicznej poprawności klasyfikacji i sprowadzają się do wymagań:
klasyfikacja powinna być wyczerpująca - podział klasy macierzystej na klasy pochodne, w którym zakres klas pochodnych wyczerpuje całkowicie zakres klasy macierzystej
klasyfikacja powinna być rozłączna - podział klasy macierzystej na klasy pochodne, w którym żaden element klasy macierzystej nie wystąpi więcej niż w jednej z klas pochodnych
Warunki merytoryczne - polegają na tym, by przystępując do tworzenia klasyfikacji jasno sformułować cel jakiemu ma ona służyć i ciągle weryfikować jej przewidywaną praktyczną przydatność.
Rodzaje klasyfikacji:
klasyfikacja dychotomiczna - polega na dzieleniu każdej klasy macierzystej na każdym szczeblu podziału zawsze na dwie klasy pochodne, przy zachowaniu reguły, że jedna z klas pochodnych potwierdza istnienie cechy, druga zaś zaprzecza istnieniu tej cechy, stanowiącej podstawę podziału. W klasyfikacji dychotomicznej modyfikacja cechy w klasach pochodnych sprowadza się do stanów skrajnych: „istnieje cecha” lub „cecha ni istnieje”
klasyfikacja analityczna - zakłada, że na każdym szczeblu podziału, bez względu na to ile występuje na nim klas macierzystych…
7. CAPP - definicja, zakres:
CAP - Compuetr Aided Planning - komputerowo wspomagane planowanie.
Te metody i narzędzia wspomagają projektowanie technologiczne, obejmujące opracowanie dokumentacji technologicznej z uwzględnieniem modelu geometrycznego przedmiotu, jego stanów pośrednich, narzędzi, oprzyrządowania, rodzaju maszyn i parametrów obróbki, ale bez konkretnego określenia terminów i stanowisk wytwórczych. Systemy CAP wspomagają więc prace związane z programowaniem urządzeń sterowanych numerycznie: obrabiarek, robotów, współrzędnościowych maszyn pomiarowych, systemów transportowych. Potocznie funkcje i zakres systemów CAP określa się jako działanie mające na celu: co i jak wytworzyć, ale bez określenia gdzie i kiedy. Podstawą dla systemu CAP są z jednej strony rysunki techniczne produktu, półfabrykaty i surówki, z jakich mają być wykonane przedmioty, a z drugiej strony środki produkcji. Plany pracy są sekwencjami przyporządkowującymi określone środki produkcji, instrukcje obróbki, programy maszyn i robotów realizujących określone zadania wytwórcze. Do poszczególnych faz projektowania procesów wytwarzania niezbędne są informacje pozyskiwane z systemu CAD. Są to zazwyczaj geometryczne modele przedmiotów i listy kompletacyjne.
CAPP - Computer Aided Process Planning - komputerowo wspomaganie planowania procesów.
Ta klasa systemów jest szersza niż klasa CAP. W zakresie zastosowań CAPP mieszczą się bowiem także wszystkie metody i techniki technologicznego przygotowania produkcji realizowanej w konwencjonalnych technologiach, wspomaganych technikami komputerowymi i systemami ekspertowymi.
8. Metody wspomaganego komputerowo projektowania procesów technologicznych:
wariantowa
generacyjna
Większość opracowanych programów komputerowych stanowi kombinację tych dwóch metod, wyodrębnić można metodę semigeneracyjną.
Projektowanie wariantowe:
Proces technologiczny dla nowej części jest tworzony poprzez wykorzystanie istniejącego procesu. Metody te charakteryzuje stała struktura procesu technologicznego, z różnymi możliwościami parametryzacji działań.
W zależności od rodzaju tego procesu oraz zakresu i sposobu dokonywanych w nim zmian wyróżnia się wiele wariantów tej metody, a w szczególności:
- projektowanie na podstawie powtórnego zastosowania indywidualnych procesów
technologicznych
- projektowanie na podstawie typowych procesów technologicznych
- projektowanie na podstawie procesów grupowych
Projektowanie generacyjne:
Istotą jest syntezowanie planu procesu technologicznego dla nowej części. Brak tutaj fazy tworzenia wzorca, a tworzenie nowego procesu technologicznego odbywa się na podstawie informacji o wytwarzaniu zawartych w bazie danych. Cech poszczególnych powierzchni tworzących przedmiot są identyfikowane dla każdej powierzchni i są podstawą do opracowania zbioru działań. Następnie podzbiór działań zostaje uporządkowany w oparciu o zbiór reguł i zasad projektowania procesu technologicznego obróbki. Uzyskuje się w ten sposób strukturę procesu technologicznego dla przedmiotu.
Metody można również klasyfikować w zależności od stopnia automatyzacji, wyróżniając projektowanie: - ręczne
- częściowo zautomatyzowane
- automatyczne
9. Projektowanie wariantowe - zalety i wady:
Zalety: - możliwość tworzenia planów procesu technologicznego dla różnych wariantów na
podstawie jednego planu technologicznego
- niski koszt sprzętu komputerowego i oprogramowania
- stosunkowo łatwe oprogramowanie i instalacja systemu
- prostota użytkowania
- możliwość szybkiego zrozumienia systemu oraz kontroli nad ostateczną wersją
procesu technologicznego
- duża niezawodność
Wady: - jakość procesu technologicznego zależy w nich w dużym stopniu od wiedzy i
doświadczenia technologa zawartych w będących podstawą projektowania procesach i
ich wzorcach
- planowanie procesu technologicznego jest ograniczone do części podobnych, o
wcześniej zaplanowanych procesach technologicznych
- doświadczony technolog znajduje zawsze podstawy do modyfikowania i ulepszania
standardowego procesu technologicznego, co pociąga za sobą konieczność całej
modyfikacji systemu
- szczegóły dotyczące planu technologicznego nie mogą być generowane
- planowanie wariantowe nie może być wykorzystane w produkcji zautomatyzowanej
bez dodatkowego planowania szczegółowego
10. Projektowanie generacyjne - zalety i wady:
Zalety: - szybkie generowanie procesu technologicznego
- łatwość planowania procesu technologicznego dla nowych przedmiotów na
podstawie istniejących komponentów
- możliwość integracji szczegółowych informacji kontrolnych w produkcji
Zautomatyzowanej
11. Narzędzia i metody stosowane w komputerowo wspomaganym projektowaniu procesów technologicznych:
drzewo decyzyjne - struktura procesu decyzyjnego służącego do wyboru określonych elementów procesu technologicznego odzwierciedla istniejący proces produkcyjny w zakresie planowania i strategii. Poszczególne kroki decyzyjne odbywają się na zasadzie logiki: jeśli … to (if … then). Łatwo to drzewo skonstruować.
tabele decyzyjne - są formą zapisu, zawierają warunki, dane i działania służące do wyboru elementów i czynności definiujących proces technologiczny. Spełnienie określonych warunków umożliwia automatyczny wybór elementu procesu technologicznego ( np. parametrów obróbki, stanowiska obróbkowego, narzędzia skrawającego lub pomiarowego). Tabele decyzyjne nie mogą obejmować całego procesu technologicznego, ale tylko fragment, gdyż byłyby zbyt obszerne i złożone oraz trudne w interpretacji. Tabele decyzyjne nie można łatwo zmieniać.
zastosowanie sztucznej inteligencji
reprezentacja wiedzy
12. Sztuczna inteligencja - definicja:
jest naśladowaniem inteligencji naturalnej, czyli ludzkiej
„dział informatyki, którego celem jest obserwacja reguł rządzących tzw. inteligentnymi umiejętnościami człowieka (np. postrzeganie, rozpoznawanie, uczenie się, aktywność twórcza, operowanie symbolami) i tworzenie ich modeli formalnych, tak aby można było na tej podstawie opracować programy komputerowe symulujące owe zachowania”.
W sensie technicznym to stworzenie metod i narzędzi umożliwiających systemom komputerowym efektywne rozwiązywanie problemów zarezerwowanych dotąd wyłącznie dla człowieka. Z punktu widzenia informatyki można ją sprowadzić do symulowania inteligentnych zachowań człowieka w odniesieniu do konkretnej grupy problemów. Obok szeroko eksponowanych umiejętności myślenia abstrakcyjnego warto zwrócić uwagę na wysiłki zmierzające do oprogramowania czynności nie zaliczanych di inteligencji, jak chociażby naśladowanie przez roboty sposobu poruszania się…
13. System ekspercki -definicja:
System komputerowy zawierający skondensowaną wiedzę i reguły. Nie zawiera w sobie pełnej, dynamicznej wiedzy eksperta, a jedynie niewielki jej fragment.
System ekspertowy to program wykorzystujący wiedzę i procedury rozumowania dla wspomagania rozwiązywania problemów na tyle trudnych, że do ich rozwiązania wymagana jest pomoc eksperta.
System ekspertowy to system komputerowy zawierający w sobie wyspecjalizowaną wiedzę na temat określonego obszaru ludzkiej działalności, która jest zorganizowana w sposób umożliwiający systemowy…
Systemy eksperckie są programami komputerowymi opracowanymi w oparciu o wiedzę ekspertów z zakresu, którego system ten dotyczy. Wiedz ta zorganizowana jest w ten sposób, że poprzez dialog z użytkownikiem system może proponować..
14. Zalety systemów eksperckich:
- większa dostępność ekspertyzy
- mniejszy koszt ekspertyzy
- ciągłość pracy
- wyjaśnienie decyzji
- szybkość uzyskania ekspertyzy
- stała, niewrażliwa na emocje i pełna ekspertyza
- uczenie metodą prób i błędów
- inteligentny interfejs człowieka - komputer
- mniejsze ryzyko w warunkach szkodliwych dla człowieka
Cechy systemów eksperckich :
- dotyczą wąskiej dziedziny wiedzy
- modularna budowa pozwalająca na rozbudowę systemu
- możliwość wnioskowania z niepełnej wiedzy
- możliwość wyjaśniania łańcucha wnioskowania z sposób zrozumiały dla użytkownika
- rozdział mechanizmu wnioskowania pd bazy wiedzy
- zastosowanie reguł wnioskowania postaci „if … then …”
15. Budowa systemów eksperckich - moduły:
Baza wiedzy - jest to część systemu zawierająca wiedzę o dziedzinie i o podejmowaniu decyzji przez eksperta.
Moduł pozyskiwania wiedzy - umożliwia zdobywanie oraz modyfikowanie wiedzy z danej dziedziny. Danych do modułu wiedzy dostarczają bezpośrednio eksperci z danej dziedziny.
Mechanizmy wnioskowania - stanowią część systemu kierującą rozwiązaniem problemu. Są odpowiedzialne za poprawne zastosowanie wiedzy zgromadzonej w bazie wiedzy.
Moduł objaśniająco-wyjaśniający - jest to część systemu zajmująca się komunikacją ze światem zewnętrznym. Jest odpowiedzialny zarówno za wprowadzanie danych do systemu, jak i za wyprowadzanie na zewnątrz wniosków systemu.
16. Sieci neuronowe - istota, zalety:
Sztuczne sieci neuronowe są układami przetwarzającymi informacje w sposób
równoległy, wzorowanymi na ludzkim mózgu. Istotą sieci neuronowych jest możliwość ich uczenia, polegająca w rzeczywistości na długotrwałym dostrajaniu dużej ilości liczb ważących przetwarzane sygnały, zwanych wagami synaptycznymi. Z punktu widzenia człowieka sieci stanowią czarne skrzynki, produkujące np. całkiem trafne prognozy rzeczywistości w sobie tylko wiadomy sposób. Nauczona sieć to układ, który na określone sygnały wejściowe odpowiada we właściwy sposób i może w związku z tym stanowić model pewnego zjawiska lub procesu technologicznego, przewidując np. jego przyszły przebieg. Składa się ona z pewnej liczby elementów (neuronów) przetwarzających informację. Neurony są ze sobą powiązane za pomocą połączeń o parametrach (wagach) modyfikowanych w trakcie procesu uczenia.. Większość budowanych sieci ma budowaną warstwową.
Zalety: - uczenie się jest dziedziczne. Mogą dopasować się do zmieniającego otoczenia przez
przeszkolenie
- pozwala rozwiązywać problemy bez znajomości analitycznej zależności między
danymi wejściowymi, a oczekiwanymi wyjściami
- różnorodność zastosowania: rozpoznawanie pisma, mowy, analizy finansowe rynku
- używa przykładów do szkolenia się
- czas tworzenia krótszy, szybki proces uczenia
- szeroki zakres możliwych dziedzin
- nie wymagają programowania
17. Algorytmy genetyczne - istota:
Idea algorytmów genetycznych inspirowana jest procesami obserwowanymi w przyrodzie, którymi są selekcja osobników i ewolucja gatunków oraz związane z tym dziedziczenie cech. W rezultacie działania mechanizmów naturalnych powstają nowe gatunki najlepiej dostosowane do środowiska, w którym żyją. Każdy osobnik w populacji jest reprezentowany przez dziedziczone geny (jednostki dziedziczenia), określające jego poszczególne cechy.
Algorytmy genetyczne są to algorytmy poszukiwania, które w rozwiązywaniu zadań stosują zasady ewolucji i dziedziczności, posługują się populacją potencjalnych rozwiązań, zawierają pewien proces selekcji, oparty na dopasowaniu osobników, i pewne operatory genetyczne. Każde rozwiązanie ocenia się na podstawie pewnej miary jego dopasowania - funkcja przystosowania (celu). Nową populację, w kolejnej iteracji, tworzy się przez selekcje osobników najlepiej dopasowanych.
Algorytmy genetyczne odwzorowują naturalne procesy ewolucyjne zachodzące w czasie,
których celem jest maksymalne dopasowanie osobników do istniejących warunków życia.
Algorytm genetyczny stanowi wzorowaną na naturalnej ewolucji metodę rozwiązywania
problemów, głównie zagadnień optymalizacyjnych. Algorytmy genetyczne są procedurami przeszukiwania opartymi na mechanizmach doboru naturalnego i dziedziczenia. Korzystają z ewolucyjnej zasady przeżycia osobników najlepiej przystosowanych.
18. Logika rozmyta - istota:
Klasyczna logika tzw. logika ostra bazuje na dwóch wartościach reprezentowanych najczęściej przez: 0 i 1 lub „prawda i fałsz”. Granica między nimi jest jednoznacznie określona i niezmienna. Logika rozmyta stanowi rozszerzenie klasycznego rozumowania na rozumowanie bliższe ludzkiemu. Wprowadza ona wartości pośrednie pomiędzy standardowe 0 i 1; `rozmywa' granice pomiędzy nimi dając możliwość zaistnienia wartościom z pomiędzy tego przedziału (np.: prawie fałsz, w połowie prawda).
Logika rozmyta jest stosowana wszędzie tam, gdzie użycie klasycznej logiki stwarza problem ze względu na trudność w zapisie matematycznym procesu lub gdy wyliczenie lub pobranie zmiennych potrzebnych do rozwiązania problemu jest niemożliwe. Ma szerokie zastosowanie w różnego rodzaju sterownikach. Sterowniki te mogą pracować w urządzeniach tak pospolitych jak lodówki czy pralki, jak również mogą być wykorzystywane do bardziej złożonych zagadnień jak przetwarzanie obrazu, rozwiązywanie problemu korków ulicznych czy unikanie kolizji. Sterowniki wykorzystujące logikę rozmytą są również używane na przykład w połączeniu z sieciami neuronowymi.
Procedura
Aktualizacji
Baz Wiedzy
Baza Danych
Zmiennych
Baza Danych
Stałych
Baza
Wiedzy
Procedury
Objaśniania
Procedury
Wnioskowani
Procedury
Sterowania
Dialogiem
Użytkownik