pitr spiral, sciaga nr2, 1)


20-24

20.Ekranowanie Przy budowie i eksploatacji aparatury elektronicznej zachodzi wielokrotnie konieczność zarówno ochrony danego obiektu (elementu, układu lub urządzenia) przed wpływem niepożądanych pół elektrycznych, magnetycznych i elektromagne­tycznych jak i konieczność zapobiegania rozprzestrzenianiu się (promieniowaniu) zakłóceń.

Jeśli w takich przypadkach nie udaje się zmniejszyć natężenia szkodliwego pola lub usuną jego źródło, np. przez zmiany konstrukcyjne lub układowe, to należy zastosować odpowiednio wykonane osłony, zwykle metaliczne, nazywane ekranami. Chociaż zastosowanie ekranów jest działaniem bardzo skutecznym, to jednak takie rozwiązanie należy uznać ogólnie za zło konieczne, wymuszone zaistniałą sytuacją.

WADY: pogarszają bowiem niektóre parametry techniczne i eksploatacyjne chronionych obiektów:

zmieniają rozkład pojemności ekranowanego obiektu względem sąsiednich obiektów i otoczenia,

wprowadzają do układów dość duże pojemności względem ekranu,

zmniejszają efektywne indukcyjności,

podwyższają straty i tłumienie

obniżają dobroć,

powodują obniżenie częstotliwości rezonansu własnego.

rosną ogólne koszty wytwarzania aparatury m.in. ze względu na użycie dodatkowych, często dość , drogich, materiałów,

ZALETY: - możliwość skutecznego zmniejszania lub likwidowania pasożytniczych sprzężeń pojemnościowych i indukcyjnych, które mogą wystąpić zarówno na poziomie elementów jak i na wyższych poziomach organizacji układu lub urządzenia.

- ochrona danego obiektu przed wpływem niepożądanych pól elektrycznych, magnetycznych, elektromagnetycznych,

21.Uziemiania w zakresie małych częstotliwości

Ogólną zasadą realizacji uziemienia jest połączenie przewodów uziemiających możliwie w jednym punkcie. W przypadku połączenia tych przewodów w jednym punkcie na płaszczyźnie odniesienia (płaszczyźnie masy) nie występują wspólne impedancje płaszczyzny uziemienia dla różnych obwodów. Ponieważ często nie ma takich możliwości, to stosuje się wiele punktów uziemiających. Liczba tych punktów zależy od wymaganych minimalnych poziomów zakłóceń w poszczególnych obwodach (odbiornikach) oraz przyjętych wymagań bezpieczeństwa. Warto przy tym jeszcze raz podkreślić, że przewody i ścieżki na płaszczyznach uziemiania (masy) powinny być jak najkrótsze.

Uziemiania w zakresie wielkich częstotliwości

W zakresie wielkich częstotliwości płaszczyzny uziemienia posiadają małą impedancję wskutek występowania zjawiska naskórkowości. Dobre właściwości wykazują płaszczyzny uziemienia wykonane ze srebra. Są to jednak rozwiązania zbyt kosztowne i dlatego tańsze płaszczyzny metalowe pokrywa się cienką warstwą srebra lub złota. Grubość tej warstwy nie ma praktycznie wpływu na impedancje w zakresie w. cz..

Takie rozwiązania nie powinny być jednak stosowane w zakresie m.cz., ponieważ wartości impedancji płaszczyzn uziemienia są zbyt duże. W układach (obwodach) b.w.cz. najskuteczniejszy jest sposób uziemienia wielopunktowego (rys.7.10). Minimalizację impedancji uziemienia obwodów uziemianych utyskuje się dołączając obwody do najbliższego punktu płaszczyzny uziemienia (chassis). Długości tych przewodów powinny być możliwie jak najmniejsze (kilka mm).

W układach szerokopasmowych, jakimi są np. wkłady cyfrowe, należy zapewnić skuteczne uziemienie w całym zakresie częstotliwości, zarówno w zakresie m.cz. jak i w.cz. System uziemienia powinien zatem gwarantować spełnienie wymagań zarówno odnośnie uziemienia jednopunktowego jak i wielopunktowego ­rys.7. 1l . Kondensatory C1,..., Cn o pomijalnie małych indukcyjnościach, dla m.cz. stanowią rozwarcie, co w efekcie powoduje, że poszczególne układy od 1...n są uziemione w jednym punkcie. Natomiast w zakresie w.cz. kondensatory C1, ..., Cn nie mają wpływu na wynikową wymaganą małą impedancję Z1,..., Zn, co z kolei zapewnia skuteczne uziemienie w zakresie w.cz. (wielopunktowe).

22.Elementy i podzespoły do tłumienia sygnałów zakłócających

Dla obniżenia poziomu sygnałów niepożądanych, a zwłaszcza w celu zmniejszania możliwości wywołania przez nie zakłócenia w pracy urządzeń elektronicznych, powszechnie stosuje się kondensatory, dławiki, elementy o nie liniowych charakterystykach prądowo-napięciowych oraz filtry o zadanych charakterystykach częstotliwości. Takie same elementy i podzespoły oraz diody, tyrystory i odgromniki wykorzystuje się w przypadku występowania zakłóceń impulsowych o dużej intensywności dla ochrony obwodów i układów elektronicznych, szczególnie półprzewodnikowych, przed uszkodzeniami. Obie te funkcje tzn. redukcja zakłóceń i ochrona przed uszkodzeniami, są często spełniane przez te same elementy i podzespoły przeciwzakłóceniowe.

Koraliki ferrytowe

Specjalnego rodzaju dławikami są odpowiednio ukształtowane elementy ferrytowe (koraliki) umieszczane wokół przewodów (rys.7.15). Stosuje się je zwłaszcza w układach szerokopasmowych, umieszczając np. w obwodzie bazy tranzystora w.cz., na przewodach zasilających wzmacniacze i generatory w.cz. i b.w.cz. lub na względnie długich przewodach i między szybkimi bramkami logicznymi lub bezpośrednio przy wejściu sygnału na płytkę drukowaną. Koraliki ferrytowe bardzo skutecznie tłumią niepożądane składowe sygnałów o częstotliwościach powyżej 1 MHz. Natomiast nie wprowadzają one tłumienia składowych - stałej i małoczęstotliwościowych. Przeciwdziałają one zakłóceniom przenoszonym drogą przewodzenia (linie zasilania i inne doprowadzenia) i wzbudzaniu się drgań pasożytniczych spowodowanych sprzężeniami i rezonansami pasożytniczymi oraz ekranują przewody lub inne przewodzące elementy. Przy takich zastosowaniach tworzy się koralikowy filtr ferrytowy, którego schemat zastępczy przedstawiono na rys.7.16.

23.iltry sieciowe i do linii sygnałowych

Idealny przeciwzakłóceniowy filtr sieciowy powinien przenosić sygnał o częstotliwości sieci, natomiast tłumić całkowicie sygnały o innych częstotliwościach, które mogą pojawiać się w sieci zasilającej.

Przeciwzakłóceniowe filtry sieciowe stosowane w praktyce tworzone są z kondensatorów klasy X i Y, z prostych dławików rdzeniowych oraz dławików z kompensacją prądową neutralizującą nasycenie rdzenia.

Filtry przeciwzakłóceniowe są zawsze konstruowane jako dolnoprzepustowe filtry odbiciowe, cv oznacza, że ich tłumienność jest maksymalna, gdy są niedopasowane do impedancji źródła zakłóceń lub odbiornika zakłóceń (obciążenia danego układu) oraz do impedancji linii. Stąd wynikają pewne charakterystyczne konfiguracje filtrów (typu L i Π) zawierających elementy indukcyjne i pojemnoś­ciowe

Zadaniem filtrów do linii sygnałowych jest tłumienie zakłóceń (zwłaszcza symetrycznych) przez radykalne obniżanie poziomu składowych o częstotliwościach leżących poza pasmem użytecznym w danym zastosowaniu, redukowanie odbić sygnałów w liniach oraz ograniczenie przeników sygnałów np. z przewodów linii zasilania lub przewodów (kabli) połączeniowych.Filtry przeznaczone do linii sygnałowych mają zróżnicowany stopień złożoności struktury elektrycznej: od prostego zespołu jednoelementowego np. koralika lub pastylki ferrytowej do zespołu kilkuelementowego zawierającego cewki indukcyjne (ewentualnie zwielokrotnione) i kondensatory.

24.Sposoby odprowadzania ciepła z urządzeń elektronicznych

Energia cieplna przechodzi z jednego elementu do drugiego, gdy między tymi elementami istnieje gradient temperatury. Naturalny przepływ energii cieplnej odbywa się przez przewodzenie, promieniowanie, konwekcję (unoszenie), a zwykle przez kombinację tych zjawisk.

W urządzeniach elektronicznych wykorzystuje się wyżej wymienione naturalne zjawiska do odprowadzania ciepła i zazwyczaj ciepło wytworzone przez elementy i podzespoły elektroniczne jest odprowadzane z urządzeń dzięki wykorzys­taniu następujących zjawisk [2, 3]:

unoszenie swobodne i wymuszone cieczy lub gazów

przewodzenie

promieniowanie

zmianę stanu skupienia, tzn. topnienia ciała stałego i wrzenia cieczy

zjawiska Peltiera.

Odprowadzanie ciepła z elementów, podzespołów, czy z urządzeń elektronicznych jest procesem złożonym, który zazwyczaj stanowi kombinację kilku zjawisk umożliwiających wymianę ciepła w okre5lonych warunkach pracy. W sposób najbardziej ogólny sposoby odprowadzania ciepła można podzielić na naturalne i wymuszone.

Naturalne odprowadzanie ciepła opiera się na zjawiskach przebiegających samoistnie, tzn. na unoszeniu swobodnym, przewodzeniu, promieniowaniu, topnieniu i swobodnym wrzeniu.

Wymuszone odprowadzanie ciepła opiera się na zjawiskach, które nie przebiegają samorzutnie, a muszą zostać wymuszone, przez dostarczanie dodatkowej energii, np. energii do napędu wentylatorów, pomp, sprężarek lub zasilania baterii termo­elektrycznych.

W przypadku, gdy nie wymagana jest izolacja elektryczna pomiędzy powierzchniami łączonymi stosuje się następujące rozwiązania praktyczne:

na powierzchnie stykające się nakłada się powłoki galwaniczne z miękkich metali lub stopów, np. lutowię, cynę

25-26

między powierzchnie przewodzące wprowadza się cienkie przekładki z miękkich metali, np. ołowiu, miedzi

między powierzchnie przewodzące wprowadza się warstwę z kompozycji zachowujących elastyczność w podwyższonych temperaturach, a miano­wicie warstwę pasty, smaru lub kompozycji klejowych z wypełniaczami dobrze przewodzącymi ciepło, np. proszków srebra, miedzi

w przypadku połączeń nierozłącznych stosuje się zgrzewanie lub lutowa­nie, co całkowicie eliminuje warstwę powietrza między stykającymi się powierzchniami.

W połączeniach wymagających izolacji elektrycznej stosuje się:

przekładki z ceramiki berylowej i alundowej lub z azotku baru

przekładki z folii plastykowych lub miki

przekładki aluminiowe z twardo anodyzowanymi powierzchniami.

Rezystancję ciepłną przekładki moim oszacować na podstawie zależności:

0x01 graphic

gdzie: δ - grubość przekładki [cm],

λ - przewodność cieplna mateńału przekładki - patrz tabłica 6.4 [W/cm2 °C]

F - powierzchnia przekładki [cm2].

W przypadku konstruowania zespołów hermetyzowanych, ze względu na bardzo małe przewodnictwa cieplne powietrza, należy dla odprowadzania ciepła z elementów do obudowy stosować odpowiednie wypełniacze stałe lub elastyczne, ciecze, np. oleje, freon, a nawet gazy o przewodnictwie cieplnym większym niż powietrza.

Materiały na wypełniacze muszą charakteryzować się następującymi parametrami:

dobrym przewodnictwem cieplnym

dużą rezystywnością elektryczną

małym współczynnikiem rozszerzalności objętościowej

brakiem wpływu korozyjnego na zastosowane w urządzeniu elementy

stabilnością chemiczną i fizyczną w zakresie temperatur -55 ... +125°C

brakiem oddziaływania toksycznego

małymi kosztami.

25.Dopasowanie urządzeń do cech operatora

Zagadnieniami dopasowania urządzeń do cech operatora (do możliwości organizmu ludzkiego) zajmuje się ergonomia. Termin ergonomia powstał z połącze­nia dwóch słów greckich: ergon (praca) i nomos (prawo, zasada). Obejmuje ona bar­dzo szeroki obszar zagadnień, a mianowicie: antropologię, psychologię inżynieryjną, filozofię pracy, problemy bezpieczeństwa i higieny pracy, zanieczyszczeń środo­wiska, wibroakustyki urządzeń itp.

Model struktury ergonomii przedstawiono na rys. 8.1 [2]. Z rysunku wynika, że układ człowiek-praca, a więc i człowiek-urządzenie elektroniczne, należy rozpatrywać w wielu aspektach, które w sposób bardzo ogólny można podzielić na grupę A i grupę B. Do grupy A należy zaliczyć te dyscypliny, które zajmują się badaniem cech człowieka a do grupy B dyscypliny, w których człowiek pracuje.

Celem ergonomii w interesującym nas zakresie jest opracowanie wytycznych jak należy konstruować aparaturę elektroniczną, aby uwzględnić ludzkie możliwości w obsłudze coraz to bardziej skomplikowanej aparatury. Problemy dopasowania urządzeń elektronicznych do człowieka - operatora są bardzo złożone i przy konstrukcji nowoczesnych systemów elektronicznych czasami trudno przewidzieć efekty oddziaływania aparatury, oczywiście negatywne, na operatora. Przy konstruowaniu aparatury trzeba pamiętać, że najlepsze efekty „zgodności" między aparaturą a operatorem można osiągnąć dobierając parametry aparatury do możliwości człowieka, a nie na odwrót na zasadzie przystosowania operatora do parametrów aparatury.

W kontaktach operator-aparatura istotny jest wybór bodźców, etyli wybór narządu zmysłu człowieka, do którego wysyłane są sygnały zawierające istotne informacje o działaniu aparatury [5]. Każdy narząd zmysłu ma określony zakres wrażliwości oraz określone granice możliwości rozróżniania cech fizycznych sygna­łów i do nich należy dopasować przyrządy sygnalizacyjne. W zakresie współpracy aparatura-operator istotne jest również potwierdzenie przez określone sygnały apa­ratury, że wykonana przez operatora czynność jest poprawna bądź nie. Tak więc, powinno działać sprzężenie zwrotne informujące o wykonaniu określonej czynności i efekcie wywoływanym przez tę czynność.

Wskazane jest również utyskiwanie na bieżąco przez operatora sygnałów o stanie aparatury i potrzebie dostrojenia układów lub wykonanie innych określonych czynności obsługowych związanych z profilaktyką, o możliwości zaistnienia awarii (sygnały ostrzegawcze), o wystąpieniu awarii, jej miejscu i przyczynach. Zaprojektowana aparatura powinna być również, w miarę możliwości, odporna na błędy popełniane przez operatora.

26. Ergonomiczny system operator-komputer

Od około 40 lat obserwujemy dynamiczny rozwój komputerów. Liczba komputerów wzrasta z roku na rok i można się spodziewać, że w najbliższym okresie komputer będzie urządzeniem stosowanym prawie na wszystkich stanowiskach pracy.

Zjawisko komputeryzacji jest największą innowacją końca XX wieku, które w zasadniczy sposób odmienia treść pracy i styl funkcjonowania znacznej liczby ludzi [2]. Komputery stały się przedmiotem zainteresowań wielu grup społecznych i zawodowych, a przede wszystkim młodych ludzi, prowadząc ich do swoistego rodzaju uzależnienia. Często w związku z tym można spotkać się z opiniami wyrażającymi zaniepokojenie o zdrowie młodych użytkowników komputerów. Przeprowadzone badania wykazały, że komputeryzacja powoduje zagrożenie dla zdrowia fizycznego operatora, a głównymi czynnikami zagrożenia są [2]:

szerokopasmowe pole elektromagnetyczne o szerokim widmie częstotli­wości

pole elektrostatyczne

słabe pole magnetyczne

bardzo słabe promieniowanie X

promieniowanie nadfioletowe.

Przeprowadzone badania nad uciążliwością pracy z komputerem pozwoliły wyciągnąć następujące wnioski ogólne [2]:

praca wymaga dużej koncentracji i uwagi

praca z komputeren powoduje ogólne zmęczenie narządu wzroku, piecze­nie oczu, nieostrość widzenia, czasami zmiana percepcji barw

praca wywołuje niepokój, nerwowość, ból i sztywność karku oraz ra­mion, bóle krzyża.

Występujące dolegliwości mogłyby być spowodowane złym oświetleniem, źle skonstruowanym stanowiskiem pracy lub złym kontrastem monitora. Wytyczne odnośnie organizacji stanowiska pracy z komputerem zawarto w książce [3]. Na rys. 8.24 przedstawiono prawidłowo zaprojektowane stanowisko pracy. Szerokość stołu do pracy powinna wynosić co najmniej 90 cm, tak aby zmieściły się na nim: klawiatura, pulpit na materiały pomocnicze oraz monitor. Pomiędzy przednią krawędzią biurka a klawiaturą musi powstać wolne miejsce na oparcie dłoni, o szerokości od 5 do 10 cm. Długość stołu, optymalna w tych warun­kach, wynosi 160 cm. Na rys.8.24, określono wszystkie istotne wymiary umożliwiające stworzenie dobrych warunków pracy dla operatora. Bardzo ważne jest również oświetlenie pomieszczenia i natężanie światła; powinny być spełnione następujące warunki:

oświetlenie główne: neonowe, sufitowe

lampa na biurku (stała) stosowana tylko jako oświetlenie pomocnicze

natężenie światła 500...600 luksów.

Należy stosować niezbyt dużą różnicę jasności oświetlenia pomieszczenia i jasności ekranu monitora, operator powinien mieć możliwość spoglądania przez okno [3]. Temperatura w pomieszczeniu powinna być utrzymywana w zakresie 21 ... 22°C, a wilgotność powietrza 50 ... 65%. Operator powinien kontrolować sposób siedzenia, ponieważ typowe wady pozycji siedzącej będą powodować bóle mięśni, kręgosłupa i zaburzenia krążenia. Na rys. 8.25 przedstawiono typowe wady postawy oraz optymalny sposób siedzenia przy pracy.

Wprowadzenie do biur techniki komputerowej napotyka na poważne bariery psychologiczne. W pierwszym okresie obsługi komputera występuje u wielu pracowników niechęć do pracy. Zwykle spowodowane jest to częściowo lękiem przed nieznanym a częściowo także pierwszymi nieudanymi próbami pracy z komputerem. Źródeł lęku należy szukać w obawie przed możliwością uszkodzenia drogiego sprzętu, niechęcią ujawnienia braku wiedzy w zakresie obsługi programów, a także wymienionymi już powyżej czynnikami szkodliwymi i uciążliwymi dla zdrowia.

W sferze społecznej współdziałanie człowieka z komputerem powoduje jego izolację, redukując konieczność kontaktów z ludźmi. Praca może być wykonywana w samotności, zapewniając kontakt z wszystkimi potrzebnymi ośrodkami, np. ban­kiem, restauracją, sklepem itp. Komputery wprowadzają poczucie sztuczności, odrealnienia, dehumanizacji więzi międzyludzkich, jak również są czynnikiem desocjalizującym człowieka [2].

Niepokojącym skutkiem ubocznym jest obiektywny wzrost kontroli nad człowiekiem przez tworzenie banków danych dysponujących informacją o człowieku, z możliwością błędnego wykreślenia z danych.

Zastosowanie techniki komputerowej w wielu dziedzinach działalności człowieka wiąże się nie tylko z określonymi psychicznymi kosztami przystosowania, lecz również z nowymi zróżnicowaniami społecznymi. Swoisty paradoks sytuacji człowieka ery technologii informacyjnej polega na tym, że z jednej strony uwalnia się od własnych słabości i ograniczeń zwiększając zakres możliwości działania intelektualnego, z drugiej zaś - jako uczestnik złożonych systemów informacyjnych uzależnia się od nich [2].

27-29

27.Podstawowe pojęcia niezawodności

Ogólnie pod pojęciem niezawodności należy rozumieć własność sprzętu elektronicznego, charakteryzującą jego zdolność do pracy bez uszkodzeń w określonych warunkach eksploatacji. Uszkodzenie definiuje się jako zdarzenie, polegające na tym, że któraś z cech urządzenia przestała spełniać stawiane wymagania. Uszkodzenie można więc zdefiniować jako zdarzenie polegające na zmianie jednego lub więcej parametrów, przekraczającej granice dopuszczalnych tolerancji. Terminem uszkodzenie nazywane są więc nie tylko oczywiste uszkodzenia związane z elektrycznym lub mechanicznym uszkodzeniem elementów jak zwarcia, przerwy itp., po których urządzenie jest niezdolne do pracy, ale również przypadki gdy urządzenie jest jeszcze zdolne do pracy, ale jego parametry nie mieszczą się już w dopuszczalnych tolerancjach. Występują również uszkodzenia nie wpływające bezpośrednio na zmianę parametrów urządzenia a jedynie utrudniające jego eksploatację i niejednokrotnie wiążące się z potrzebą wymiany uszkodzonych elementów. Uszkodzenia takie nazywane są defektami lub niesprawnościami i ich przykładem mogą być wszelkie zacinania czy uszkodzenia pomocniczych elementów mechanicznych czy np. przepalenie żarówki sygnalizacyjnej. Można więc ostatecznie zdefiniować niezawodność jako własność sprzętu elektronicznego charakteryzującą zdolność do zachowania jego parametrów w granicach dopuszczalnych tolerancji w określonych warunkach eksploatacji

Według charakteru pojawiania się uszkodzenia klasyfikuje się je na awaryjne i parametryczne. Uszkodzenia awaryjne nazywane są również katastroficznymi, zupełnymi lub losowymi. Występują one nagle i nieprzewidzianie oraz powodują zmianę parametrów poza dopuszczalną granicę tolerancji w sposób skokowy. Uszkodzenia awaryjne mogą mieć charakter trwały gdy nastąpi zniszczenie lub uszkodzenie elementu, albo przemijający, gdy nastąpi np. przerwa w styku.

Przyczynami powstawania uszkodzeń awaryjnych mogą być wszelkiego rodzaju ukryte wady technologiczne, czy produkcyjne, nieodpowiednia jakość surowców i materiałów, niestaranny montaż, nie przewidziane przez konstruktorów warunki eksploatacyjne itp. Uszkodzenia awaryjne mają charakter przypadkowy. Z tego względu mogą być one przewidywane i opisywane w oparciu o Teorię rachunku prawdopodobieństwa i statystykę matematyczną.

Uszkodzenia parametryczne nazywane są również uszkodzeniami naturalnymi lub częściowymi i na ogół pojawiają się stopniowo gdy długotrwałe zmiany ilościowe przechodzą w zmiany jakościowe. Uszkodzenia te są głównie powodowane procesami starzeniowymi i zużywaniem się różnych elementów. Starzenie następuje nie tylko w czasie pracy urządzeń, ale również w czasie przerw w pracy, w czasie magazynowania i transportu. Uszkodzenia parametryczne pojawiają się najczęściej dopiero po upływie pewnego czasu pracy urządzeń. Można jeszcze wydzielić grupę parametrycznych uszkodzeń przemijających, które mają charakter odwracalny i zanikają gdy ustępują np. wymuszające je zewnętrzne czynniki środowiskowe.

Parametryczne uszkodzenia przemijające mogą mieć charakter krótkotrwały lub długotrwały rozciągający się nawet do setek godzin. Mówimy wówczas o bezwładnościowych parametrycznych uszkodzeniach przemijających.

28.Dla liczbowej oceny uszkodzeń stosowane są pojęcia - częstość uszkodzeń i intensywność uszkodzeń [2].

Czestością_ uszkodzeń na jednostkę czasu fu(t) nazywa się stosunek liczby uszkodzonych jednostek sprzętu na jednostkę czasu do liczby wszystkich jednostek badanego sprzętu na początku badania, co można zapisać:

0x01 graphic

gdzie: fu(t) - częstość uszkodzeń na jednostkę czasu w chwili t,

N - liczba jednostek sprzętu całego badanego zbioru na początku badania (uszkodzone jednostki w toku badania nie podlegają wymianie)

Δm(t) - liczba uszkodzonych jednostek sprzętu w przedziale czasu t . . . t + Δt

Intensywność uszkodzeń λ(t) nazywa się stosunek liczby uszkodzonych jednostek sprzętu na jednostkę czasu do liczby nie uszkodzonych jednostek na początku rozpatrywanego przedziału czasu, czyli:

0x01 graphic

gdzie: λ(t) - intensywność uszkodzeń w chwili t,

Δm(t) - liczba uszkodzonych jednostek sprzętu w przedziale czasu t...t+Δt

m(t) - sumaryczna liczba uszkodzonych jednostek do chwili t,

N - liczba jednostek sprzętu całego badanego zbioru na początku badania,

N(t) - liczba nie uszkodzonych jednostek sprzętu do chwili t.

Czasami używane są pojęcia średniej częstości uszkodzeń lub średniej intensywności uszkodzeń i stanowią one średnie arytmetyczne z wartości uzyskanych dla szeregu jednostkowych przedziałów czasu.

29.Wpływ projektowania i konstrukcji na niezawodność

Niewłaściwe projektowanie i rozwiązania konstrukcyjne mogą być powodem znacznego procentu uszkodzeń sprzętu elektronicznego. Do przyczyn niewłaściwego projektowania i konstrukcji zaliczane są:

niewłaściwe rozwiązania układowe

nieprawidłowy wybór wielkości elektrycznych, - nieprawidłowe zastosowanie elementów

nieprawidłowy dobór materiałów

niewłaściwa konstrukcja mechaniczna.

Na szybkość usuwania uszkodzeń istotny wpływ ma właściwa konstrukcja urządzeń, umożliwiająca łatwą wymianę uszkodzonego bloku, łatwy dostęp do poszczególnych elementów oraz rozwiązania konstrukcyjne ułatwiające szybkie wykrywanie uszkodzeń. Przy odpowiednich rozwiązaniach układowych można w znacznym stopniu zwiększać niezawodność urządzeń i systemów. Podstawowym czynnikiem zwiększającym niezawodność urządzeń jest dobór bardziej niezawodnych elementów, ale przez odpowiednie zaprojektowanie można osiągnąć niezawodność układów większą od niezawodności elementów składowych. Wzrost niezawodności urządzeń ze względu na rozwiązania układowe można uzyskać przez:

- upraszczanie układów,

- stosowanie układów utrudniających uszkodzenia elementów,

- stosowanie układów o ograniczonych następstwach uszkodzeń, - rezerwowanie,

- stosowanie układów kontroli pracy i wyszukiwania uszkodzeń.

Przy projektowaniu niezawodnych układów można podać następujące zalecenia:

układ powinien być możliwie prosty, jego rozbudowa i zwiększenie liczby elementów powinny być uzasadnione jedynie rzeczywistą poprawą parametrów urządzenia

układ powinien być możliwie typowy o działaniu i niezawodności wielokrotnie sprawdzonej,

układ powinien stabilnie pracować przy możliwie szerokim zakresie zmian parametrów elementów składowych,

należy unikać układów wymagających bardzo stabilnych napięć zasilających,

układy powinny być zdolne do zastosowania w nich w możliwie dużym stopniu elementów produkowanych w dużych seriach i o sprawdzanej technologii,

liczba regulacji powinna być możliwie mała,

raczej unikać układów uniwersalnych, spełniających wiele funkcja.

Układy spełniające jedno zadanie są na ogół pewniejsze w działaniu. Układy należy tak projektować aby ewentualne uszkodzenia elementów powodowały jedynie możliwie ograniczone skutki i urządzenie było zdolne do spełnienia swych zadań chociaż w ograniczonym zakresie.

Metodą zmniejszania skutków uszkodzeń jest stosowanie układów z rezerwą. Układy z rezerwą są szeroko stosowane szczególnie w takich przypadkach, gdy zależy nam na ciągłej pracy przez dłuższy okres czasu, jak np. nadajników radiofonicznych i komunikacyjnych, stacji radiolokacyjnych, aparatury elektronicznej satelitów itp. Można wyróżnić metody rezerwowania aktywne i pasywne. Metoda aktywna wiąże się z różnego rodzaju przełączeniami, które powodują wyłączenie uszkodzonego układu i włączenie rezerwowanego, przy czym może to następować samoczynnie. Metoda pasywna polega na takim zaprojektowaniu układu, żeby uszkodzenie jednego lub nawet kilku elementów nie wpływało w sposób istotny na pracę całości układu. Układy takie nie wymagają. dokonywania jakichkolwiek przełączeń. W celu skrócenia czasu potrzebnego na wyszukiwanie uszkodzeń w bardziej złożonych urządzeniach stosuje się przyrządy pomiarowe i kontrolne stanowiące integralną część tego urządzenia. Okazuje się, że przy wyszukiwaniu uszkodzeń w bardziej złożonych urządzeniach, stosowanie zewnętrznych przyrządów pomiarowych uniwersalnych lub specjalnych wymaga większych kwalifikacji obsługi i podraża koszty. Dlatego zaczęto stosować automatyczne i półautomatyczne urządzenia kontrolne, sprawdzające pracę aparatury na bieżąco, a nawet wskazujące uszkodzenia. Przy wyborze konstrukcji urządzenia kontrolnego powinno się brać pod uwagę wiele czynników, jak np.:

złożoność kontrolowanego urządzenia. Decyduje o tym liczba kontrolo­wanych punktów i ogólna liczba kontroli

czas jaki można przeznaczyć na dokonanie kontroli. Przy wzroście liczby kontroli i skracaniu czasu powinien wzrastać stopień automatyzacji kontroli

zakres kontroli, wiąże się z ustaleniem programu kontroli

wymagany stopień niezawodności i szybkość naprawy kontrolowanych urządzeń

warunki eksploatacji urządzenia kontrolnego, w tym czynniki środo­wiskowe

kwalifikacje i liczebność obsługi

30-33

koszty.

W rozbudowanych systemach automatycznej kontroli przewidywana jest ciągła samokontrola. Sprawdzana jest zdolność do pracy poszczególnych bloków i układów. W niektórych systemach kontroli dokonywany jest zapis parametrów kontrolowanych w sposób ciągły. Daje to dobry materiał dla kolejnej analizy w przypadku uszkodzenia aparatury i dla oceny jej niezawodności. Poza urządzeniami kontroli wbudowanymi w kontrolowane urządzenie i stanowiącymi jego integralną część, stosowane są zewnętrzne autonomiczne urządzenia kontrolne z wbudowanymi do urządzeń kontrolowanych czujnikami. Takie systemy stosowane są do złożonych urządzeń elektronicznych, jak np. systemy kierowania rakiet, czy wyposażenia elektronicznego rakiet itp. W takich systemach aparatura automatycznej kontroli umieszczana jest niekiedy w samochodach lub oddzielnych pomieszczeniach i dołączana do kontrolowanych urządzeń za pomocą specjalnych kabli. Urządzenia takie umożliwiają zarówno kontrolę podstawowych parametrów oraz sygnałów wejściowych i wyjściowych poszczególnych bloków i zespołów jak i ewentualnie wyszukiwanie uszkodzonych węzłów i elementów. Systemy takie coraz częściej sterowane są komputerami pozwalającymi na wykorzystywanie zmiennych programów prób i rejestrowanie wyników kontroli oraz sygnalizowanie uszkodzeń i odchyłek parametrów. Urządzenia kontrolne mogą być klasyfikowane na różne sposoby.

30.Wpływ eksploatacji na niezawodność Podobnie jak niewłaściwe zaprojektowanie i rozwiązania konstrukcyjne również niewłaściwa eksploatacja może być powodem znacznego procentu uszkodzeń sprzętu elektronicznego. Pod pojęciem warunków eksploatacji należy rozumieć nie tylko warunki w jakich pracuje zainstalowany sprzęt, ale również warunki w jakich jest magazynowany i transportowany.

Warunki eksploatacji można podzielić na obiektywne i subiektywne. Na obiektywne warunki eksploatacji składają się takie czynniki wymuszające jak: elektryczne, mechaniczne, klimatyczne, biologiczne, chemiczne, elektrochemiczne oraz promieniowanie i nie zależą one od personelu związanego z eksploatacją sprzętu. Subiektywne warunki eksploatacji zależą od ludzi obsługujących sprzęt i składają się na nie takie czynniki jak: umiejętność organizacji eksploatacji, umiejętność obsługiwania, profilaktyka i konserwacja oraz sumienność i staranność w wykonywaniu powyższych zadań. Czynniki eksploatacyjne wpływające na niezawodność sprzętu elektronicznego zestawiono na rys. 9.2 [2].

31.Działanie czynników środowiskowych na urządzenia elektroniczne opisano w rozdziała 4. Uszkodzenia powodowane tylni czynnikami można podzielić następująco:

rozmiękczenie materiału przy wysokich temperaturach, powodujące utratę sztywności lub całkowite uszkodzenie niektórych elementów zawierających materiały nieodporne na ciepło lub masy kablowe

cieplne starzenie materiału, powodujące utratę własności mechanicznych lub elektrycznych. W takich przypadkach decydującą rolę odgrywa czas przebywania w podwyższonej temperaturze

utrata lepkości przy wysokich temperaturach, wskutek czego mogą np. wyciec materiały impregnacyjne

przejście w stan kruchy niektórych materiałów pod wpływem niskich temperatur

utrata własności smarujących przy niskich temperaturach, co prowadzi do zmarznięcia smaru i zatarcia ruchomych części mechanicznych

wzrost lepkości, a nawet zamarznięcie przy niskich temperaturach różnych płynów użytych przy konstrukcji

zmniejszenie wytrzymałości elektrycznej powietrza na dużych wysokościach wskutek zmniejszenia się ciśnienia

strukturalne zniszczenia przy dużym ciśnieniu atmosferycznym, powo­dujące uszkodzenia zarówno o charakterze mechanicznym jak i elektrycznym

pękanie osłon hermetyzujących lub izolujących wskutek zmian ciśnienia itp.

przenikanie cząstek wody lub pary poprzez różne pokrycia

skutki korozji

wchłanianie przez materiały wody powodującej mechaniczne uszko­dzenia czy deformacje, pogorszenie elektrycznych własności izolujących lub zmniejszenie odporności na działanie innych czynników

rozkład chemiczny. Zjawisko to dla niektórych materiałów jest przys­pieszone przy nagrzewaniu, nieraz pojawia się tylko przy wysokich temperaturach

zsychanie prowadzące do mechanicznego uszkodzenia materiału

uszkodzenie powierzchni niektórych materiałów izolacyjnych wskutek nasłonecznienia

nadmierne zużycie części ruchomych wskutek zanieczyszczenia ich piaskiem lub pyłem

grzyby

oblodzenia

mechaniczne zniszczenia pod wpływem opadów, wiatru itp.

32. Ekrany i pola uziemiające

Ekrany i pola uziemiające są zwykle projektowane jako powierzchnie, a więc nie wytrawione pola folii miedzianej (metoda subtraktywna) lub pola miedzi naniesione na warstwę izolacyjną (metoda addytywna). Zaleca się projektowanie ich w postaci pól ażurowych.

Pozostawienie dużych powierzchni miedzi na płytce drukowanej może spowodować zniszczenie płytki podczas lutowania, a więc może nastąpić deformacja podłoża izolacyjnego, odwarstwienie miedzi, rozlaminowanie płytek wielowarstwowych.

Pola stykowe do złącz krawędziowych (bezpośrednich)

Przy konstrukcjach modułowych na zakończeniu płytki drukowanej umieszczone są złącza do obwodów drukowanych: złącze pośrednie lub złącze bezpośrednie. W złączu bezpośrednim wtykiem jest płytka drukowana o grubości l,5 mm, nato­miast na końcu płytki, na mozaice przewodzącej, muszą się znajdować odpowiednio ukształtowane pola stykowe zapewniające połączenie elektryczne z kontaktami obej­mującymi złącza bezpośredniego. Pola stykowe mogą być wykonane na płytkach jednostronnych lub dwustronnych oraz wielowarstwowych. Leżące po przeciwnych stronach płytki pola stykowe mogą być ze sobą połączone przez kontakty obej­mujące złącza lub stanowić oddzielne punkty w obwodzie elektrycznym. Pola stykowe są zwykle dodatkowo pokrywane warstwą metalu, np. w celu zwiększenia ich trwałości. W tablicy 3.6 zestawiono rodzaje metali i typowe grubości pokryć nanoszone na pola stykowe [4]. Kształty i wymiary pól stykowych oraz odległości między nimi zależą od [2]:

wartości znamionowego prądu

napięć pomiędzy sąsiadującymi kontaktami w czasie pracy urządzenia

rezystancji izolacji między kontaktami

wymiarów złącza bezpośredniego.

Liczba pól stykowych na płytce może wynosić od kilku do kilkudziesięciu, w zależności od zastosowanego złącza bezpośredniego. Pola stykowe stanowiące zakończenie płytki drukowanej są wykonywane w czasie procesu wytwarzania mozaiki przewodzącej, a następnie są dodatkowo pokrywane metalami (tablica 3.6) zwiększającymi odporność na ścieranie lub odporność na otaczającą atmosferę.

33.Metody projektowania mozaiki przewodzącej można bardzo ogólnie po­dzielić na: klasyczne i zautomatyzowane. Niezależnie od metody efektem końcowym projektowania powinna być dokumen­tacja składająca się: [2, 6]:

z zestawu klisz (fotoszablonów) dla wszystkich warstw płytki

z masek lutowniczych i nadruków opisów i znaków informacyjnych

z taśmy lub programu sterującego wiertarką numeryczną (głównie montaż przewlekany) .

Zakończeniem etapu projektowania powinno być wykonanie prototypu urządzenia i dokumentacji konstrukcyjnej i technologicznej.

Projekt mozaiki przewodzącej może dotyczyć płytki jednostronnej, dwustronnej lub wielowarstwowej. W układach złożonych liczba warstw jest kompromisem wynika­jącym z dążenia do dużej gęstości upakowania, a kosztem materiałów i wykonania płytki drukowanej, Oczywiste jest, że koszt rośnie z jakością laminatu i liczby warstw, a więc najtańsza będzie płytka jednostronna z laminatu fenolowo-papier­niczego. Jednakże połączenia na płytce jednostronnej będą długie, często równole­gle, czyli w efekcie otrzymamy urządzenie o dużym poziomie zakłóceń. O jakości decyduje wtedy długość ścieżek, czyli ich rezystancja, indukcyjności, pojemności. Parametry te są szczególnie ważne w zakresie w.cz. W projekcie bardzo ważne są ścieżki zasilania i masy. Źle zaprojektowane ścieżki zasilania stanowią źródła zakłóceń. Zwykle projekt mozaiki przewodzącej zaczyna się od prowadzenia ścieżek zasilania i elementów blokujących ścieżki zasilania. Obecnie używane też są wielowarstwowe szyny zasilające, zastosowanie których eliminuje problemy z projektowaniem ścieżek zasilających (patrz rozdz. 6 niniejszego skryptu). Przy projektowaniu płytek należy uwzględnić możliwość wykonania projektu mozaiki przewodzącej, a następnie montażu płytki drukowanej. Jest to tzw. wykonalność płytki drukowanej [5]. Projektant musi znać przebieg procesów technologicznych, np. metalizacji otworów (wymagania odnośnie stosunku średnicy otworu w stosunku do grubości płytki), metody wytwarzania mozaiki (w metodzie subtraktywnej możliwości podtrawienia ścieżek) itp. Tak więc, bardzo duże upakowanie, wąskie ścieżki i małe odległości między elemen­tami składowymi mozaiki przewodzącej nie będą zapewniać powstania dobrego urządzenia elektronicznego, ponieważ proces technologiczny nie zawsze może zapewnić wysoką precyzję wykonania. Należy również zwrócić uwagę na dokładność wykonywania klisz, która zależy od rodzaju zastosowanego materiału; może to być: folia do rysowania lub błony fotograficzne do obróbki stykowej, do fotoredukcji na podłożu poliestrowym lub płyty fotograficzne na podłożu szklanym. Największą stabilnością wymiarów odznaczają się płyty fotograficzne na podłożu szklanym i dlatego są używane do wykonania matryc wzorcowych i wysokoprecyzyjnych płytek drukowanych. W metodach klasycznych projektowania

34

mozaiki przewodzącej, rzadko już dzisiaj stosowanej, wszystkie czynności są wykonywane przez projektanta i kreśla­rza. Są to następujące czynności:

rozmieszczenie elementów; projektowanie pól lutowniczych i ścieżek

rysowanie matryc wzorcowych mozaiki przewodzącej w skali co najmniej 2:1

tworzenie dokumentacji.

Rysunek mozaiki przewodzącej może być wykonany na papierze lub kalce lub na przeźroczystej folii poliestrowej, którą układa się na podkładce z naniesioną siatką. Obrysy elementów mogą być rysowane na kalce lub wklejane na folii poliestrowej. Do wyklejenia stosowane są specjalne wyklejki odpowiadające obrysom rzeczy­wistych elementów elektronicznych. Można również wyklejać mozaikę przewodzącą stosując wyklejki pól lutowniczych i ścieżek. Można wykonywać projekty płytek dwustronnych i wielowarstwowych stosując różne kolory ścieżek i pól lutowniczych. Są to bardzo pracochłonne czynności i wszystkie zmiany w mozaice przewodzącej są bardzo trudne do wykonania, również dokładność matrycy może być nie zadawalająca. Metoda ta może być jeszcze teraz stosowana, ale głównie do prostych płytek jednostronnych. W metodach zautomatyzowanych wspomaganych komputerem rozróżnia się [2]:

metodę z digitalizacją i automatycznym kreśleniem matryc

metodę interaktywną

metodę automatyczną.

W metodzie z digitalizacją i automatycznym kreśleniem matryc rysunek mozaiki przewodzącej i rozmieszczenia elementów wykonuje projektant. Na podstawie rysunku mozaiki przewodzącej, używając folii poliestrowej najczęściej z nadru­kowaną siatką, wykonuje się rysunek do digitalizacji, nazywany matrycą płytki drukowanej. Na matrycy podane są położenia poszczególnych elementów mozaiki oraz w sposób umowny ich wymiary. Za pomocą digitalizatora rysunek matrycy jest rejestrowany w postaci cyfrowej na taśmie dziurkowanej lub na dyskietce, które są stosowane do sterowania fotokoordynatografem, tj. urządzeniem, które w sposób automatyczny naświetla błonę fotograficzną przenosząc na nią obraz mozaiki.

Wywołana błona fotograficzna stanowi matrycę, która jest obrazem mozaiki przewodzącej w skali 1:1 i stanowi kliszę (fotoszablon) do wykonywania płytek drukowanych. Typowy zestaw urządzeń do automatycznego wykonania klisz płytek drukowanych zawiera [2]:

stół do przetwarzania cyfrowego (digitalizator)

zespół sterujący w stałym układzie połączeń

fotokoordynatograf

komputer.

Komputer umożliwia wykonanie programu wiercenia otworów i frezowania kształtów mozaiki przewodzącej na wiertarkach i wiertarko-frezarkach sterowanych numerycznie, sporządzenie rysunku płytki i schematów ideowych na koordyna­togrąfie do szybkiego wprowadzania poprawniej modyfikacji płytki. Dokładności wykonania klisz płytek drukowanych za pomocą nowoczes­nych zestawów wynoszą:

dokładność położenia ±0,026 mm

dokładność połączenia ±0.00 mm (przy płytkach dwustronnych i wielo­warstwowych)

dokładność szerokości pól i ścieżek ±0,O1 mm.

Są to dokładności dużo wyższe od możliwych do osiągnięcia w metodach klasycz­nych. Można również wielokrotnie odtwarzać klisze z tą samą dokładnością, można nanosić poprawki i modyfikacje. Pracochłonność projektowania płytek drukowa­nych w stosunku do metod klasycznych jest mniejsza o ok. 20...30 %. Metoda interaktywna (schemat procesu przedstawiony jest na rys. 3.ł5) umożliwia wykonanie procesu projektowania i dokumentacji za pomocą komputera, z którym projektant współdziała we wszystkich etapach projektowania. Metoda interaktywna wymaga przygotowania następujących danych:

wymiarów obudów elementów oraz opisu i wymiarów końcówek monta­żowych, numeracji końcówek

tabeli połączeń opisujących wszystkie węzły w układzie ideowym

określenia pól lutowniczych oraz szerokości ścieżek

wymiarów i kształtu płytki

Efektem końcowym prac są programy zapisane na taśmach dziurkowa­nych, magnetycznych lub dyskietkach, które umożliwiają wykonanie klisz, dokumentacji konstrukcyjnej płytek drukowanych oraz umożliwiają komputerowe sterowanie urządzeniami technologicznymi i testującymi. W trakcie pracy możliwe jest sprawdzenie danych wejściowych i wykrywanie ewentualnych błędów; wykonywanie wspomaganego przez operatora rozmieszczenia elementów i podzespołów na płytce oraz wykonywanie połączeń między końcówkami elementów elektronicznych na wymaganej liczbie warstw; szybki wydruk widoku płytki lub wybranego jej fragmentu; wytwarzanie programów sterujących pracą fotokoordynatografu, urządzeniami kreślącymi dokumentację konstrukcyjną oraz urządzeniami produkcyjnymi. System interaktywny umożliwia projektowanie płytek jednostronnych, dwu­stronnych i wielowarstwowych. Klisze mozaiki przewodzącej mają taką samą do­kładność jak po digitalizacji, a czas potrzebny na wykonanie całego projektu jest wielokrotnie krótszy. W metodzie automatycznej cały proces projektowania płytki drukowanej odbywa się automatycznie bez udziału projektanta w procedurze rozmieszczenia elementów [2]. Konieczne są komputery o bardzo dużych pamięciach oraz złożone i kosztowne programy komputerowe. Zwykle podczas automatycznego rozmiesz­czania elementów i całkowicie automatycznego trasowania ścieżek programy nie zapewniają realizacji wszystkich połączeń, zwykle co najmniej 1...3% pozostaje nie zrealizowanych. Są one wykonywane przez operatora lub można wykonać je po wytrawieniu płytki drukowanej zewnętrznymi przewodami. Tak więc, jak widać z przedstawionych powyżej metod, programy komputerowe stosowane do projektowania mozaiki przewodzącej początkowo były stosowane w celu sprawdzenia poprawności połączeń oraz wykonania dokumentacji konstruk­cyjnej i technologicznej. Projekt mozaiki wykonywany był ręcznie w odpowiednim powiększeniu i po digitalizacji wprowadzano go do komputera. Program kompu­terowy umożliwił [5]:

korektę położenia punktów lutowniczych

wyrównywanie przebiegu ścieżek

wykonanie listy połączeń, czyli zbiorów punktów stanowiących jedno po­łączenie

porównanie listy połączeń z listą wzorcową, opracowaną na podstawie schematu ideowego projektowanego układu.

Porównanie list dawało możliwość wykrycia błędów w realizowanym układzie, a kontrola listy połączeń dawała gwarancję, że wszystkie połączenia zostały zrealizo­wane i wszystkie elementy są połączone.

34.Elementy do montażu powierzchniowego

Elementy do montażu powierzchniowego mają mniejsze wymiary od elemen­tów przeznaczonych do montażu przewlekanego, część z nich nie posiada końcówek, a istniejące końcówki są dużo mniejsze i krótsze, czyli:

- istnieje możliwość zwiększenia szybkości działania realizowanych układów,

- mniejsze wymiary płytek drukowanych, - większa gęstość montażu,

- mniejsza masa, ciężar, objętość montowanego układu, - niższe koszty produkcji,

- wyroby w postaci podzespołów, urządzeń, charakteryzują się większą niezawodnością.

W elementach przeznaczonych do montażu powierzchniowego wyraźnemu zmniejszeniu uległy takie części jak: obudowa, element nośny, końcówki monta­żowe. W elementach konwencjonalnych część funkcjonalna, przykładowo, warstwa rezystywna w rezystorze, elektrody kondensatora, struktura półprzewodnikowa, sta­nowią zwykle bardzo małą część objętości gotowego elementu, od 0,2 % do 0,4 całości. Jest to szczególnie widoczne w konstrukcjach układów scalonych. Zmniej­szenie obudowy, zmiana końcówek montażowych lub zastosowanie innych materia­łów i technologii przy wykonaniu elementów, np. kondensatorów, daje w efekcie elementy miniaturowe przeznaczone do montażu powierzchniowego.

Elementy do montażu powierzchniowego można podzielić na: bezkońców­kowe i z końcówkami. W wykonaniu bezkońcówkowym wytwarzane są: rezystory, kondensatory, diody, czyli tzw. dwójniki, natomiast z końcówkami montażowymi (skrzydło mewy, typu J) produkowane są tranzystory, układy scalone, transfor­matory.

Elementy przeznaczone do montażu powierzchniowego przedstawione są na rys. 4.2 [6]. Na rys. 4.3 pokazano typowe końcówki tranzystorów i układów scalonych [5],

W montażu powierzchniowym elementy elektroniczne są lutowane do pól lutowniczych płytki drukowanej z tej samej strony z jakiej znajdują się elementy. Można więc elementy lutowa z obu stron płytki drukowanej.

Elementy bezkońcówkowe

Do elementów bezkońcówkowych należą przede wszystkim rezystory, kondensa­tory i diody.

Rezystory są wykonywane w dwóch rozwiązaniach konstrukcyjnych:

cylindry z materiału izolacyjnego z naniesioną na powierzchnię zewnętrzną warstwą rezystywną oraz przewodzącymi elektrodami na końcach cylindra, obecnie rzadziej stosowane

prostopadłościany, których konstrukcja przedstawiona jest na rys. 4.4.

Rezystor ten składa się z podłoża izolacyjnego (zwykle ceramika alundowa), warstwy rezystywnej (zwykle RuO2), pokrycia zabezpieczającego oraz trzy­warstwowej końcówki montażowej składającej się z warstw srebra ewentualnie stopu palladu (właściwe wyprowadzenie elektryczne), niklu {chroni pallad) i lutowia (rys. 4.4). Trzywarstwowa konstrukcja zabezpiecza właściwą elektrodę przed rozpuszczeniem przez ciekłe lutowie w czasie lutowania.

Na rynku dostępne są rezystory o wartościach rezystancji od 2 Ω do 10 MΩ oraz od kilku omów do 3,3 MΩ (zgodnie z typoszeregami wartości). Wiel­kości tolerancji wynoszą: ±l, ±2, ±5 i ±10 %. Rezystory te mogą być obciążane mocami od 1/8 do 1/10 W, oraz przy zwiększeniu wymiarów podłoża do 2 W. Rezystory przystosowane są do pracy w temperaturach od -55°C do +125°C.

34

Objętość produkowanych obecnie rezystorów do montażu powierzchnio­wego w stosunku do objętości rezystorów konwencjonalnych przy tej samej obcią­żalności jest około 20 razy mniejsza.

Produkowane są obecnie wszystkie podstawowe typy kondensatorów w wykonaniu z przeznaczeniem do montażu powierzchniowego. W konstrukcji kon­densatorów zmniejszenie wymiarów elementu uzyskano w większości przypadków przez zastosowanie innych materiałów na elektrody lub zastosowanie innych materiałów dielektrycznych. Przykładowo, objętość kondensatorów tantalowych o pojemności 470 nF w wersji konwencjonalnej (Elwa, kondensator typ 3-164D) w stosunku do kondensatorów przeznaczonych do montażu powierzchniowego produ­kowanych przez firmę Philips jest około 10 razy większa.

Najliczniej, w wersji do montażu powierzchniowego, są produkowane kon­densatory ceramiczne, stale i regulowane. Pojemności kondensatorów ceramicznych stałych wynoszą od 1 pF do 0,1 μpF (zgodnie z typoszeregami E24-E6), zakres temperatur pracy od -55°C do +125°C. Pojemności kondensatorów tantalowych od 0,1 pF do 1000 μF (typoszereg E-6), zakres temperatur od -55°C do +125°C. Produkowane są również kondensatom aluminiowe, które mają podobne wartości pojemności jak kondensatory tantalowe. mogą być jednak stosowane w zakresie temperatur od -40°C do +85°C.

Produkowane są również cewki w.cz. przystosowane do montażu po­wierzchniowego, przykładowo cewki o objętości 16 mm3, indukcyjności 220 μH, współczynnik dobroci do 90 i częstotliwości pracy od 100 MHz do 700 MHz.

W wersji bezkońcówkowej produkowane są również diody, zwykle w obudowie cylindrycznej.

Likwidacja końcówek montażowych w elementach bezkońcówkowych umożliwia zmniejszenie wymiarów tych elementów oraz poprawę ich właściwości często­tliwościowych.

Elementy z końcówkami montażowymi

Elementy aktywnie produkowane są w obudowach z końcówkami. Do obudów typu SOT (tranzystory, diody) i SO (układy scalone) stosowane są końcówki typu skrzydło mewy (rys. 4.3b), a do obudów typu nośnik struktury końcówki monta­żowe typu J (rys. 4.3a). Do części układów stosowane są również proste końcówki montażowe płasko przylegające do pól lutowniczych w postaci taśm. Wymiary obudów i konstrukcja końcówek montażowych powodują, że zmniejszeniu uległa również wysokość elementów.

Obecnie stosowane są trzy typy obudów do tranzystorów i diod (rys. 4.2):

obudowa SOT23, przeznaczona do przyrządów wydzielających moce do 200 mW (trzykońcówkowe)

obudowa SOT143, przeznaczona do przyrządów wydzielających moce do 200 mW (czterokońcówkowe)

obudowa SOT89, przeznaczona do przyrządów wydzielających moce do 1 W.

Obudowa SOT89 posiada elementy konstrukcyjne, metalowe, zwiększające spraw­ność odprowadzenia ciepła.

Obudowa SO przeznaczona dla układów scalonych o liczbie końcówek montażo­wych 8, 14, 16 i 18, charakteryzuje się mniejszymi wymiarami i końcówkami mon­tażowymi typu skrzydło mewy z podziałką co 1,27 mm.

W tablicy 4.1 zestawiono wymiary oraz powierzchnie zajmowane przez obudowy typu DIP (montaż przewlekany) i SO (montaż powierzchniowy), podano również wagi tych obudów [4].

Obudowy typu nośnik struktury, w których końcówki montażowe (typu J) są roz­mieszczone wzdłuż wszystkich jej boków, zapewniają zmniejszenie podziałki roz­mieszczenia końcówek montażowych do 1,27 mm oraz skrócenie drogi sygnałów w obrębie obudowy oraz zmniejszenie dysproporcji między ścieżkami najdłuższymi i najkrótszymi. Zmniejszeniu ulega rezystancja, pojemność oraz indukcyjność ścieżek (około 8 razy). Na rys. 4.5 przedstawiono wygląd oraz wymiary obudowy typu nośnik struktury [4].



Wyszukiwarka

Podobne podstrony:
pitr spiral, sciaga nr2 spis, 5)Ekranowanie
pitr spiral, ściąga domin, 1
pitr spiral, ściąga domin tuning, 1
pitr spiral, ściąga domin tuning, 1
pitr spiral, sciaga nr1i2 spis, 1
pitr spiral, ściąga czopas, 1
pitr spiral, ściąga domin tuning - spis, 1
pitr spiral, spis wszystkich ściąg, 1
pitr spiral, Spiral 2, 1)
sciaga nr2 z szacowania, Technika elementów scalonych (uproszczona, zagregowanych elementów, scalony
pitr spiral, spir-ść, 1
pitr spiral, spir-ść, 1
PSO ściąga nr2 koło nr2
Bilogia Układ Oddechowy Ściąga nr2
pitr spiral ~$iaga nr1
sciaga nr2, Fundamentowanie, 2013-2014r, Egzamin
pitr spiral, opracowanie czopasa, 1
pitr spiral, spiiral 1, 1

więcej podobnych podstron