pitr spiral, Spiral 2, 1)


  1. Rodzaje zakłóceń

Przyczyną występowania zakłóceń są naturalne zjawiska zachodzące w przyrodzie oraz efekty zamierzonej jak i niepożądanej działalności człowieka.

W sposób najbardziej ogólny, ze względu na źródła powstawania, zakłócenia można podzielić na:

Ze względu na charakter zjawisk fizycznych będących pierwotną przyczyną zakłóceń można dokonać ich podziału na zakłócenia:

- mechaniczne (np. wibracje, wstrząsy i udary),

- biologiczne, związane z przyrodą żywą i nieożywioną (np. zmiany temperatury, wilgotności i ciśnienia, obecność grzybów, pleśni i pyłów),

- elektryczne (szumy własne elementów i układów elektronicznych, dryfy czasowe, efekty galwaniczne, elektrolityczne i tryboelektryczne, sygnały nadajników radiowych i telewizyjnych, sygnały z elementów przełączających i zapłonowych, sygnały z linii energetycznych, sygnały od urządzeń oświetleniowych i innych różnorodnych urządzeń powszechnego użytku oraz przemysłowych).

Ze względu na sposób opisu matematycznego, można ogólnie podzielić na:

zdetermino­wane - opisuje się je za pomocą ścisłych zależności matematycznych.

Niezdeterminowane - przypadkowe lub losowe, nie można opisać dokładnymi zależnościami matematycznymi, ponieważ wynik każdej obserwacji sygnału jest jednorazowy. W praktyce sygnały takie opisuje się za pomocą wielkości mających charakter statystyczny (np. wartość średniokwadratowa, wartość skuteczna, gęstość widmowa mocy, gęstość prawdopodobieństwa).

Rozpatrując dany element, podzespół lub urządzenie, występujące w nich zakłócenia można podzielić na wewnętrzne i zewnętrzne (rys.7.2), przy czym wpływ źródeł zewnętrznych związany jest z przeznaczeniem i miejscem eksploatacji urządzenia elektronicznego.

  1. Sposoby przenikania zakłóceń

Przenikanie zakłóceń ze źródła 1 do obwodu wrażliwego na zakłócenia 2 (odbiornik zakłóceń} może następować na drodze (rys.7.3):

sprzężeń konduktancyjnych, pojemnościowych i indukcyjnych- Często zachodzące sprzężenie ma miejsce wówczas, gdy prądy z co najmniej dwóch różnych obwodów (układów) płyną przez wspólną impedancję (rys.7.4). Spadek napięcia na wspólnej impedancji oddziaływujący na każdy z tych obwodów jest zależny od prądów wszystkich obwodów.

5)Ekranowanie

Przy budowie i eksploatacji aparatury elektronicznej zachodzi wielokrotnie konieczność zarówno ochrony danego obiektu (elementu, układu lub urządzenia) przed wpływem niepożądanych pół elektrycznych, magnetycznych i elektromagne­tycznych jak i konieczność zapobiegania rozprzestrzenianiu się (promieniowaniu) zakłóceń.

Jeśli w takich przypadkach nie udaje się zmniejszyć natężenia szkodliwego pola lub usuną jego źródło, np. przez zmiany konstrukcyjne lub układowe, to należy zastosować odpowiednio wykonane osłony, zwykle metaliczne, nazywane ekranami. Chociaż zastosowanie ekranów jest działaniem bardzo skutecznym, to jednak takie rozwiązanie należy uznać ogólnie za zło konieczne, wymuszone zaistniałą sytuacją.

WADY: pogarszają bowiem niektóre parametry techniczne i eksploatacyjne chronionych obiektów:

ZALETY: - możliwość skutecznego zmniejszania lub likwidowania pasożytniczych sprzężeń pojemnościowych i indukcyjnych, które mogą wystąpić zarówno na poziomie elementów jak i na wyższych poziomach organizacji układu lub urządzenia.

- ochrona danego obiektu przed wpływem niepożądanych pól elektrycznych, magnetycznych, elektromagnetycznych,

6) Uziemiania w zakresie małych częstotliwości

Ogólną zasadą realizacji uziemienia jest połączenie przewodów uziemiających możliwie w jednym punkcie. W przypadku połączenia tych przewodów w jednym punkcie na płaszczyźnie odniesienia (płaszczyźnie masy) nie występują wspólne impedancje płaszczyzny uziemienia dla różnych obwodów. Ponieważ często nie ma takich możliwości, to stosuje się wiele punktów uziemiających. Liczba tych punktów zależy od wymaganych minimalnych poziomów zakłóceń w poszczególnych obwodach (odbiornikach) oraz przyjętych wymagań bezpieczeństwa. Warto przy tym jeszcze raz podkreślić, że przewody i ścieżki na płaszczyznach uziemiania (masy) powinny być jak najkrótsze.

Z praktycznego punktu widzenia są więc systemami, w skład których wchodzą małoimpedancyjne przewody, ścieżki i pseudopotencjalne płaszczyzny odniesienia.

W sposób najbardziej ogólny systemy uziemienia można podzielić na:

W zakresie małych częstotliwości (okala 1 MHz) stosuje się uziemienia jednopunktowe, w zakresie wielkich częstotliwości (powyżej 10 MHz) skuteczniejsze są uziemienia wielopunktowe.

Przy wyborze systemu uziemienia należy Także wziąć pod uwagę:

Jako kryterium wyboru systemu uziemienia w paśmie 1 ... 10 MHz przyj­muje się maksymalną długość 1 przewodu uziemienia w stosunku do długości fali sygnału λ,: jeśli λ/l<20, to zaleca się uziemienie jednopunktowe, jeśli λ/l >20, to właściwe jest uziemienie wielopunktowe.

Należy podkreślić, że najważniejszym jest zapewnienie bezpieczeństwa w czasie użytkowania aparatury elektronicznej i ten rodzaj uziemienia musi być bezwzględnie przez projektanta aparatury uwzględniany w konstrukcji.

Należy również zwrócić uwagę, że przy w.cz. impedancja przewodów uziemień może być bardzo dnia, jeżeli ich długości odpowiadają nieparzystej wielokrotności λ/4.

Przewody te stają się antenami promieniującymi zakłócenia. Należy więc projektować przewody uziemień możliwie krótkie w celu uniknięcia efektu zwiększenia impedancji i promieniowania.

W zakresie małych częstotliwości (do 1 MHz), ze względu na zakłócenia, korzystne jest stosowanie systemu uziemienia jednopunktowego. System uziemienia jednopunktowego równoległego (rys.7.7) wykazuje najlepsze właściwości, ponieważ nie występują tu sprzężenia pomiędzy obwodami z prądami Ii i=1, 2, ...n płynącymi przez ścieżki uziemiające. System uziemienia jednopunktowego szeregowego (rys.7.8) jest bardzo prosty w realizacji, należy jednak zwrócić uwagę na możliwość powstawania zakłóceń przenoszonych przez wspólne impedancje (Z2, ..., Zn). Przez irnpedancję Z2, ..., Zn płyną różne prądy, a potencjały w punktach (A, B, ..., N), stanowiących miejsca połączeń ścieżek uziemienia z poszczególnych układów do wspólnej ścieżki (punkty A, B, ..., N), są również różne, a mianowicie:

UA=(I1+ I2+...+ In)Z1

UB=(I1+ I2+...+ In)Z1 + (I2+ I3+...+ In)Z2

UN=(I1+ I2+...+ In)Z1 + (I2+ I3+...+ In)Z2 +...+ In Zn

Taki system uziemienia nie może być stosowany w przypadku układów, które pracują przy znacznie różniących się poziomach mocy. Szczególnie w układach, które impulsowo pobierają prąd, zakłócenia mogą przenosić się przez wspólne impedancje Zi; i = 1, 2, ..., n.

Często w zakresie m.cz. stosuje się dla sygnałów system uziemienia mieszany, szeregowo-równoległy (rys.7.9). Sposób ten w wystarczającym stopniu obniża poziom zakłóceń elektrycznych, a jednocześnie nie prowadzi do nadmiernej złożoności liczby połączeń (przewodów) w odniesieniu do przypadku zastosowania wyłącznie uziemienia jednopunktowego równoległego.

W realizacjach praktycznych urządzeń lub systemów elektronicznych. pracujących w zakresie małych częstotliwości, systemy uziemienia powinny posiadać co najmniej trzy oddzielne przewody {ścieżki, szyny, płaszczyzny) uziemiające połączone razem w jednym punkcie. Są to mianowicie przewód uziemienia dla układów o niskim poziomie sygnałów, przewód uziemienia dla układów, zespołów stanowiących potencjalne źródło zakłóceń (źródła zakłóceń) oraz przewód uziemienia dla bezpieczeństwa {dostępne elementy konstrukcyjne zwłaszcza metalowe).

Najwięcej uwagi powinien projektant poświęcać układom o niskich poziomach mocy, ponieważ są one najbardziej czułe na zakłócenia. Elementy, podzespoły i układy szczególnie wrażliwe na zakłócenia należy umieścić w ekranach uziemionych w ten sposób, aby same nie wnosiły dodatkowych zakłóceń.

Uziemiania w zakresie wielkich częstotliwości

W zakresie wielkich częstotliwości płaszczyzny uziemienia posiadają małą impedancję wskutek występowania zjawiska naskórkowości. Dobre właściwości wykazują płaszczyzny uziemienia wykonane ze srebra. Są to jednak rozwiązania zbyt kosztowne i dlatego tańsze płaszczyzny metalowe pokrywa się cienką warstwą srebra lub złota. Grubość tej warstwy nie ma praktycznie wpływu na impedancje w zakresie w. cz..

Takie rozwiązania nie powinny być jednak stosowane w zakresie m.cz., ponieważ wartości impedancji płaszczyzn uziemienia są zbyt duże.

W układach (obwodach) b.w.cz. najskuteczniejszy jest sposób uziemienia wielopunktowego (rys.7.10). Minimalizację impedancji uziemienia obwodów uziemianych utyskuje się dołączając obwody do najbliższego punktu płaszczyzny uziemienia (chassis). Długości tych przewodów powinny być możliwie jak najmniejsze (kilka mm).

W układach szerokopasmowych, jakimi są np. wkłady cyfrowe, należy zapewnić skuteczne uziemienie w całym zakresie częstotliwości, zarówno w zakresie m.cz. jak i w.cz. System uziemienia powinien zatem gwarantować spełnienie wymagań zarówno odnośnie uziemienia jednopunktowego jak i wielopunktowego ­rys.7. 1l . Kondensatory C1,..., Cn o pomijalnie małych indukcyjnościach, dla m.cz. stanowią rozwarcie, co w efekcie powoduje, że poszczególne układy od 1...n są uziemione w jednym punkcie. Natomiast w zakresie w.cz. kondensatory C1, ..., Cn nie mają wpływu na wynikową wymaganą małą impedancję Z1,..., Zn, co z kolei zapewnia skuteczne uziemienie w zakresie w.cz. (wielopunktowe).

7) Elementy i podzespoły do tłumienia sygnałów zakłócających

Dla obniżenia poziomu sygnałów niepożądanych, a zwłaszcza w celu zmniejszania możliwości wywołania przez nie zakłócenia w pracy urządzeń elektronicznych, powszechnie stosuje się kondensatory, dławiki, elementy o nie liniowych charakterystykach prądowo-napięciowych oraz filtry o zadanych charakterystykach częstotliwości. Takie same elementy i podzespoły oraz diody, tyrystory i odgromniki wykorzystuje się w przypadku występowania zakłóceń impulsowych o dużej intensywności dla ochrony obwodów i układów elektronicznych, szczególnie półprzewodnikowych, przed uszkodzeniami. Obie te funkcje tzn. redukcja zakłóceń i ochrona przed uszkodzeniami, są często spełniane przez te same elementy i podzespoły przeciwzakłóceniowe.

Koraliki ferrytowe

Specjalnego rodzaju dławikami są odpowiednio ukształtowane elementy ferrytowe (koraliki) umieszczane wokół przewodów (rys.7.15). Stosuje się je zwłaszcza w układach szerokopasmowych, umieszczając np. w obwodzie bazy tranzystora w.cz., na przewodach zasilających wzmacniacze i generatory w.cz. i b.w.cz. lub na względnie długich przewodach i między szybkimi bramkami logicznymi lub bezpośrednio przy wejściu sygnału na płytkę drukowaną. Koraliki ferrytowe bardzo skutecznie tłumią niepożądane składowe sygnałów o częstotliwościach powyżej 1 MHz. Natomiast nie wprowadzają one tłumienia składowych - stałej i małoczęstotliwościowych. Przeciwdziałają one zakłóceniom przenoszonym drogą przewodzenia (linie zasilania i inne doprowadzenia) i wzbudzaniu się drgań pasożytniczych spowodowanych sprzężeniami i rezonansami pasożytniczymi oraz ekranują przewody lub inne przewodzące elementy. Przy takich zastosowaniach tworzy się koralikowy filtr ferrytowy, którego schemat zastępczy przedstawiono na rys.7.16.

8) Filtry sieciowe i do linii sygnałowych

Idealny przeciwzakłóceniowy filtr sieciowy powinien przenosić sygnał o częstotliwości sieci, natomiast tłumić całkowicie sygnały o innych częstotliwościach, które mogą pojawiać się w sieci zasilającej.

Przeciwzakłóceniowe filtry sieciowe stosowane w praktyce tworzone są z kondensatorów klasy X i Y, z prostych dławików rdzeniowych oraz dławików z kompensacją prądową neutralizującą nasycenie rdzenia.

Filtry przeciwzakłóceniowe są zawsze konstruowane jako dolnoprzepustowe filtry odbiciowe, cv oznacza, że ich tłumienność jest maksymalna, gdy są niedopasowane do impedancji źródła zakłóceń lub odbiornika zakłóceń (obciążenia danego układu) oraz do impedancji linii. Stąd wynikają pewne charakterystyczne konfiguracje filtrów (typu L i Π) zawierających elementy indukcyjne i pojemnoś­ciowe (rys.7.20).

Rozszerzenie pasma tłumionych częstotliwości w kierunku mniejszych wartości częstotliwości uzyskać można przez dodanie drugiego obwodu (ogniwa) z kondensatorami odsprzęgającymi. Zmiana mająca na celu zwiększenie górnej granicy może być natomiast przeprowadzona przez dodanie obwodu z: dławikiem lub z tzw. skrzyżowanymi kondensatorami.

Jeśli oprócz elementów LC (których straty są pomijalne) wykorzystuje się również warystory, rezystory i koraliki ferrytowe, to wówczas mamy do czynienia z nową grupą filtrów przeciwzakłóceniowych, zwanych stratnymi lub absorpcyjnymi. W niektórych zastosowaniach mają one korzystniejsze charakterystyki użytkowe od filtrów bezstratnych.

Odrębny rodzaj filtrów stosuje się do zwalczania zakłóceń w liniach wejściowo/wyjściowych układów, urządzeń i systemów elektronicznych, którymi przesyłane są dane i różnorodne sygnały, a w tym także w liniach telekomunikacyjnych. W liniach takich mogą występować zarówno niepożądane składowe wielkoczęstotliwościowe pochodzące od transmitowanych i/lub przetwarzanych sygnałów użytecznych jak też i spowodowane przyczynami zewnętrznymi: udary napięciowe i prądowe oraz ciągi impulsów, często o znacznej intensywności. Stąd też filtry przeciwzakłóceniowe do tych linii - nazywanych tu w ogólności sygnałowymi - stosuje się zwykle łącznie z innymi elementami lub podzespołami do tłumienia zakłóceń np. z transoptorami i ogranicznikami impulsów. Filtry do linii sygnałowych w porównaniu z sieciowymi mają znacznie mniejsze dopuszczalne wartości napięć i prądów roboczych (np. rzędu kilkudziesięciu V i max. 1....3A).

Zadaniem filtrów do linii sygnałowych jest tłumienie zakłóceń (zwłaszcza symetrycznych) przez radykalne obniżanie poziomu składowych o częstotliwościach leżących poza pasmem użytecznym w danym zastosowaniu, redukowanie odbić sygnałów w liniach oraz ograniczenie przeników sygnałów np. z przewodów linii zasilania lub przewodów (kabli) połączeniowych.

Filtry przeznaczone do linii sygnałowych mają zróżnicowany stopień złożoności struktury elektrycznej: od prostego zespołu jednoelementowego np. koralika lub pastylki ferrytowej do zespołu kilkuelementowego zawierającego cewki indukcyjne (ewentualnie zwielokrotnione) i kondensatory.

9)Sposoby odprowadzania ciepła z urządzeń elektronicznych

Energia cieplna przechodzi z jednego elementu do drugiego, gdy między tymi elementami istnieje gradient temperatury. Naturalny przepływ energii cieplnej odbywa się przez przewodzenie, promieniowanie, konwekcję (unoszenie), a zwykle przez kombinację tych zjawisk.

W urządzeniach elektronicznych wykorzystuje się wyżej wymienione naturalne zjawiska do odprowadzania ciepła i zazwyczaj ciepło wytworzone przez elementy i podzespoły elektroniczne jest odprowadzane z urządzeń dzięki wykorzys­taniu następujących zjawisk [2, 3]:

Odprowadzanie ciepła z elementów, podzespołów, czy z urządzeń elektronicznych jest procesem złożonym, który zazwyczaj stanowi kombinację kilku zjawisk umożliwiających wymianę ciepła w okre5lonych warunkach pracy.

W sposób najbardziej ogólny sposoby odprowadzania ciepła można podzielić na naturalne i wymuszone.

Naturalne odprowadzanie ciepła opiera się na zjawiskach przebiegających samoistnie, tzn. na unoszeniu swobodnym, przewodzeniu, promieniowaniu, topnieniu i swobodnym wrzeniu.

Wymuszone odprowadzanie ciepła opiera się na zjawiskach, które nie przebiegają samorzutnie, a muszą zostać wymuszone, przez dostarczanie dodatkowej energii, np. energii do napędu wentylatorów, pomp, sprężarek lub zasilania baterii termo­elektrycznych.

W przypadku, gdy nie wymagana jest izolacja elektryczna pomiędzy powierzchniami łączonymi stosuje się następujące rozwiązania praktyczne:

W połączeniach wymagających izolacji elektrycznej stosuje się:

Rezystancję ciepłną przekładki moim oszacować na podstawie zależności:

0x01 graphic

gdzie: δ - grubość przekładki [cm],

λ - przewodność cieplna mateńału przekładki - patrz tabłica 6.4 [W/cm2 °C]

F - powierzchnia przekładki [cm2].

W przypadku konstruowania zespołów hermetyzowanych, ze względu na bardzo małe przewodnictwa cieplne powietrza, należy dla odprowadzania ciepła z elementów do obudowy stosować odpowiednie wypełniacze stałe lub elastyczne, ciecze, np. oleje, freon, a nawet gazy o przewodnictwie cieplnym większym niż powietrza.

Materiały na wypełniacze muszą charakteryzować się następującymi parametrami:

10) Dopasowanie urządzeń do cech operatora

Zagadnieniami dopasowania urządzeń do cech operatora (do możliwości organizmu ludzkiego) zajmuje się ergonomia. Termin ergonomia powstał z połącze­nia dwóch słów greckich: ergon (praca) i nomos (prawo, zasada). Obejmuje ona bar­dzo szeroki obszar zagadnień, a mianowicie: antropologię, psychologię inżynieryjną, filozofię pracy, problemy bezpieczeństwa i higieny pracy, zanieczyszczeń środo­wiska, wibroakustyki urządzeń itp.

Model struktury ergonomii przedstawiono na rys. 8.1 [2]. Z rysunku wynika, że układ człowiek-praca, a więc i człowiek-urządzenie elektroniczne, należy rozpatrywać w wielu aspektach, które w sposób bardzo ogólny można podzielić na grupę A i grupę B. Do grupy A należy zaliczyć te dyscypliny, które zajmują się badaniem cech człowieka a do grupy B dyscypliny, w których człowiek pracuje.

Celem ergonomii w interesującym nas zakresie jest opracowanie wytycznych jak należy konstruować aparaturę elektroniczną, aby uwzględnić ludzkie możliwości w obsłudze coraz to bardziej skomplikowanej aparatury. Problemy dopasowania urządzeń elektronicznych do człowieka - operatora są bardzo złożone i przy konstrukcji nowoczesnych systemów elektronicznych czasami trudno przewidzieć efekty oddziaływania aparatury, oczywiście negatywne, na operatora. Przy konstruowaniu aparatury trzeba pamiętać, że najlepsze efekty „zgodności" między aparaturą a operatorem można osiągnąć dobierając parametry aparatury do możliwości człowieka, a nie na odwrót na zasadzie przystosowania operatora do parametrów aparatury.

W kontaktach operator-aparatura istotny jest wybór bodźców, etyli wybór narządu zmysłu człowieka, do którego wysyłane są sygnały zawierające istotne informacje o działaniu aparatury [5]. Każdy narząd zmysłu ma określony zakres wrażliwości oraz określone granice możliwości rozróżniania cech fizycznych sygna­łów i do nich należy dopasować przyrządy sygnalizacyjne. W zakresie współpracy aparatura-operator istotne jest również potwierdzenie przez określone sygnały apa­ratury, że wykonana przez operatora czynność jest poprawna bądź nie. Tak więc, powinno działać sprzężenie zwrotne informujące o wykonaniu określonej czynności i efekcie wywoływanym przez tę czynność.

Wskazane jest również utyskiwanie na bieżąco przez operatora sygnałów o stanie aparatury i potrzebie dostrojenia układów lub wykonanie innych określonych czynności obsługowych związanych z profilaktyką, o możliwości zaistnienia awarii (sygnały ostrzegawcze), o wystąpieniu awarii, jej miejscu i przyczynach. Zaprojektowana aparatura powinna być również, w miarę możliwości, odporna na błędy popełniane przez operatora.

11) Ergonomiczny system operator-komputer

Od około 40 lat obserwujemy dynamiczny rozwój komputerów. Liczba komputerów wzrasta z roku na rok i można się spodziewać, że w najbliższym okresie komputer będzie urządzeniem stosowanym prawie na wszystkich stanowiskach pracy.

Zjawisko komputeryzacji jest największą innowacją końca XX wieku, które w zasadniczy sposób odmienia treść pracy i styl funkcjonowania znacznej liczby ludzi [2]. Komputery stały się przedmiotem zainteresowań wielu grup społecznych i zawodowych, a przede wszystkim młodych ludzi, prowadząc ich do swoistego rodzaju uzależnienia. Często w związku z tym można spotkać się z opiniami wyrażającymi zaniepokojenie o zdrowie młodych użytkowników komputerów. Przeprowadzone badania wykazały, że komputeryzacja powoduje zagrożenie dla zdrowia fizycznego operatora, a głównymi czynnikami zagrożenia są [2]:

Przeprowadzone badania nad uciążliwością pracy z komputerem pozwoliły wyciągnąć następujące wnioski ogólne [2]:

Występujące dolegliwości mogłyby być spowodowane złym oświetleniem, źle skonstruowanym stanowiskiem pracy lub złym kontrastem monitora.

Wytyczne odnośnie organizacji stanowiska pracy z komputerem zawarto w książce [3]. Na rys. 8.24 przedstawiono prawidłowo zaprojektowane stanowisko pracy.

Szerokość stołu do pracy powinna wynosić co najmniej 90 cm, tak aby zmieściły się na nim: klawiatura, pulpit na materiały pomocnicze oraz monitor. Pomiędzy przednią krawędzią biurka a klawiaturą musi powstać wolne miejsce na oparcie dłoni, o szerokości od 5 do 10 cm. Długość stołu, optymalna w tych warun­kach, wynosi 160 cm. Na rys.8.24, określono wszystkie istotne wymiary umożliwiające stworzenie dobrych warunków pracy dla operatora.

Bardzo ważne jest również oświetlenie pomieszczenia i natężanie światła; powinny być spełnione następujące warunki:

Należy stosować niezbyt dużą różnicę jasności oświetlenia pomieszczenia i jasności ekranu monitora, operator powinien mieć możliwość spoglądania przez okno [3]. Temperatura w pomieszczeniu powinna być utrzymywana w zakresie 21 ... 22°C, a wilgotność powietrza 50 ... 65%. Operator powinien kontrolować sposób siedzenia, ponieważ typowe wady pozycji siedzącej będą powodować bóle mięśni, kręgosłupa i zaburzenia krążenia. Na rys. 8.25 przedstawiono typowe wady postawy oraz optymalny sposób siedzenia przy pracy.

Wprowadzenie do biur techniki komputerowej napotyka na poważne bariery psychologiczne. W pierwszym okresie obsługi komputera występuje u wielu pracowników niechęć do pracy. Zwykle spowodowane jest to częściowo lękiem przed nieznanym a częściowo także pierwszymi nieudanymi próbami pracy z komputerem. Źródeł lęku należy szukać w obawie przed możliwością uszkodzenia drogiego sprzętu, niechęcią ujawnienia braku wiedzy w zakresie obsługi programów, a także wymienionymi już powyżej czynnikami szkodliwymi i uciążliwymi dla zdrowia.

W sferze społecznej współdziałanie człowieka z komputerem powoduje jego izolację, redukując konieczność kontaktów z ludźmi. Praca może być wykonywana w samotności, zapewniając kontakt z wszystkimi potrzebnymi ośrodkami, np. ban­kiem, restauracją, sklepem itp. Komputery wprowadzają poczucie sztuczności, odrealnienia, dehumanizacji więzi międzyludzkich, jak również są czynnikiem desocjalizującym człowieka [2].

Niepokojącym skutkiem ubocznym jest obiektywny wzrost kontroli nad człowiekiem przez tworzenie banków danych dysponujących informacją o człowieku, z możliwością błędnego wykreślenia z danych.

Zastosowanie techniki komputerowej w wielu dziedzinach działalności człowieka wiąże się nie tylko z określonymi psychicznymi kosztami przystosowania, lecz również z nowymi zróżnicowaniami społecznymi. Swoisty paradoks sytuacji człowieka ery technologii informacyjnej polega na tym, że z jednej strony uwalnia się od własnych słabości i ograniczeń zwiększając zakres możliwości działania intelektualnego, z drugiej zaś - jako uczestnik złożonych systemów informacyjnych uzależnia się od nich [2].

12) Podstawowe pojęcia niezawodności

Ogólnie pod pojęciem niezawodności należy rozumieć własność sprzętu elektronicznego, charakteryzującą jego zdolność do pracy bez uszkodzeń w określonych warunkach eksploatacji. Uszkodzenie definiuje się jako zdarzenie, polegające na tym, że któraś z cech urządzenia przestała spełniać stawiane wymagania. Uszkodzenie można więc zdefiniować jako zdarzenie polegające na zmianie jednego lub więcej parametrów, przekraczającej granice dopuszczalnych tolerancji. Terminem uszkodzenie nazywane są więc nie tylko oczywiste uszkodzenia związane z elektrycznym lub mechanicznym uszkodzeniem elementów jak zwarcia, przerwy itp., po których urządzenie jest niezdolne do pracy, ale również przypadki gdy urządzenie jest jeszcze zdolne do pracy, ale jego parametry nie mieszczą się już w dopuszczalnych tolerancjach. Występują również uszkodzenia nie wpływające bezpośrednio na zmianę parametrów urządzenia a jedynie utrudniające jego eksploatację i niejednokrotnie wiążące się z potrzebą wymiany uszkodzonych elementów. Uszkodzenia takie nazywane są defektami lub niesprawnościami i ich przykładem mogą być wszelkie zacinania czy uszkodzenia pomocniczych elementów mechanicznych czy np. przepalenie żarówki sygnalizacyjnej. Można więc ostatecznie zdefiniować niezawodność jako własność sprzętu elektronicznego charakteryzującą zdolność do zachowania jego parametrów w granicach dopuszczalnych tolerancji w określonych warunkach eksploatacji [2].

Według charakteru pojawiania się uszkodzenia klasyfikuje się je na awaryjne i parametryczne. Uszkodzenia awaryjne nazywane są również katastroficznymi, zupełnymi lub losowymi. Występują one nagle i nieprzewidzianie oraz powodują zmianę parametrów poza dopuszczalną granicę tolerancji w sposób skokowy. Uszkodzenia awaryjne mogą mieć charakter trwały gdy nastąpi zniszczenie lub uszkodzenie elementu, albo przemijający, gdy nastąpi np. przerwa w styku.

Przyczynami powstawania uszkodzeń awaryjnych mogą być wszelkiego rodzaju ukryte wady technologiczne, czy produkcyjne, nieodpowiednia jakość surowców i materiałów, niestaranny montaż, nie przewidziane przez konstruktorów warunki eksploatacyjne itp. Uszkodzenia awaryjne mają charakter przypadkowy. Z tego względu mogą być one przewidywane i opisywane w oparciu o Teorię rachunku prawdopodobieństwa i statystykę matematyczną.

Uszkodzenia parametryczne nazywane są również uszkodzeniami naturalnymi lub częściowymi i na ogół pojawiają się stopniowo gdy długotrwałe zmiany ilościowe przechodzą w zmiany jakościowe. Uszkodzenia te są głównie powodowane procesami starzeniowymi i zużywaniem się różnych elementów. Starzenie następuje nie tylko w czasie pracy urządzeń, ale również w czasie przerw w pracy, w czasie magazynowania i transportu. Uszkodzenia parametryczne pojawiają się najczęściej dopiero po upływie pewnego czasu pracy urządzeń. Można jeszcze wydzielić grupę parametrycznych uszkodzeń przemijających, które mają charakter odwracalny i zanikają gdy ustępują np. wymuszające je zewnętrzne czynniki środowiskowe.

Parametryczne uszkodzenia przemijające mogą mieć charakter krótkotrwały lub długotrwały rozciągający się nawet do setek godzin. Mówimy wówczas o bezwładnościowych parametrycznych uszkodzeniach przemijających.

13)

Dla liczbowej oceny uszkodzeń stosowane są pojęcia - częstość uszkodzeń i intensywność uszkodzeń [2].

Czestością_ uszkodzeń na jednostkę czasu fu(t) nazywa się stosunek liczby uszkodzonych jednostek sprzętu na jednostkę czasu do liczby wszystkich jednostek badanego sprzętu na początku badania, co można zapisać:

0x01 graphic

gdzie: fu(t) - częstość uszkodzeń na jednostkę czasu w chwili t,

N - liczba jednostek sprzętu całego badanego zbioru na początku badania (uszkodzone jednostki w toku badania nie podlegają wymianie)

Δm(t) - liczba uszkodzonych jednostek sprzętu w przedziale czasu t . . . t + Δt

Intensywność uszkodzeń λ(t) nazywa się stosunek liczby uszkodzonych jednostek sprzętu na jednostkę czasu do liczby nie uszkodzonych jednostek na początku rozpatrywanego przedziału czasu, czyli:

0x01 graphic

gdzie: λ(t) - intensywność uszkodzeń w chwili t,

Δm(t) - liczba uszkodzonych jednostek sprzętu w przedziale czasu t...t+Δt

m(t) - sumaryczna liczba uszkodzonych jednostek do chwili t,

N - liczba jednostek sprzętu całego badanego zbioru na początku badania,

N(t) - liczba nie uszkodzonych jednostek sprzętu do chwili t.

Czasami używane są pojęcia średniej częstości uszkodzeń lub średniej intensywności uszkodzeń i stanowią one średnie arytmetyczne z wartości uzyskanych dla szeregu jednostkowych przedziałów czasu.

14) Wpływ projektowania i konstrukcji na niezawodność

Niewłaściwe projektowanie i rozwiązania konstrukcyjne mogą być powodem znacznego procentu uszkodzeń sprzętu elektronicznego. Do przyczyn niewłaściwego projektowania i konstrukcji zaliczane są:

Na szybkość usuwania uszkodzeń istotny wpływ ma właściwa konstrukcja urządzeń, umożliwiająca łatwą wymianę uszkodzonego bloku, łatwy dostęp do poszczególnych elementów oraz rozwiązania konstrukcyjne ułatwiające szybkie wykrywanie uszkodzeń. Przy odpowiednich rozwiązaniach układowych można w znacznym stopniu zwiększać niezawodność urządzeń i systemów. Podstawowym czynnikiem zwiększającym niezawodność urządzeń jest dobór bardziej niezawodnych elementów, ale przez odpowiednie zaprojektowanie można osiągnąć niezawodność układów większą od niezawodności elementów składowych. Wzrost niezawodności urządzeń ze względu na rozwiązania układowe można uzyskać przez:

- upraszczanie układów,

- stosowanie układów utrudniających uszkodzenia elementów,

- stosowanie układów o ograniczonych następstwach uszkodzeń, - rezerwowanie,

- stosowanie układów kontroli pracy i wyszukiwania uszkodzeń.

Przy projektowaniu niezawodnych układów można podać następujące zalecenia:

Układy spełniające jedno zadanie są na ogół pewniejsze w działaniu.

Układy należy tak projektować aby ewentualne uszkodzenia elementów powodowały jedynie możliwie ograniczone skutki i urządzenie było zdolne do spełnienia swych zadań chociaż w ograniczonym zakresie.

Metodą zmniejszania skutków uszkodzeń jest stosowanie układów z rezerwą. Układy z rezerwą są szeroko stosowane szczególnie w takich przypadkach, gdy zależy nam na ciągłej pracy przez dłuższy okres czasu, jak np. nadajników radiofonicznych i komunikacyjnych, stacji radiolokacyjnych, aparatury elektronicznej satelitów itp. Można wyróżnić metody rezerwowania aktywne i pasywne. Metoda aktywna wiąże się z różnego rodzaju przełączeniami, które powodują wyłączenie uszkodzonego układu i włączenie rezerwowanego, przy czym może to następować samoczynnie. Metoda pasywna polega na takim zaprojektowaniu układu, żeby uszkodzenie jednego lub nawet kilku elementów nie wpływało w sposób istotny na pracę całości układu. Układy takie nie wymagają. dokonywania jakichkolwiek przełączeń.

W celu skrócenia czasu potrzebnego na wyszukiwanie uszkodzeń w bardziej złożonych urządzeniach stosuje się przyrządy pomiarowe i kontrolne stanowiące integralną część tego urządzenia. Okazuje się, że przy wyszukiwaniu uszkodzeń w bardziej złożonych urządzeniach, stosowanie zewnętrznych przyrządów pomiarowych uniwersalnych lub specjalnych wymaga większych kwalifikacji obsługi i podraża koszty. Dlatego zaczęto stosować automatyczne i półautomatyczne urządzenia kontrolne, sprawdzające pracę aparatury na bieżąco, a nawet wskazujące uszkodzenia.

Przy wyborze konstrukcji urządzenia kontrolnego powinno się brać pod uwagę wiele czynników, jak np.:

W rozbudowanych systemach automatycznej kontroli przewidywana jest ciągła samokontrola. Sprawdzana jest zdolność do pracy poszczególnych bloków i układów. W niektórych systemach kontroli dokonywany jest zapis parametrów kontrolowanych w sposób ciągły. Daje to dobry materiał dla kolejnej analizy w przypadku uszkodzenia aparatury i dla oceny jej niezawodności.

Poza urządzeniami kontroli wbudowanymi w kontrolowane urządzenie i stanowiącymi jego integralną część, stosowane są zewnętrzne autonomiczne urządzenia kontrolne z wbudowanymi do urządzeń kontrolowanych czujnikami. Takie systemy stosowane są do złożonych urządzeń elektronicznych, jak np. systemy kierowania rakiet, czy wyposażenia elektronicznego rakiet itp. W takich systemach aparatura automatycznej kontroli umieszczana jest niekiedy w samochodach lub oddzielnych pomieszczeniach i dołączana do kontrolowanych urządzeń za pomocą specjalnych kabli. Urządzenia takie umożliwiają zarówno kontrolę podstawowych parametrów oraz sygnałów wejściowych i wyjściowych poszczególnych bloków i zespołów jak i ewentualnie wyszukiwanie uszkodzonych węzłów i elementów. Systemy takie coraz częściej sterowane są komputerami pozwalającymi na wykorzystywanie zmiennych programów prób i rejestrowanie wyników kontroli oraz sygnalizowanie uszkodzeń i odchyłek parametrów.

Urządzenia kontrolne mogą być klasyfikowane na różne sposoby, przykładową klasyfikację pokazano na rys. 9.1 [2].

15) Wpływ eksploatacji na niezawodność

Podobnie jak niewłaściwe zaprojektowanie i rozwiązania konstrukcyjne również niewłaściwa eksploatacja może być powodem znacznego procentu uszkodzeń sprzętu elektronicznego. Pod pojęciem warunków eksploatacji należy rozumieć nie tylko warunki w jakich pracuje zainstalowany sprzęt, ale również warunki w jakich jest magazynowany i transportowany.

Warunki eksploatacji można podzielić na obiektywne i subiektywne. Na obiektywne warunki eksploatacji składają się takie czynniki wymuszające jak: elektryczne, mechaniczne, klimatyczne, biologiczne, chemiczne, elektrochemiczne oraz promieniowanie i nie zależą one od personelu związanego z eksploatacją sprzętu. Subiektywne warunki eksploatacji zależą od ludzi obsługujących sprzęt i składają się na nie takie czynniki jak: umiejętność organizacji eksploatacji, umiejętność obsługiwania, profilaktyka i konserwacja oraz sumienność i staranność w wykonywaniu powyższych zadań. Czynniki eksploatacyjne wpływające na niezawodność sprzętu elektronicznego zestawiono na rys. 9.2 [2].

Działanie czynników środowiskowych na urządzenia elektroniczne opisano w rozdziała 4. Uszkodzenia powodowane tylni czynnikami można podzielić następująco:

17) Ekrany i pola uziemiające

Ekrany i pola uziemiające są zwykle projektowane jako powierzchnie, a więc nie wytrawione pola folii miedzianej (metoda subtraktywna) lub pola miedzi naniesione na warstwę izolacyjną (metoda addytywna). Zaleca się projektowanie ich w postaci pól ażurowych, tak jak przedstawiono na rys. 3.12 [2].

Pozostawienie dużych powierzchni miedzi na płytce drukowanej może spowodować zniszczenie płytki podczas lutowania, a więc może nastąpić deformacja podłoża izolacyjnego, odwarstwienie miedzi, rozlaminowanie płytek wielowarstwowych.

Pola stykowe do złącz krawędziowych (bezpośrednich)

Przy konstrukcjach modułowych na zakończeniu płytki drukowanej umieszczone są złącza do obwodów drukowanych: złącze pośrednie lub złącze bezpośrednie. W złączu bezpośrednim wtykiem jest płytka drukowana o grubości l,5 mm, nato­miast na końcu płytki, na mozaice przewodzącej, muszą się znajdować odpowiednio ukształtowane pola stykowe zapewniające połączenie elektryczne z kontaktami obej­mującymi złącza bezpośredniego. Pola stykowe mogą być wykonane na płytkach jednostronnych lub dwustronnych oraz wielowarstwowych. Leżące po przeciwnych stronach płytki pola stykowe mogą być ze sobą połączone przez kontakty obej­mujące złącza lub stanowić oddzielne punkty w obwodzie elektrycznym.

Pola stykowe są zwykle dodatkowo pokrywane warstwą metalu, np. w celu zwiększenia ich trwałości. W tablicy 3.6 zestawiono rodzaje metali i typowe grubości pokryć nanoszone na pola stykowe [4].

Kształty i wymiary pól stykowych oraz odległości między nimi zależą od [2]:

Liczba pól stykowych na płytce może wynosić od kilku do kilkudziesięciu, w zależności od zastosowanego złącza bezpośredniego.

Pola stykowe stanowiące zakończenie płytki drukowanej są wykonywane w czasie procesu wytwarzania mozaiki przewodzącej, a następnie są dodatkowo pokrywane metalami (tablica 3.6) zwiększającymi odporność na ścieranie lub odporność na otaczającą atmosferę.

18)

Metody projektowania mozaiki przewodzącej można bardzo ogólnie po­dzielić na: klasyczne i zautomatyzowane.

Niezależnie od metody efektem końcowym projektowania powinna być dokumen­tacja składająca się: [2, 6]:

Zakończeniem etapu projektowania powinno być wykonanie prototypu urządzenia i dokumentacji konstrukcyjnej i technologicznej.

Projekt mozaiki przewodzącej może dotyczyć płytki jednostronnej, dwustronnej lub wielowarstwowej. W układach złożonych liczba warstw jest kompromisem wynika­jącym z dążenia do dużej gęstości upakowania, a kosztem materiałów i wykonania płytki drukowanej, Oczywiste jest, że koszt rośnie z jakością laminatu i liczby warstw, a więc najtańsza będzie płytka jednostronna z laminatu fenolowo-papier­niczego. Jednakże połączenia na płytce jednostronnej będą długie, często równole­gle, czyli w efekcie otrzymamy urządzenie o dużym poziomie zakłóceń. O jakości decyduje wtedy długość ścieżek, czyli ich rezystancja, indukcyjności, pojemności. Parametry te są szczególnie ważne w zakresie w.cz.

W projekcie bardzo ważne są ścieżki zasilania i masy. Źle zaprojektowane ścieżki zasilania stanowią źródła zakłóceń. Zwykle projekt mozaiki przewodzącej zaczyna się od prowadzenia ścieżek zasilania i elementów blokujących ścieżki zasilania. Obecnie używane też są wielowarstwowe szyny zasilające, zastosowanie których eliminuje problemy z projektowaniem ścieżek zasilających (patrz rozdz. 6 niniejszego skryptu).

Przy projektowaniu płytek należy uwzględnić możliwość wykonania projektu mozaiki przewodzącej, a następnie montażu płytki drukowanej. Jest to tzw. wykonalność płytki drukowanej [5]. Projektant musi znać przebieg procesów technologicznych, np. metalizacji otworów (wymagania odnośnie stosunku średnicy otworu w stosunku do grubości płytki), metody wytwarzania mozaiki (w metodzie subtraktywnej możliwości podtrawienia ścieżek) itp.

Tak więc, bardzo duże upakowanie, wąskie ścieżki i małe odległości między elemen­tami składowymi mozaiki przewodzącej nie będą zapewniać powstania dobrego urządzenia elektronicznego, ponieważ proces technologiczny nie zawsze może zapewnić wysoką precyzję wykonania.

Należy również zwrócić uwagę na dokładność wykonywania klisz, która zależy od rodzaju zastosowanego materiału; może to być: folia do rysowania lub błony fotograficzne do obróbki stykowej, do fotoredukcji na podłożu poliestrowym lub płyty fotograficzne na podłożu szklanym. Największą stabilnością wymiarów odznaczają się płyty fotograficzne na podłożu szklanym i dlatego są używane do wykonania matryc wzorcowych i wysokoprecyzyjnych płytek drukowanych.

W metodach klasycznych projektowania mozaiki przewodzącej, rzadko już dzisiaj stosowanej, wszystkie czynności są wykonywane przez projektanta i kreśla­rza. Są to następujące czynności:

Rysunek mozaiki przewodzącej może być wykonany na papierze lub kalce lub na przeźroczystej folii poliestrowej, którą układa się na podkładce z naniesioną siatką. Obrysy elementów mogą być rysowane na kalce lub wklejane na folii poliestrowej. Do wyklejenia stosowane są specjalne wyklejki odpowiadające obrysom rzeczy­wistych elementów elektronicznych. Można również wyklejać mozaikę przewodzącą stosując wyklejki pól lutowniczych i ścieżek. Można wykonywać projekty płytek dwustronnych i wielowarstwowych stosując różne kolory ścieżek i pól lutowniczych. Są to bardzo pracochłonne czynności i wszystkie zmiany w mozaice przewodzącej są bardzo trudne do wykonania, również dokładność matrycy może być nie zadawalająca. Metoda ta może być jeszcze teraz stosowana, ale głównie do prostych płytek jednostronnych.

W metodach zautomatyzowanych wspomaganych komputerem rozróżnia się [2]:

W metodzie z digitalizacją i automatycznym kreśleniem matryc rysunek mozaiki przewodzącej i rozmieszczenia elementów wykonuje projektant. Na podstawie rysunku mozaiki przewodzącej, używając folii poliestrowej najczęściej z nadru­kowaną siatką, wykonuje się rysunek do digitalizacji, nazywany matrycą płytki drukowanej. Na matrycy podane są położenia poszczególnych elementów mozaiki oraz w sposób umowny ich wymiary. Za pomocą digitalizatora rysunek matrycy jest rejestrowany w postaci cyfrowej na taśmie dziurkowanej lub na dyskietce, które są stosowane do sterowania fotokoordynatografem, tj. urządzeniem, które w sposób automatyczny naświetla błonę fotograficzną przenosząc na nią obraz mozaiki.

Wywołana błona fotograficzna stanowi matrycę, która jest obrazem mozaiki przewodzącej w skali 1:1 i stanowi kliszę (fotoszablon) do wykonywania płytek drukowanych. Typowy zestaw urządzeń do automatycznego wykonania klisz płytek drukowanych zawiera [2]:

Komputer umożliwia wykonanie programu wiercenia otworów i frezowania kształtów mozaiki przewodzącej na wiertarkach i wiertarko-frezarkach sterowanych numerycznie, sporządzenie rysunku płytki i schematów ideowych na koordyna­togrąfie do szybkiego wprowadzania poprawniej modyfikacji płytki.

Dokładności wykonania klisz płytek drukowanych za pomocą nowoczes­nych zestawów wynoszą:

Są to dokładności dużo wyższe od możliwych do osiągnięcia w metodach klasycz­nych. Można również wielokrotnie odtwarzać klisze z tą samą dokładnością, można nanosić poprawki i modyfikacje. Pracochłonność projektowania płytek drukowa­nych w stosunku do metod klasycznych jest mniejsza o ok. 20...30 %.

Metoda interaktywna (schemat procesu przedstawiony jest na rys. 3.ł5) umożliwia wykonanie procesu projektowania i dokumentacji za pomocą komputera, z którym projektant współdziała we wszystkich etapach projektowania.

Metoda interaktywna wymaga przygotowania następujących danych:

Efektem końcowym prac są programy zapisane na taśmach dziurkowa­nych, magnetycznych lub dyskietkach, które umożliwiają wykonanie klisz, dokumentacji konstrukcyjnej płytek drukowanych oraz umożliwiają komputerowe sterowanie urządzeniami technologicznymi i testującymi. W trakcie pracy możliwe jest sprawdzenie danych wejściowych i wykrywanie ewentualnych błędów; wykonywanie wspomaganego przez operatora rozmieszczenia elementów i podzespołów na płytce oraz wykonywanie połączeń między końcówkami elementów elektronicznych na wymaganej liczbie warstw; szybki wydruk widoku płytki lub wybranego jej fragmentu; wytwarzanie programów sterujących pracą fotokoordynatografu, urządzeniami kreślącymi dokumentację konstrukcyjną oraz urządzeniami produkcyjnymi.

System interaktywny umożliwia projektowanie płytek jednostronnych, dwu­stronnych i wielowarstwowych. Klisze mozaiki przewodzącej mają taką samą do­kładność jak po digitalizacji, a czas potrzebny na wykonanie całego projektu jest wielokrotnie krótszy.

W metodzie automatycznej cały proces projektowania płytki drukowanej odbywa się automatycznie bez udziału projektanta w procedurze rozmieszczenia elementów [2]. Konieczne są komputery o bardzo dużych pamięciach oraz złożone i kosztowne programy komputerowe. Zwykle podczas automatycznego rozmiesz­czania elementów i całkowicie automatycznego trasowania ścieżek programy nie zapewniają realizacji wszystkich połączeń, zwykle co najmniej 1...3% pozostaje nie zrealizowanych. Są one wykonywane przez operatora lub można wykonać je po wytrawieniu płytki drukowanej zewnętrznymi przewodami.

Tak więc, jak widać z przedstawionych powyżej metod, programy komputerowe stosowane do projektowania mozaiki przewodzącej początkowo były stosowane w celu sprawdzenia poprawności połączeń oraz wykonania dokumentacji konstruk­cyjnej i technologicznej. Projekt mozaiki wykonywany był ręcznie w odpowiednim powiększeniu i po digitalizacji wprowadzano go do komputera. Program kompu­terowy umożliwił [5]:

Porównanie list dawało możliwość wykrycia błędów w realizowanym układzie, a kontrola listy połączeń dawała gwarancję, że wszystkie połączenia zostały zrealizo­wane i wszystkie elementy są połączone.

19)

Elementy do montażu powierzchniowego mają mniejsze wymiary od elemen­tów przeznaczonych do montażu przewlekanego, część z nich nie posiada końcówek, a istniejące końcówki są dużo mniejsze i krótsze, czyli:

- istnieje możliwość zwiększenia szybkości działania realizowanych układów,

- mniejsze wymiary płytek drukowanych, - większa gęstość montażu,

- mniejsza masa, ciężar, objętość montowanego układu, - niższe koszty produkcji,

- wyroby w postaci podzespołów, urządzeń, charakteryzują się większą niezawodnością.

Elementy do montażu powierzchniowego

W elementach przeznaczonych do montażu powierzchniowego wyraźnemu zmniejszeniu uległy takie części jak: obudowa, element nośny, końcówki monta­żowe. W elementach konwencjonalnych część funkcjonalna, przykładowo, warstwa rezystywna w rezystorze, elektrody kondensatora, struktura półprzewodnikowa, sta­nowią zwykle bardzo małą część objętości gotowego elementu, od 0,2 % do 0,4 całości. Jest to szczególnie widoczne w konstrukcjach układów scalonych. Zmniej­szenie obudowy, zmiana końcówek montażowych lub zastosowanie innych materia­łów i technologii przy wykonaniu elementów, np. kondensatorów, daje w efekcie elementy miniaturowe przeznaczone do montażu powierzchniowego.

Elementy do montażu powierzchniowego można podzielić na: bezkońców­kowe i z końcówkami. W wykonaniu bezkońcówkowym wytwarzane są: rezystory, kondensatory, diody, czyli tzw. dwójniki, natomiast z końcówkami montażowymi (skrzydło mewy, typu J) produkowane są tranzystory, układy scalone, transfor­matory.

Elementy przeznaczone do montażu powierzchniowego przedstawione są na rys. 4.2 [6]. Na rys. 4.3 pokazano typowe końcówki tranzystorów i układów scalonych [5],

W montażu powierzchniowym elementy elektroniczne są lutowane do pól lutowniczych płytki drukowanej z tej samej strony z jakiej znajdują się elementy. Można więc elementy lutowa z obu stron płytki drukowanej.

Elementy bezkońcówkowe

Do elementów bezkońcówkowych należą przede wszystkim rezystory, kondensa­tory i diody.

Rezystory są wykonywane w dwóch rozwiązaniach konstrukcyjnych:

Rezystor ten składa się z podłoża izolacyjnego (zwykle ceramika alundowa), warstwy rezystywnej (zwykle RuO2), pokrycia zabezpieczającego oraz trzy­warstwowej końcówki montażowej składającej się z warstw srebra ewentualnie stopu palladu (właściwe wyprowadzenie elektryczne), niklu {chroni pallad) i lutowia (rys. 4.4). Trzywarstwowa konstrukcja zabezpiecza właściwą elektrodę przed rozpuszczeniem przez ciekłe lutowie w czasie lutowania.

Na rynku dostępne są rezystory o wartościach rezystancji od 2 Ω do 10 MΩ oraz od kilku omów do 3,3 MΩ (zgodnie z typoszeregami wartości). Wiel­kości tolerancji wynoszą: ±l, ±2, ±5 i ±10 %. Rezystory te mogą być obciążane mocami od 1/8 do 1/10 W, oraz przy zwiększeniu wymiarów podłoża do 2 W. Rezystory przystosowane są do pracy w temperaturach od -55°C do +125°C.

Objętość produkowanych obecnie rezystorów do montażu powierzchnio­wego w stosunku do objętości rezystorów konwencjonalnych przy tej samej obcią­żalności jest około 20 razy mniejsza.

Produkowane są obecnie wszystkie podstawowe typy kondensatorów w wykonaniu z przeznaczeniem do montażu powierzchniowego. W konstrukcji kon­densatorów zmniejszenie wymiarów elementu uzyskano w większości przypadków przez zastosowanie innych materiałów na elektrody lub zastosowanie innych materiałów dielektrycznych. Przykładowo, objętość kondensatorów tantalowych o pojemności 470 nF w wersji konwencjonalnej (Elwa, kondensator typ 3-164D) w stosunku do kondensatorów przeznaczonych do montażu powierzchniowego produ­kowanych przez firmę Philips jest około 10 razy większa.

Najliczniej, w wersji do montażu powierzchniowego, są produkowane kon­densatory ceramiczne, stale i regulowane. Pojemności kondensatorów ceramicznych stałych wynoszą od 1 pF do 0,1 μpF (zgodnie z typoszeregami E24-E6), zakres temperatur pracy od -55°C do +125°C. Pojemności kondensatorów tantalowych od 0,1 pF do 1000 μF (typoszereg E-6), zakres temperatur od -55°C do +125°C. Produkowane są również kondensatom aluminiowe, które mają podobne wartości pojemności jak kondensatory tantalowe. mogą być jednak stosowane w zakresie temperatur od -40°C do +85°C.

Produkowane są również cewki w.cz. przystosowane do montażu po­wierzchniowego, przykładowo cewki o objętości 16 mm3, indukcyjności 220 μH, współczynnik dobroci do 90 i częstotliwości pracy od 100 MHz do 700 MHz.

W wersji bezkońcówkowej produkowane są również diody, zwykle w obudowie cylindrycznej.

Likwidacja końcówek montażowych w elementach bezkońcówkowych umożliwia zmniejszenie wymiarów tych elementów oraz poprawę ich właściwości często­tliwościowych.

Elementy z końcówkami montażowymi

Elementy aktywnie produkowane są w obudowach z końcówkami. Do obudów typu SOT (tranzystory, diody) i SO (układy scalone) stosowane są końcówki typu skrzydło mewy (rys. 4.3b), a do obudów typu nośnik struktury końcówki monta­żowe typu J (rys. 4.3a). Do części układów stosowane są również proste końcówki montażowe płasko przylegające do pól lutowniczych w postaci taśm. Wymiary obudów i konstrukcja końcówek montażowych powodują, że zmniejszeniu uległa również wysokość elementów.

Obecnie stosowane są trzy typy obudów do tranzystorów i diod (rys. 4.2):

Obudowa SOT89 posiada elementy konstrukcyjne, metalowe, zwiększające spraw­ność odprowadzenia ciepła.

Obudowa SO przeznaczona dla układów scalonych o liczbie końcówek montażo­wych 8, 14, 16 i 18, charakteryzuje się mniejszymi wymiarami i końcówkami mon­tażowymi typu skrzydło mewy z podziałką co 1,27 mm.

W tablicy 4.1 zestawiono wymiary oraz powierzchnie zajmowane przez obudowy typu DIP (montaż przewlekany) i SO (montaż powierzchniowy), podano również wagi tych obudów [4].

Obudowy typu nośnik struktury, w których końcówki montażowe (typu J) są roz­mieszczone wzdłuż wszystkich jej boków, zapewniają zmniejszenie podziałki roz­mieszczenia końcówek montażowych do 1,27 mm oraz skrócenie drogi sygnałów w obrębie obudowy oraz zmniejszenie dysproporcji między ścieżkami najdłuższymi i najkrótszymi. Zmniejszeniu ulega rezystancja, pojemność oraz indukcyjność ścieżek (około 8 razy). Na rys. 4.5 przedstawiono wygląd oraz wymiary obudowy typu nośnik struktury [4].

20) Metody lutowania elementów

Podczas lutowania elementy przez czas co najmniej 2...3 s znajdują się pod działaniem wysokiej temperatury, np. 260°C. Muszą więc być odporne na działanie temperatury. Przy konstrukcjach pierwszych elementów bezkońcówkowych stwier­dzono, że warstwy metali (stop cyna-ołów, srebro) stosowane jako wyprowadzenia tych elementów ulegały rozpuszczeniu, a to było powodem uszkodzeń warstwy rezystywnej. Obecnie elementy te są konstruowane z trzema kolejnymi warstwami, jak pokazano na rys. 4.4.

Przy montażu powierzchniowym stosowane są dwie metody lutowania:

Lutowanie na fali

Operacja lutowania na fali pojedynczej najczęściej realizowana jest za pomocą urządzeń, które umożliwiają przeprowadzenie wszystkich czynności związanych z wykonaniem połączenia, a mianowicie:

Płytka drukowana z przyklejonymi elementami (odwrócona elementami do dołu) przesuwa się na specjalnym wózku ze stałą prędkością nad kolejnymi stano­wiskami. Topnikowanie wykonywane jest metodą pionową lub falową, rzadziej metodą natryskową, płytka podgrzewana jest wstępnie do temperatury 80°...95°C za pomocą nadmuchu gorącego powietrza lub grzałek elektrycznych. Celem podgrze­wania jest odprowadzenie nadmiaru rozpuszczalnika z topnika częściowe jego uaktywnienie oraz wstępne (wolne) podgrzanie elementów zabezpieczające je przed szokiem termicznym przy zetknięciu się z ciekłym lutowiem.

Proces lutowania jest realizowany w momencie przesuwania płytki druko­wanej z przyklejonymi elementami przez wierzchołek fali. Wózek transportujący płytkę drukowaną jest ustawiony w stosunku do poziomu pod niewielkim kątem od 5° do 8°, co zapewnia prawidłowe obmywanie elementów przez falę oraz zapobiega tworzeniu się sopli i mostków. Po lutowaniu płytki drukowane są studzone, np. przez nadmuch powietrzem, co sprzyja powstawaniu struktury drobnoziarnistej lutu i hamuje wzrost faz międzymetalicznych.

Przy lutowaniu na pojedynczej fali może powstawać efekt tzw. cienia, powodujący nie zwilżenie pól lutowniczych i końcówek montażowych, jeżeli pola lutownicze są zbyt małe, a fala zbyt laminarna.

Montaż na fali pojedynczej stosowany jest do montażu powierzchniowego tylko przy małych gęstościach upakowania. Zwykle stosowana jest metoda z falą podwójną lub falą podwójną i nożem powietrznym.

Metoda lutowania na fali podwójnej polega na przejściu płytki drukowanej z przyklejonymi elementami przez dwie kolejne fale: falę turbulentną i falę laminarną. Fala turbulentna zapewnia dokładne zwilżenie końcówek montażowych i pól lutowniczych, bez efektów cienia, przy założeniu, że wysokość elementu po przy­klejeniu jest mniejsza od 4...5 mm. Fala laminarna usuwa nadmiar lutu. Czasami stosowany jest jeszcze nóż powietrzny (strumień gorącego powietrza) w celu usu­nięcia nadmiaru lutu z łączonych powierzchni i mostków powstających np. między równolegle prowadzonymi ścieżkami.

Do wad lutowania na fali zalicza się np. powstawanie sopli, mostkowanie, odwilżanie, zimne luty, puste otwory itp.

Lutowanie rozpływowe

Metody lutowania rozpływowego są uważane za najlepsze. Lutowanie rozpływowe polega na dostarczeniu do płytki drukowanej. na której zostały umieszczone elementy na polach lutowniczych pokrytych warstwą lutowia z klejem, odpowiedniej ilości energii cieplnej potrzebnej do roztopienia lutowia. Jak już wspomniano, meto­dy lutowania rozpływowego według sposobu dostarczania energii, można podzielić na: radiacyjne, kondensacyjne, konwekcyjne, konduktancyjne i laserowe. W prak­tyce najczęściej stosowane są dwie pierwsze wymienione metody.

W metodzie radiacyjnej stopienie i rozpłynięcie pasty lutowniczej następuje pod wpływem nagrzewania promieniami podczerwonymi. 11ość energii pochłanianej zależy od rodzaju materiału, z którego wykonane są obudowy elementów przezna­czonych do montażu powierzchniowego i od natężenia strumienia promieniowania. Metody kondensacyjne polegają na lutowaniu w parach nasyconych cieczy. Metody te są uważane za najlepsze, ponieważ zapewniają [1]:

- bardzo dokładną, ściśle kontrolowaną i stosunkowo niską temperaturę luto­wania, np. 215°C,

- krótki czas lutowania,

- stosowanie past z matą ilością topnika,

- prowadzenie procesu lutowania w atmosferze ochronnej.

Pozostałe metody lutowania rozpływowego mają ograniczony zakres zastosowania, przykładowo metoda konwekcyjna, w której wykorzystuje się strumień gorącego gazu, jest stosowana przy naprawach pytek drukowanych, a metody konduk­tancyjną (z specjalnymi nagrzewanymi narzędziami tzw. termodami) do lutowania lub wymiany układów scalonych w obudowach płaskich. Lutowanie z użyciem lasera jest idealną metodą do lutowania pojedynczych elementów do montażu powierzchniowego, które są wrażliwe na działanie wysokich temperatur [1].



Wyszukiwarka

Podobne podstrony:
pitr spiral, sciaga nr2, 1)
pitr spiral, spis wszystkich ściąg, 1
pitr spiral, ściąga domin, 1
pitr spiral, ściąga domin tuning, 1
pitr spiral, spir-ść, 1
pitr spiral, ściąga domin tuning, 1
pitr spiral, spir-ść, 1
pitr spiral, sciaga nr1i2 spis, 1
pitr spiral ~$iaga nr1
pitr spiral, ściąga czopas, 1
pitr spiral, opracowanie czopasa, 1
pitr spiral, sciaga nr2 spis, 5)Ekranowanie
pitr spiral, spiiral 1, 1
pitr spiral, ściąga domin tuning - spis, 1
pitr spiral, spiral10, 1) Rodzaje zakłóceń (źródła)
Bakterie spiralne do druk
Trichinella spiralis
Trichinella spiralis

więcej podobnych podstron