Użyteczność, Użyteczność serwisów www


Użyteczność (informatyka)

Użyteczność (ang. usability) - własność produktów decydująca o ich jakości użytkowej. Pojęcie to odnoszone jest najczęściej do interaktywnych urządzeń, aplikacji oraz stron internetowych (jako web usability).

Definicje

Norma ISO 9241 z 1998 definiuje użyteczność jako miarę wydajności, efektywności i satysfakcji użytkownika z jaką dany produkt może być używany dla osiągnięcia danych celów przez danych użytkowników w danym kontekście.

Jakob Nielsen zdefiniował usability jako zbiór 5 elementów:

Sama użyteczność bywa używana wymiennie z user experience (UX), jednak w odróżnieniu od UX obejmuje ona tylko tę część kontaktu z produktem, dotyczącą bezpośredniego korzystania z niego.

Problemy z terminologią polską

Tłumaczenia niektórych pozycji anglojęzycznych używają w znaczeniu usability słowa "funkcjonalność" Termin "użyteczność" wynika z chęci upodobnienia terminów polskich do angielskich, choć jest też tłumaczeniem innego angielskiego słowa utility. "Funkcjonalność" bywa jednak rozumiana jako określenie ilości funkcji, opcji czy możliwości danego programu/strony WWW, a "użyteczność" jako łatwość korzystania z tychże funkcji.

Pojawiały się też propozycje tłumaczenia określenia usability jako używalność, co pozwoliłoby to zarówno na zgodność z angielskim nazewnictwem jak i zachowanie terminu zgodnego polskim rozumieniem tego słowa.

Charakterystyka ISO 9126: Łatwość utrzymania

Zastanawialiście się kiedyś jakie są koszty utrzymywania systemów (czyli naprawy błędów, dodawania brakujących wymagań, itp.)? Ta strona bardzo ładnie zbiera i prezentuje różne wyniki badań w tym zakresie. Jak widzicie niektóre badania pokazuję, że koszty utrzymania systemów potrafią przewyższać nawet 90% kosztów całego systemu. Może warto więc już w czasie zbierania wymagań zastanowić się nad wymaganiami dotyczącymi łatwości utrzymania systemu, tak aby koszty później były jak najmniejsze. Z pomocą przychodzi nam kolejna charakterystyka ISO 9126, która definiuje następujące podcharakterystyki:

Warto jest zastanowić się, czy mamy jakieś wymagania obejmujące powyższe podcharakterystyki. Może nam to pomóc ustrzec się przed późniejszymi problemami z utrzymaniem tworzonego systemu.

Eye tracking

 

Sekcja ta poświęcona jest zastosowaniom urządzenia do śledzenia ruchów gałek ocznych (eye tracking) w badaniach użyteczności oprogramowania i stron internetowych.

Instytut Organizacji i Zarządzania Politechniki Wrocławskiej dysponuje urządzeniem umożliwiającym śledzenie, rejestrację i analizę aktywności wzrokowej. W ramach Laboratorium Jakości Oprogramowania istnieje możliwość wykonania badań użyteczności aplikacji użytkowych, gier komputerowych czy też stron internetowych przy użyciu tego urządzenia.

Pierwsze badania
Próby wykonywania pierwszych badań śledzących i rejestrujących aktywność wzrokową człowieka przeprowadzono już ponad 100 lat temu. Stosowane wówczas metody były jednak bardzo inwazyjne ze względu na konieczność bezpośredniego mechanicznego kontaktu z rogówką oka.

Pierwsza nieinwazyjna metoda została zaprezentowana w 1901 roku przez Dodga i Cline'a i wykorzystywała odbicie światła na rogówce. Metoda ta umożliwiała wówczas rejestracją pozycji gałki ocznej wyłącznie w poziomie.

Bardzo popularne obecnie urządzenia montowane na głowie osoby badanej zostały wynalezione przez Hartridga i Thompsona w roku 1948, a w 1958 roku powstał pomysł nałożenia ruchów oczu na obraz z kamery przekazującej pole widzenia badanego.

W kolejnych latach pracowano nad udoskonalaniem istniejących rozwiązań i rozwojem innych technologii rejestracji aktywności wzrokowej człowieka (zob. Technologie śledzenia ruchów gałek ocznych).


Zastosowanie w HCI
Pierwsze badania związane z obserwacją aktywności wzrokowej podczas interakcji człowieka z maszyną można przypisać Fittsowi, Jonesowi i Miltonowi, którzy już w roku 1950 analizowali zachowanie się pilota w kokpicie samolotu.

Kolejne prace z zakresu użyteczności doprowadziły do uzyskania licznych wskaźników uzyskiwanych przy użyciu systemów do śledzenia i rejestracji ruchów gałek ocznych. Wskaźniki te mogą pomagać w obiektywnej ocenie jakości użytkowej interfejsów komputerowych.

Interakcja człowiek-komputer (ang. human-computer interaction, HCI) - wzajemne oddziaływanie pomiędzy człowiekiem a komputerem, zachodzące poprzez interfejs użytkownika.

W krajach anglosaskich mianem human-computer interaction określa się też interdyscyplinarną naukę zajmująca się projektowaniem interfejsów użytkownika oraz badaniem i opisywaniem zjawisk związanych z używaniem systemów komputerowych przez ludzi.

Technologie

Obserwacja bezpośrednia
Analiza na bieżąco ruchów gałek ocznych przez człowieka jest najprostszą i najtańszą z metod jednak najmniej dokładną.

Inwazyjne metody mechaniczne
Były to jedne z pierwszych metod służących do rejestracji ruchu oczu. Jedna z metod należąca do tej grupy polegała na przymocowaniu nici lub drutu do płytki metalowej nałożonej na gałkę oczną osoby badanej.

Filmowanie aktywności wzrokowej
Najnowocześniejsze systemy do śledzenia ruchów oczu opierają się na obrazach wideo gałki ocznej. Urządzenia rejestrujące umieszcza się albo bezpośrednio na głowie osoby badanej lub zdalnie np. na biurku. Przekazywany obraz jest następnie poddany obróbce cyfrowej pozwalającej na późniejszą analizę zapisu aktywności wzrokowej.

Elektrookulografia
Zasada działania tej metody opiera się na badaniu różnicy potencjałów elektrycznych pomiędzy dwiema stronami gałki ocznej.

Metoda fotoelektryczna
W metodzie tej korzysta się ze zjawiska zmiany intensywności światła odbitego od rogówki podczas ruchu gałki ocznej.

Badanie użyteczności

ASL Eye Track 6000 - urządzenie do śledzenia ruchów gałek ocznych zakupione przez Instytut Organizacji i Zarządzania Politechniki Wrocławskiej zakupione na potrzeby Laboratorium Jakosci Oprogramowania.

Przykłady analiz
Przykładowe analizy wybranych stron www Politechniki Wrocławskiej zostały wykonane przy użyciu oprogramowania GazeTracker firmy EyeResponse w oparciu o dane zebrane za pomocą urządzenia Eye Track 6000 firmy ASL.

Zdjęcie 1. Wykres prezentujący rozkład fiksacji, ich czasy oraz kolejność nałożone na zrzut ekranowy badanej strony internetowej.

Film 1. Trójwymiarowy wykres słupkowy przedstawiający procentowy udział czasów skupienia uwagi na określonych obszarach zainteresowań (ang. Area of Interests) na badanych pojedynczych podstronach.

Film 2. Trójwymiarowy wykres konturowy pokazujący rozkłady czasów fiksacji na badanych pojedynczych podstronach.

Film 3. Zapis wideo zarejestrowanej aktywności wzrokowej osoby badanej nałożonej na obraz serwisu internetowego.

KLM - Keystroke-Level Model

Charakterystyka
Keystroke-Level Model jest jedną z metod szacowania wydajności systemu człowiek-komputer, opracowanych na gruncie psychologii inżynieryjnej. Zostala ona zaproponowana przez Carda, Morana i Newella w roku 1980. Jej idea polega na dekompozycji zadania na najprostsze podzadania - akcje typu naciśnięcie klawisza, przemieszczenie kursora czy aktywacja przycisku graficznego, które z kolei znajdują odzwierciedlenie w zbiorze stosowanych w metodzie operatorów. Do poszczególnych operatorów przypisane są średnie czasy wykonania, uzyskane z danych eksperymentalnych; zsumowanie tych czasów cząstkowych daje w wyniku szacunkowy średni czas potrzebny na wykonanie zadania.

Zalety
Do głównych zalet Keystroke-Level Model należy zaliczyć prostotę obliczeń związanych z estymacją oraz możliwość oceny interfejsu, który nie został jeszcze zaimplementowany. Obliczenia sprowadzają się do sumowania czasów cząstkowych i jeśli tylko zadanie zostanie zdekomponowane w sposób prawidłowy, to można oczekiwać miarodajnych wyników. Możliwość oceny interfejsu, który nie posiada implementacji czy nawet modelu wynika z faktu, ze w opisywanej metodzie wymagane jest jedynie jego sprecyzowanie do takiego stopnia, by kolejność akcji potrzebnych do wykonania danego zadania była jednoznaczna.

Ograniczenia
Należy pamiętać, że metoda KLM zakłada przeprowadzenie zadania w sposób bezbłędny lub bez poprawiania potencjalnie popełnionych błędów. W przypadkach skomplikowanych, wieloetapowych zadań czy interfejsów ułatwiających popełnienie pomyłki, wyniki uzyskane z jej pomocą nie są wiarygodne. Podobnie na wiarygodność wyników wpływa poziom zaawansowania użytkowników, którzy mieliby pracować na rzeczywistym systemie. Im jest on niższy, tym trudniej przewidzieć reakcje użytkownika, przez co czasy uzyskiwane na kolejnych etapach zadania mogą dalece odbiegać od średnich przypisanych operatorom metody. Dlatego zakłada się, że obsługą będą zajmować się co najmniej średniozaawansowani użytkownicy.

Analiza zadaniowa

Charakterystyka
Analiza zadaniowe jest jednym z podstawowych podejść do racjonalnego kształtowania interfejsu człowiek-komputer. Podejście to polega, ogólnie rzecz biorąc, na dopasowaniu interfejsu użytkownika do zadań na tym interfejsie wykonywanych. Wśród konkretnych technik na uwagę zasługują zwłaszcza propozycje ilościowych ujęć owego dopasowania. Jedno z takich podejść, zaproponowane przez Searsa w 1993 polega na zastosowaniu algorytmu optymalnego rozmieszczania obiektów do poszukiwania najlepszego rozmieszczenia elementów interfejsu.

Definiowanie zadań
W pierwszym kroku analizy niezbędne jest określenie najistotniejszych (kluczowych) zadań realizowanych w danym oknie. Zadania muszą być zdefiniowane za pomocą sekwencji działań (czynności) wykonywanych na obiektach interfejsu. Trzeba także zdefiniować częstotliwość poszczególnych sekwencji (zbadaną lub przynajmniej przewidywaną).

Optymalizacja rozmieszczenia
Optymalizacja rozmieszczenia obiektów polega ogólnie na takim wzajemnym umiejscowieniu tych obiektów aby minimalizować funkcję kryterium odzwierciedlającą w pewien sposób 'koszt obsługi' całego układu. W przypadku interfejsu takim wskaźnikiem może być na przykład łączna droga wskaźnika myszy w trakcie normalnej pracy z systemem albo też ilość tzw. fiksacji oczu czyli koniecznych przeniesień kierunku patrzenia w trakcie obsługi interfejsu. Sears zaproponował jako syntetyczny miernik jakości okna dialogu wartość średnią ID, czyli wskaźnika trudności ruchu ze znanego Prawa Fittsa.

Projektowanie menu

Charakterystyka menu
Menu jest prawdopodobnie najpowszechniej stosowaną formą organizacji programów komputerowych. Mimo braku formalnej definicji można powiedzieć, że menu to zestaw opcji wyświetlanych na ekranie, bądź wyróżnionych na podobnym urządzeniu do wprowadzania danych, przy czym wybór każdej opcji zmienia stan, w jakim znajduje się system informatyczny.

Ponieważ komunikacja człowieka-użytkownika z komputerem coraz częściej staje się wąskim gardłem na drodze osiągania efektywności systemów komputerowych, projektowanie optymalnych struktur menu jest coraz ważniejszym elementem profesjonalnego programowania. Oczywiście pojęcie optymalne menu jest nieostre, a optymalność interakcji człowieka z komputerem może być mierzona wieloma różnymi kryteriami.

Porównanie menu z komendami

Ponieważ tryb stosowania komend jest szybszy, ale wymaga większego zasobu wiedzy oraz dostarcza mniej pomocnych informacji, komendy powinny być lepszym rozwiązaniem dla doświadczonych użytkowników, a menu - dla początkujących.

Niestety, mimo intuicyjnej oczywistości powyższego zestawienia wyniki licznych badań bardzo często są ze sobą sprzeczne. Wydaje się, że rozwiązania te są bardzo mocno uwarunkowane kontekstem konkretnej sytuacji, tzn. rodzajem programu i charakterystyką jego użytkownika.



Wyszukiwarka

Podobne podstrony:
Użyteczność stron WWW
teksty z serwisow www prezentacje org
kurs usability efektywne i intuicyne serwisy www ZKDTBEZK7XVMFTLW4QCYGTCYKVD5VZ524RGHYGQ
Zagadnienia do przygotowania na zaliczenie wykładu Projektowanie Serwisów WWW, Informatyka WEEIA 201
teksty z serwisow www prezentacje org
Profesjonalny serwis WWW
kurs usability efektywne i intuicyjne serwisy www poradnik ebook BA4SM4JNJN2TQ4N4UFU4VEAC55GG7D2BD
Projektowanie serwisów WWW Standardy sieciowe Wydanie III
teksty z serwisow www prezentacje org
Profesjonalny serwis WWW 2
INTERNET Tworzenie serwisów WWW Dźwięk
Profesjonalny serwis WWW

więcej podobnych podstron