dc.description.abstract | Internet zmienił świat. Zmiana ta, polegająca na powszechnym dostępie
do informacji, okazała się na tyle istotną, iż już dziś mówi się o erze
przedinternetowej i erze informacji (internetowej). Sieć globalna w wielu
dziedzinach życia stała się pierwszym źródłem wiedzy. Stale rosnąca ilość
zasobów informacyjnych w Internecie spowodowała, iż najtrafniejszymi
określeniami, oddającymi jej specyfikę stały się pojęcia: ocean informacji,
infostrada lub cyberprzestrzeń, zaś okres, w którym nastąpił raptowny
wzrost owych zasobów zwykło się nazywać wiekiem eksplozji informacji.
Inną zmianą wynikającą z pojawienia się globalnego systemu informacji
jest możliwość dowolnego wyboru przeglądania dokumentów – niezależnie
od porządku, w jakim są one przechowywane i udostępniane.
Cecha ta jest charakterystyczna dla hipertekstu – systemu dokumentów
(węzłów) połączonych linkami, filaru niezwykle atrakcyjnej usługi World
Wide Web (globalna pajęczyna). Główną właściwością hipertekstu, przejętą
także przez WWW, jest możliwość nielinearnego czytania poszczególnych
dokumentów. Użytkownik (czytelnik) nie musi trzymać się porządku,
w jakim zorganizowano strony. Wybiera linki do węzłów, które go interesują.
Ta metoda odbioru tekstu kojarzy się raczej ze znajdowaniem drogi,
zwiedzaniem lub odkrywaniem tekstów.
Eksplozja informacji w Internecie przejawiała się przede wszystkim
w powstawaniu nowych serwisów, katalogów i portali, z których każdy
miał być lepszy od konkurencji. Po piętnastu latach od opracowania standardów
WWW można ocenić, iż priorytetem nie jest już samo istnienie
w sieci – na pierwszy plan wysuwa się jakość informacji, której konsumentem
jest użytkownik, klient czy też gracz (Nicholas 2001). Wyobrażenie
o milionach, może nawet miliardach dokumentów osadzonych w cyberprzestrzeni
rodzi obawy przed zjawiskiem niekontrolowanego rozwoju
informacyjnych śmieci, które Ryszard Tadeusiewicz nazwał „informacyjnym
smogiem” (Tadeusiewicz 2002, s. 124). Problem odnalezienia konkretnej
informacji, mimo powstawania nowych narzędzi wyszukiwawczych,
nie zmalał, można wręcz stwierdzić, iż efektywność odnajdywania
stron na zadany temat jest coraz niższa. Jednym z powodów takiego stanu
rzeczy jest niepewność, czy strony wskazane przez wyszukiwarkę wyczerpują
zasoby informacyjne na dany temat w sieci. Eksploracja tychże
zasobów postrzegana jest przez entuzjastów Internetu jako dostęp do niewyczerpanych
źródeł, przez antagonistów zaś jako poszukiwanie przysłowiowej
igły w stogu siana.
Geneza badań użytkowników serwisów internetowych związana jest
przede wszystkim z rozwojem elektronicznego handlu. Sklepy, banki, firmy
telekomunikacyjne i wielu innych usługodawców rozszerzyło swoją
ofertę z zamiarem pozyskania nowego źródła dochodów. Aby jednak czerpać
zyski z tej, wciąż jeszcze nowej, gałęzi biznesu konieczne są badania
sondażowe potrzeb i preferencji klientów, analizy profilów internautów,
pomiar ruchu w serwisie itp. Na podstawie uzyskanych wyników konstruowane
są dla konkretnej grupy odbiorców m.in. funkcjonalne systemy
nawigacji, szata graficzna oraz specjalne usługi. Przykładem może być realizacja
projektów przez Nielsen Norman Group (firmy projektującej serwisy
sieciowe na bazie analizy zachowań użytkowników) dla znanych marek,
jak np. IBM, Motorola i Visa. Metody i narzędzia badawcze stosowane
do badań dla potrzeb komercyjnych mogą być zastosowane także w przypadku
badania witryn o charakterze edukacyjnym i informacyjnym.
W pracy tej autor przedstawi rezultaty badań mających na celu scharakteryzowanie
strategii poszukiwania informacji przez użytkowników jednego
z edukacyjnych serwisów internetowych z uwzględnieniem m.in.
wpływu jego elementów składowych na zachowania wyszukiwawcze. | pl_PL |