czwartek, 30 lipca 2015

Internet jako narzędzie Public Relations - Praca Magisterska - część 4

If you're looking for high-quality herbs and spices, you won't want to miss our online store based in the UK www.herbcoast.co.uk


Internet jako narzędzie Public Relations - Praca Magisterska - część 4


Przeglądarki w procesie wyszukiwania i interpretowania informacji sieciowych, korzystają z protokołów i układów adresowych.
Dostęp do informacji zgromadzonych na serwerach internetowych ,w zależności od typu usługi, przeglądarki uzyskują za sprawą zastosowania swoistego dla danego typu usługi zbioru zasad komunikacyjnych (protokołu). Przeglądarki mogą komunikować się z serwerami przy użyciu następujących protokołów :
  1. HTTP(Hypr Text Transfer Protocol)-Służy do transmisji hipertekstu w sieciach komputerowych.
  2. FTP(File Transfer Protocol)-Przeznaczony jest do transferu plików.
  3. GOPHER- Umożliwia dzielenie się informacjami przy wykorzystaniu systemu menu , dokumentów i połączeń z sesjami TELNET.
  4. NEWS- (Network News Transfer Protocol, NNTP) – Jest to protokół do dystrybucji wiadomości w systemie Usenet. Usenet nie jest siecią komputerową, lecz systemem dla przekazywania opóźnionych w czasie wypowiedzi tekstowych pomiędzy współpracującymi ze sobą komputerami.
Adres odnoszacy się do konkretnego zasobu w internecie określa się jako URL (Uniforme Resource Locator). URL oparty jest o składnię określającą możliwy sposób uzyskania zasobu. Adres URL zawiera ścieżkę dostępu do dokumentu oraz inne informacje np:rodzaj protokołu (uzależniony od typu usługi):


  • Http://www.sci.pl - adres ten odnosi się do komputera sieciowego na którym zainstalowany jest serwer WWW obsługujący domenę sci.pl . Wpisanie tego adresu do przeglądarki przyniesie efekt w postaci załadowania oraz wyświetlenia przez program kliencki dokumentu hipertekstowego o czym świadczy początkowy fragment adresu warunkujący użycie protokołu HTTP.
  • Ftp://ftp2.qdnet.pl – ten URL odnosi się do serwera ftp.
  • News:pl.rec.amiga - Jest to URL odnoszący się do usenetowej grupy dyskusyjnej.
Jak już wcześniej napisałem, Internet jest globalnym systemem komunikacji i wymiany informacji . WWW można zasadniczo podzielić na dwie grupy obszarów komunikacyjno/informacyjnych :
-obszary komercyjne w skład których wchodzą między innymi : firmowe serwisy internetowe, handel elektroniczny czy biznesowe systemy wymiany danych .
-obszary niekomercyjne zawierające między innymi serwisy edukacyjne, studia i szkolenia online, internetową ewangelizację, strony organizacji rządowych czy non profit, a nawet akcje charytatywne(np. akcja „Pajacyk 2000’) i wiele innych.
Informacja w WWW najczęściej zorganizowana jest w plikach określanych mianem stron internetowych. Strony mogą zawierać trzy typy prezentacji danych:
-tekst zawirający znaki: litery alfabetu, liczby, wypunktowania itp.
-grafikę czyli tzw.clip arts , zdjęcia, ilustracje, wizualizacje 3d i inne statyczne elementy wizualne.
-multimedia czyli dźwięk, animacje , filmy wideo, przekaz wideo lub audio.
Poza danymi prezentowanymi na stronach WWW na ww. sposoby, serwisy WWW mogą też zawierać programy np.: reagujące na zachowanie odbiorcy strony.
Strony WWW magazynowane są na dyskach twardych komputerów działających jako serwery. Program kliencki(przeglądarka internetowa) wysyła do serwera żądanie wyświetlenia strony internetowej, ten odwołuje się do zasobów komputera, na którym jest zainstalowany i przekazuje przeglądarce kopie żądanych informacji. Przeglądarka interpretuje je i wyświetla w zaprogramowanej formie. Wyświetlenie i interpretacja informacji wysłanych przez serwer do przeglądarki odbywa się na komputerze klienta, czyli użytkownika przeszukującego zasoby sieci. Jeżeli do strony internetowej dołączony jest program, to bardzo często zdarza się, że użytkownik za pośrednictwem klienta, zdalnie uruchamia taki program na platformie serwerowej po czym serwer przesyła przeglądarce jedynie efekt działania takiego programu.
Od początku istnienia WWW liczba dostępnych stron WWW urosła do wielu milionów.
Użyteczność tak ogromnego zbioru danych byłaby zerowa gdyby użytkownicy WWW nie potrafili wypracować modyfikowalnego systemu wyszukiwania konkretnych informacji.

Jednym z często spotykanych sposobów wyszukiwania informacji jest korzystanie z tzw. linków- czyli znajdujących się w obrębie jednej strony WWW odnośników do innych, najczęściej o podobnej tematyce. Zdecydowanie najpopularniejszym sposobem magazynowania informacji o zasobach sieciowych oraz korzystania z tych informacji przy wyszukiwaniu konkretnych danych jest użycie tzw. internetowych systemów wyszukiwawczych . Wyszukiwarki internetowe są programami zintegrowanymi z ogromnymi bazami danych o zasobach sieci. Informacje w systemach wyszukiwawczych są najczęściej katalogowane tematycznie, a ich wyszukiwanie oparte jest o system słów kluczowych i operatorów (and, or itp.). Dodanie nowego hasła do bazy danych wyszukiwarki odbywa się zazwyczaj przez polecenie add przez wypełnienie odpowiedniego ekranowego formularza. Istnieje wiele różnych wyszukiwarek, np. Yahoo, Lycos, Altavista, Infoseek, HotBot, Google lub polska wyszukiwarka Wow (są to tylko rdzenne części ich nazw, np. pełny adres wyszukiwarki Yahoo ma postać - www. yahoo. com).
Na płaszczyźnie użytkowej korzystanie z internetu jest bardzo proste i nie wiąże się z wymogiem posiadania szerokiej, specjalistycznej wiedzy. Aby uzyskać dostęp do internetu przeciętny użytkownik powinien posiadać komputer wyposażony w modem lub kartę sieciową . Po uzyskaniu połączenia z siecią wystarczy uruchomić odpowiednio skonfigurowany program kliencki. Programami najczęściej wykorzystywanymi do korzystania z usług internetowych są Internet Explorer, Netscape Navigator, Outlook Express , Netscape Massenger , przy czym dwa pierwsze służą do przeglądania zasobów WWW zaś pozostałe są klientami usług pocztowych i Usenetu.
Na zakończenie tego krótkiego wprowadzenia, chciałbym jeszcze zwrócić uwagę na kilka cech Internetu, które sprawiają, że tak wyraźnie różni się on od innych środków masowego przekazu.
Pierwsza i w mojej ocenie najważniejszą cechą odróżniającą Internet od innych środków masowego przekazu jest interaktywność medium. Innymi słowy użytkownik ma duży wpływ na tryb wyświetlania żądanych informacji, ale też w środowisku WWW może bezpośrednio modyfikować zawartość np. stron WWW, dostosowując je do swoich potrzeb. Przykładem takiej interaktywności są serwisy WWW, zawierające programy uruchamiane przez użytkownika w trakcie korzystania ze strony. Użytkownik przekazuje takiemu programowi dane wejściowe(np. swój wiek) i otrzymuje odpowiednio obrobione dane wyjściowe( np. data urodzin).
Druga z omawianych cech Internetu to multimedialność . Internet nie posiada ograniczeń w dziedzinie formy przekazywanej informacji. Może to być tekst, ilustracje, dźwięk, obraz zarówno statyczny jak i ruchomy czy przekaz wideo analogiczny (w formie, nie technologii) do telewizyjnego.
Kolejną z cech jest ciągłość czasowa procesu nadawczego. Internet jest dostępny 24 godziny na dobę, 7 dni w tygodniu i 364 dni w roku.
Z reguły nie istnieją jakieś określone pory nadawania i materiał opublikowany w sieci jest na ogół dostępny o każdej porze dnia, przynajmniej przez jakiś czas.

Na koniec pragnąłbym wymienić jeszcze jedną bardzo ważną cechę Internetu : łatwość publikacji. Praktycznie każdy, bez długotrwałego przygotowania i wiedzy specjalistycznej może stworzyć prosta stronę internetową. Mając gotową stronę, jej publikacja w sieci i udostępnienie masowemu odbiorcy jest również bardzo proste i co najważniejsze – nie musi wiązać się z żadnymi nakładami finansowymi .
Internet jest medium (i zjawiskiem społecznym) które powstało i na przestrzeni 30 lat swego istnienia, ulegało przeobrażeniom w wyniku planowanych działań poprzedzonych pracą koncepcyjną. Innymi słowy najpierw zawsze była idea- postulat i to z reguły nietechniczny lecz społeczno-komunikacyjny(np: koncepcja ogólnoświatowego systemu dostępu do zasobów literackich XANADU), potem zaś rozwiązania techniczne konstruowane jako odpowiedź na ten postulat.
Można chyba bez cienia przesady powiedzieć, że historia Internetu jest historią wizjonerów.
Vannevar Bush, Ted Nelson, Tim Barners-Lee czy Marc Andreesen, to tylko niektóre z nazwisk ludzi, którzy swoimi koncepcjami z pogranicza informatyki, socjologii, psychologii czy filozofii przyczynili się do rozwoju sieci internetowej na płaszczyznach: technologicznej i społecznej. Kolejna część mojej pracy poświęcona jest ww. autorom i zawierać będzie ogólne omówienie historii Internetu.


3.3. Historia Internetu


Historia internetu zaczyna się właściwie w połowie lat sześćdziiesiątych. Wtedy to powołana przez departament obrony rządu USA ,agencja ARPA (Advanced Research Projects Agency) przyjęła założenia budowy sieci komputerowej odpornej na atak atomowy . Koncepcja sieci ARPA zakładała, że będzie ona pozbawiona centralnego punktu kontroli i dowodzenia, przy tym ilość połączeń międzywęzłowych będzie na tyle duża, że uszkodzenie czy nawet zniszczenie części z nich nie wpłynie znacząco na funkcjonowanie całości.
Sieć ARPA zdecydowano się oprzeć o technologię pakietową (Pocket Switching), której głównym elementem było dzielenie przesyłanych informacji na pakiety , wysyłanie ich do miejsca docelowego różnymi „trasami” oraz tam składanie ich z powrotem w całość.
Pierwsza sieć ARPA powstała w 1969 roku poprzez połączenie czterech superkomputerów(jak na tamte czasy) i nadano jej nazwę ARPA-net. W 1973 roku sieć przekroczyła granice Ameryki i dołączono do niej pierwsze dwa komputery w Europie . Do roku 1979 Arpa- net powiększał się o około jeden komputer co3 tygodnie. Po raz pierwszy nazwy „Internet” użyli w 1974 Vint Cerf i Bob Kahn w artykule Transmission Control Protocol. W 1974 roku Ray Tomlinson stworzył program do przesyłania elektronicznych wiadomości w Internecie, wtedy też został wysłany pierwszy e-mail.
Pod koniec lat 70-tych zaczęto rozważać możliwości połączenia ARPA-net z innymi sieciami komputerowymi (internetingu). Osiągnięcie tego celu wymagało jednak stworzenia nowego zbioru przepisów przesyłania pakietów między różnymi sieciami. W 1983 roku stary zbiór przepisów(protokół) zwany NCP(network control protocol) zastąpiono nowym –działającym do dzisiaj :TCP/IP.
Początkowo nie istniał podział TCP/IP jednak z czasem w protokole wyodrębniono IP- odpowiedzialne za adresowanie oraz TCP- odpowiedzialne za pakietyzację.
Wraz z upływem czasu powstawało coraz więcej lokalnych sieci komputerowych opartych o protokół TCP/IP, wszystkie one były przyłączane do ARPA-net za pośrednictwem innych komputerów bramkowych(router).
Każdy nowy komputer w sieci otrzymywał swój unikalny numer IP.
W 1965 roku Ted Nelson po raz pierwszy użył pojęcia „hipertekst”. W znaczeniu Nelsona hipertekst jest tekstem nie ograniczonym do bycia sekwencją. Hipertekst miał łączyć dokumenty tak by stanowiły one siatkę relacji. Hipertekst zatem w założeniach miał rozszerzać strukturę dokumentów, dzieląc je na zdefiniowane fragmenty dostępne i nadające się do wykorzystania w wielu częściach dokumentu.
W 1989 roku Tim Barners Lee z Europejskiego Laboratorium Fizyki Cząstkowej(CERN) zaproponował społeczności fizyków stworzenie hipertekstowego systemu wymiany informacji. Barners Lee sformułował przy tym szereg postulatów dotyczących korzystania z systemu. Do najważniejszych należały te, w których każdy użytkownik powinien posiadać jednolity, w pełni kompatybilny z innymi systemami interfejs, pozwalający na równorzędny dostęp do informacji z wielu różnych komputerów.
Do końca 1990 roku w oparciu o propozycje Barnersa Lee stworzono i uruchomiono na komputerze NEXT prototyp systemu i interfejsu do jego obsługi (nazwany www).Po serii testów w obrębie sieci CERN interfejs www udostępniono społeczności fizyków 19 sierpnia 1991.
15 stycznia 1992 roku interfejs www stał się ogólnie dostępny, zaś jeszcze w tym roku CERN zademonstrowała sieć WWW (zbudowaną na bazie interfejsu www) naukowcom z całego świata. Do końca 1992 roku działało już 50 serwerów WWW. Na początku 1993 pojawiły się pierwsze bardzo jeszcze prymitywne przeglądarki zasobów sieci oparte o filozofię GUI(Graphical User Interface).
Wydarzeniem przełomowym w historii internetu i WWW wydaje się być powstanie w 1993 roku przeglądarki internetowej Mosaic , działającej w systemie unix/x window. Mosaic był efektem pracy zespołu kierowanego przez studenta Uniwersytetu Illinois w Urbana-Champaign Marca Anderseena. Do głównych zalet Mosaica należały ciekawe rozwiązania graficzne i prostota obsługi (point and click). Mosaic bez wątpienia przysporzył WWW wielu nowych entuzjastów, ale, co w mojej ocenie ważniejsze, stworzył także używany do dzisiaj standard wyglądu i funkcjonowania programów typu Web Browser. Pod koniec 1993 roku na całym świecie działało już ok. 500 serwerów sieci WWW. W 1994 Marc Anderseen wraz z Jimem Clarkiem założył firmę Netscape Communications Company . Błyskawiczny i spektakularny sukces finansowy Netscape skłonił wiele firm do inwestowania znacznych środków finansowych w internet.
W czerwcu 1994 roku działało już 1500 ogólnie dostępnych serwerów WWW.

Wzrost popularności WWW szedł w parze ze wzrostem celowości powołania instytucji nadzorującej stabilny rozwój internetu. Instytucja taka powstała z inicjatywy Massechusetts Institutte of Technology (MIT) oraz CERN i przyjęła nazwę World Wide Web organization(WWWO). Z czasem WWWO zmieniło nazwę na World Wide Web Consortium(WWWC) i przekształciło się w konsorcjum uniwersytetów i prywatnych firm, kierowane przez Laboratory for Computer Science (LSC)MIT przy współpracy z CERN i francuskim instytutem nauk informatycznych INRIA(Institute National de recherche en Informatique et en Automatique).
W roku 1995 nastąpiła gwałtowna komercjalizacja oraz rozwój technologiczny internetu .
Kolejne wersje przeglądarek www(Netscape oraz Microsoft) zawierały rozszerzone implementacje HTML oraz cały szereg narzędzi i elementów dodatkowych, usprawniających
i zabezpieczających transakcje gotówkowe. W maju 1995 roku istniało 15000 serwerów WWW a grono członków WWWC powiększyło się o takie firmy jak AT&T, IBM, MCI, Novell, Sun Microsystems i wiele innych.
W tym samym roku trzy największe firmy amerykańskie dostarczające usług sieciowych (głównie w obrębie własnych sieci) Prodigy, Compuserv i America Online udostępniły swoim użytkownikom WWW.
Wraz ze wzrostem liczby użytkowników WWW rosła też ilość zasobów informacji dostępnej w internecie . W kwietniu 1995 roku ilość skatalogowanych w Yahoo połączeń wynosiła 39000 wobec 100 - rok wcześniej.
W kolejnych latach nastąpiła prawdziwa ekspozja popularności internetu i WWW.
W przeciągu 7 lat od powstania WWWC, organizacja ta autoryzowała pięć kolejnych standardów HTML. Równolegle tysiące firm z całego świata wnosiły swój wkład do rozwoju technologicznego sieci na płaszczyźnie, sprzętowej (hardware) oraz programowej (software).
W Polsce o internecie możemy mówić od roku 1991 kiedy to powołany do życia został Zespół Koordynacyjny Naukowej Akademickiej Sieci Komputerowej(NASK).
Z wykorzystaniem funduszy Komitetu Badań Naukowych powstała pierwsza sieć szkieletowa IP. We wrześniu 1991 roku uzyskała ona przez Kopenhagę połączenie z siecią europejską a w grudniu 1991 również z siecią amerykańską. Do końca 1991 roku polska sieć IP miała kształt gwiazdy z centrum w Warszawie i za pośrednictwem kabli telefonicznych łączyła ośrodki akademickie z Krakowa, Warszawy, Torunia, Poznania, Łodzi, Lublina i Białegostoku.
W 1992 roku łącze Warszawa - Kopenhaga zostało zastąpione szybszym łączem satelitarnym, dodatkowo uruchomiono kolejne łącze naziemne do Wiednia. Szacuje się że w roku 1992 liczba użytkowników polskiej sieci internetowej wynosiła około 10 tysięcy, rok później było ich już 30 tysięcy, zaś w 1997 około miliona. Wraz ze wzrostem liczby użytkowników zwiększała się tez przepustowość łącz (Tabelka)

Dzisiaj internet ma ponad 300 mln. użytkowników i jest dostępny na całym świecie, przez sieci krajowe lub za pośrednictwem łącz satelitarnych. W dziedzinie techniki łączenia, sieci wykorzystują łącza kablowe miedziane i światłowodowe, łącza radiowe naziemne i satelitarne oraz ostatnio okablowanie pierwotnie służące dostarczaniu energii elektrycznej.

W dziedzinie oprogramowania, WWW wygląda dzisiaj już zupełnie inaczej niż w momencie swego powstania. Statyczne dokumenty hipertekstowe jakie królowały w pierwszych latach istnienia WWW zastąpione zostały przez dynamiczne, często bardzo zaawansowane programistycznie, serwisy www, Programiści tworzący serwisy www i usługi internetowe mogą korzystać z technologii html, dhtml, vrml, java, cgi, fash, shockwave, realaudio , realvideo i wielu innych. Internet udostępnia użytkownikom możliwość przesyłu danych w formatach tekstowych, dźwięku oraz obrazu wideo. Otwarta architektura przeglądarek internatowych(web browsers) pozwala na kolejne implementacje dodatków(plug ins) stale rozszerzających możliwości WWW.





If you're looking for high-quality herbs and spices, you won't want to miss our online store based in the UK www.herbcoast.co.uk

Brak komentarzy:

Prześlij komentarz