Jurand B. Czermiński

Cyfrowe środowisko współczesnej biblioteki


Wydanie online poprawione i adaptowane do możliwości osób niewidomych
redagowane przez autora we współpracy z:


Waldemarem Chrzanem
Tomaszem Lenartowiczem
Zbigniewem Misiewiczem
Rafałem Połońskim
Marcinem Sochackim

Webmaster: Marcin Sochacki wanted@linux.gda.pl

Wersja  0.98

Poniższa tabela zawiera informację o fontach, przeznaczoną dla osób widzących.


Dla osiągnięcia efektu estetycznego zgodnego z intencjami autora zaleca  się dodatkowo zainstalować trzy następujące fonty:


Bitstream Cyberbit
(arabski, chiński, koreański i japoński),
TITUS Cyberbit Basic (cyrylica) oraz
Ezra SIL (hebrajski)

Poprawne odczytanie na ekranie wszystkich użytych
w tej pracy znaków wymaga zainstalowania fontów:

Arial Unicode MS
lub równoważnego

oraz
fontu kodu paskowego „3 of 9”.

Rekomendowane adresy do pobrania darmowych fontów:

3 of 9 TTF font                                       http://www.bizfonts.com/free/
TITUS Cyberbit Basic                             http://titus.fkidg1.uni-frankfurt.de/unicode/tituut.asp
Bitstream Cyberbit  Version 2.0      ftp://ftp.netscape.com/pub/communicator/extras/fonts/windows/
Ezra SIL                                                     http://www.sil.org/computing/fonts/silhebrew/

Lucida Sans Unicode oraz Arial Unicode MS dostarczane są wraz z produktami Microsoftu


UNIWERSYTET GDAŃSKI

GDAŃSK 2002

© Jurand B. Czermiński

Wszelkie prawa zastrzeżone.
Zastrzega się możliwość aktualizacji treści wersji online. Autor wyraża nieograniczoną zgodę na tworzenie lustrzanego (mirror) obrazu adaptowanej wersji do celów niekomercyjnych i przechowywania kopii pliku do celów osobistych.

Wersja drukowana tej książki dostępna jest bezpośrednio u Wydawcy:
Wydawnictwo Uniwersytetu Gdańskiego
81-824 Sopot, ul. Armii Krajowej 119/121
tel./fax (058) 550-91-37
e-mail: wyd@bg.univ.gda.pl
http://wyd.bg.univ.gda.pl

Książka niniejsza dedykowana jest

Prof. Dr Richardowi E. Quandtowi

z podziękowaniem za lata niezwykłej współpracy
w imieniu własnym i wszystkich tych, którzy dzielą te uczucia


Przedmowa do wydania online

Droga koleżanko, Szanowny kolego

Oddając Ci dzisiaj elektroniczną wersję cyfrową swojej świeżo wydrukowanej książki, spełniam moje marzenie sprzed wielu lat. Jest ona przeznaczona głównie dla osób niewidomych i niedowidzących. Wersja ta nie jest – i nie może być identyczna z wersją drukowaną. Oczywiście korzystać z niej mogą również osoby widzące, lecz dla nich będzie ona raczej niezbyt atrakcyjna z kilku różnych powodów, głównie o charakterze estetycznym. Postaram się je tu wypunktować tak, by osoba decydująca się na korzystanie z niej wiedziała co ją czeka i dlaczego. Oto wykaz tych cech:

  1. Podstawowy plik książki, w oryginale mający prawie 6,8 megabajta, celem minimalizacji rozmiarów i co za tym idzie – czasu transmisji, ma bardzo silnie zredukowaną liczbę ilustracji. W efekcie rozmiar pliku zmniejszył się ponad czterokrotnie i po kolejnym „odchudzeniu” winien osiągnąć poziom pojemności pojedynczej dyskietki. Dla osób niedowidzących pozostawiona została jednak opcja oglądania niektórych ilustracji obecnych w drukowanej wersji książki. Liczne z tych obrazków, których oryginały były większych rozmiarów, w wersji online są zmniejszone, ale po kliknięciu ściągane są na ekran w oryginalnej wielkości. Ilustracje, które są cyfrowym obrazem zdjęć, zostają w licznych przypadkach uzupełnione tekstowymi objaśnieniami ich zawartości. Ta polityka werbalizacji rysunków będzie kontynuowana i rozwijana
  2. W stosunku do czarnodrukowej wersji książki, występujące w oryginale tabele zostały zmniejszone do niewielkich rozmiarów, łatwiejszych do zapamiętania, a struktura ich została zwerbalizowana. Jednak liczba tabel w wersji online znacznie wzrosła. Było to wynikiem eliminacji prawie wszystkich (33) zrzutów ekranu i zastąpienia ich tabelami mającymi prawie identyczną zawartość tekstową oraz możliwie zbliżonymi cechami prezentacyjnymi (kształt, wielkość, kolor). W obecnej wersji tych tabel zredukowane, lub całkowicie wyeliminowane, zostały opisy menu pakietów oprogramowania. Zawartość takich tabel powinna być dostępna dla wszystkich popularnych w Polsce czytników ekranu i syntezatorów mowy. Jedyne ograniczenie może stwarzać zbyt skromna w chwili obecnej liczba dostępnych języków. Cenną innowacją jest wprowadzenie w kilku przypadkach (rysunki 39-41 oraz rysunek 43) formularzy, dających każdemu czytelnikowi wersji online daleko więcej informacji, niż ma to miejsce przy lekturze drukowanej wersji książki. Z myślą o osobach niedowidzących, korzystających z programowej lub fizycznej (soczewka Fresnela) metody powiększania obrazu, bez zmian została zachowana tabela opisująca alternatywną wizualizację tekstu. Natomiast dla osób niewidomych od urodzenia dodany został krótki ustęp pozwalający uzmysłowić sobie na czym polega idea kodu paskowego.
  3. Odsyłacze do dokumentów sieciowych i przypisów występują w postaci hiperłącza, co znacznie ułatwia nawigację po tekście. W chwili wstawiania na sieć wersji online wszystkie łącza zostały zaktualizowane i będą okresowo przeglądane
  4. Daleko idącej zmianie uległa typografia. Założenie, że dany tekst ma również czytać czytelnik niedowidzący, wymusza maksymalne jego uproszczenie. W szczególności należy ograniczyć kursywę oraz posługiwanie się kolorem, - nadto należy używać możliwie wszędzie font bezszeryfowy. Podjąłem wysiłki zmierzające do daleko idącego ograniczenia górnych i dolnych indeksów (choć nie wszędzie jest to możliwe). W końcu 2002 roku na świecie nie ma ani jednego fontu TTF obsługującego poprawnie cały tekst książki. Minimalnym zestawem fontów jest połączenie bezszeryfowego fontu Arial Unicode MS oferowanego na standardowych nośnikach Microsoftu razem z MS Office 2000 oraz MS Office XP połączony z fontem kodu paskowego „3 z 9”. Zastąpienie microsoftowskiego Ariala darmowym fontem TITUS Cyberbit Basic obsłuży poprawnie większość użytych w książce symboli za wyjątkiem jednego znaku zwanego antisigmą używanego w pierwszym paragrafie czwartego rozdziału. Niestety, ten font nie został do końca dobrze zaprojektowany i niektóre znaki na ekrenie nie wyglądają zbyt dobrze.
  5. Docelowo zespół redakcyjny będzie się starał zadość uczynić wszystkim zasadom przygotowania tekstu dla osób niewidomych, choć z pewnością nie nastąpi to natychmiast. W pierwszym podejściu nasz wysiłek skupi się na pracach zmierzających do poprawnego przełączania języków przez kilka wybranych kombinacji popularnych w Polsce czytników ekranów i syntezatorów.

Jednak wersja online okazuje też swoje wielkie zalety. Oto one:

Nakreślone zadanie jest doprawdy niemałe i nie przypuszczam, by za pierwszym pociągnięciem udało się je wykonać. Odważyłem się spróbować, bo mam grono wypróbowanych przyjaciół. Spośród nich Waldek, Tomek, Zbyszek, Rafał i Marcin zaofiarowali mi swą pomoc. Do pracy przystępujemy natychmiast, ale wszyscy razem będziemy nieustannie wsłuchiwać się w Wasz odzew, drodzy Czytelnicy. Będziemy wspólnie szlifować ten pierwotny materiał, czyniąc go coraz lepszym. A więc zaczynamy od dość surowej wersji, umieszczając ją na serwerze Biblioteki Głównej Uniwersytetu Gdańskiego praktycznie natychmiast po skatalogowaniu książki, integrując ten elektroniczny dokument cyfrowy z jej opisem bibliograficznym w katalogu online. W możliwie jak najkrótszym terminie pierwotną wersję w formacie HTML uzupełnimy alternatywną wersją w formacie DOC.
Poważnym problemem dla polskiego użytkownika syntezatorów mowy jest kodowanie języka. Tu nie może być prostego kompromisu. Znakomita większość używanych w Polsce syntezatorów mowy Apollo koduje polskie znaki diakrytyczne w starym standardzie przemysłowym Mazovia. Spolszczone czytniki ekranu przed wysłaniem znaków na port szeregowy przekodowują mikrosoftowski standard przemysłowy stosowany w Windows na Mazovię. Niestety, takie chwyty praktycznie zupełnie uniemożliwiają pracę w środowisku wielojęzycznym, zwłaszcza po wyeksportowaniu dokumentu do standardu Unicode w wersji UTF-8. Z tych względów podjęta zostałą decyzja, że format HTML będzie kodowany w standardzie Unicode/UTF-8 z przeznaczeniem dla osób widzących, niedowidzących oraz niewidomych posiadających syntezatory obsługujące ten standard. Dla osób posługujących się systemami wyposażonymi w syntezatory mowy wspierające Mazovię rekomendujemy plik w formacie DOC do czytania pod Wordem.
Proszę Cię Czytelniku, dziel się z nami swymi uwagami i pomysłami, a w miarę możliwości będziemy je sukcesywnie uwzględniać. Wszyscy zaczynamy wspólną przygodę, a w zakresie wydawnictw książkowych jest to raczej wydarzenie niezbyt często spotykane na świecie.
Podwójne wydanie tej książki: drukiem i w wersji online ma być zarazem zachętą i przykładem dla innych autorów i wydawców, że tego rodzaju zamierzenie jest całkowicie realizowalne w naszych warunkach. Jest to zarazem wyzwanie rzucone oporowi materii, pasywności, obawom i zahamowaniom. Jest to zaproszenie do nowego współzawodnictwa: kto zaofiaruje więcej, nowocześniej i ładniej, bez lęku o zmniejszenie własnych dochodów.

Jurand B. Czermiński
jurand@chemik.chem.univ.gda.pl

Wstęp

Motto:

Kiedy porównuję republikę grecką i rzymską z republikami amerykańskimi, rękopiśmienne biblioteki i prymitywny gmin tych pierwszych z potężną prasą i oświeconym ludem drugich, kiedy myślę o ogromnych wysiłkach, jakie się podejmuje, by podle Grecji i Rzymu osądzić Amerykę i za pomocą tego, co stało się dwa tysiące lat temu, przewidzieć, co może się stać dzisiaj, nachodzi mnie ochota, by spalić moje książki i oddać się poszukiwaniu całkiem nowych pojęć, które pozwoliłyby zrozumieć całkiem nową sytuację społeczną.

Alexis de Tocqueville, „O demokracji w Ameryce”, 1976, strona 216.

Szybki postęp sprawia, że niejeden czytelnik będzie podzielać cytowane powyżej głębokie myśli Tocqueville’a tak, jak podziela je i autor niniejszej książki. W pierwszej połowie lat dziewięćdziesiątych brał on czynny udział w budowie polskiego Internetu oraz wdrażaniu Virginia Tech Library System (VTLS) w polskich bibliotekach akademickich i miał okazję zetknąć się ze zjawiskami, które do bibliotek wniósł przełom technologiczny. Teraz podejmuje się niełatwego zadania próby opisania tego, co można by uważać za manifestację istnienia i funkcjonowania w bibliotekach jednej z form tak szanowanego w dzisiejszym świecie fenomenu, który nazywa się Wartością Dodaną (ang. Added Value). Do kanonu zasobów i usług bibliotecznych, od tysiącleci towarzyszących procesowi ludzkiego poznania, została ona dodana dopiero w ostatnich dekadach obecnej epoki szaleńczego wyścigu technologicznego. W dyskutowanym tu przypadku wartością dodaną jest środowisko cyfrowe integrujące wszystkie tradycyjne funkcje współczesnej biblioteki w jeden wspólny organizm, zgodny pod względem funkcjonalnym z kanonem powszechnie zaakceptowanych norm prezentacyjnych i komunikacyjnych.

Środowisko cyfrowe - tytułowy przedmiot rozważań książki - wbrew pozorom, jest pojęciem niezbyt łatwym do opisania. Będzie ono tutaj interpretowane jako zespół czterech systemów:

  1. bezpośredniego lub pośredniego (poprzez moduły rozpoznawania i konwersji) zapisu liczb,
  2. ich przetwarzania,
  3. transmisji
  4. prezentacji.
Za liczbę uważać się tu będzie ciąg symboli, zewnętrznie postrzegany jako konkatenacja elementów pewnego skończonego alfabetu, zwanego alfabetem cyfrowym, oraz pewnych dodatkowych znaków dopuszczanych przez arytmetykę systemu przetwarzania [1]. Wyselekcjonowana arytmetyka (liczb całkowitych, stałoprzecinkowych lub zmiennoprzecinkowych) definiuje zarówno składnię zapisu liczb, jak i jego semantykę. Styk świata nie-liczbowego ze światem liczb realizują systemy zapisu i prezentacji.

Zaimplementowane środowisko cyfrowe z jednej strony ma w sobie wiele powabu i dostarcza licznych przyjemności, z drugiej zaś niesie ze sobą wiele nieznanych dotychczas niebezpieczeństw, o skali do niedawna niewyobrażalnej. Zupełnie bezwiednie nasuwa się tu obraz apokaliptyczny [2]. Tempo zmian technologicznych jest jednak tak wielkie, że dzisiejsza Wartość Dodana stanie się Bezwartością Odrzuconą daleko wcześniej, niż jesteśmy to w stanie teraz przewidzieć. Jeśli za piętnaście lat ktoś przypadkiem będzie czytał te słowa, to być może zaduma się nad bezsensem inwentaryzacji złomu. Wystarczy zajrzeć do książki Ledley [1962], czy starszych wydań „Propedeutyki Informatyki” [Turski 1979], by się przekonać, że reprodukowane tam zdjęcia przedstawiają sprzęt już dawno nie istniejący. Przesłaniem tej książki nie jest sama inwentaryzacja stanu rzeczy, lecz próba opisu budowy niektórych ważnych prefabrykatów, używanych do budowy wyidealizowanego modelu. Prefabrykatów, które - jak klocki LEGO - mogą posłużyć przekształceniu konkretnej biblioteki do postaci społecznie przyjaznej, łatwej do modyfikacji, a przez to mającej cechy trwałości. Antycypując dalsze wywody autor ośmiela się wyartykułować swoje głębokie przeświadczenie, że technologia cyfrowa ulegnie trwałemu wbudowaniu w dorobek obecnego i - następnych pokoleń rodzaju ludzkiego. Jeśli coś z niej w przyszłości zostanie odrzucone, to wyłącznie jej poszczególne sprzętowe i programowe manifestacje. Jest jednak spora szansa, że nie zmienione przetrwają jej odpowiednio ogólnie sformułowane cechy. Bardziej przetrwa myśl/idea, niż jej materialny, chwilowy obraz. Prawdziwym przedmiotem analizy będzie jednak wpływ tej technologii na reakcje i przyzwyczajenia ludzkie, na komunikację społeczną.

Jeżeli nie będzie to specjalnie odróżnione, to pojawiające się w dalszym ciągu szersze terminy "technologia cyfrowa", "dokument cyfrowy" winny być utożsamiane z węższymi terminami "elektroniczna technologia cyfrowa" oraz "elektroniczny dokument cyfrowy". Autor wyraża ubolewanie, że powszechny brak precyzji w wypowiedziach dotyczących tej materii nie stwarza na przyszłość jakiejkolwiek nadziei na ujednolicenie obszarów znaczeniowych tej kategorii pojęć.

Prezentowana książka jest wielopłaszczyznowa i wielodyscyplinarna. Wynika to z profilu zawodowego autora, dla którego organizacyjna materia biblioteki stała się czwartym kolejnym zawodem po chemii, matematyce i sieciach komputerowych. W podjętym temacie zawarte będą zarówno opisy prac własnych o charakterze organizacyjnym, technicznym i koncepcyjnym, jak i rozważania na temat ważniejszych prac innych autorów w podjętym obszarze badawczym. W sensie klasyfikacji Gasparskiego [1981, strona 262], badania przeprowadzone w ramach pracy nad niniejszą książką w dominującym stopniu należą do grupy (a), ze szczególnym naciskiem położonym na podgrupę (a3), tzn. głównie obejmują metody posługiwania się narzędziami – a wśród tych ostatnich najwięcej uwagi poświęcono badaniu narzędzi intelektualnych i metod posługiwania się nimi. Jednakże w części implementacyjnej autor prowadził też badania ludzi i zespołów (podgrupa a1) oraz badania dotyczące relacji sterowania systemu nauki przez nadsystem (podgrupa d4). Faktyczny krąg badawczy jest więc szerszy, niż można by się spodziewać po głównym tytule książki. Nadmiarowość mieści się w przymiotniku „współczesnej”. Ta złożoność strukturalna z konieczności wprowadza urozmaicenie metodologiczne, jednak case study zawsze jest podporządkowane analizie morfologicznej, która jest traktowana jako nadrzędna.

Robocze tezy, które przyświecały podjętym badaniom i w ich trakcie podlegały weryfikacji:


Pewnym problemem był wybór metody badawczej. Powiązanie tradycyjnej, niejednokrotnie liczącej setki lat biblioteki, z nową technologią tworzy rzeczywistość o bardzo wysokim stopniu złożoności. Źródła tej złożoności zdają się tkwić w bogactwie tematycznym przechowywanej w bibliotekach materialnej spuścizny dziejów oraz w odmiennej naturze stykających się ze sobą światów. Styk heterogeniczny zawsze manifestuje swą niestabilność. Na uskokach tektonicznych występują ognie Św. Elma, przy przechodzeniu światła przez powierzchnię międzyfazową następuje załamanie fali, a przy przepływie prądu elektrycznego przez styk dwóch różnych przewodników występuje zjawisko Peltiera. Z tego względu dla opisania rzeczywistości, powstającej po wprowadzeniu nowych technologii do bibliotek, należy posłużyć się odpowiednio precyzyjnym narzędziem poznawczym. Dla potrzeb niniejszej pracy spośród licznych metodologii [Leclercq 1964] wybrana została metoda morfologiczna, opracowana w 1948 roku przez Fritza Zwicky, specjalistę od napędu rakietowego [Zwicky 1948]. W swej pracy proponuje on sześciopunktowe postępowanie:

  1. Sformułowanie problemu i jego możliwie niezwłoczne uogólnienie

  2. Analizę uogólnionego problemu i bliższe przebadanie istotnych parametrów, które mogą wpływać na jego rozwiązanie

  3. Schematyczne wydedukowanie zbiorowości rozwiązań uogólnionego problemu w kategoriach określających parametrów

  4. Określenie idealnej wydajności lub idealnej wartości rozwiązań w relacji do wydajności praktycznej, uwzględniającej nieefektywność i straty

  5. Wzajemne porównanie rozwiązań z uwagi na postawione cele i wybór rozwiązań najbardziej odpowiednich do realizacji

  6. Szczegółowa analiza, projekt i konstrukcja specjalnie wybranego rozwiązania, najczęściej wymagająca wtórnej (submorfologicznej) analizy



Tak więc jako klucz do niniejszej książki należy przyjmować budowę systemu cyfrowego i implikacje, jakie jego implementacja może mieć dla wdrażającej go biblioteki. Wybrana tu i dostosowana do tematu pracy metodologia w naturalny sposób narzuciła niniejszej książce dyscyplinę prezentacyjną. Z tego powodu komentarze teoretyczne zostały przyporządkowane poszczególnym blokom morfologicznym i umieszczone na ich końcach. I tu nastąpiło również zawężenie tematyczne. Celem zmniejszenia obciążenia tekstu technologią, rozważania te skoncentrują się tylko na dwóch aspektach: zasobach cyfrowych oraz komunikacji.

Materiał przedstawiony w dalszych rozdziałach został celowo ograniczony do obszaru ściśle związanego z potrzebami triady, która jest najbardziej zachowawczą częścią przestrzeni kultury i stanowi jej materialną pamięć: bibliotekami, archiwami i muzeami. Chociaż wpływ technologii cyfrowej na współczesne drukarstwo jest ogromny, wątek ten nie zostanie wpleciony do prezentowanego materiału. Czytelnik zainteresowany tym tematem może uzupełnić swoją wiedzę sięgając do artykułu Sowińskiego [2001] i bardzo sumiennie przygotowanej książki Bogdana Kamińskiego "Cyfrowy prepress, drukowanie i procesy wykończeniowe" [Kamiński, 1999].

Mimo znacznego udziału opisów technologicznych w niniejszej książce, nie stanowią one celu samego w sobie. To zaledwie środek do zrozumienia własności opisywanego środowiska i usprawnienia tego, co potrzebne człowiekowi i stworzonej przez niego instytucji - bibliotece. Z opisów tych wynikają liczne wnioski co do kierowania projektami bibliotecznymi. Zadaniem książki jest pokazanie obecnych możliwości technologii cyfrowej i zasygnalizowanie kierunku jej rozwoju wraz z implikacjami dla funkcjonowania bibliotek i komunikacji społecznej.

Treść książki podzielona została na siedem rozdziałów uzupełnionych niniejszym Wstępem oraz załącznikami, indeksami i bibliografią.

Pierwszy rozdział ma na celu krótkie zasygnalizowanie nowych wątków badawczych, zainspirowanych obrazem wpływu technologii cyfrowej na zachowania społeczne.

Drugi rozdział zawiera zarys dotychczasowych przemian technologicznych oraz przypuszczenia co do motywacji działań kluczowych partnerów współczesnych platform technologicznych. Ma to na celu pomóc obecnym i przyszłym dyrektorom bibliotek w wyrwaniu się z finansowego klinczu, do którego nieuchronnie zmierza polityka licencyjna twórców oprogramowania i koordynowane z nią zmiany w produkcji sprzętu.

Trzeci rozdział stawia sobie zadanie przedstawienie głównych elementów budowy systemu cyfrowego. Zamiarem autora nie było przeciążanie czytającego humanisty nadmiarem detali technicznych. Niezbędna jednak jest próba oswojenia Czytelnika z informacjami dotyczącymi dezaktualizujących się produktów, oraz nazwami tych, które dziś są dopiero w stanie rozwoju. W rękach bibliotekarzy ciągle jest znaczna moc decyzyjna w zakresie inwestycyjnym i nie było by dobrze, gdyby władze bibliotek były bezbronne wobec argumentów o nowinkach technologicznych, nie zawsze właściwej jakości, natrętnie oferowane w reklamach firm komputerowych. Zawsze należy wyposażać instytucję w sprzęt nowej generacji, zwracając jednak baczną uwagę na to, od kogo i co się kupuje. Aby zaspakajać potrzeby czytelnika współczesna biblioteka musi rozumieć jego potrzeby, jego marzenia i - nade wszystko - mówić jego językiem.

Czwarty rozdział - Zasoby cyfrowe - ma za zadanie pogłębić wiedzę bibliotekarzy o obecnych możliwościach współczesnych narzędzi środowiska cyfrowego. Rozdział ten to realna pomoc w stworzeniu lepszej, bardziej rynkowo atrakcyjnej formy oferowania usług biblioteki społeczeństwu.

Rozdział piąty, Dostęp do systemu, po krótkim zasygnalizowaniu nowych tendencji w wyszukiwaniu informacji (wyszukiwanie bayesowskie), koncentruje się na ciągle tak bardzo popularnym i w całym świecie i w Polsce, protokole Z39.50. Rozdział ten jest gruntownie przepracowaną wersją wcześniejszej publikacji autora, uwzględnia obecnie najnowszą wersję protokołu. Liczne ilustracje mają za zadanie spopularyzować tą technologię głównie w oddziałach informacji naukowej bibliotek, prezentując ją jako narzędzie alternatywne do protokołu HTTP.

Rozdział szósty poświęcony został komunikacji w systemach cyfrowych. Po dziesięciu latach od momentu zbudowania Polskiego Internetu, po zalewie rynku przez masę zarówno miałkich, jak i doskonałych publikacji na tematy internetowe, ciągle rysuje się potrzeba mówienia i pisania o sieci w coraz to inny sposób. Jest to kolejna próba opowiedzenia o tym tak ważnym aspekcie pracy współczesnej biblioteki, dla której stare znaczenie słowa „sieć” zupełnie się zmieniło.

Siódmy rozdział stanowi podsumowanie zarówno przemyśleń wypracowanych w trakcie pracy nad niniejszą książką, jak i konkretnych prac inwestycyjnych, wdrożeniowych i organizacyjnych przedsięwziętych przez autora w ostatnim dziesięcioleciu.

Głębokim przesłaniem książki jest próba skłonienia bibliotekarzy do zaakceptowania konieczności wejścia na drogę śmiałych innowacji. To próba zwrócenia uwagi, że innowacyjność nie polega na jednorazowym wprowadzeniu automatyzacji, czy skomputeryzowaniu biblioteki. Innowacyjność to proces ciągły, to nieustanna nauka, stałe nadążanie za zmieniającą się rzeczywistością. Przy zawrotnym tempie zmian technologicznych innowacyjność nie jest tylko miłym dodatkiem do pracy – jest absolutną koniecznością.

Bliższe i bardziej wnikliwe poznanie współczesnej technologii cyfrowej może pomóc niejednej bibliotece w skutecznym stawieniu czoła trudnym wyzwaniom współczesnej epoki. Dla bibliotekarzy wciąż stawianych przed nowymi wyzwaniami ważne jest uzyskanie informacji o tym, na co już w tej chwili może na pewno liczyć, co jeszcze nie jest gotowe, i jakie są potencjalne zagrożenia.

Zachowania i zmieniające się wymagania użytkownika systemu bibliotecznego będą przedmiotem uwagi, ale nie w głównym nurcie rozważań na łamach niniejszej książki. W minionych latach i obecnie były one wielokrotnie i obszernie analizowane przez licznych autorów zagranicznych i - w mniejszym wymiarze - krajowych. Spośród wydanych dawniejszych zagranicznych pozycji warto zacytować Licklidera [1970] i Lancastera [1982], z nowszych: Manna [1993], Crawforda i Gormana [1995], Graubarda i LeClerca [1997] oraz Raitta (ed.) [1997]. Spośród monografii w języku polskim z całą pewnością należy wymienić książki: Sitarskiej [1990], Grabowskiej [1995], Wojciechowskiego [1999], a już szczególnie serię wydawniczą Materiały Edukacyjne Bibliotekoznawstwa i Informacji Naukowej Uniwersytetu Jagiellońskiego pod redakcją Kocójowej. W tej ostatniej w zakresie tematycznym niniejszej książki mieszczą się szczególnie dwie ostatnie pozycje: "Użytkownicy informacji elektronicznej" [Kocójowa 2000] oraz "Elektroniczne publikacje w bibliotekach i ośrodkach informacji: teoria i praktyka" [Kocójowa 2001].

Zmiany postępują coraz szybciej i są nieuchronne. Trzeba się wsłuchać w ich wydźwięk i nie walczyć z tym żywiołem. Nadszedł czas grafiki i dźwięku. Te media niosą w sobie znacznie więcej informacji (binarnie) niż tekst pisany, który tak zdominował funkcjonowanie bibliotek przez minione stulecia. Bibliotekarz zbiorów specjalnych umiał sprostać zapotrzebowaniu wyrażonemu sformułowaniem: „poszukuję starej fotografii z panoramą Morskiego Oka i grupą 4 osób stojących po prawej stronie, wśród których jest kobieta w kapeluszu z dużym rondem”. Systemy cyfrowe stosowane obecnie w bibliotekach mają poważne problemy z realizacją takiego polecenia online, a specjaliści od katalogowania doskonale wiedzą dlaczego. Nie znaczy to jednak, że nie są znane algorytmy pozwalające automatycznie rozpoznać prawdopodobną płeć osoby na zdjęciu, jej strój oraz odzież. Wręcz przeciwnie - takie algorytmy są już obecnie wykorzystywane w telewizji przemysłowej do wykrywania osób o podejrzanym wyglądzie: terrorystów czy złodziei. Precyzja rozpoznawania rysów i budowy twarzy jest obecnie tak wysoka, że pozwala zaprogramować system, mający możliwość automatycznego uruchomienia procedury alarmowej przy rozpoznaniu podejrzanej osoby. Wykrycie tego rodzaju praktyk wzbudza obecnie liczne protesty obrońców praw człowieka. W tym jednak miejscu warto się zastanowić, ilu specjalistów od zbiorów specjalnych jest przygotowanych w polskich bibliotekach do szybkiego wprowadzenia metod indeksowania obrazu, oraz na jakim etapie rozwoju są w tej materii polskie przepisy katalogowania?

W miarę bogacenia się społeczeństwa zanikną biblioteki specjalne dla inwalidów. Od dawna obserwuje się wśród niewidomych spadek zainteresowania czytaniem książek napisanych pismem Braille’a na rzecz słuchania ich wersji elektronicznych przez syntezator mowy. Do tego przecież nie jest potrzebny kłopotliwy wyjazd do biblioteki, wystarczy komputer we własnym domu, dobrze znanym i odpowiednio zaadoptowanym. O ileż bardziej dotyczy to inwalidów na wózkach. Pójść na koncert, prelekcję, czy konferencję – to i owszem, ale do biblioteki – raczej nie! Po prostu chyba lepiej korzystać z zasobów bibliotecznych na odległość. Dla tej warstwy społecznej należy szybko budować cyfrowe wersje zasobów archiwalnych, ale też i z zaangażowaniem prowadzić wśród autorów akcję na rzecz udostępniania w sieci adaptowanych na potrzeby niewidomych (np. bez rysunków) wersji wydawanych podręczników akademickich. Konsekwentnie trzymając się przyjętej na wstępie metodologii, autor z żalem zrezygnował z zebrania w osobnym rozdziale tematów związanych z obecnością na sieci niewidomego użytkownika informacji elektronicznej.

Książka ta jest adresowana do osób, którym bliska jest sprawa efektywnego i powszechnego dostępu do informacji w najszerszym znaczeniu tego terminu; do czytelnika, który bez lęku wkracza w nieznaną przyszłość i ośmieli się sprostać wyzwaniu współczesności, mimo ogromu problemów stawianych przed śmiałkiem. Należy mieć nadzieję, że coraz więcej bibliotekarzy, zwłaszcza z młodszego pokolenia, będzie podejmowało studia interdyscyplinarne, nie zawężając swego wykształcenia do studiów humanistycznych. Uzupełniającą wagę czynnika poza-humanistycznego w nauce o informacji podkreślił ostatnio Windsor [1999]. Tylko taka postawa bibliotekarzy może w zasadniczy sposób zmienić wizerunek biblioteki w oczach współczesnego czytelnika - jakże często zgodny z pełnym głębokiego sarkazmu obrazem nakreślonym przez Umberto Eco [Eco 1993]. Na dalszych stronach tej książki podjęte zostaną ograniczone starania mające na celu ułatwienie przyswojenia nowoczesnych technologii w bibliotekach i systemach informacyjnych oraz wskazanie obecnych i przyszłych niebezpieczeństw wraz z propozycjami przeciwdziałania im.

Podziękowania

Motto:

1. Dziadkowi Werusowi zawdzięczam łagodność i równe usposobienie.
2. Dobremu imieniu ojca i pamięci o nim - umiłowanie skromności i charakter męski.
3. Matce - ducha pobożności i dobroczynności. I odrazę nie tylko do wyrządzania krzywdy, lecz także do myśli o niej. Nadto sposób życia prosty, daleki od zbytku ludzi bogatych.
4. Pradziadkowi - zawdzięczam to, żem do szkoły publicznej nie chodził, lecz miałem dobrych nauczycieli w domu; zawdzięczam mu też nabycie przeświadczenia, że powinno się na to nie żałować grosza.
5. Dzięki memu wychowawcy nie stałem się ani Zielonym, ani Niebieskim, ani zwolennikiem Okrągłych, ani Długich. On mnie nauczył wytrwałości w trudach i poprzestawania na małym, przykładania ręki do pracy i nie zajmowania się zbyt wielu sprawami na raz. On wpoił we mnie odrazę do wszelkiej potwarzy.
[ ...]
17. Bogom zawdzięczam, że miałem dobrych dziadków, dobrych rodziców, dobrą siostrę, dobrych nauczycieli, dobrych domowników, krewnych, przyjaciół, prawie wszystkich. [ ... ] Że me dzieci nie bez zdolności i nie kaleki. [...] I że mi sił fizycznych starczyło na tak ciężkie chwile w tak ciężkim życiu. [...] Że kiedy chciałem dopomóc w biedzie lub potrzebującemu innej jakiejś pomocy, nigdym nie słyszał, że nie mam na to środków, i że mnie nigdy nie przygniotła potrzeba podobna przyjęcia czegoś od kogoś innego. I że mam żonę taką, tak posłuszną, tak kochającą, tak prostą. [...]. Do tego bowiem wszystkiego potrzeba pomocy boskiej i szczęścia.

Marek Aureliusz, Rozmyślania, 2001, strony 11 do 18.

Lista osób, którym należało by w tym miejscu podziękować jest niezmiernie długa. Nie sposób wymienić wszystkich, którzy mają swój udział w powstaniu tej książki. Może się zdarzyć, że czyjś bardziej znaczący wkład zostanie tu pominięty. Słowa przeprosin kierowane są do wszystkich osób, które przez nieuwagę nie zostały tu wspomniane.

Po pierwsze, ta książka nigdy nie ujrzała by światła dziennego, gdyby nie serdeczna pomoc Prof. dr hab. Andrzeja Ceynowy, który jako Prorektor Uniwersytetu Gdańskiego ds. Nauki przez dwie kadencje wspierał wielopłaszczyznową działalność autora swoją zachętą i radą, służył swoim osobistym czasem - również w swoim domu; wreszcie z wielkim rozsądkiem współfinansował trudne, lecz strategicznie ważne projekty. Rola Jego jest nie do przecenienia i za to wszystko chciałem Mu w tym miejscu najserdeczniej podziękować.

Inicjatywę podjęcia się tej pracy autor zawdzięcza Prof. dr hab. Marii Kocójowej, która z wielką wytrwałością przez kilka lat zachęcała autora do prezentowania i publikowania swoich prac i wreszcie do zebrania ich w formie książkowego opracowania. Jej cenne uwagi, niezwykle szczegółowo i sumiennie wypracowane w recenzji wydawniczej pozwoliły zauważalnie poprawić pierwotną wersję tekstu.

Prof. dr hab. Joanna Rutkowiak oraz Prof. dr hab. Stanisław Wrycza zechcieli łaskawie rzucić okiem na pierwszą, surową wersję książki i podzielić się garścią trafnych komentarzy, które okazały się być cennym uzupełnieniem uwag zgłoszonych w recenzji wydawniczej.

Nie ma wątpliwości, że działalność autora na rzecz bud owy akademickich sieci komputerowych wyznacza zerowy punkt skali w jego pracy nad szeroko rozumianymi systemami informacyjnymi. Współuczestniczenie w procesie budowy zrębów Polskiego Internetu (http://kalendarium.icm.edu.pl) było wydarzeniem absolutnie porywającym, którego nie sposób zapomnieć. Na tej niwie autor wiele zawdzięcza Zastępcy Koordynatora Projektu RRI-14 Prof.dr hab.inż. Janowi Zarzyckiemu z Politechniki Wrocławskiej za dyskusje poprzedzające przygotowanie Memorandum NSZZ Solidarność do Prezydenta G. Busha w sprawie uchylenia embargo na sprzęt i oprogramowanie komputerowe dla Polski, wieloletniemu Dyrektorowi Technicznemu NASKu mgr inż. Andrzejowi Zienkiewiczowi za pokazową organizację ogólnopolskiego konsorcjum akademickiego, Dyrektorowi firmy Solidex dr inż. Zbigniewowi Skotnicznemu – którego osobistej energii zawdzięcza Polska import pierwszych routerów Cisco, a nade wszystko swoim kolegom z pierwszych galopów polskiego Internetu: dr Krzysztofowi Hellerowi, dr Maciejowi Kozłowskiemu oraz mgr Rafałowi Pietrakowi.

Pierwszym posunięciem, które wciągnęło autora w orbitę pracy bibliotecznej było zaproszenie go w 1991 r. przez ówczesnego Dyrektora Biblioteki Głównej UG, dr Jadwigę Łuszczyńską, do stworzenia projektu komputeryzacji BGUG; a po otrzymaniu grantu z Fundacji Mellona do kierowania nim. Choć wizje autora i Dyr. Łuszczyńskiej później się rozeszły, to z uwagi na to pierwsze otwarcie Jej też należy się specjalne podziękowanie.

Rozdziałem samym w sobie była możliwość pracy w projekcie finansowanym z funduszy Andrew W. Mellon Foundation, USA, i nadzorowanym przez Profesora dr Richarda E. Quandta, działającego jako Starszy Doradca (ang. Senior Advisor) Fundacji. Możliwość kilkuletniej, ścisłej współpracy z Jego niezwykłą osobą stała się źródłem kapitalnych inspiracji i pozostawiła niezatarte wspomnienia na całe życie. Jemu też ta książka jest dedykowana, jako skromny dar za udzielone nauki. Jest rzeczą jak najbardziej stosowną, by w tym miejscu poświęcić choć odrobinę miejsca Jemu osobiście i instytucjonalnie Fundacji Andrew W. Mellona, którym polskie biblioteki (zwłaszcza akademickie) zawdzięczają tak wiele. Uprzednio autor [Czermiński, 2000] poświęcił nieco uwagi naturze zarządzania grantami, podkreślając w konkluzji nieprzeciętną sprawność organizacyjną Fundacji Mellona, wyraźnie odbiegającą od innych fundatorów (Phare, OSI, Tempus, KBN, MEN). Prawdziwe wrażenie robiła elastyczność zarządzania, zawdzięczana jednosobowemu nadzorowi w osobie Profesora Quandta. Na ustosunkowanie się Fundatora do prośby o restrukturalizację wydatków czekało się nie więcej niż dzień, co w stosunku do wielotygodniowego oczekiwania na podobną decyzję Przewodniczącego KBN było po prostu porażające. Profesor Quandt okazał się być znakomitą syntezą szybkości i skuteczności działania z wstrzemięźliwością, stanowczości z taktem i powagi z dowcipem. Nie miał w sobie najmniejszych śladów niezłomnej pewności siebie, której można by się spodziewać po doradcy bardzo bogatej fundacji światowego mocarstwa. Nie musiał się spotykać z rektorami uczelni, całkowicie zadawalał się spotkaniami z niższej rangi urzędnikami. Dla niego ważna była Sprawa, w którą się zaangażował, a nie formy towarzyskie, czy zadęcie akademickie. Z uwagi na brak publikacji, która relacjonowała by ten krótki, acz intensywny, wycinek historii polskich bibliotek, autor zwrócił się do Profesora Quandta z prośbą o udostępnienie pewnych zbiorczych danych dotyczących nadzorowanych przez Niego projektów. Odpowiadając na pytanie autora co przyświecało Fundatorowi i jego doradcom, Profesor Quandt [2002] odpowiada: Jak długo mamy na uwadze „filozofię”, to naszym zamiarem była rewitalizacja instytucji akademickich. Zawsze wierzyłem, że powinniśmy pozostawać zaangażowani nawet po rozliczeniu grantu; innymi słowy, nie tak po prostu „wrzucić pieniądze w problem” i pójść sobie. To było widać na każdym kroku. Wsparcie dla polskich organizacji wystartowało w 1991, obejmując dwie główne kategorie: (1) uniwersytety oraz biblioteki uniwersyteckie i inne (Biblioteka Narodowa, PAN, Ossolineum, wojewódzkie biblioteki publiczne); (2) organizacje pozarządowe, takie jak Polsko-Amerykańska Fundacja Doradztwa dla Małych Przedsiębiorstw. Wielkoskalowe wsparcie praktycznie już jest zakończone. W czasie minionej dekady Fundacja łącznie wyasygnowała na wsparcie dla krajów rozwijających się 54 miliony USD, z czego na same tylko biblioteki regionu Centralnej i Wschodniej Europy przypadło 16,752 mln USD – w tym polskie biblioteki otrzymały 9,215 mln USD. Nieoczekiwana trudność, na jaką natrafili zachodni fundatorzy (nie tylko Fundacja Mellona) polegała na przecenieniu lokalnych, rządowych i pozarządowych możliwości finansowego wsparcia realizowanych projektów. Spodziewano się, że przejęcie fundowanych projektów przez lokalne rządy mogło by nastąpić po trzech, pięciu, - no 10 latach od ich rozpoczęcia. Rzeczywistość pokazała jednak, że nawet te oceny były dalece zbyt optymistyczne. W tych warunkach podziwu godna jest wierność Fundacji Mellona raz nakreślonym przez jej doradców zasadom [3] .

Wspaniałym doświadczeniem stała się dla autora organizacja konsorcjum akademickich bibliotek wdrażających VTLS (http://porozumienie.bg.univ.gda.pl/historia.html). W tym miejscu pragnie on podziękować osobiście tym przyjaciołom, którzy zaryzykowali z nim wspólnie tą niebywałą i - na owe czasy - pionierską przygodę. Wymienię tu chronologicznie: mgr Krzysztofa Wierzchowskiego, mgr Annę Paluszkiewicz i mgr Ewę Dobrzyńską - Lankosz, do których wkrótce dołączyły mgr Jadwiga Grzegorczyk i śp. mgr inż. Krystyna Knakiewicz-Mazurak, a następnie dr Grzegorz Nowak oraz Ks. dr Tadeusz Stolz. Zespół ten to pierwsza adhokracja [4] polskich bibliotek, która stała się rozpoznawalnym i znaczącym środowiskiem nawet dla wymagającego KBN. Funkcjonowanie tego zespołu nie byłoby jednak możliwe bez pełnej zrozumienia pomocy ze strony Dyrektorów Bibliotek, spośród których szczególnie pragnę wymienić dr Henryka Hollendra (BUW), dr Andrzeja Ładomirskiego (BUWr), oraz dr hab. Krzysztofa Zamorskiego (BJ). Współpraca ta zaowocowała całą serią bardzo potrzebnych bibliotekom projektów. Autor został zaproszony przez Dyrekcję Biblioteki UW do przygotowania ogólnego projektu systemu komputerowego i sieci dla nowo budowanego budynku BUW. Nieznana autorowi z nazwiska osoba zechciała go zaproponować na członka komisji bibliotecznej w Fundacji Batorego. Protekcja ta przyniosła natychmiast w darze bibliotekom uniwersyteckim w Warszawie, Krakowie i Wrocławiu tak w owym okresie bezcenne wyposażenie sieciowe umożliwiające fizyczne włączenie bibliotek do właśnie tworzonych akademickich sieci miejskich. Następnie autor kierował kilkoma projektami KBN na tworzenie katalogowych baz danych przez biblioteki VTLS oraz zakupy uzupełniających licencji oprogramowania bibliotecznego. W pracach tych uczestniczyło wiele osób i nie sposób wymienić tu wielkiego grona koleżanek i kolegów ze wszystkich bibliotek VTLS, których doświadczenie i wiedza nieustannie ubogacały autora. Wyrazy swej wdzięczności kieruje też autor do licznej grupy pracowników Biblioteki Narodowej w osobach ówczesnego Dyrektora BN Prof.dr hab. Jerzego Manikowskiego, wicedyrektorów BN dr Joanny Pasztaleniec - Jarzyńskiej, dr Jadwigi Sadowskiej, mgr Jana Wołosza oraz mgr Ewy Krysiak.

Współbieżnie z pracami w ramach Międzyuczelnianego Zespołu Koordynacyjnego ds. Wdrażania VTLS, za rekomendacją Prof. dr hab. Anny Sitarskiej, autor podjął szeroką współpracę z zespołem europejskich specjalistów ds. automatyzacji bibliotek, zrzeszonych w European Library Automation Group. Współpraca ta zaowocowała rozwojem nowego kierunku zainteresowań autora: dokumentem elektronicznym. Na tym polu szczególne podziękowania autor kieruje pod adresem Pauli Goossens i Elżbiety Mazur - Rzesoś z Królewskiej Biblioteki Alberta I w Brukseli.
Prace autora nad elektronicznym dokumentem cyfrowym mogły się jednak w pełni rozwinąć dopiero dzięki niezwykłej pomocy i życzliwości Prof.dr hab. Alfreda F. Majewicza z Uniwersytetu im. Adama Mickiewicza, cierpliwie służącego swoim osobistym czasem i wspaniałym archiwum poświęconym dziedzictwu naukowemu Bronisława Piłsudskiego. Obok prof. Majewicza należy wymienić Dyrektora Władysława Łatyszewa z Muzeum w Jużno-Sachalińsku, ponieważ ich materiały źródłowe pozwoliły w krótkim czasie zbudować prototyp internetowego systemu informacyjnego projektu ICRAP [5] . Szczere podziękowania kierowane są również do grupy naukowców pracujących w projekcie ICRAP, którzy zechcieli aktywnie współpracować przy tworzeniu systemu: Dr Antoniego Kuczyńskiego z Uniwersytetu Wrocławskiego, Pana Witolda Kowalskiego z Instytutu Józefa Piłsudskiego w Londynie, prof. dr Tjeerda de Graafa ( University of Groningen), prof. dr Kazuhiko Sawady z Saitama University, oraz prof. dr inż. Juna Uozumi (Hokkai-Gakuen University). Podobnie serdeczne podziękowania autor kieruje pod adresem całego kierowanego przez niego, licznego zespołu redakcyjnego internetowego systemu redakcyjnego projektu ICRAP.

Specjalne wyrazy wdzięczności zechcą też przyjąć Martin Svoboda oraz Rima Kupryte za zaproszenie do prac w ramach Regional Library Programme. Stały się one niezwykłym w swej skali doświadczeniem poznawczym (analiza 50 projektów automatyzacji bibliotek środkowo- i wschodnio-europejskich). Także Maja Žumer z Uniwersytetu w Lubljanie w trakcie wspólnych wizytacji bibliotek rozliczających europejskie projekty odbyła ze mną wiele godzin niezwykle inspirujących dyskusji, za co Jej w tym miejscu serdecznie dziękuję .

Niezapomniana gościnność Annie i Marka Quinn umożliwiła autorowi przeprowadzenie studiów literaturowych w londyńskiej British Library. Bez ich serdecznej pomocy w niejednym miejscu tej książki zabrakło by wielu informacji z najnowszej literatury przedmiotu, tak niezbędnych do skompletowania i weryfikacji założonych tez.

W ostatnich czterech latach większość pomysłów autora materializowała się w Gdańsku. Wielką pomocą służyło mu tu grono wypróbowanych przyjaciół w osobach mgr Tomasza Lenartowicza, mgr Zbigniewa Misiewicza, dr inż. Janusza J. Młodzianowskiego, Rafała Połońskiego oraz mgr Marcina Sochackiego. Do wszystkich autor adresuje tu swoje najgorętsze podziękowania za niesłychaną cierpliwość i pomoc przez 12 godzin na dobę. Materialne ślady tej bezinteresownej współpracy zostawiły trwały ślad na Wydziale Filologiczno - Historycznym Uniwersytetu Gdańskiego w postaci pierwszej pracowni komputerowej, pierwszego na północy Polski kompletnego, sieciowego systemu brajlowskiego dla niewidomych oraz unikalnego, rozlokowanego na wydziałowym korytarzu, systemu tanich, linuksowych inteligentnych terminali, wyposażonych w funkcje zapisu i czytania dyskietek oraz prowadzenia wielojęzycznej komunikacji w pięciu systemach kodowania. Nie sposób przeoczyć udziału mgr Krystyny Kossowskiej i mgr Rafała Charłampowicza w kształtowaniu wiedzy autora o systemach komputerowego wsparcia dla osób niewidomych. Ich kompetencja, pracowitość, takt i cierpliwość ogromnie zaważyły na dostrzeżeniu przez autora wielu problemów użytkownika, pozostających często poza głównym nurtem rozwojowym systemów informacyjnych. Uczynności swej przy przygotowaniu książki nie szczędziły też liczne koleżanki i koledzy z bibliotek Gdańska, Krakowa, Warszawy i Wrocławia.

Szereg instytucji zechciało wzbogacić niniejszą książkę, łaskawie wyrażając zgodę na reprodukcje ilustracji: Biblioteka Jagiellońska, Biblioteka Rosyjskiej Akademii Nauk w St. Petersburgu, Centralna Biblioteka Statystyczna, a ponadto firmy ASTRONTECH, Aurora Inc., CryptoTech, Denso Inc., Lucent Technologies Polska, Microvision Inc., projekt SPUBITo, Senseboard, Tiemann. Wszystkim tym ofiarodawcom autor wyraża swe szczere podziękowanie.

Do przygotowania wersji online w szczególny sposób przysłużyło się szacowne grono moich językowych konsultantów: Bora Chung (koreański),
Chris i Lee Hiltonowie (chiński, japoński), dr Chizuko Nishihara (japoński), Tamar Sadeh (hebrajski), Prof. dr Kazuhiko Sawada (japoński) oraz Wiesław Sliwa (arabski, perski). Wielkiej pomocy w zebraniu i skomentowaniu rosyjskich materiałów dotyczących wielojęzycznego opisu udzielili mi Wiktor Zacharow i bibliotekarze z Biblioteki Akademii Nauk w St. Petersburgu. Wszystkim im składam tu swoje najserdeczniejsze podziękowania.

Jak zawsze na końcu specjalne podziękowania należą się całej Rodzinie autora za przetrzymanie tego Sturm und Drang Periode. Najpierw ukochanej Mamie, której ta książka nieustannie wykradała syna, potem Małgosi - wiernej towarzyszce wspólnej drogi, wreszcie naszym kochanym siostrom, synom i synowym.

Skróty

ALA - American Library Association
ANSI - American National Standards Institute
ARPA - Advanced Research Project Agency
ASCII - American Standard Code for Information Interchange
ATM - Asynchronous Transfer Mode
CSMA/CD - Carrier Sense Multiple Access/Collision Detection
DAT – Digital Audio Tape
DCE - Data Communication Equipment
DTD – Document Type Definition
DTE - Data Terminal Equipment
FCC – Federal Communication Commission
FDDI - Fiber Distributed Data Interface
FDM - Frequency Division Multiplexing
FTP – File Transfer Protocol
GPRS - General Packet Radio Services
HTTP – Hyper Text Transfer Protocol
IP - Internet Protocol
IPX - Internet Packet Exchange
ISDN - Integrated Sevices Digital Network
ISO - International Standards Organization
OSI Open Systems Interconnection
IT – Information Technology
Kbps - Kilo bits per second
LAN - Local Area Network
MAN - Metropolitan Area Network
Mbps - Mega bits per second
PC - Personal Computer
PDF – Page Description Format
PS - PostScript
RAID - Redundant Array of Inexpensive Disks
RAM - Random Access Memory
ROM - Read Only Memory
RS 232 - Recommended Standard 232
SAN - Storage Area Network
SCSI - Small Computers System Interface
SGML – Standard Generalized Markup Language
SLIP - Serial Line Internet Protocol
STML – Spoken Text Markup Language
STP - Shielded Twisted Pair
TCP - Transmission Control Protocol
TDM - Time Division Multiplexing
USB - Universal Serial Bus
UTP - Unshielded Twisted Pair
VLAN - Virtual LAN
VRML – Virtual Reality Markup Language
WAN - Wide Area Network
WAP - Wireless Application Protocol
(D)WDM - (Dense) Wavelength Division Multiplexing
WML – Wireless Markup Language
WYSIWYG – What You See Is What You Get
WYSIWYNG - What You See Is What You Never Get
WYSIWYM - What You See Is What You Mean

1 Problematyka badawcza na cyfrowym "uskoku tektonicznym"

Motto:

W sensie filozoficznym opis struktury jest teorią. W nim - z definicji - struktura jest relacją między rzeczami; i teoria może być wyrażona tylko w kategoriach zależności między rzeczami. Opis strukturalnych relacji w usłudze bibliotecznej tworzy ważną część "ciała uogólnień i zasad rozwiniętych w powiązaniu z praktyką".
Należy odnotować, że empirycznie odkryta struktura może być badana teoretycznie bez żadnej teorii co do tego, dlaczego ona zaistniała. To przydarzyło się Zipfowi. Jego empirycznie odkryte "Prawo Zipfa" o wzorcach rozkładu różnych zachowań społecznych spotkało się z szeroką akceptacją. Natomiast jego pracowicie skonstruowane wyjaśnienie, dlaczego ten wzorzec występuje - jego "Zasada Najmniejszego Wysiłku" - nie spotkało się z uznaniem.

Michael K. Buckland, “Library Services in Theory and Context”, 1988,strona 28.
Niewiara teoretyka i chwytanie nieuchwytnego
Bez specjalnego uproszczenia można powiedzieć, że na przestrzeni wieków ludzie posługiwali się dwoma typami komunikatów: przemijającymi (nietrwałymi) i trwałymi. Pierwsza z tych tradycji komunikacji: sygnalizacja świetlna, język dźwięków i gestów (w tym tańca), wyrosła zapewne na bazie obserwacji świata zwierzęcego i może być uważana za pierwotną. Powtarzalność czy też odtwarzalność takich komunikatów zależała od pamięci, słuchu, spostrzegawczości i szeregu innych cech osobniczych odtwórcy oryginalnego komunikatu. Ulotna natura takiego przekazu i niski stopień standaryzacji zapewne przez długie wieki nie skłaniała wykonawców do traktowania produktów swej działalności jako towaru, na którym można zarobić. Towar ten nie bardzo pasował do prawideł wymiany barterowej, akceptowanej powszechnie aż do czasów filistyńskich. Druga z tych tradycji, to komunikaty słabo zależne od czasu, często nazywane trwałymi: rysunki naskalne, malowidła na naczyniach, rzeźba w kości, drewnie i kamieniu, odlewy w metalu, wreszcie dokumenty pisane.

Dziewiętnasty wiek wprowadził podstawowe zamieszanie w tym schemacie: uwiecznił w trwałej postaci dotychczas ulotną rzeczywistość. To, co do niedawna było powtarzalne z dokładnością do interpretacji i improwizacji, teraz mogło zostać bez ograniczeń reprodukowane w niezwykle wiernym stopniu. Na rynku pojawił się masowo tani i atrakcyjny towar, dokładnie wystandaryzowany, taki sam dla wszystkich ludzi. Jednak inny fakt miał tu decydujące znaczenie dla przyszłych losów tej nowej technologii, która bez kłopotów zintegrowała się z istniejącym światem. Produkt powstały w wyniku trwałego zapisu ulotnej rzeczywistości nabrał materialności niezwykle konkretnej, dał się wziąć w rękę, włożyć do torby, postawić na półce.

Zastosowanie awangardowych technologii do "zatrzaśnięcia" w niezmiennym kształcie zjawisk ulotnych, często miało charakter intuicyjny, ale bazując na powtarzalnej serii udanych eksperymentów dawało gotowy produkt rynkowy. Brak dopracowanej teorii funkcjonowania wielu takich urządzeń i utarte schematy myślenia wywoływały niejednokrotnie przedwcześnie ostre i bezpodstawne reakcje środowisk naukowych, czy nawet administracyjnych, na wprowadzaną innowację. Dla ilustracji zacytujemy za Kaczmarkiem [1953, strona 22] wyszukane przez niego u Scheminzky'ego [1943] malownicze opisy przygód pierwszych prezenterów fonografów:

Kiedy w roku 1878 przedstawiono fonograf w Akademii Nauk w Paryżu, członek jej Jan Bouillard, który nie wierzył w możliwość utrwalenia i odtworzenia głosu ludzkiego, pomawia demonstratora o brzuchomówstwo. Gorzej się stało z demonstratorem w Rosji. Tu sądy carskie ukarały go trzymiesięcznym więzieniem, grzywną, nakazując prócz tego zniszczyć aparaturę”.

W tym wypadku miały miejsce pomówienia, a nie argumentacja naukowa. Niespełna ćwierć wieku później, w znacznie trudniejszej sytuacji znalazł się Marconi. Po pomyślnym przesłaniu sygnałów drogą radiową przez cieśninę La Manche (1899), przy pomocy tego samego sprzętu wynalazca nie był w stanie przesłać sygnału przez Ocean Atlantycki. Przyczyny niepowodzenia eksperymentu upatrywał wyłącznie w zbyt niskiej mocy nadajnika. Na próżno naukowcy próbowali go przekonać, że z teoretycznego punktu widzenia transmisja sygnału między Europą i Ameryką Płn. skazana jest na całkowite niepowodzenie, bez względu na moc sygnału. Wniosek ten wyprowadzali z dwóch powszechnie znanych i akceptowanych faktów: udowodnionego przez Hertza liniowego rozchodzenia się fal elektromagnetycznych oraz kulistości ziemi, - delikatnie pomijając znaną już od ok. 20 lat hipotezę Belfoura Stewarta o możliwości istnienia zjonizowanych warstw atmosfery ziemskiej. Mimo pozornie tak niezbitych argumentów Marconi z uporem maniaka powtarzał, że odpowiednie zwiększenie mocy nadajnika na pewno pozwoli przesłać drogą radiową sygnał nad Atlantykiem. Gdyby decyzja o przyznaniu funduszy na budowę większego nadajnika spoczywała w rękach teoretyków, nadzieje wynalazcy na realizację końcowej fazy projektu były by mizerne. Na szczęście przemysłowcy bardziej wierzyli Marconiemu niż naukowcom i w ciągu dwóch lat bezprzewodowy telegraf stał się faktem. Właściwie to dopiero eksperymenty Marconiego stworzyły solidne podstawy do przyszłych badań atmosfery, co w roku 1925 pozwoliło E.V. Appletonowi udowodnić istnienie jonosfery.

Przełom XX i XXI wytworzył dobra, które w niczym nie przypominały dotychczasowych skarbów kultury. Miniaturyzacja zapisu sięgnęła poziomu molekularnego, nieuchwytnego dla zwykłego mikroskopu optycznego, powietrze wypełniło się tak szerokim spektrum fal elektromagnetycznych, że zwykłemu śmiertelnikowi nie sposób się połapać kto co komu przekazuje, kto co nadaje, a kto odbiera. Mariaż elektroniki z innymi dziedzinami zaowocował tak rewelacyjnym postępem, że dziś w krajach uprzemysłowionych mało ludzi zdobywa się na wypowiedzenie sądu o niemożliwości wyprodukowania produktu o żądanych własnościach. Nowe technologie są błyskawicznie przyjmowane przez młode pokolenie, znacznie szybciej, niż dzieje się to w pokoleniu rodziców i nauczycieli. Umiejętność posługiwania się komputerem i współczesnymi technikami komunikacyjnymi stała się warunkiem sine qua non uzyskania pracy i coraz szybciej staje się takim warunkiem dla podtrzymania stosunku pracy. Doświadczenie w epoce industrialnej zdobywało się dziesiątkami lat i stary robotnik był ceniony przez producenta. Obecnie tempo zdobywania wiedzy o systemach cyfrowych wyznaczone jest przez szybkość zdobycia i wytestowania najnowszych wersji oprogramowania (w naszych warunkach niestety prawie zawsze są to kopie nielegalne) oraz przez sieciową, legalną i nieodpłatną wymianę wiedzy. Dzisiaj młody człowiek po technikum, jeśli jest dobrym „hakerem”, może przedstawiać dla firmy znacznie większą wartość jako administrator, niż absolwent uniwersyteckiej informatyki z 20-letnim stażem. Zinwertowaniu uległy pozycje przydatności zawodowej skrajnych generacji cyklu produkcyjnego. Doświadczenie życia przegrywa z doświadczeniem użycia i silnemu zamgleniu ulega perspektywa rozwoju zawodowego następnych generacji. Czyżby oznaczało to szybko nadchodzące wyraźne obniżenie wieku emerytalnego i skrócenie tygodnia pracy?

Wyzwania stawiane przez nowe technologie zapoczątkowały dramatyczne zmiany społeczne, te z kolei domagają się pilnych regulacji. Jednak badania społeczne w obszarze środowisk internetowych są obecnie bardzo utrudnione. Szerokie spektrum nowych produktów wytworzyło mozaikę grup wyspecjalizowanych w obsłudze poszczególnych technologii. Obecnie naukowcowi – teoretykowi coraz trudniej jest penetrować wielką ilość takich przestrzennie rozproszonych, hermetycznych grup młodzieżowych, podejrzliwych w stosunku do każdego nowicjusza, próbujących „wpuścić go w maliny” – a potem w prywatnej korespondencji tworzyć sobie scenariusze kolejnych odsłon dobrej sieciowej zabawy. Fakt ten prowadzi coraz bardziej do niemocy ujawnienia analizy prawdziwych mechanizmów asocjacyjnych, zastępując je z konieczności porównawczą analizą statystyczną. Należy dopuścić, że za 5-10 lat znacząca liczba obecnych członków takich grup opuści je i zacznie publikować obszerniejsze wspomnienia, które mogą się stać ciekawym materiałem analitycznym. Zachodzi jednak obawa, że wówczas dla wielu na profilaktykę społeczną będzie już za późno.

Cyfrowa technologia jest wciąż bardzo nowa i - jeśli sądzić po najnowszych odkryciach - jeszcze nie osiągnęła szczytu swych możliwości. Nawet trudno powiedzieć, czy jest dopiero na półmetku; zresztą – czym to ewentualnie mierzyć? Ci, którzy obecnie teoretyzują na jej temat, często niefortunnie identyfikują ją z technologią elektroniczną. Stąd też z ciągle dość skromnej listy tematów badawczych trudno wyekstrahować wątki teoretyczne poświęcone ściśle technologii cyfrowej. Tym zapewne się kierując, Goban-Klas [2001, strona 291] z wielką ostrożnością zredagował w swojej 336-cio stronicowej książce Media i komunikowanie masowe zaledwie jednostronicowy paragraf "Cyfrowa rewolucja kulturalna", nie wywołując ani jednego odsyłacza bibliograficznego! Są tu wyraźne kłopoty ze specyfikacją i opis należało by poddać pewnym zabiegom o charakterze chirurgicznym. U podstaw tych problemów leży nieprecyzyjna terminologia, do której defektów Goban-Klas odwołuje się osiem stron dalej, a której uściślenie jest jednym z celów niniejszej książki.

Dla uniknięcia ewentualnych nieporozumień w dalszym ciągu prowadzonych tu rozważań, dobrze będzie zestawić listę wyróżników, słów kluczowych, odnoszących się do "czystej" cyfrowej technologii elektronicznej. Oto robocza propozycja takiej listy:

Sieć w filozofii i filozofia w sieci.

Na wstępie warto zatrzymać się w obrębie pewnej grupy prac naukowych o najbardziej ogólnym charakterze: metodologicznym i filozoficznym. Ostatnio opublikowane u nas przekłady książek i artykułów wyróżniających się myślicieli zachodnich pozwalają odesłać polskiego czytelnika do pełnych tekstów kilku ciekawszych pozycji. Na szczególne wyróżnienie zasługuje tu obszerna antologia tekstów zestawionych i skomentowanych przez Gwoździa [2001]. W grupie filozofów na uwagę zasługuje Heim [2001]. Kokieteryjny tytuł artykułu: "Erotyczna ontologia cyberprzestrzeni" i sformułowania typu „Atrakcyjność komputera wykracza poza charakter utylitarny czy estetyczny; jest ona erotyczna” nie powinny zmylić czytelnika: eros Heima ma charakter uogólniony i trafiony strzałą Kupidyna nasz surfer, jeśli wybiera dla uprawiania swej miłości porę nocną, czyni to głównie z uwagi na niższą w tym czasie taryfę opłat TP SA. Eros ten uosabia pęd do tworzenia cyberistot. W swych rozważaniach Heim prowadzi grę intelektualną na bazie leibnizowskiej monadologicznej metafizyki, w której widzi pra-model sieci komputerowej, będącej systemem węzłów, zarządzanych z pewnego wybranego węzła. Bezcielesne monady swój życiowy impet generują wewnętrznie, pragnąc odwzorować cały wszechświat – wszakże każda na swój sposób, dysponując swym własnym interfejsem. Ta monadologia wskazuje, że istnienie pewnych paradoksów, niekonsekwencji, złudnych nadziei jest w sieci cechą „wrodzoną”. Po fazie pozornego wybawienia z monadycznego odosobnienia i po zachłyśnięciu się pozorną bliskością odległych fizycznie bytów następuje powolna utrata niezależności, osłabienia psychiki społecznej, pojawienie się efemeryczności. Bardzo negatywnie postrzega Heim brak bezpośredniego doświadczenia ludzkiej twarzy i upatruje w tym źródła zaniku etycznej świadomości i coraz szerszego zalewu grubiaństwa w anonimowych kontaktach sieciowych. We wzroście sieci widzi utratę niewinności i zanik poczucia lokalnej więzi społecznej.

Artykuł Cheshera [2001] „Ontologia domen cyfrowych” pod pewnym przynajmniej względem jest wyjątkowy wśród omawianego tu wyboru prac. Bez specjalnych ogólników autor wielokrotnie wskazuje na wyraźnego kreatora dyskutowanych zjawisk: jest to człowiek, programista: „Programiści zbudowali rozległy system sklepów, bibliotek, kompleksów handlowych i rozrywkowych, które ujrzeć można jedynie na małych ekranach stojących na naszych biurkach. /.../ artyści i projektanci stworzyli przestrzenne metafory logicznych światów komputerowych, trójwymiarową przestrzeń telewizualną.” [op.cit.: strony 145-146]. Jest zastanawiające, że u Cheshera te wytwory człowieka: komputery, oprogramowanie, dane, - zaczynają żyć własnym życiem: Komputery tworzą domeny cyfrowe i światy równoległe, w których wszystko toczy się poza naturalnymi ograniczeniami przestrzeni fizycznej [ibid.: 145]. Ale u Cheshera to już nie człowiek pogrupował komputery w domeny cyfrowe, tylko one same się pogrupowały. Komputery Cheshera wyrwały się swoim twórcom spod kontroli! Wydawać by się mogło, że to wstęp do analizy tak obecnie dokuczliwych na świecie zjawisk nieprzewidywalności zachowań systemów komputerowych. Nic z tego! W swym wykładzie autor stara się udowodnić, że komputer to medium inwokacyjne, przypominając o przypisanym mu statycznie adresie. Analizie umknęło tu kilka spraw. Tak więc, oprócz statycznego przypisywania komputerowi adresu sieciowego stosowane jest też adresowanie dynamiczne, które w ramach ograniczonej puli adresów umożliwia korzystanie z dostępu do sieci znacznie większej liczbie osób, pod warunkiem nierównoczesnego korzystania z dostępu. Znaczy to, że w sieci w naturalny sposób tworzą się niejednoznaczności. Tego rodzaju aranżacje zostały pogłębione przez zapoczątkowanie w 1993 roku usług zapewniających anonimowość pracy w Sieci [Grossman, 2001]. Uzupełnienia i komentarza wymaga opisanie komputera jako medium inwokacyjnego. Termin ten nie budzi zastrzeżeń. Jednakże twórcy komputerów przewidzieli w nich także pewne funkcje wykraczające poza pasywne oczekiwanie na inwokację, do której Chesher chciałby je ograniczyć. W typowych serwerach powszechnie wykorzystywane są funkcje, inicjujące w określonym momencie zaprogramowane wcześniej zachowanie komputera, już bez fizycznego udziału administratora – ale przecież na jego wcześniejsze zlecenie. Może to być wysyłanie o określonej porze faksu lub e-maila, archiwizacji zasobów, pozamykanie „wiszących” sesji, zamknięcie systemu. Komputer może też mieć zaprogramowane pewne funkcje nadzorcze, w których jego akcja ma charakter warunkowy, asynchroniczny. Dotyczyć to może np. kontroli czujników antywłamaniowych, detekcji awarii, czy automatyki przemysłowej. W tych wszystkich wypadkach pasywna rola medium inwokacyjnego zmienia się w aktywną rolę medium inicjatywnego. Trzeba przy tej okazji zauważyć, że podejmowane przez komputer inicjatywy nie muszą być autorstwa twórcy komputera, czy też twórcy zainstalowanego przez użytkownika oprogramowania. Źródłem tych inicjatyw mogą być oczywiście tak popularne obecnie wirusy, najczęściej pochodzące ze źródeł niemożliwych do identyfikacji. Wtedy komputer staje się medium refleksyjnym – akceptuje infekujący go byt cyfrowy i następnie odbija go w przestrzeń. Tak więc komputer funkcjonujący w sieci ma cechy polimorficzne. Ale tego Chesher już się nie dopatrzył.

Pracę Binkley’a [2001] Refigurowanie kultury można zaliczyć do nieprzeciętnie prowokacyjnych. Jej autor, którego zainteresowania koncentrują się wokół metod rejestrowania informacji [op.cit.:116, przypis], stara się przeprowadzić gruntowną egzegezę pojęć "technologia analogowa" i "technologia cyfrowa" w ich różnych manifestacjach. We wstępie trafnie identyfikuje dwie ważne cechy wiązane ze środowiskiem cyfrowym: wirtualność i interaktywność. W dalszym ciągu stara się zdefiniować, czym jest dla niego medium cyfrowe w stosunku do medium analogowego, zaczynając od ogólnego sformułowania: Wytyczona droga cywilizacji wyrzeźbiła bogate dziedzictwo kanałów komunikacyjnych – od malarstwa do periodyków, od recitali do radia, od longplayów do CD-ROMów – znanych jako media, przez które komunikaty pokonują przestrzeń oraz czas [ibid:114]. Tak ustawiona terminologia jest zgodna ze źródłosłowem i nie ma powodu, by budziła wątpliwości. W pewnym jednak momencie do argumentacji autora wkrada się homonim o odmiennym znaczeniu, który w angielskim języku winien być określony nie jako medium, lecz jako carrier (nośnik). I tak np. w zdaniu: Medium cyfrowe nie jest medium dziewiczym, ponieważ zanim przyjmie komunikaty od nadawcy, musi zostać sformatowane. Nie wymaga się tu odciskania, ale raczej wypełniania siatek danymi, - argumentacja tu bezwarunkowo odnosi się do fizycznego nośnika na którym realizuje się zapis – np. dysku magnetycznego. Natomiast niesposób to odnieść do medium transmisyjnego po którym odbywa się transmisja, tu warto powtórzyć: „przez które komunikaty pokonują przestrzeń”. To było by wyjątkowo niefortunne, - wszakże po tym samym medium transmisyjnym, miedzi, szkle, czy w powietrzu, bez kłopotu można współbieżnie realizować przebiegi cyfrowe, jak i analogowe. Jest to tylko sprawa użytej techniki zwielokrotnienia (multipleksacji). Binkley albo unika przykładów, które przeczą jego linii rozumowania, albo po prostu ich nie zna. Również jego opinia na temat wyższej wrażliwości zapisu analogowego na uszkodzenia fizyczne, niż zapisu cyfrowego, nie jest zgodna z rzeczywistością. Analogowy hologram można przedzielić fizycznie na dwie (niekoniecznie równe) części i NATYCHMIAST, bez żadnego sklejania, można niezależnie z każdego kawałka odtworzyć kompletny, trójwymiarowy obraz oryginału. Tego niestety nie można powiedzieć o przełamanym twardym dysku, czy dyskietce. Ale częściowo zalany kawą lub podrapany, dwu-wymiarowy kod plamkowy, czy paskowy, daje się odczytać, ze względu na wbudowaną weń nadmiarowość. Podwyższenie odporności zapisu cyfrowego na losową utratę danych można uzyskać tylko kosztem rozszerzenia pamięci. W dalszym ciągu ten sam autor, wbrew faktom znanym z klasycznej fotografii, zdaje się przypisywać zapisowi analogowemu strukturę bezzarnistą: Media analogowe zachowują konkretną homogeniczność tego, co prezentują, /.../ Medium cyfrowe przygotowuje się do odbioru informacji, nie przez sprowadzanie ich do nieodróżnialnego kontinuum [ibid.: 117]. Podobnie wyidealizowany obraz prezentuje Binkley w odniesieniu do technologii zapisu: Media analogowe magazynują informację, dokonując transkrypcji, która zmienia konfigurację materiału fizycznego w inny, analogowy porządek. /.../Media cyfrowe, inaczej, raczej konwertują informację, którą chcą zachować, niż ją kopiują. [ibid.:115-116]. I to nie jest prawdą. W tym miejscu godzi się przypomnieć, że technologie konwersji sygnału są stosowane nie tylko w zapisie cyfrowym, ale również analogowym. Tak np. postępuje się przy zapisie dźwięku z redukcją szumu (system Dolby, czy dbx), w trakcie którego następuje konwersja oryginalnego analogowego sygnału. Bezpośrednie odtworzenie tego zapisu, bez wiedzy o tym, jaka technologia redukcji szumu była użyta, daje zupełnie sfałszowany obraz nagrania. Podobna sytuacja ma miejsce w przypadku klasycznej telewizji: do czasu pojawienia się pierwszych konwerterów, analogowe nagrania wideo wykonane w amerykańskim standardzie NTSC były nie do odtworzenia na magnetowidach systemu SECAM. Każde z nagrań funkcjonowało w swoim własnym świecie i producentów i odbiorców.

Niemała porcja podobnych uchybień ogranicza się raczej do styku świata analogowego ze światem cyfrowym. Znacznie bardziej poprawnie przeanalizował Binkley obecną i spodziewaną w przyszłości rolę technologii cyfrowej w społecznym komunikowaniu. Widzi nieodwracalność tendencji migracyjnych w kierunku czystej technologii cyfrowej, paradoksy oraz zagrożenia.

Interesujące są rozważania Mike Sandbothe [2001] na temat praktyk kulturowych wirtualnych wspólnot Internetu. Mając całkowitą świadomość tymczasowości obecnego etapu rozwojowego Sieci (ograniczenia związane z wysokimi kosztami powszechnego dostępu do szerokiego pasma transmisji i przesyłania obrazu „na żywo”), skupia się on na procesie wtapiania się starszych, linearno-tekstualnych form komunikacyjnych we współczesne formy hipertekstualne. Godne szczególnej uwagi są jego spostrzeżenia, że w takich usługach jak IRC, MUD, czy MOO mowa zostaje upiśmienniona – z drugiej zaś strony wzajemnozwrotna forma interaktywnego użytkowania pisma w trybie rozmowy – de facto – jest oralizacją pisma. Podobną parę bliźniaczą: ikonizację pisma i upiśmiennienie obrazu widzi w tworzeniu i odbiorze dokumentów hipertekstowych. Sandbothe uważa, że ze względu na obserwowaną obecnie migrację znaczeń tak podstawowych pojęć jak „obraz”, „mowa”, czy „pismo”, warto monitorować te przesunięcia tak, by w przyszłości można było ustalić właściwy zakres znaczeniowy tego rodzaju pojęć.

Psychologia i prawo

Technologia cyfrowa szybko wkraczająca do domów, biur, urzędów, instytucji rozrywkowych, niepodzielnie panuje w nowoczesnych środkach transportu i łączności, zmienia warunki życia, jego jakość – i wreszcie - zmienia ludzi. W dobie, gdy jeszcze niezmiernie daleko było technologicznie, ekonomicznie i społecznie do dzisiejszego stanu sieci WWW, wyniki jednych z pierwszych, poważnych badań opublikowali Hiltz i Turoff [1978]. Mimo, że technologia oferowała wówczas wyłącznie terminale znakowe dużych serwerów, a komunikacja między serwerami nie należała do szybkich, wrażenie uczestniczenia w jakiejś nowej rzeczywistości było ogromne. Dla oddania skali swego wrażenia autorzy posłużyli się terminem Naród sieciowy. Bardziej adekwatnie chyba było by przetłumaczyć tytuł ich książki jako Społeczeństwo sieciowe. Warto się na chwilę zatrzymać na dyskutowanym przez Hiltz i Turoffa fenomenem: najpierw fascynacji, potem ucieczki. Zastanawiające było jednak to, że ta nowa jakość wcale nie była jakąś faktyczną jakością. Ludzie od dawna już używali całkiem niezłych telefonów, a w USA telefon w domu prywatnym wcale nie był jakimś rarytasem. Jakość komunikacji międzyludzkiej przez telefon była o niebo lepsza niż poprzez znakowy terminal. W głosie rozmówcy można było usłyszeć irytację, wahanie, zniechęcenie, zaciekawienie, entuzjazm. Terminal komputerowy wszystko to bezlitośnie obcinał. Komfort przytulania do ucha słuchawki w zaciszu domowym nie dał się porównać z wędrówką do odległego centrum komputerowego i siedzenia przy hałaśliwym terminalu TSR-33. A jednak .... Po dzień dzisiejszy zastanawiamy się, co ciągnęło tych nielicznych zrazu entuzjastów nowej technologii do nielicznych centrów, gdzie uruchomiono pilotażowe projekty? Zapewne ciekawość. Rodzaj badania „czarnej skrzynki” – urządzenia mającego wejście i wyjście i zupełnie nieznany środek. Może chcieli zabawić się w lekarza, który na podstawie dostępnych, ograniczonych środków diagnostycznych chce postawić diagnozę o tym co jest w środku? Może chcieli zmierzyć się z czymś odległym, nieznanym, posiłować się bez wysiłku? Może, pozostając anonimowym, zagrać wymarzoną rolę przed osobą fizyczną, acz ułomną. Niewidzącą ale nie niewidomą. Sprawną, ale z ograniczonymi możliwościami; osłabioną jak nadbita w szczepionce bakteria. A może był to już podświadomie wyczuwalny, choć przeoczony przez Hiltz i Turoffa praprzodek dzisiejszego dokumentu cyfrowego ze wszystkimi jego możliwościami? A jednak te wczesne badania zachowań ludzkich ujawniły już wtedy pierwsze niepokojące objawy skłonności uczestników grup komunikacyjnych do posługiwania się określeniami prowadzącymi do wzrostu napięcia w grupie.

W dwadzieścia lat po ukazaniu się The Network Nation Patricia Wallace opublikowała obszerne wyniki swych doświadczeń nad grupami kulturowymi Internetu [Wallace 2001]. Na dwanaście rozdziałów dwa poświęcone są tożsamości w jej różnych przerysowaniach, jeden analizie procesów asocjacji sieciowej, dwa – konfliktom i agresji i aż trzy omawiają zagadnienia miłości, płci i pornografii. Autorka zdaje sobie sprawę zarówno z młodości Sieci, jak i wczesnego etapu badań nad nią: Jak dotąd niewiele przeprowadzono badań na temat zachowania w sieci, choć dziedzina ta szybko zdobywa sobie popularność wśród uczonych reprezentujących różne dyscypliny. Musimy więc zacząć niemal od zera ... [op.cit.:8]. Takiego problemu, jak wpływ nabytych w Sieci postaw na poza-sieciowe życie publiczne w ogóle autorka nie dotyka. Pewnie jest na to daleko za wcześnie. Zachodzi obawa, że gdy ten problem stanie się publicznie dostrzegalny, dla bardzo wielu może już być za późno. Wywody wsparte dobrze przemyślanym układem treści, mimo lokalnie trudnych problemów, tchną jednak optymizmem. Autorka ma nadzieję, że ktoś zechce przeczytać jej książkę i wyciągnąć jakieś wnioski na swój użytek. Gdy pisałam tę książkę, przyświecało mi kilka celów. Pierwszym było zbadanie psychologicznych wpływów sieciowego świata na nasze zachowanie i ukazanie, jak sam ów środek przekazu może wpływać na to, że zaczynamy zachowywać się inaczej niż zwykle. Po drugie, chciałam zaproponować, by zastosowano tę wiedzę do poprawy psychologicznego klimatu Internetu, który wciąż jest nową technologią, a większość z nas to dość „młodzi” jej użytkownicy. /.../ Być może znajdujemy się obecnie w samym środku jednej z tych historycznych epok, lecz ostatnią rzeczą, jakiej byśmy pragnęli, jest jakaś „instytucja”, która miałaby „kontrolować i kierować” Internetem. Zostajemy więc tylko my – miliony użytkowników wspólnego sieciowego świata – i to na nas spoczywa obowiązek jak najlepszego wywiązania się z tego zadania. [ibid.:21-22]. Płonna to nadzieja. Kształtowanie postaw sieciowych przez pisanie książek wydaje się syzyfową pracą. W Sieci nie czyta się książek. Ale nawet, gdyby autorka wraz z wydawcą udostępnili za darmo książkę w Internecie, to i tak mało kto by ją przeczytał: może kilku niewidomych studentów studiujących nauki społeczne. Sieć to medium, a media nie lubią długich tekstów. Ale bezsprzecznie spostrzeżenia osobiste autorki są wartościowe, taksonomia – do przyjęcia, a książka warta przeczytania. Może zainteresuje pedagogów i rodziców.

Przyklejone w tym paragrafie do socjologii prawo to nie przypadek. Prawo wkracza tam, gdzie narastają konflikty indywidualnych i instytucjonalnych interesów. Na wstępie warto zreferować trudny problem, zwykle pomijany przez prawników. Moda i zachowania społeczne ludzi sieci zaczęły być bacznie obserwowane przez wydzielone służby specjalne najbardziej rozwiniętych krajów. Nie tak dawno bez specjalnego zażenowania przyznała się do tego Rosja [PAP 1999]. Na ciężkie rozdwojenie jaźni cierpią Stany Zjednoczone: interesy bezpieczeństwa państwa stoją w jawnej sprzeczności z literą pierwszej poprawki do Konstytucji, a USA chcą dla całego świata być wzorem nowoczesnej i zarazem sprawnej demokracji. Więc sieć jest inwigilowana, a o sprzeczności tego faktu z obowiązującym prawem po prostu do pewnego czasu się nie mówiło. Gdyby chodziło tu wyłącznie o sprawy wojskowe, lub sprawy bezpieczeństwa, to prawdopodobnie tajemnica była by nie wyszła w ogóle na jaw. Sprawa została ujawniona najpierw przez jednego, potem przez następnych oszukanych współpracowników i odnosi się do tajnego projektu Echelon (por. np. http://www.echelonwatch.org) zaprojektowanego i koordynowanego przez Narodową Agencję Bezpieczeństwa (NSA). Projektu, podobno w założeniach swych, zorientowanego na ściganie terroryzmu szybko jednak przestawionego na ukryte wsparcie gospodarczej ekspansji USA. Zraniona miłość jest nieobliczalna w swych zachowaniach. Okłamana, oszukana i oburzona sieć (w domyśle tajny współpracownik projektu Echelon) zaczęła się bronić tą samą bronią: puszczoną w obieg anonimową informacją. I tu można było dostrzec prawdziwą potęgę Internetu - na efekty nie trzeba było długo czekać. Dnia 12 kwietnia 2000 Komitet ds. Wywiadu Izby Reprezentantów Kongresu USA wysłuchiwał na tą okoliczność wyjaśnień Dyrektora CIA Georga Teneta oraz Dyrektora NSA Michaela Haydena, ale w konkluzji z przesłuchania nie znalazło się nic poza zdawkowym stwierdzeniem, że rząd USA nie potwierdza, ani też nie zaprzecza istnienia globalnego systemu inwigilacji (http://www.aclu.org/echelonwatch/congress.html). Sprawa jednak nie została zlekceważona i we wrześniu 2001 Parlament Europejski przedstawił na ten temat swoje stanowisko (http://www.cyber-rights.org). W tym wypadku prawo ciągle jest pasywne i w chwili obecnej nikt w USA nie jest w stanie wyegzekwować swych praw zagwarantowanych przez Pierwszą Poprawkę. Spektakularne akty terrorystyczne roku 2001 przyspieszyły i pogłębiły inwigilację sieci i nic na to nie wskazuje, by poufność i prywatność osobista miały obecnie jakiekolwiek znaczenie w stosunku do tzw. interesu państwowego. Te frazesy o tajemnicy danych osobowych są dobre dla maluczkich i naiwnych, a nie dla superpotęg, czy nawet polskich służb specjalnych. Globalna działalność wywiadowcza ECHELONu jak na razie nie pociąga za sobą żadnych bezpośrednio widocznych, szybkich konsekwencji prawnych. Po pierwsze problem jest z udowodnieniem przestępstwa.

Podstawowym obszarem egzekwowania prawa w związku z funkcjonowaniem sieci i działalnością bibliotek jest łamanie ustawy o prawach autorskich. Ten aspekt ściśle dotyczy bibliotek w związku z tzw. „dozwolonym użytkiem utworów” (ang. fair use). Stan prawny tego aspektu, również w kontekście prawa europejskiego, wyczerpująco zreferował ostatnio Michał du Vall [2000]. Świetną prace z tego tematu, widzianego z perspektywy amerykańskiej, przygotował i publikuje w Internecie Uniwersytet Stanforda (http://fairuse.stanford.edu).

W kontekście praw przedruku, ze smutkiem należy odnotować, że istniejące na całym świecie ustawodawstwo ciągle nie spostrzega faktu istnienia niewidomych. Na problem ten zwracał ostatnio uwagę Czermiński [2000-2 strona 67]. Obecne prawo jest zbyt restryktywne i napędzane głównie przez środowiska twórców muzyki i filmu. Ten sam problem, choć z innego powodu, wywołuje niepokój administratorów sieciowych. Obserwują oni bardzo duży ruch sieciowy związany z przerzucaniem przez sieć ogromnej liczby pasmożernych plików muzycznych i filmowych. W efekcie sieć szybko się zapycha i transmisja staje się coraz wolniejsza. Natomiast przesyłanie przez sieć tekstów nie powoduje najmniejszych problemów. Książka w wersji sieciowej, cyfrowej, - to nie żaden „towar” sieciowy, to znikomy margines egzystencjalny. Tak sprawa wygląda od strony technicznej i administracyjnej. Kręgi autorskie i wydawnicze są tu jednak bardzo restrykcyjne. Lęk autorów i wydawców przed udzielaniem licencji na publikację w Internecie utworów uprzednio wydanych drukiem jest całkowicie przesadzony i nieuzasadniony z ekonomicznego punktu widzenia. Również lęk autorów i wydawców przed klasycznym kserokopiowaniem książek z ekonomicznego punktu widzenia jest bezpodstawny. Piszący te słowa korzystał i korzysta po dziś dzień ze znacznej liczby wydanych „własnym sumptem” śpiewników turystycznych i do tej chwili nie spotkał ani jednego poety, który wszczął ściganie studentów „nielegalnie” kopiujących i wykonujących (w sensie prawa) jego utwory. Przecież dla autora to radość, że jego książki trafiają pod strzechy a wiersze zasiadają przy ognisku. Nie! Ściganie tego rodzaju zachowania, to po prostu coś trudnego do wyobrażenia. Wydaje się, że należy tworzyć lobby na rzecz bardziej zdroworozsądkowej nowelizacji prawa autorskiego.


Estetyka

W 1997 ukazało się w języku polskim tłumaczenie artykułu Norberta Bolza „Estetyka cyfrowa”, w którym autor zestawia listę wyróżników tego zwolna rodzącego się kierunku estetyki. O ile takie cechy, jak symulacja, czy immaterialność nie budzą większych zastrzeżeń, to chyba kompletnym nieporozumieniem jest umieszczenie wśród nich zatarcia granicy między realnym a wyobrażonym. A cały surrealizm, to co? Czy fruwający na Witebskiem pobratymcy Chagalla to rzeczywistość, czy czysta fantazja? Ostatnie lata ustępującego milenium to coraz więcej publikacji na temat estetyki cyfrowej. W 1998 roku ukazała się książka Cubitta „Digital aesthetics”, a rok później - w Polsce - pod redakcją Krystyny Wilkoszewskiej została wydana książka „Piękno w sieci. Estetyka a nowe media”, obejmując szerokie spektrum tematyczne. Jednak podobnie jak i w wielu dyskutowanych tu przypadkach „czysta” tematyka cyfrowa jest omawiana w nielicznych pracach, na ogół z wielką ostrożnością i dość powierzchownie. Już w pierwszym swym artykule Wilkoszewska poświęca cały paragraf estetyce digitalnej, odchodząc jednakże od kierunku nakreślonego przez Bolta: Nie jest jasne, czy estetyka digitalna nakierowana jest wyłącznie na sztukę – sztukę mediów elektronicznych, czy też na owe media w ogóle. Jej głównym bohaterem jest raczej obraz, obraz syntetyczny, niekoniecznie pretendujący do miana dzieła sztuki. Zgoda! Absolutnie tak! Ale też warto przypomnieć, że również w epoce przed-digitalnej nie każdy wytwór ludzki pretendował do miana dzieła sztuki, nawet gdy był autorstwa dyplomowanego artysty. Nie inaczej było w literaturze.

Bardzo wartościową publikacją jest artykuł Małgorzaty Komzy „Estetyczne walory publikacji elektronicznych”. Autorka przypomina zalew przemysłowo produkowanej brzydoty z końca XIX wieku i dręczące współczesnych estetyków pytania, czy już nastała pora na objęcie badaniami nowo rodzących się obszarów ludzkiej twórczości. Widzi ona jasno ograniczenia twórcy w kształtowaniu tego, co otrzyma na swym ekranie zdalny odbiorca dzieła. To prawda. Mimo, że np. protokół Z39.50 v.3 uwzględnia już możliwość wynegocjowania parametrów i ustawień karty graficznej pomiędzy klientem a serwerem, to i tak pozostaje wiele elementów, których protokół nie rozwiąże, i które zostaną zebrane w postaci konfiguracji typu „minimalna akceptowalna recepcja”. Ale czyż tak zawsze nie było? Jaki wpływ miał Botticelli na fakt, że zwiedzający galerię jego obrazów daltonista nie widział niektórych kolorów? Trudno. Można w uproszczeniu powiedzieć, że to sprawa daltonisty, a nie Botticellego. Czy zachowały się jakiekolwiek wspomnienia Paganiniego, że w swych kompozycjach sugerował się on statystyką górnego progu słyszalności wysokich dźwięków? Artysta winien tworzyć dzieło swoich marzeń. Poza autorem są całe rzesze aranżerów, tłumaczy, interpretatorów. Ale nawet w przypadku międzyludzkiej komunikacji, w pewnym momencie kończy się wpływ autorski. Z pewnością ma to miejsce przy tłumaczeniu literatury na języki wywodzące się z obszaru o odrębnej kulturze. W technologii cyfrowej do tego dochodzi tandem dwóch elementów: systemu serwera, oraz systemu klienta. Tu na serwerze kończy się wpływ autora na odbiór jego dzieła. Dokładnie tak samo, jak w przekładzie chińskiego wiersza na język polski, wpływ autora na jego odbiór w Polsce na ogół zawsze kończy się na dostarczeniu wiersza tłumaczowi (por. program Telewizji PLANET „W labiryncie języków” cz. I). Nie należy uważać, że pod tym względem świat cyfrowy w jakiś istotny sposób różni się od tradycyjnego.

Warto na koniec tych krótkich rozważań o estetyce cyfrowej nakierować Czytelnika na strony internetowe Ryszarda Horowitza, by dać mu okazję posmakowania, czym jest obraz cyfrowy w ręku prawdziwego artysty, z jednej strony nienagannie panującego nad swym narzędziem pracy, z drugiej – doskonale wiedzącego, co chce przedstawić. Oto lokatory dwóch takich stron:


http://www.ryszard-horowitz.com
http://ultra.cto.us.edu.pl/RyszardHorowitz

Przy okazji warto zwrócić uwagę, że poprawne oglądanie strony domowej Horowitza wymaga instalacji komercyjnego pakietu oprogramowania Shockwave. Ciekawe, ile osób się na to zdobędzie i w jaki stylu? Czy ściągnie tylko wersję demonstracyjną, czy zakupi pełnowartościowy pakiet? Niestety, estetyka digitalna kosztuje nie tylko twórcę, ale i widza.

Na marginesie mistrzowskiego warsztatu Horowitza autor pragnie wyrazić swoją własną, choć zapewne powszechnie podzielaną opinię, że zarówno technologie tradycyjne, jak i cyfrowe miały, mają i będą mieć zarówno swoich partaczy, jak i geniuszy. Czyż nie ma racji McLuhan [2001 strona 87] pisząc: Dlatego nie jest absurdem twierdzenie, że nasze zrozumienie zmian we współczesnej komunikacji powinno pochodzić przede wszystkim od pomysłowych „techników” znajdujących się wśród współczesnych poetów i malarzy ?

Piękno jednak pozostaje pięknem, choć będzie różnie postrzegane przez określone grupy odbiorców. Było by jednak potrzebne, by estetyka chciała zwrócić uwagę również na niewidomych i ich świat wrażeń: dotyku i dźwięku, tak niesłychanie czuły i wysubtelniony, przecież znacznie poza przeciętny poziom wrażliwości – nawiasem mówiąc autor tych słów jest zapamiętałym wielbicielem A. Bocelli. Można zadać pytanie: dlaczego w Wiedniu na „deptaku” można zobaczyć rzeźbę wraz z przymocowaną do cokołu jej miniaturą – tą ostatnią przeznaczoną dla niewidomych do „oglądania” palcami, a u nas ciągle takich nie ma? Może warto przeanalizować, czy i w jakich okolicznościach taka miniatura zaburza kompozycję całości, jak należy planować jej wielkość, by uwzględnić efekt „zdolności rozdzielczej” ludzkich palców?

Rysunek dodany 1. Brązowa miniatura kościoła Macieja na Wzgórzu Zamkowym w Budapeszcie z objaśnieniami w brajlu, przeznaczona do "oglądania"  palcami. Zdjęcie autora.

Zdjęcie wykonanej z brązu miniatury kościoła Macieja na Wzgórzu Zamkowym w Budapeszcie

 A przechodząc do świata dźwięku: jak modelować głosy syntezatora mowy, by odbiór mowy syntetycznej był prawdziwą przyjemnością? Jak posługiwać się takim „rozpisaniem na głosy” sztuki teatralnej przy przetwarzaniu jej na cyfrowy dokument elektroniczny? Jak zaplanować składanie dwóch obrazów: rzeczywistego i cyfrowego na siatkówce oka (porównaj opis rysunnku 2), by wytworzyć najlepszy między nimi kontrast nie tylko w intensywności, ale i w barwie? Czy estetyka cyfrowa jest w stanie zniżyć się do takiego poziomu, by algorytmicznie wyrazić przyjemność płynącą z odbioru sąsiadujących barw obrazu w kategoriach składowych RGB lub CMYK? Czy będzie umiała matematycznie wyrazić uczucie przyjemności, czy pozostanie tylko na poziomie ogólników? Technologia cyfrowa jest z pewnością otwarta na sugestie estetyków a wydaje się, że i estetycy interesują się to dziedziną. I to rodzi nadzieję na przyszłość.

Organizacja pracy

Organizacja pracy zwykle kojarzy się z czymś urzędniczym, formalnym, o małym ładunku intelektualnym. Nowoczesna nauka o zarządzaniu zadaje kłam tego rodzaju osądom. Jako przykład warto przytoczyć fragment artykułu Murraya i Willmotta [Murray, Willmott 1997, strona 171]: W latach osiemdziesiątych teoria organizacji i zarządzania ponownie odkryła i celebrowała wagę kultury, jako witalnego czynnika na drodze ożywienia i przekierowania organizacji. Takie skoncentrowanie przyniosło w efekcie wzrost liczby inicjatyw organizacyjnych. /.../ Wzrastająca waga strategicznych celów, planowania i zmian kulturalnych znalazła swoje odbicie w przemyśleniu na nowo tego, jak wycisnąć z istoty ludzkiej jeszcze większą kreatywność i adaptowalność. Autorzy widzą to poprzez stopniową fuzję informatyzacji i technologii komunikacyjnych w skali kontynentalnej, przez wyzwolenie się od ustanowionych tradycją ograniczeń, poczucia dystansu w przestrzeni i czasie. Dla Amerykanów kultura zostaje wprzęgnięta w kierat ludzkiej produktywności. Ale zachowanie się produktywności na uskoku cyfrowym jest paradoksalne! Tak, jak we wczesnym etapie informatyzacji odkryto paradoks nadużycia papieru przez technologię komputerową, tak obecnie badania dotyczą przyczyn, dla których inwestycje poniesione na IT w sferze nieprodukcyjnej nie zwracają poniesionych kosztów, podczas gdy takie same inwestycje w sferze produkcyjnej przynoszą zyski [Brynjolfsson 1993]. Przenosząc te spostrzeżenia na grunt bibliotek Peter Lyman [1999] próbuje zdefiniować działalność bibliotek akademickich w epoce cyfrowej w kategoriach teorii ekonomicznych. Po pierwsze wypowiada sąd, że wspólnota akademicka wprowadziła do obiegu nową jakość, którą jest dokument cyfrowy, który z kolei stał się dla tej wspólnoty nowym pieniądzem, a równowaga pomiędzy produkcją i konsumpcją jest rządzona przez kulturę wymiany darów. Produkcja jest u niego przypisywana naukowcom, a konsumpcja realizowana jest przez darmowy dostęp do informacji w bibliotekach. Dla Lymana wymiana darów i wymiana rynkowa nie stoją w sprzeczności ze sobą, lecz są symbiotyczne. Ale w przypadku instytucji akademickich widzi on dwuznaczność granicy między kulturą darów i rynkiem, jako że instytucje te są zarazem korporacjami i instytucjami wspólnotowymi (community). Widzi dalej nowe rodzaje wartości dodane do informacji: hipertekst, wyszukiwanie boolowskie oraz bazy danych. Można przypuszczać, że autor chciał zasugerować decydentom, że jednak biblioteki coś od siebie dodają do istniejącego kapitału (w sensie Wristona [1992]). Misternie prowadząc swe rozumowanie próbuje Lyman zasugerować, że biblioteki nie są instytucjami, do których należy przykładać tą samą miarę, co i do zakładów przemysłowych. Jednak nie precyzuje do końca, czym należałoby mierzyć tą akademicką produktywność i zostawia temat otwarty do dalszych dociekań.

Technologia
Znakomitą większość wartościowych badań naukowych nad rozwojem technologii prowadzi się w zamkniętych laboratoriach dużych konsorcjów przemysłowych. Z reguły są one okryte głęboką tajemnicą. Wiadomo powszechnie, że poszukiwania nowych rozwiązań mają w efekcie dać inwestorom maksymalne zyski – to jest główny cel komercyjnego inwestora.

W zakresie technologii cyfrowej badania technologiczne stawiają przed sobą następujące cele cząstkowe:

  1. zmniejszenie kosztów materiałowych wytwarzania dzięki miniaturyzacji produktu oraz wprowadzenie nowych, tańszych materiałów. W chwili obecnej duży wysiłek skierowany jest na badanie możliwości dalszego zwężenia ścieżek przewodzących układu scalonego. Badania te w znacznej mierze odnoszą się do technologii procesu litograficznego wytwarzania maski oraz procesów trawienia,

  2. zmniejszenie kosztów osobowych i redukcję niestabilności procesu wytwarzania (spowodowanych wpływem czynnika ludzkiego) poprzez automatyzację tego procesu.

Oprócz tematów badań wyraźnie wskazujących na naturę kosztów, które inwestor zamierza zredukować, istnieje cały obszar badań nakierowany na eliminację, czy neutralizację poczynań firm konkurencyjnych, a przynajmniej na ich ubiegnięcie w wejściu na rynek nowym, przebojowym produktem. Można tu wymienić:
  1. Poszukiwanie nowych technologii materiałowych i komunikacyjnych. Tu na pierwszym planie lokują się badania operacyjne nad nanotechnologią materiałową i badania strategiczne nad możliwością wykorzystania technologii kwantowej do celów cyfrowych. Dalekim celem jednych i drugich jest dokonanie przełomu w skali upakowania przestrzennego elementów aktywnych (powiększenie pamięci i mocy przetwarzania systemu o rzędy wielkości) oraz zdecydowane obniżenie poziomu konsumowanej mocy

  2. Poszukiwanie nowych obszarów zastosowań technologii cyfrowej. Na szczególną uwagę zasługuje bardzo duże zainteresowanie laboratoriów badawczych implantami cyfrowymi w żywych organizmach. W tej materii inicjatorzy już teraz sięgają do współpracy z wolontariatem odwołując się do moralnych aspektów usług rehabilitacyjnych, w niepokojącym stopniu zarazem oddalając się od istniejących ustaleń prawnych. Istnieje jednak sporo inicjatyw ściśle akademickich, rozwijających tą sferę badawczą. Warto tu odnotować fakt wytrwałego organizowania od wielu lat przez Oesterrichische Computer Gesellschaft cyklu konferencji naukowych poświęconych komputerowemu wsparciu osób niepełosprawnych
    (http://www.icchp.at).

  3. Analizowanie nowych sytuacji prawnych, które wprowadzają nowe technologie.

         

2 Biblioteki w dobie przełomu technologicznego

Motto:

Istnieją dwie zasady, tkwiące w samej naturze rzeczy, które powracają w jakichś szczególnych wcieleniach we wszystkich badanych dziedzinach: duch zmiany i duch zachowania. Bez tych zasad nie może istnieć nic rzeczywistego. Sama zmiana bez zachowania to przejście od niczego do niczego. Jej ostateczne zsumowanie daje w efekcie

Alfred N. Whitehead, Nauka i świat nowożytny, 1987, strona 270.

Załamania paradygmatów społecznej misji biblioteki
W przełomowych momentach lęk przed apokaliptyczną scenerią przyszłości zdawał się niekiedy paraliżować biblioteczną klientelę i bibliotekarzy. Angelo Poliziano (Prawdziwe nazwisko: Ambrogini, żył w latach 1454-1494.), sławny piętnastowieczny florencki poeta i filolog, profesor Uniwersytetu we Florencji, zdecydowanie odrzucał wprowadzoną przez Gutenberga technologię druku, gdyż „najgłupsze pomysły mogą być teraz w jednej chwili przeniesione do tysięcy tomów i rozesłane za granicę” (Cummings et al. [1992 strona 103], Moorehead [1951]). Na nic zdała się ta krytyka. Masowość produkcji książki i związana z nią redukcja kosztów produkcji (ale i jej urody) po raz pierwszy nieubłaganie zmieniła oblicze biblioteki. Mnisi (z wyjątkiem niektórych klasztorów buddyjskich) przestali przepisywać piękne kodeksy. Przy okazji z goryczą spostrzegamy, o ileż sprawniej w dobie Internetu globalnej propagacji ulegają te najgłupsze pomysły które miał na myśli Poliziano.

Zainicjowana przez Rewolucję Francuską demokratyzacja życia publicznego i postępujące za nią upowszechnienie oświaty wprowadziły do bibliotek innego konia trojańskiego: nowego czytelnika o niezbyt wybrednych gustach, szukającego literatury popularnej (głównie fikcji) i raczej stroniącego od "poważnych" opracowań. Niestety, czas pokazał, że nowy czytelnik uparcie nie chciał się dogiąć do ustalonego przez bibliotekarzy schematu edukacyjnego: wcale nie zamierzał migrować ze swoimi upodobaniami do obszaru wyznaczonego tradycją dziejów biblioteki. Wymyślona przez bibliotekarzy "teoria windowania gustu" (ang. taste-elevation theory), która określała misyjne cele biblioteki w stosunku do społeczeństwa, straciła swój sens i została zarzucona jeszcze przed 1890 rokiem [Levy 2000]. Znowu czynnik o charakterze masowym (tu: masowy, choć lokalny czytelnik) pozbawił marzycieli wszelkich złudzeń co do tego, kto tu rządzi.

Wiek pary i elektryczności ponownie wprowadził do bibliotek zamieszanie technologiczne. W związku z planami wprowadzenia elektrycznego oświetlenia w czytelni British Museum, ekonomista William Stanley Jevons, napisał w 1881 roku alarmujący list do Superintendenta Czytelni, Richarda Garnetta, w którym czytamy m.in.: „Jestem przekonany, że Pan po prostu wprowadza konia trojańskiego”. Jevons był przeświadczony, że elektryczne oświetlenie stwarzało jeszcze większe ryzyko przypadkowego wybuchu pożaru, niż popularne wówczas oświetlenie gazowe. Ze zrozumiałych względów podobnego zdania były kompanie dostarczające gaz do mieszkań i instytucji. Nie pomogły jednak, - i na szczęście - alarmistyczne apele i memoranda. Zdecydowana postawa Edwarda Augustusa Bonda wystarczyła, aby w ciągu dekady sprawowania przez niego urzędu Głównego Bibliotekarza, światło, nowe technologie i innowacyjne przedsięwzięcia organizacyjne (jak utworzenie wielkiego zbioru fotografii rękopisów) na stałe zagościły wśród półek przyszłej British Library [Alexander 1998, strona 15].

Przełom XX i XXI wieku obdarował świat nowościami w skali, która nie miała sobie równych w przeszłości. Starsze, mniej ruchliwe pokolenie, wpadło w szpony telewizji. Młodszym, pełnym dynamiki, podzielił się Internet z telefonią komórkową. Bibliotekom trudno obecnie oderwać istotę z gatunku homo sapiens od nowych zabawek. Rozpoczął się bój o istnienie. Sto lat temu nikt nie formułował wypowiedzi podważających w jakimkolwiek stopniu sens istnienia bibliotek. Z bólem, jeśli nie ze wściekłością, Crawford i Gorman [1995, strona 111] podają taki przypadek: „Ci nowi barbarzyńcy chcą zniszczyć budynki biblioteki i zlikwidować etaty biblioteczne. Ostatnio, starszy administrator uniwersytecki powiedział podczas konferencji, że myśli, iż nigdy nie będzie zapotrzebowania na nowy lub poszerzony budynek biblioteki, ponieważ istniejące budynki biblioteki najprawdopodobniej opróżnią się w ciągu dekady. Jeśli zaś chodzi o etaty, to należy pamiętać, że jedyny model ekonomiczny, który oferuje wiarygodne oszczędności na drodze wyłącznie-elektronicznych bibliotek, robi to poprzez stosowne eliminowanie dominujących kosztów biblioteki akademickiej, którymi są pensje i godziny nadliczbowe. To nowe barbarzyństwo nie jest wyłącznością akademicką. Są tacy, którzy postrzegają biblioteki publiczne wypełnione personelem oferującym wydawnictwa drukowane jako całkowitą stratę pieniędzy i czasu”.

Odczucie zasadniczej zmiany w postawach decydentów różnych szczebli na bieg spraw publicznych stało się powszechne, w tym również wśród bibliotekarzy. Historia pokazała, że protesty bywają nieskuteczne. Alternatywą może być rewizja własnego punktu widzenia.

Poszukiwanie tożsamości

Źródła niepokoju i związanego z nim stresu są powszechnie znane. Wymienimy tu przede wszystkim lęk przed odczuwalnym obniżeniem jakości życia i widmo bezrobocia w obliczu groźby likwidacji instytucji, lub stanowiska pracy. W przypadku bibliotek mamy do czynienia z dodatkowym poziomem trosk: obawami o możliwość pełnienia ustalonej przed wiekami misji biblioteki. Można by to nazwać lękiem instytucjonalnym. Już ponad trzydzieści lat temu Leon Carnovsky [1968] w pierwszym zdaniu wstępu do książki „Library Networks - Promise and Performance” napisał gorzko: „Niemoc większości bibliotek w zakresie spełniania pewnych funkcji powszechnie im przypisywanych nigdy nie przestała być zmartwieniem tej profesji”.
W końcu lat dziewięćdziesiątych sytuacja wydaje się być znacznie bardziej dramatyczna. Przytoczmy tu jedną z syntetycznych, dobrze udokumentowanych opinii dnia dzisiejszego [Dillon, 1999]: „Jako bibliotekarze wiemy, że gdy przebudzimy się jutro, ludzkość odkryje jeszcze więcej informacji, która powinna być w naszych bibliotekach, i zanim zacznie się następny tydzień, biblioteki cofną się jeszcze bardziej wstecz w swojej odpowiedzialności za stan swoich zasobów, niż to ma miejsce dzisiaj. Bibliotek nie zaprojektowano z myślą o stawieniu czoła takiej sytuacji. Większość obecnych bibliotek bazuje na roboczym modelu wypracowanym w XIX wieku i ich struktura nie jest w stanie obsłużyć obecnego wolumenu książek, czasopism, multimediów i zasobów elektronicznych”. Warte podkreślenia jest ograniczenie się Dillona do trudności o charakterze organizacyjnym, a nie ekonomicznym. Problemem dla niego jest obsłużenie wielkiego wolumenu nabytków, a nie zdobycie funduszy na kontynuację prenumeraty. Ot po prostu embarras de richesse. Nie inaczej opisują to Case i Jakubs [1999].

W podobnym do Dillona stylu, całkiem świeżo, o szukanie nowego modelu apeluje Brindley [1998]: „główne wyzwanie, wobec którego staną biblioteki naukowe w latach 90-tych, to opracowanie modelu, za pomocą którego wgląd w drukowane czy rękopiśmienne formy naszego dziedzictwa kulturowego może być korzystnie powiązany z dostępem do informacji elektronicznej w szerokim spektrum jej form”.

Zatem nawet z amerykańskiego punktu widzenia nowy model nie istnieje i nie należy przypuszczać, że w przewidywalnym czasie zostanie złożony jako kompletna całość a - co najważniejsze - zaakceptowany przez wszystkie biblioteki. Spektrum usług, których czytelnik dziś oczekuje od biblioteki, i których oczekiwać będzie czytelnik jutrzejszy - nieustannie ewoluuje. Jeszcze raz oddajmy głos Dillonowi: „Jak to zauważył Seneca dwa tysiące lat temu Dla żeglarza który nie wie do jakiego portu podąża, niepomyślny jest każdy wiatr” [przekład W. Kornatowski, Seneca 1998]. Wśród bibliotekarzy, których znam, wiatr wieje z każdego kierunku. Oni nie wiedzą, czy stać się wydawcami, nauczycielami na odległość, administratorami systemów Web-owych, bibliotekarzami zbiorów specjalnych, trenerami, specjalistami od multimediów, prawnikami specjalizującymi się w kontraktach, czy po prostu rzucić to wszystko i zabrać się za robotę w stylu demonstrowanym przez holenderskie konglomeraty wydawnicze.

Obecna sytuacja bibliotek jest więc klasyczną grą strategiczną, znanym z literatury zadaniem, w którym myśliwy strzelając do biegnącego w poprzek linii strzału zająca, musi mierzyć w ten punkt, w którym zająca jeszcze nie ma, ale w którym prawdopodobnie się znajdzie. Przed myśliwym stoi wybór. Nacisnąć kurek spustowy, albo odwiesić dubeltówkę na ramię. Dla rodziny szarak, albo w desperacji ścięta na bruździe główka kapusty, której nie zjadł zając; zastąpiona niczym obolem dwoma złotymi pozostawionymi w torebce foliowej dla właściciela pola. Pasztet albo pokorne przejście wraz z całą rodziną na wegetarianizm. Sapienti sat.

Dillon w podsumowaniu swych przemyśleń ostrzega, ale jest jednak optymistą. Piszący te słowa w samym wniosku końcowym podziela jego zdanie. Z pewnością tragedii nie będzie. Wielcy się jakoś wyżywią (nieprzyjemne skojarzenia z niedawną przeszłością), średnim pod różnymi pozorami odbierze się trochę etatów, nie przetrwa grupka małych bibliotek publicznych czy zakładowych, do których nikt nie zechce się przyznać. Już teraz jesteśmy naocznymi świadkami tego scenariusza.

Scenariusze przetrwania

Obecnie żyjemy w czasach niesłychanie rewolucyjnych przemian technologicznych, których wpływ na losy świata jest trudny do przewidzenia. W swojej sztandarowej książce wydanej w 1948 roku przez MIT Press, Norbert Wiener, jeden z najwybitniejszych intelektów w historii ludzkości, genialny matematyk, ojciec cybernetyki, przewiduje: „Stosując czujniki [...] jesteśmy już teraz w stanie zbudować sztuczne maszyny wykazujące niemal dowolnie doskonałą sprawność i precyzję działania. Na długo przed Nagasaki i pojawieniem się bomby atomowej w świadomości publicznej zdałem sobie sprawę, że stoimy przed innym zjawiskiem społecznym o niesłychanej wadze, kryjącym w sobie dobro i zło. [...] to nowe osiągnięcia [...] dadzą [...] rasie ludzkiej zastęp nowych i niesłychanie sprawnych mechanicznych niewolników, którzy będą pracować zamiast ludzi. [...] Być może dla ludzkości jest bardzo dobrą rzeczą mieć maszyny, uwalniające ją od „czarnej” i niewolniczej pracy, a może i tak nie jest. Nie wiem. Tym nowym możliwościom nie może wyjść na dobre ocenianie ich w kategoriach rynkowych, operowanie liczbą pieniędzy, które pozwolą zaoszczędzić, a to właśnie są terminy wolnego rynku, owa ‘piąta wolność’ (fifth freedom). [...] Nowoczesna rewolucja przemysłowa [77] zmierza do zdewaluowania ludzkich mózgów, przynajmniej w dziedzinie podejmowania prostszych, bardziej stereotypowych decyzji. Oczywiście, podobnie jak zdolny stolarz, zdolny mechanik, zdolny krawiec przeżył w pewnym sensie pomyślnie pierwszą rewolucję, tak zdolny naukowiec, czy administrator przeżyje pomyślnie drugą. Jednakże, jeśli dokona się druga rewolucja, przeciętny człowiek o średnich, lub mniej niż średnich uzdolnieniach, nie będzie miał do sprzedania niczego, co byłoby warte czyichkolwiek pieniędzy. Rozwiązaniem jest oczywiście oparcie społeczeństwa na wartościach ludzkich, a nie na kupnie i sprzedaży. Na to, by dojść do takiego modelu społeczeństwa, trzeba wiele walki; w najlepszym razie - walki na płaszczyźnie idei, a może i poza nią - któż to wie?” [Wiener 1971, strony 52 do 54]. W powyższym cytacie mamy w scenariuszu przetrwania wyraźny adres osobowy: stolarz, mechanik, krawiec, naukowiec, administrator. To ważny aspekt - może się wydawać nawet, że winniśmy go od razu postawić na szczycie rozważań dotyczących scenariuszu przetrwania. Tu jednak, gdy będziemy rozważać implikacje rewolucji technologicznej w bibliotekach, skupimy się na aspekcie instytucjonalnym. Od dwóch stuleci w szczególny sposób mówi się o rewolucji, dodając do tego terminu przymiotniki: przemysłowa, społeczna, technologiczna. Niedawno temu Harris w tytule swojej pracy zapytał bez ogródek: „Czy rewolucja już się skończyła, czy może właśnie zaczyna?” [Harris, 1999]. Która to rewolucja, zapytamy? Odpowiedź brzmi: Technologii Informacji (IT revolution). Więc zaczyna się ona, czy już się skończyła? Są daleko idące podstawy do tego by przypuszczać, że niestety dopiero się zaczyna, i to wraz z całą paletą towarzyszących jej zagrożeń.

Te biblioteki, które chcą przetrwać, muszą zaadaptować się do tego co już jest i do tego co nadejdzie. Co jest - to już wiadomo; ale co może nadejść? Spojrzyjmy nieco wstecz, do historii tych, co przed nami to już grali. Nie da się oczywiście porównać Polski ze Stanami Zjednoczonymi, ani pod względem gospodarczym ani też organizacyjnym. W dodatku Polski obecnej ze Stanami, sprzed lat kilkunastu. Sięgnijmy więc do klasyki procesów dostosowania przedsiębiorstw do nowych sytuacji.

Pionier tej analizy, Alvin Toffler piętnaście lat temu próbował przekonać czytelnika do swojej wizji współzawodnictwa w gospodarce super-industrialnej, od której Polskę dzieli jeszcze nieco czasu. Oto jego na pozór dość zaskakująca argumentacja: „W przeszłości przedsiębiorstwo, które wiedziało jak najbardziej efektywnie wprowadzać standaryzację, było w stanie pokonać swą konkurencję. W przyszłości przedsiębiorstwo, które będzie wiedziało jak efektywnie przeprowadzić destandaryzację może okazać się zwycięzcą”.

Mocne słowa, ale rzeczywiście coś w tym jest. Chociaż trudno zgodzić się z tymi tezami w sensie dosłownym, to jednak jest możliwe nowe odczytanie tezy Tofflera. W tym celu zwróćmy uwagę na dwa odmienne obszary znaczeniowe pojęcia ‘standaryzacja’. W pierwszym zdaniu zdecydowanie chodzi o aspekt ‘trzymania się normy, wzorca’ - w drugim - raczej o aspekt ‘odejścia od unifikacji wzornictwa’. W takim sensie na przykład, dostarczane użytkownikowi współczesne oprogramowanie staje się bardziej atrakcyjne, jeśli umożliwia tworzenie przez użytkownika własnego profilu (definiowania własnej palety barwnej, lokalizacji pamiętanych plików itp. – tu właśnie występuje tofflerowska destandaryzacja) - zarazem trzymając się ściśle ogólnie przyjętych standardów (system komputerowy posiada interfejs okien graficznych z urządzeniem do pozycjonowania kursora wraz funkcjami typu ‘kopiuj - wklej’, interfejs znakowy w oknie konsoli operatora, oprogramowanie komunikacyjne, w tym pakiety ftp, telnet, poczty elektronicznej, przeglądarkę dokumentów hipertekstowych, itp.). Tego rodzaju interpretacja wyodrębnia z tekstów Tofflera nowe rozumienie zagadnień rynkowego uatrakcyjniania produktu lub usługi i może być doskonałą wskazówką dla placówek szukających sposobów na usprawiedliwienie potrzeby swojego istnienia.

W powyższej argumentacji mowa jest oczywiście o przedsiębiorstwie walczącym w warunkach rynkowej konkurencji o klienta z pieniędzmi. Z pewnością doskonale pasuje to do komercyjnych systemów informacyjnych. Czy może się także odnosić do bibliotek? Chyba jednak tak. Punktem zwornikowym tych dwóch obszarów jest pieniądz. Jeśli zatem biblioteka ma problemy finansowe (a chyba nie istnieje taka, która by ich nie miała) - wówczas organizacyjne działania biblioteki z konieczności winny dostosowywać się do oczekiwań strony dającej pieniądze. Warto tu zacytować twarde przewidywania Chmielewskiej-Gorczycy [1996, strona 11]: „O przetrwaniu biblioteki decydować będą bezwzględne reguły konkurencji, analogiczne do panujących w produkcji i usługach na rynkach innych niż informacyjny”.

Przedstawiona wyżej dyskusja skłania do poważnego potraktowania sprawy pobudzenia innowacyjności bibliotek, jako środka na sprostanie oczekiwaniom społecznym. Na potrzebę takiego podejścia wyraźnie wskazuje Champion [1988], upatrujący w biurokracji panoszącej się w wielu dużych bibliotekach czynnik tłumiący innowacyjność. Clayton [1997 strona 3] zdecydowanie postrzega innowacyjność jako część dziedziny zarządzania zmianami. Wojciechowski [1999 strona 11] apeluje do bibliotekarzy o rozsądne wyważenie zadań: „Bibliotekarstwo ma długie dzieje i nie ma powodu, by odcinało się od przeszłości, jednak nie rezygnując zarazem ze zmian. Logika postępu polega na zachowaniu proporcji pomiędzy kontynuacją a innowacjami - i chyba tak właśnie jest”. Zatem uważne przeanalizowanie własnej struktury administracyjnej wzbogacone o aktywną pomysłowość winno jawić się każdemu bibliotekarzowi jako właściwa droga do zabezpieczania przyszłego bytu zarówno instytucjonalnego i osobistego. Przeto nie pytaj, komu bije dzwon. Bije on Tobie.

Od pomysłu do przemysłu. Rozważania nad procesem innowacyjnym.

Motywem, który skłonił autora niniejszej książki do podjęcia tego tematu, było przeświadczenie o możliwości inspirowania działań ludzkich poprzez słowo pisane. Nie chodzi tu wszakże o skłonienie kogoś do określonego działania. Chodzi raczej o zrozumienie nieuchronności zmian, przyjrzenie się bliżej ich naturze i odnalezienie w sobie cech, które przeciwstawiają się tym zmianom. Historia cywilizacji pokazała, że innowacyjność może być skutecznym sposobem na przetrwanie.

Nieuchronność zmian technologicznych wydaje się być oczywista. Również dzieje instytucji kultury lub pojedynczych jej pomników, jakie ludzkość kreowała od wieków, to ciąg nieustannych zmian. Ostatnie stulecia przyniosły nam znacznie lepszą dokumentację tych zmian, niejednokrotnie podpartą znakomitą analizą [Tocqueville 1994]. Z pewną ostrożnością można zaryzykować tezę, że w wielu wypadkach zmiany te przypominają realizację sformułowanej jeszcze w XVII wieku pierwszej zasady mechaniki klasycznej (newtonowskiej), że każdemu działaniu towarzyszy przeciwdziałanie równe co do wielkości i przeciwne co do kierunku. Cykle obrastania pewnych instytucji, grup społecznych, czy całych narodów zachowawczą otoczką, a następnie zrzucania jej w jakichś paroksyzmach, do złudzenia przypominają doroczne zdzieranie przez płazy na kamieniach ciasnej i nieelastycznej już skóry. Zastanówmy się pokrótce, które czynniki uruchomiły ten trwający po dziś proces tworzenia wynalazków i kopiowania ich, tworzenia ograniczeń i przeciwny mu proces ich omijania.

Dawna technologia związana była z elitarnym, ściśle kontrolowanym dostępem do wiedzy. Imponujące architektoniczne pomniki przeszłości czy materialne zapisy niematerialnych wzlotów intelektu (jak kalendarz Majów) otrzymaliśmy w spadku niemalże bez dokumentacji. Nierzadko główny twórca był zabijany, by więcej nie mógł powtórzyć swego wielkiego dzieła. Już w zamierzeniu swym miało być unikalne. Chroniono technologię wytwarzania jedwabiu, porcelany, lakierów pokrywających instrument muzyczny, leków. Pojedynczy warsztat rzadko ujawniał opis technologiczny. Były jednak i wyjątki. Ostatnie badania czeskich egiptologów wskazują, że prawdopodobnie znaleziony został pierwszy opis technologii sporządzania barwników kosmetycznych. Choć to dopiero pierwsze, ciągle niepewne wyniki, skłaniamy się do opinii, że może to być tylko przypadek, który potwierdza regułę. Dawny rzemieślnik w zasadzie nie musiał się specjalnie obawiać, że ktoś będzie go podrabiać. W zakresie dóbr kultury mały był zarówno rynek producenta, jak i konsumenta. Organy w Katedrze Oliwskiej Jan Wulf z Ornety (brat Michał) budował 25 lat. Ile takich instrumentów można wybudować w życiu?

Spróbujmy zebrać podstawowe cechy wytwórczości epoki przedindustrialnej:


  1. Powolne procesy wytwarzania cechowały się wysokimi kosztami i to samo dotyczyło kopiowania. Kopie pierwowzorów były też dziełami sztuki, niejednokrotnie nie mniej wartościowymi niż oryginały (piramidy, średniowieczne iluminowane kodeksy czy kancjonały).

  2. Każda technologia i każdy produkttak długo są bezpieczne przed kopiowaniem, jak długo nie istnieją skuteczne metody analityczne, pozwalające z gotowego produktu odtworzyć skład i sposób wytwarzania.

  3. Przełomy technologiczne wprowadziło pojawienie się pierwszych metod analitycznych: chemicznych, fizycznych i biologicznych.

Z pewnością pierwszym wydarzeniem, które odmieniło zasady kreatywności człowieka było powołanie Urzędu Patentowego. Patent do jakiegoś stopnia ujawniał pewne elementy dotychczasowej, pilnie strzeżonej, - i dziedziczonej z ojca na syna, tajemnicy warsztatu rzemieślnika. Z jednej strony wprowadzenie procedury patentowej było otwarciem – z drugiej zaś zamknięciem procesu odkrywania. Ujawnienie częściowego opisu dzieła było zarazem zamknięciem drugiemu twórcy możliwości “odkrycia” tej samej drogi. Prawdopodobnie jednym z pierwszych w historii był angielski patent na produkcję szkła witrażowego do Kaplicy Królewskiej, przyznany w 1449 r. Johnowi z Utynam przez króla Henryka VI [ Davenport 1989 strona 6]. Że był to wypadek odosobniony świadczy fakt, że następny patent brytyjski (nb. też na produkcję szkła witrażowego) został wydany dopiero po stu latach. Od polotu twórcy zależała efektywność blokady przyszłej konkurencji. Klasyczna literatura z podziwem wspomina genialność Singera, który właściwie nie opatentował samej maszyny do szycia – a sposób szycia igłą, która ma dziurkę na początku, a nie na przeciwległym końcu. Warto zwrócić baczną uwagę na to, że patent musi być jednak tak sformułowany, by nie blokował dalszego rozwoju procesu innowacyjnego. To samo dotyczy ograniczeń związanych z egzekwowaniem praw autorskich. Zacytujmy in extenso brzmienie nowej wersji Ustawy o prawie autorskim i prawach pokrewnych. Artykuł 74 ust. 2 otrzymał brzmienie:

“2. Ochrona przyznana programowi komputerowemu obejmuje wszystkie jego formy wyrażenia. Idee i zasady, będące podstawą jakiegokolwiek elementu programu komputerowego, w tym podstawą łączy, nie podlegają ochronie (podkreślenie autora)” .

A więc idee pozostają własnością publiczną, dostępną każdemu za darmo. I taki jest warunek wszelkiego rozwoju. Ale to co dziś jest własnością prywatną – jutro może stać się własnością publiczną. Może stać się to w drodze wygaśnięcia praw autorskich, aktu dobrowolnego zrzeczenia się praw lub wreszcie aktu sądowego, czy administracyjnego (upaństwowienie, pozbawienie lub odebranie praw - aktem takim było na przykład karne ujawnienie technologii produkcji fotograficznych materiałów barwnych niemieckiej firmy Agfa po II Wojnie Światowej [Dubiel, Iliński 1966 strona 26]). Jest rzeczą interesującą, że ten ostatni przypadek to nie jakiś relikt totalitarnej przeszłości, ale swojego rodzaju codzienność cywilizacyjna. Świadczą o tym liczne wyroki Sądu Najwyższego Stanów Zjednoczonych. wymierzone przeciwko największym potęgom przemysłu informatycznego. Być może jest to swojego rodzaju signum temporis, że jako najczęstszy motyw wymuszenia podaje się nadrzędność ochrony interesów konsumenta nad partykularnymi interesami wielkich firm. I tu mamy kolejną ciekawostkę: do tej chwili tego rodzaju interwencje nie były skierowane przeciwko jednostkom, lecz zwykle przeciwko korporacjom i nie dotyczyły one obszaru artystycznego, lecz technologicznego.

Jakie są przyczyny, że utrzymywanie całkowitej tajemnicy warsztatu jest nieopłacalne? Otóż utrzymanie szczelnej tajemnicy jest niezmiernie kosztowne. Przyczyną tego jest nieuczciwość ludzka pożeniona ze współczesną technologią. Jedynym czynnikiem regulującym przepływ technologii we współczesnym świecie jest pieniądz. Świadczy o tym historia rozprzestrzeniania technologii atomowej, której nie było w stanie zapobiec żadne embargo. Ale też świadczy o tym szybkość automatycznego odtwarzania gotowego produktu. Już dawno temu na Zachodzie ukuto termin reverse engineering, odwróconej inżynierii. Oznacza on detaliczne zbadanie jakiegoś produktu celem ustalenia i odtworzenia technologii jego wytwarzania. Chyba nie ma żadnego współczesnego państwa, które po cichu nie splamiłoby się tego typu kradzieżą dóbr intelektualnych. Wybuchające po dziś dzień procesy pomiędzy firmami z branży komputerowej w Stanach Zjednoczonych są najlepszym tego przykładem.

A w bibliotekach co można poprawić? Jak można je uatrakcyjnić i przyciągnąć już szybko uciekającego czytelnika? Mamy tu na polskim gruncie kilka dobrych przykładów efektywnej działalności bibliotek na polu gromadzenia na takie cele funduszy od różnych fundacji. Z uznaniem należy ocenić wielkie sukcesy dużej grupy bibliotek akademickich w zakresi w online. Prawdziwą, realizowaną na wielką skalę w Polsce rewelacją, jest utworzenie graficznego obrazu archiwalnego katalogu alfabetycznego Biblioteki Jagiellońskiej dostępnego w Internecie wraz z prostym indeksem alfabetycznym „wirtualnych skrzynek” [7] . Bardzo pożyteczną inicjatywą jest "podpięcie" do katalogu online przez Bibliotekę Główną Uniwersytetu Gdańskiego pierwszych pełnotekstowych dokumentów z przygotowanej pod kierownictwem Marka Adamca z Uniwersytetu Gdańskiego, jakościowo zweryfikowanej i opatrzonej notami biograficznymi Wirtualnej Biblioteki Arcydzieł Literatury Polskiej (projekt UNESCO, http://monika.univ.gda.pl/~literat/index.htm). Te podpięte do OPACu cyfrowe dokumenty elektroniczne po raz pierwszy stawiają niewidomego „czytelnika” biblioteki na równi z czytelnikiem widzącym, stwarzając nowe okoliczności o naturze społecznej. Niewidomy może nie tylko przeglądać katalog, ale również pobrać wyselekcjonowaną książkę. Biblioteka Uniwersytetu Warszawskiego oprócz swych wspaniałych zasobów zaoferowała czytelnikowi szereg budzących wdzięczność dogodności, w tym również bardzo drogie urządzenia dostępowe dla niewidomych (projekt "Uniwersytet dla Wszystkich"). Nie sposób zapomnieć o prowadzonych przez długie lata w Bibliotece Głównej Politechniki Wrocławskiej szkoleniach w zakresie automatyzacji procesów bibliotecznych. I to są przykładowe propozycje dla bibliotek, które pragną z powrotem odbudować szybko pogarszającą się pozycję potrzebnej społecznie instytucji kultury i edukacji.

Przykłady te świadczą, że duch w narodzie nie ginie. Jest jednak rzeczą zastanawiającą, że w wielu przypadkach po pierwszych sukcesach w zdobywaniu konkursowych pieniędzy instytucje często wchodzą w wieloletni okres pasywnej działalności na osiągniętych pozycjach.

Między wojną a zabawą. Czynniki kształtujące wizje rozwoju technologicznego

Autor nie jest w najmniejszym stopniu znawcą gier komputerowych, jednak ośmieli się wyrazić pogląd, że dominująca liczba powszechnie dostępnych na rynku gier komputerowych, bynajmniej nie są odpowiednikami dwu- czy trójwymiarowego TETRISa. To po prostu wojskowe programy symulacyjne dla ubogich (.... - tu aż ręka sama się prosi o dodanie jeszcze jednego przymiotnika ...). Powątpiewać należy, czy jest to przypadek. W mistrzowski sposób wykorzystane zostały: ludzka skłonność do rywalizacji, zmagań i walki - z cynicznym planem szkolenia przyszłego rekruta za pieniądze jego rodziców. Wydatki poniesione na przygotowanie wojskowych programów symulacyjnych, po odtajnieniu starszych wersji oprogramowania i nieznacznej ich modyfikacji wracają do budżetu wojskowego poprzez łańcuch odsprzedaży licencji. W obszarze informatyki promocja gier symulacyjnych spełnia tą samą rolę ekonomiczną dla nowoczesnej armii, co dostarczenie do sieci istniejących sklepów turystycznych wycofanego wojskowego umundurowania oraz wyposażenia tak prostego jak detektory metali dla poszukiwaczy zgubionych obrączek, pierścionków i zegarków na plażach i tak zaawansowanego technologicznie jak noktowizory dla myśliwych. Praktycznie większość dostępnych w handlu urządzeń tzw. zaawansowanej technologii to przestarzałe o 3 - 5 lat urządzenia wojskowe, wolniejsze, bardziej zawodne i z całą pewnością nie stwarzające zagrożenia tym, którzy je odtajnili.

Współczesna doktryna wojskowa stara się zminimalizować subiektywne zachowanie człowieka i zobiektywizować opis rzeczywistości. Tego rodzaju postępowanie przyczynia się do niezwykłego wprost wykorzystania wszystkich najnowszych zdobyczy matematyki i inżynierii. Z zażenowaniem jednak uświadamiamy sobie, że system, który w tej chwili próbuje się wykorzystać do transmisji obrazu widzianego przez kamerę wprost do mózgu osoby niewidomej, w prostej linii wywodzi się z systemu rozpoznawania przestrzeni stosowanego w pociskach manewrujących typu „Tomahawk”. Tego samego pocisku, dla którego - używając słów dowódcy operacji „Pustynna Burza” - nie stanowi problemu trafienie w określone okno określonego domu, natomiast stanowi problem trafienie w określony obraz wiszący na ścianie, pod warunkiem, że pocisk wpadł przez określone okno. Ale czyż prestiżowe nagrody Nobla nie pochodzą z dochodów przynoszonych przez przemysł zbrojeniowy Królestwa Szwecji? A obecne biometryczne systemy identyfikacji użytkownika systemu komputerowego, czyż w prostej linii nie są produktami rozwoju policyjnych metod identyfikacji przestępców? Jednak należy przy tym wszystkim pamiętać, że tego rodzaju produkty, które są dziedzicznie obciążone swoim wojskowym czy policyjnym pochodzeniem, mogą w okresie niestabilności politycznej stać się przyczyną dużych niespodzianek. W roku 1999 popularny program „Discovery” ujawnił, że amerykański sprzęt telekomunikacyjny sprzedany do Polski na przełomie lat 80 i 90 zawierał elementy pozwalające zniszczyć go na odległość w przypadku konfliktu zbrojnego. Informacja ta automatycznie nasuwa nowe pytania odnośnie tego, co nie zostało wypowiedziane. Nie ma wątpliwości, że każdy posiadacz nowoczesnego sprzętu informatycznego i telekomunikacyjnego - w tym również nowoczesna biblioteka - musi mieć świadomość wszelkich konsekwencji gry, w której bierze udział. Za innowację opartą o cudze produkty można niekiedy bardzo wiele zapłacić.

Wspomniane czynniki wojskowe stanowią, oczywiście, tylko jedną część łańcucha innowacyjnego. W gospodarce wolnorynkowej większość czynników stymulujących rozwój ma charakter ekonomiczny. Wymienimy kilka z nich:

Wydaje się, że do przypadku bibliotek trudno w pełni przykładać miarkę wolnorynkową. Z pewnością przyszłość inaczej będzie się obchodzić z Biblioteką Narodową czy z dużą biblioteką akademicką, a inaczej z małą biblioteką publiczną. W każdym wypadku czynnik ekonomiczny będzie odgrywał poważną rolę, ale nie w każdym wypadku doprowadzi do likwidacji biblioteki. Przyglądając się na bieżąco sukcesywnej likwidacji w Polsce małych połączeń kolejowych nie trudno jednak przewidzieć scenariusz nadchodzących wydarzeń w świecie bibliotek. Utrzyma się to stanowisko pracy, którego obecność będzie niezbędna dla funkcjonowania biblioteki. Przeżyje ta biblioteka, która na czas usprawiedliwi, że jest potrzebna. Wychodząc z amerykańskiej perspektywy taką prognozę daje Cynthia Borys [2000, strona 29]: Czasy, kiedy biblioteka była bezdyskusyjnie uznawana za społeczne dobro i filar systemu edukacyjnego i kultury, należą już do przeszłości. Obecnie, aby przetrwać w warunkach konkurencji w stosunku do ograniczonych zasobów informacji, biblioteki i bibliotekarze muszą być postrzegani jako niezbędni dla zaspokojenia potrzeb informacyjnych klientów i użytkowników

Borys w dalszych zaleceniach kładzie wyraźny nacisk na potrzebę uświadomienia bibliotekarzom służebnej roli bibliotek w stosunku do społeczności, która je finansuje.

Interesowni altruiści - mechanizmy nakręcania koniunktury

Powyższy podtytuł jest oczywiście prowokujący. Może jest nawet i trochę krzywdzący wobec niektórych przedsięwzięć czy firm. Mam tu na myśli kilka znakomitych inicjatyw technologicznych. Przyjrzyjmy się im nieco bliżej. Duża firma opracowująca jakieś nowatorskie, jeszcze zupełnie nieistniejące na świecie rozwiązanie, w naturalny sposób mogłaby je opatentować i przejąć monopol produkcyjny. A tu zdarza się, że firma udostępnia za darmo pewne istotne fragmenty technologii wszystkim, bez ograniczeń. Na wstępie warto tu wymienić holenderską firmę Phillips, która zdecydowała się oddać światowej społeczności (dodajmy - społeczności producentów) licencję na ciągle dziś popularną kasetę magnetofonową. Dobrych kilka lat później IBM - amerykański kolos komputerowy, zdobywa się na wiekopomny wyczyn udostępniając w postaci otwartej licencji technologię płyty głównej komputera osobistego wraz z niemal całym kodem Bazowego Systemu Wejścia - Wyjścia (BIOS). Nie udostępniona część BIOSu nie miała wpływu na funkcjonowanie systemu operacyjnego komputera. Wkrótce po IBM-ie podobnego posunięcia dokonuje Osborne Corporation w stosunku do swojego przenośnego modelu Executive. Kolejnym kamieniem milowym w tym łańcuchu otwartych licencji będzie ponownie Phillips z technologią CD. Pominęliśmy tu szereg innych firm, żeby skupić się na mechanizmach towarzyszących tym ważnym momentom ze świata technologii.

Przekazanie komuś pojedynczego daru o charakterze konsumpcyjnym nie jest niczym szczególnym. Publiczne udostępnienie metody robienia pieniędzy budzi zastanowienie. Być może świat producentów posługuje się inną hierarchią wartości, niż przeciętny zjadacz chleba. Fakt jednak pozostaje faktem i może być poddawany analizie.

Upowszechniając licencję na geometrię kasety magnetofonowej, Phillips pobudził co najmniej cztery rynki, w tym jeden najważniejszy: rynek konsumenta. Magnetofon kasetowy od razu jawił się przeciętnemu człowiekowi jako tani, osobisty i przenośny przyrząd, który dawał możliwość swobodnego zapisu dźwięku i odtwarzania go na każde życzenie. Masowe zapotrzebowanie na sprzęt tego typu pobudził kolejne rynki: autorski, producenta oraz dystrybutora. Nie ma wątpliwości, że ani Phillips, ani żadna inna firma na świecie nie jest w stanie nasycić sprzętem osobistym całego świata. Można stąd wyprowadzić interesujący wniosek. Jeśli wynalazek jest tej klasy, że staje się obiektem namiętnego pożądania prostego człowieka, wynalazca poprzez swoją firmę powinien niezwłocznie udostępnić opis techniczny urządzenia w postaci licencji otwartej. Nie popełnił błędu IBM trafnie rozpoznając, że nawet pierwotnie dość drogi komputer może stać się sprzętem osobistym. Przepaść technologiczna jaka dzieli pierwszego IBMowskiego PC Juniora od dzisiejszych potężnych maszyn jest niewiarygodna. I niewiarygodnie niska jest zarazem cena jednostki mocy przetwarzania dzisiejszego PC-ta, jakkolwiek byśmy ją liczyli. Ale zauważmy też, że do dzisiejszego sukcesu komputera osobistego natychmiast dołożyło swoją Wartość Dodaną grono zacnych firm. Na swojej dość odmiennej platformie Apple pomysłowo posłużył się wynalezioną przez Rand Xerox Corporation myszą, budując przyjazny interfejs graficzny użytkownika (GUI), który oczarował na długie lata całą Amerykę. Microsoft - jakby tu zgrabnie, a adekwatnie powiedzieć - zmałpował jabłeczne GUI na platformę PC (co się zresztą skończyło procesem - bynajmniej nie przegranym przez Microsoft). Tak tworzyły się podstawy obecnych platform MS Windows (wersji 3.1, 3.11, 95, 98, NT, 2000). W tle byliśmy świadkami wojny sprzętowej pomiędzy producentami procesorów. I tu ciekawostka. Intel nigdy nie decydował się udostępnić technologii swoich procesorów. Olśniewające sukcesy PC-tów wyrosłych na bazie procesorów Intela skłoniły jednak kilka firm mikroelektronicznych do zaprojektowania własnych procesorów mających identyczną listę rozkazów z intelowskimi. Nie wszyscy wytrzymali tempo tego wyścigu. Z dystansu kilku ubiegłych lat widać, że na placu boju pozostał Intelowi tylko jeden dobry przeciwnik (AMD), a przy okazji system patentowy USA po kilku konwulsjach wyartykułował istotny element nowego typu zastrzeżeń patentowych w zakresie mikroelektroniki: wynalazca zastrzega system masek litograficznych. Warto uczynić tu drobną, acz symptomatyczną dygresję o zabarwieniu europejskim. W tym samym mniej więcej czasie, gdy w USA znalazło się kilka firm, które w krótkim czasie zaprojektowały i uruchomiły produkcję udanych klonów intelowskiej serii procesorów x86, w Europie upadła inicjatywa ponad narodowej produkcji własnego procesora. I to z udziałem takich potęg mikroelektroniki jak Phillips, Siemens, CSF Thomson czy Olivetti. I to wbrew nadziei, jaką już dawno stwarzało wymyślenie i uruchomienie produkcji transputerów w Zjednoczonym Królestwie. Czyżby złożoność procesu produkcji procesorów ujawniła syndrom technologicznej Wieży Babel w Europie? A może ta prawidłowość dotyczy nie tylko sprzętu? A czyż rynek europejskiego oprogramowania nie jest zdominowany przez produkt amerykański, co w szczególności dotyczy systemów stosowanych w bibliotekach?

Udział poza-intelowskich typów procesorów (PowerPC, Alpha) na rynku szeroko rozumianych komputerów osobistych nie jest duży i w zasadzie jest zdominowany przez Apple’a, który w oparciu o platformę PowerPC stara się powoli zdominować rynek poligraficzny, podobnie jak Motorola zdecydowanie dominuje w sprzęcie telekomunikacyjnym. Widać obecnie, że po kilku roszadach organizacyjnych i personalnych, pogłębiły się specjalizacje zarówno w oprogramowaniu, jak i sprzęcie, i znów pojawiają się dominacje o charakterze monopolistycznym.

Wydaje się, że możemy już mówić o monopolu konsorcyjnym. Firmy opracowujące oprogramowanie użytkowe (jak np. systemy obsługi procesów bibliotecznych) wchodzą w porozumienia z firmami wytwarzającymi oprogramowanie zarządzające bazami danych i oferują bibliotekom oprócz własnej aplikacji również moduły rozruchowe (Run Time) po bardzo atrakcyjnych cenach. Równocześnie rychło okazuje się, że użytkownik aplikacji (biblioteka) szybko wpada w mechanizm oscylatora (przepraszam za aluzję), gdy dowiaduje się, że nowa wersja oprogramowania bibliotecznego wymaga nowej wersji systemu zarządzania bazą danych, a być może i nowej wersji pomocniczego kompilatora. Analogiczne sprzężenia interesów występują między projektantami płyt głównych do komputerów osobistych, producentami procesorów, pamięci a nawet projektantami interfejsów oraz oprogramowania systemowego. Jest to zjawisko tak powszechne i negatywne, że wymaga przeciwdziałań systemowych, które jednak nie będą tu przedmiotem dalszej dyskusji. Ciekawe uwagi w tej materii znajdzie Czytelnik w książce Coxa [2000], szczególnie na stronach 202-213.

Dla dodania przysłowiowej kropki nad ‘i’ można powiedzieć, że sam akt „altruizmu licencyjnego” nie musi w efekcie okazać się korzystny dla firmy. Świadczy o tym najlepiej przykład Osborne Corp., która przedwcześnie ujawniła znakomite cechy nowego modelu komputera, przy ciągle znacznym wolumenie niesprzedanego starego modelu, zalegającego magazyny punktów dystrybucyjnych. Mimo rozpoczęcia produkcji klonów ‘Executive’ na Dalekim Wschodzie rynek amerykański Osborna załamał się, ponieważ przedwcześnie uświadomiony konsument nie chciał już kupować ciągle zalegającego półki, starego, wyraźnie słabszego modelu. Doskonała firma (model O-1 został nagrodzony na targach komputerowych w Kalifornii) wpadła w pułapkę kredytową i musiała ogłosić upadłość.

Interesowni altruiści - w obronie własnej skóry

Pojawienie się globalnej sieci komputerowej dało konsumentowi do rąk niezwykłe narzędzie: niewiarygodnie tanią infrastrukturę pracy kooperatywnej w systemie rozproszonym. Połączone siły intelektu, których nie dzielą morza i oceany, ma niesłychane możliwości wytwórcze. Konsument, wciskany w pułapkę wyścigu technologicznego i zmuszany do nieustannego wydawania pieniędzy na coraz to nowy sprzęt i oprogramowanie, przedzierzga się programistę i rozpoczyna tworzenie globalnych, software'owych „klocków LEGO”. Jeśli Gaspar zrobi jeden moduł, Mark - drugi, a Roman [9] - trzeci - to wszyscy trzej mają po trzy moduły, choć każdy z nich zrobił tylko jeden. Potrzebny jest tylko wspólny magazyn. Już od samego początku istnienia Internetu istnieje taka podstawowa usługa, zwana serwerem FTP. W ramach tego serwera stworzono jednak znakomitą możliwość: anonimowy dostęp użytkownika - usługę udostępniania nie chronioną hasłem dostępu. Taki serwer anonimowego dostępu to bezinteresowna przechowalnia oprogramowania (a niekiedy i danych). To usunęło wszelkie bariery psychologiczne. Stara idea spółdzielczości natychmiast zaczęła zbierać na sieci coraz bogatsze żniwo: masowo pojawia się produkt oferowany darmowo (ang. freeware, Public Domain). W jakimś więc sensie Anonymous FTP realizuje piękną rzymską maksymę przytaczaną przez Symmachusa (druga połowa IV w. n.e.): Oratio publicata res libera est (mowa opublikowana jest rzeczą wolną) [Głombiowski, Szwejkowska 1971:56]. Dający nie pyta, czy biorący sam coś włożył do wspólnego kubła, a biorący nie musi się tłumaczyć kim jest i po co bierze. Internet stał się osobliwą komuną, całkowicie dobrowolną, zbiorowiskiem dziwnych ludzi, dla których darzenie innych staje się szczególną radością (szkoda, że dotyczy to również produkcji wirusów). Czyżby zaczęły już pobrzmiewać pierwsze świergoty tego wydumanego przed półwieczem przez Wienera ptactwa wolności, co to chce budować społeczeństwo na innych niż rynkowe zasadach? Dodajmy, że ta cała darmowa oferta dotyczy głównie oprogramowania, choć jest też pewna liczba darmowych, kompletnych opisów technologii sprzętowej, do samodzielnego wykonania w domu.

Wśród dostępnego za darmo na sieci oprogramowania, specjalną pozycję zajmują produkty oferowane w postaci kodu źródłowego. Posiadanie kodu źródłowego to fantastyczna korzyść - kończy się niewolnicza zależność od producenta oprogramowania. Taki kod można sobie samemu modyfikować na miarę własnych potrzeb. I takie oprogramowanie tworzone jest i udostępniane od początku istnienia Internetu. Jednak absolutnie najwyższą pozycję zapewnił tu sobie opracowany w Europejskim Centrum Badań Jądrowych w Genewie, popularnym CERNie, HyperText Transmission Protocol (HTTP). Dzięki temu cichemu bohaterowi Internet jest dziś tym, czym jest: potęgą, do której największe potęgi światowe w pośpiechu dostosowują swoje prawo. Do publicznie dostępnej specyfikacji protokołu HTTP kolejną Wartość Dodaną dorzucili ponownie Amerykanie udostępniając darmo światu Mosaic - pierwszą graficzną przeglądarkę dokumentów hipertekstowych. Wreszcie powstał system operacyjny LINUX - kolejna darmowa, i niezwykle obecnie popularna mutacja sprawdzonego przez lata wielozadaniowego i wielodostępnego UNIXa. Jest on dostępny obecnie nie tylko na komputery z procesorem Intelowskim, ale również i na inne platformy procesorowe. Pierwotnie lekceważony przez światowych wytwórców sprzętu i oprogramowania, został wreszcie w pełni doceniony. Nie ukrywajmy: stało się to oczywiście za przyczyną samego twórcy systemu, Fina Linusa Thorvaldsa, ale sukces byłby nie do osiągnięcia bez ogromnego, twórczego wkładu często bezimiennej Sieci. Model Open Source Software stał się już przedmiotem poważnych badań naukowych; warto tu przytoczyć takie najnowsze publikacje jak: Sharma et al. [2002], Koch [2002], czy Stamelos et al. [2002].

Z żalem można zauważyć, że te postawy bezinteresownego dzielenia się własnym dorobkiem ciągle nie mogą sobie uwić gniazdka w polskich bibliotekach. W ciągłym uganianiu się za funduszami jak ognia unika się tego, by oddać za darmo coś, podzielić się z kimś tym, na co się samemu wydało pieniądze. Wziąć coś darmowego? Z największą radością! Dać coś w darze? A co ja z tego będę miał / miała? Podejrzeć coś, co ktoś opracował i sam ukrywa? Owszem, udało mi się; potrafię ich obejść! Ale na uszach będę stawać by inni nie zobaczyli, jak ja to robię i co u mnie jest! Prace zlecone? Jeszcze podołam. Przeszkolić innych? Podzielić się pracą płatną z zewnętrznych funduszy? Nie ma potrzeby - sami damy radę, tego nie jest aż tak dużo!

Ktoś kiedyś musi przekroczyć ten zaklęty krąg. Wierzyć trzeba głęboko, że właśnie w Polsce wyrasta pokolenie o którym pisał Toffler, pokolenie zupełnie odmienne od swoich rodziców. Ale też życzyć sobie trzeba, by to pokolenie nie odrzucało tego, co było w przeszłości dobre, ale tylko to co było złe. I tak jak to niejeden z nas sobie westchnie: ... i naucz mnie, bym umiał odróżnić jedno od drugiego.

Oczekiwania i nadzieje.

O bibliotekach od dawna wypowiadają się wszyscy, którzy mają z nimi cokolwiek wspólnego: czytelnicy, bibliotekarze i naukowcy. Komentator zwykle kieruje swe oczekiwania pod dwa adresy: zasobów biblioteki oraz usług oferowanych przez nią. Chociaż biblioteka nie jest w znaczniejszym stopniu instytucją rynkową, tradycyjnie już afiszowała się swoim liczeniem się z opinią czytelnika: obsługa czytelniczych dezyderatów nie jest niczym nowym. Inna sprawa, że czytelnik nie zawsze czuł się należycie przez bibliotekę zadbany. Czytelnik XXI wieku już został wystarczająco przetrenowany przez podróże, media i przyjaciół, by wypowiadać swe oczekiwania i egzekwować prawa. Mówiąc słowami Wrighta [1995 strona 192]: W naszym uniwersytecie doktoranci szybko nauczyli się jak "korzystać" z biblioteki na odległość - przeszukując katalog, indeksy CD ROM-ów, używając gophera do dostępu do obcych katalogów i jako wejściowej drogi do Internetu. Wysyłają zamówienia międzybiblioteczne pocztą elektroniczną i zakładają sobie konta czytelnicze w bibliotekach specjalnych. Sprawdzają dane bibliograficzne ze swoich laboratoriów studenckich i pracowni naukowych. W miarę jak zapoznają się z tego typu usługami bibliotecznymi,j wzrasta ich zainteresowanie usługami bardziej zaawansowanymi. Zaczynają zadawać pytania o możliwość otrzymania plików pełnotekstowych ORAZ rysunków z czasopism. Abstrahując od pewnej dezaktualizacji wywoływanych przez Wrighta terminów (kto dziś używa gophera?), sytuacja w Polsce niewiele odbiega od powyższego opisu. Powtórnie warto przywołać Chmielewską-Gorczycę [1996 strona 11]: Porównanie usług własnej biblioteki z innymi spowodowało falę nowych żądań i oczekiwań, szczególnie w zakresie podniesienia jakości usług, np. lepszych narzędzi wyszukiwania rzeczowego (m.in. przez zaopatrzenie opisów w abstrakty i spisy treści), elektronicznego dostarczania pełnych tekstów dokumentów, których opisy znajdują się w OPAC

Część z tych oczekiwań ma charakter uniwersalny, niezależny od czasu i natury biblioteki (np. że zasoby są kompletne i zawierają informacje prawdziwe). Warto zebrać te oczekiwania w grupy morfologiczne.

Od zasobów i wyposażenia sprzętowego biblioteki oczekuje się:

  1. Trwałości
  2. Posiadania najważniejszych wydawnictw w profilu biblioteki
  3. Polityki zakupu wszystkich "ważnych" pozycji
  4. Kontynuacji tytułów wydawnictw ciągłych (również w wersji on line)
  5. Dostępności zbiorów (minimalizacja czasu opracowania, oprawy i konserwacji) [10]
  6. Sprawnego wyposażenia technicznego (czytniki mikroform, skanery kodu paskowego, komputery)

Co do pierwszych czterech punktów oraz punktu ostatniego stanowisko bibliotekarzy jest w zasadzie idealnie zgodne ze stanowiskiem czytelników. Co do punktu piątego (dostępności), w pewnych klasach dokumentów stanowiska te bywają podzielone ze względu na stan fizyczny zasobów, nieprzeciętną wartość konkretnego wydawnictwa i trudności z odpowiednim poziomem dozoru, lub jakąś formę cenzury (zagrożenie zniszczeniem, względy polityczne, religijne, czy inne).

Od usług bibliotecznych czytelnik oczekuje:

  1. Istnienia opcji zdalnej obsługi (własny katalog online, centralny katalog narodowy online, moduł wypożyczalni międzybibliotecznej dostępny z konta osobistego)
  2. Możliwości otrzymania osobistej kopii poszukiwanego materiału w żądanej formie/formacie (mikrofilm, faks, kserokopia, plik komputerowy)
  3. Bardzo szybkiej obsługi
  4. Skutecznego i intuicyjnego interfejsu wyszukiwawczego, pozwalającego na proste przeniesienie zapytania z lokalnej biblioteki na poziom miasta, kraju, czy całego świata
  5. Nieustannej dyspozycyjności systemu (7 dni w tygodniu, 24 godziny na dobę)
  6. Profilowania usług (personalizacji)
  7. Statystyki
  8. Systemu pomocy
  9. Systemu odwołań
  10. Forum/listy dyskusyjnej dezyderatów

W materii usług bibliotekarz i naukowiec w zasadzie akceptują oczekiwania czytelników, jednak uzupełniają je o pozycje w jakimś sensie komplementarne. Można tu wymienić następujące cechy:

  1. Bezpieczeństwo całości systemu (nieruchomości, zasobów ludzkich i materialnych)
  2. Skalowalność systemu (skuteczne, dynamiczne dostosowanie się do zmieniającego się zapotrzebowania na zakres obsługi) - brak kolejek przy terminalach katalogowych, okienkach wypożyczalni itp.
  3. Prostotę obsługi / utrzymania
  4. Niskie koszty eksploatacji
Niestety, skromne fundusze zwykle narzucają określoną hierarchię zachowań, nie zawsze zgodnych z oczekiwaniami czytelnika. Omawiając problem powszechnego przedkładania przez bibliotekarzy "służby książce" nad "służbę czytelnikowi" Sitarska [1990 strona 160] przypomina, że w modelowych ujęciach pod względem hierarchicznym akwizycja i udostępnianie traktowane są równorzędnie; zarazem sucho uzupełniając to pragmatycznym komentarzem: Dość obiegowa jest opinia, i to nie tylko w Polsce, że "rasowy" bibliotekarz mając do dyspozycji jakąś kwotę dla biblioteki, w sytuacji wyboru czy wydać ją na zakup pożądanej książki, czy też zużyć na doskonalenie dostępu do książek już posiadanych, z reguły i bez wahań kupi książkę. Tak jest w praktyce. [ibid.:161]. Ergo - w tej wojnie przegra zawsze czytelnik.

Z powyższego widać, że niektóre pary oczekiwań mają charakter antynomiczny, w szczególności niskie koszta kłócą się prawie z każdą cechą. Zatem typowa biblioteka, wraz z jej wszystkimi uwarunkowaniami, na ogół nigdy nie spełnia pokładanych w niej oczekiwań. Stąd marzenia zainteresowanych stron obecnie coraz częściej kierują się ku najnowszym technologiom, których spektakularne osiągnięcia stwarzają nadzieje na przynajmniej częściowe zaspokojenie dotąd nie spełnionych potrzeb i marzeń. Rozważania, które będą prowadzone na kolejnych stronach, mają na celu zasugerowanie możliwie optymalnych rozwiązań: zarówno dających znaczną satysfakcję czytelnikowi, jak i będącymi do przyjęcia dla bibliotekarzy.

3 System

Motto:
Ważną własnością systemów jest ich zdolność do odpowiedzi na zmiany, do dostosowania samych siebie do swego otoczenia i zapewnienia sobie stabilności, wystarczającej do przetrwania. Cechy usług bibliotecznych zdają się zaprzeczać tej własności. Upatruje się w nich niemoc do adaptacji i słabą stabilność. Oddźwięk na wszystko, co zdarza się w bibliotece, jest ogólnie mówiąc, lichy, niekompletny, lub wogóle go nie ma; cele usług bibliotecznych są mgliste; same usługi są często krytykowane za brak reakcji, a bibliotekarze - za brak kontroli nad otoczeniem.

Michael K. Buckland, “Library Services in Theory and Context”, 1988, strona 28.

Wstęp

Zgodnie z przyjętą w tej książce linią prezentacji, pojęcie systemu będzie ograniczone do tych elementów budowy systemu cyfrowego, których znajomość może się okazać pożyteczna dla bibliotekarzy zarówno w pracy codziennej, jak i w planowaniu zachowań strategicznych.

Środowisko cyfrowe systemu nowoczesnej biblioteki, podobnie jak i innych instytucji pełniących służbę publiczną, jest - czy to nam się podoba, czy nie, komputero-centryczne. Wokół komputera organizowane jest pewne otoczenie sprzętowo – programowe, pozwalające na komunikację między człowiekiem i maszyną [Zorkoczy, Heap 1995]. Bogactwo czy ubóstwo takiego systemu zależy z pewnością od pieniędzy, ale chyba w jeszcze większej mierze od wykształcenia i organizacyjnych umiejętności jego zarządców. Obecne wyposażenie bibliotek jest w tej materii nad wyraz skromne i tylko najbogatsze z nich będą mogły zdobyć się na niektóre z urządzeń opisanych poniżej. Jak dotąd do najdroższych elementów systemu należą duże firmowe serwery, szybkie sieciowe systemy archiwizacyjne dużej pojemności oraz praktycznie całe oprogramowanie. Tylko rozwiązania o charakterze konsorcjum dają szansę mniejszym bibliotekom na podjęcie pracy w nowoczesnych, bezpiecznych systemach. Na szczęście świadomość wagi tego problemu stała się w Polsce wystarczająco powszechna, by zapewnić stabilność na poziomie regionalnym. Ciągle pozostaje problemem integracja techniczna różnych platform i harmonizacja prac na poziomie międzysystemowym. Ale przełamanie tego impasu jest zapewne kwestią niedługiego już czasu.

Na całość systemu składają zasoby ludzkie, sprzętowe, programowe oraz wszelkiego rodzaju dane. Zasobem systemu jest każdy jego element, który może być przydzielony określonej części systemu lub programowi użytkowemu [Iszkowski et al. 1987 strona 16]. Zasobami systemu cyfrowego (ang. system resources) zarządza system operacyjny. W niniejszym rozdziale postaramy się omówić ważniejsze aspekty, związane z funkcjonowaniem systemów cyfrowych w organizacyjnym otoczeniu bibliotek.

Zasoby systemu

System cyfrowy zawsze może korzystać z zasobów własnych, ale w określonych sytuacjach może być również autoryzowany do korzystania z zasobów innych systemów. Zasoby dzielimy na sprzętowe (komputery, urządzenia peryferyjne, sprzęt sieciowy) oraz programowe (oprogramowanie systemowe, oprogramowanie użytkowe, dane przechowywane w pamięciach masowych).

Podstawowym składnikiem nowoczesnego środowiska cyfrowego jest sprzęt komputerowy. Głównymi elementami komputera są:

Płyta główna i jej elementy

Przechodząc do płyt głównych warto na wstępie zwrócić uwagę na pewien detal nomenklaturowy. W handlu płyty główne komputerów występują pod dwoma nazwami: jako płyty główne oraz jako platformy serwerowe. Ta druga wersja (tj. platformy serwerowe), to znacznie lepsze (i droższe) wykonanie płyty głównej, na bazie której można zbudować samodzielnie bardzo dobry komputer składany z części, nadający się do pracy nie tylko jako serwer, ale również doskonała stacja robocza. Do takiego lepszego wyposażenia należy często na platformach serwerowych kontroler pamięci, pozwalający na korektę błędów (typ ECC - ang. Error Correction Code.). Taka pamięć np. zamiast słów 64-bitowych jest zorganizowana w banki słów 72-bitowych, gdzie dodatkowe bity używane są do przechowania kodu nadmiarowego, pozwalającego na korektę 1 uszkodzonego bitu i sygnalizację 2 uszkodzonych bitów [11] . System operacyjny oraz oprogramowanie użytkowe zainstalowane na komputerze z pamięcią ECC zachowują się znacznie bardziej stabilnie, niż na komputerach z pamięcią zwykłą.

Oprócz kontrolera pamięci ECC, płyta główna może mieć pewną liczbę wbudowanych na stałe, dedykowanych kontrolerów. W pierwszym rzędzie należy tu wymienić kontrolery twardych dysków (tu do najpopularniejszych należą standardy przemysłowe IDE i SCSI), kontrolery stacji dyskietek oraz kontrolery zarządzające magistralami systemowymi. Tych ostatnich może być więcej niż jedna. Płyta zapewnia komputerowi tym większą wydajność, im szersze (w znaczeniu bitowym) są magistrale systemowe, oraz im wyższa jest na nich szybkość taktowania zegarowego. Dawniejsze typy architektury płyty głównej nadawały najwyższą przepustowość krótkiej magistrali, na której lokowano tylko procesor i pamięć, natomiast wszystkie urządzenia wejścia-wyjścia umieszczano na znacznie wolniejszej magistrali wejścia/wyjścia. Rozbudzenie masowego zapotrzebowania na zaawansowaną grafikę, a zwłaszcza film, oraz potrzeba szybkiego dostępu do sieci znacznie zmieniło typ architektury płyt głównych. Żartobliwie można by powiedzieć, że technologiczna demokracja przestała tolerować elitarne magistrale dla VIP-ów. Specjalnie dla notebooków opracowano specyfikację magistrali ZV (Zoomed Video), a dla desktopów – magistrali AGP. Na początku XXI wieku trudno już dostać karty graficzne PCI – przestawienie nowych kart graficznych na standard AGP jest właściwie całkowite. Tej demokratyzacji bynajmniej nie wymusiły badania naukowe. To pojawienie się szybkich gier sieciowych (Quake) zażądało od producentów zmian technologicznych w płycie głównej i zwiększenia przepustowości magistral wejścia – wyjścia, na których przecież instalowane są adaptery sieciowe. Ale i te niedawne nowinki błyskawicznie tracą na aktualności. Na areną wchodzi nowy standard – magistrala 3GIO (podsystem wejścia/wyjścia trzeciej generacji) obecnie nazwana PCI-Express (teraz nawet nazwa długo nie pożyje). Nowa magistrala w odróżnieniu od „klasycznej” równoległej magistrali PCI jest magistralą szeregową, nieporównanie szybszą od swej poprzedniczki (Leśniorowski [2002]).

„Przesiadkowanie” komputerów na nowe standardy odbywa się jednak stopniowo. Na płytach głównych od dawna współistnieją koło siebie starsze i nowsze wersje standardów przemysłowych. W starszych wersjach komputerów obok starych gniazd ISA producenci dostawiali gniazda VESA Local Bus. Potem obok gniazd ISA wbudowywano gniazda PCI, teraz obok gniazd PCI montowane są gniazda AGP. Płyty główne popularnych komputerów cierpią na chroniczne rozdojenie. Polimorfizm rozszerzającego gniazda wprowadza nieuchronne konflikty. Kontroler SCSI-2 osadzony w gnieździe ISA kłócił się z kontrolerem VESA Local Bus, brak karty graficznej w gnieździe AGP (starszego typu karta jest w gnieździe PCI) powoduje wadliwe zachowanie kontrolera USB, itp.

Ostatnio ujawniony został pewien problem, który może wzrosnąć się do niepokojących rozmiarów. Microsoft opublikował na sieci (http://www.microsoft.com/hcl/results.asp) listę zgodności rynkowego sprzętu z platformami Windows. Przeglądając tą listę spostrzega się zastanawiające zjawisko. W klasie płyt głównych na 6 porównywanych systemów operacyjnych (XP, 2000, Me, XP 64 bity, NT 4.0, 98) do rzadkości należą płyty, które mają mikrosoftowski atest zgodności z trzema różnymi systemami. Zdumienie budzi fakt, że np. dla popularnych płyt ASUS A7M266-D [ ], A7N266 [ ], A7N266-E [ ], A7V266-EX [ ], czy P4B266-E [USB], wydany został atest na zgodność z Windows XP, ale taki atest nie został wydany na zgodność z dawniejszymi systemami: Windows 2000, Windows NT 4.0 i Windows 98. Wydawać by się mogło, że najnowsza mutacja rodziny systemów Windows jest najbardziej wymagająca pod względem sprzętowym i sprzęt mający atest zgodności z Win XP bez najmniejszych problemów powinien spełniać wymagania starszych systemów. Cytowany dokument zdaje się przeczyć takiej wizji. Jednak na wymienionej liście istnieje szereg pozycji, posiadających atest dla wszystkich trzech najnowszych, 32-bitowych systemów operacyjnych. Tak np. należą do nich dwie płyty firmy ABIT: ABIT-TH711 [ ] oraz BL7 [ ], czy też dwie płyty firmy AOpen: MX36LE-U [ ] oraz MX36LE-UN [ ]. Brak jest szczegółowych danych o okolicznościach zestawienia prezentowanej przez Microsoft listy zgodności sprzętowej i prawdziwej naturze braków pewnych atestów. Jeśli atest jest odpłatną usługą świadczoną przez Microsoft producentom sprzętu (tak, jak np. homologacja urządzeń telekomunikacyjnych), to wówczas trudno by się dziwić, że producenci sprzętu testują przede wszystkim swoje najnowsze płyty i to głównie pod kątem zgodności z najnowszym systemem (XP). Jeśli jednak Microsoft testował wszystkie punkty tabeli (prawdziwie ogromna praca), to brak wydanych atestów w ponad 50% testowanych płyt nie wróży nic dobrego nieświadomemu użytkownikowi. Z powyższego wynika, że w licznych przypadkach (dla 100 pierwszych płyt na liście 75% pozycji nie ma atestu) instalacja nowego oprogramowania na starych komputerach może pociągać za sobą niestabilność pracy systemów operacyjnych i zawieszanie się aplikacji. Przyczyną tego typu defektu jest dychotomia konfiguracyjna kompletnego systemu: producent oprogramowania nie produkuje sprzętu, producent sprzętu nie produkuje oprogramowania. Brak należytego przepływu know how pomiędzy tymi dwoma grupami producentów wytwarza niejednoznaczności i przewidywalność zachowania się systemu staje pod znakiem zapytania.

Procesor

Procesor to główny i najbardziej obciążony zadaniami element komputera. Praktycznie tu realizowane są wszystkie operacje na danych cyfrowych. To od mocy przetwarzania procesora zależy komfort pracy użytkownika. Elementami charakteryzującymi procesor są:

Pamięć

Pamięć komputera dzieli się na pamięć operacyjną, służącą do pomieszczenia aktualnie wykonywanego programu i pewnej ilości potrzebnych do jego pracy danych, oraz pamięć masową, która jest stosowana jako przechowalnia zarówno danych, jak i oprogramowania.
Pamięć operacyjna to pamięć z dostępem swobodnym (ang. Random Access Memory, RAM). Czas dostępu nie zależy w niej od adresu komórki pamięci, do której program aktualnie się odwołuje. W stosowanej obecnie technologii pamięć operacyjna komputera wykonywana jest w technologii półprzewodnikowej (nieporównanie tańszej od stosowanej dawniej pamięci magnetycznej na rdzeniach ferrytowych). Od strony technologicznej dzieli się ona na dwa typy: pamięci stałej przeznaczonej wyłącznie do odczytu (ang. Read-Only-Memory, ROM) oraz pamięci Pisz/Czytaj, używanej zarówno do odczytywania, jak i do powtarzalnego zapisu (ang. Read/Write, R/W RAM).

Obecnie pamięci ROM zapisane wyłącznie przez producenta zanikają na rzecz pamięci programowalnych przez użytkownika (ang. Field Programmable ROM). Ważną klasą pamięci PROM są pamięci reprogramowalne EPROM [13] , których zawartość można wymazać, a po wymazaniu ponownie zapisać. Pamięci EPROM dzielą się z kolei na dwie podklasy. W pierwszej podklasie wymazywana może być tylko całość zapisanej informacji przez naświetlenie półprzewodnikowej struktury światłem ultrafioletowym przez wbudowane okienko kwarcowe (UV-EPROM). W drugiej podklasie wymazywanie realizowane jest elektrycznie, ale i tu występuje znaczna rozmaitość produktów. Firma Atmel [1998], jeden z czołowych producentów tych pamięci, wyróżnia następujące linie wymazywalnych elektrycznie pamięci: Flash, DataFlash oraz EEPROM. Te pierwsze zalecane do przechowywania modyfikowalnych w systemie programów, drugie – do modyfikowalnych w systemie danych i trzecie do często modyfikowalnych programów i danych. Te ostatnie dodatkowo występują w dwóch wersjach: z interfejsem równoległym i szeregowym. Oprócz typu interfejsu i dostrojenia struktury półprzewodnikowej do częstotliwości odwracalnych cykli zapisywania/wymazywania, pamięci te różnią się między sobą organizacją dostępu: od operacji na poszczególnych bajtach (EEPROM) do operacji na blokach (Flash). Popularne już już nazwy Compact Flash lub Flash Disk anonsują odbiorcy użytkowe cechy dysku, przy fizycznym produkcie nie przypominającym dysku ani geometrycznie, ani też nie mającym żadnych wirujących elementów, jak ma to miejsce w twardym dysku. Otóż mamy tu coś, co można by nazwać Lingua Technologiae Imperii (trawestując Klemperera [1983]). Imperium chce podwładnemu oszczędzić uczenia się nowej terminologii. Z istniejących pojęć tworzy zlepki o częściowo zmienionej semantyce, która faktycznie jest semantyką zasocjowaną, wektorową. W tym wektorze semantycznym jest składowa użytkowa i jest składowa technologiczna.

Pamięć ROM jest wolniejsza od pamięci RAM, ale informacja w niej przechowywana nie znika po wyłączeniu zasilania. Dzięki temu jest używana do przechowywania standardowych programów obsługi danego komputera takich, jak podstawowy program obsługi urządzeń wejścia/wyjścia (ang, Basic Input/Output System, BIOS). Dla użytkownika ważną informacją jest to, że zarówno dane, jak i programy zapisane w pamięci stałej, czynią obsługiwany przez nią podsystem całkowicie odpornym na destrukcje pochodzenia wirusowego. Zastąpienie pamięci PROM pamięcią zapisywalną na ogół wprowadza do systemu czynnik niekontrolowany, który w pewnych okolicznościach może się okazać zgubny dla systemu. W szczególności odnosi się to do współcześnie stosowanych płyt z BIOS-em zapisanym w wymazywalnych elektrycznie pamięciach flash. Niestety, znane są wirusy atakujące BIOS komputerów osobistych. Jeśli BIOS jest zapisany w niewymazywalnym PROMie lub UV-EPROMie, to jest on praktycznie w 100% odporny na zawirusowanie. W przypadku ważnych serwerów tego rodzaju architektura winna posiadać na wyposażeniu dodatkowy komplet pierwotnie zainstalowanych modułów BIOS-u, ale wykonany w wersji PROM, stanowiąc tzw. Master BIOS, przechowywany w archiwum i używany tylko do wykonania replik w przypadku przestępczego, lub nieostrożnego uszkodzenia zapisu. W większości przypadków BIOS dla danej płyty głównej można ściągnąć z sieci, jednak nie jest to prawdziwe we wszystkich przypadkach. Jednak często się zdarza, że komputery przeżywają swych twórców (to spotkało wiele maszyn zrobionych przez Digital Equipment Corporation, DEC, – prawdziwego potentata światowego jeszcze na początku lat 90-tych), a wtedy dotarcie do podobnej dokumentacji może być coraz bardziej problematyczne. Pamięci reprogramowalne elektrycznie (flash) to klasa podzespołów, których produkcja przybrała charakter burzliwy na skutek masowego ich użycia w przenośnym sprzęcie osobistym (dyktafony cyfrowe, kamery i aparaty cyfrowe) i należy spodziewać się korzystnego dla użytkownika końcowego rozwoju tej technologii, powiązanego z postępującą miniaturyzacją i obniżką ceny.

W odróżnieniu od pamięci stałej, pamięć RAM jest szybka. Ma ona jednak tę wadę, że w obecnie stosowanej technologii jest to pamięć ulotna (po wyłączenia zasilania wpisana informacja bardzo szybko znika z pamięci). Nie wchodząc w detale technologiczne rozlicznych rodzin pamięci RAM dobrze jest wiedzieć, że rozrzut styku i własności tych pamięci jest bardzo znaczny i nieustannie się zmienia. Przenaszalność modułów pamięci między komputerami różnych generacji jest zatem więcej niż ograniczona. Wart uwagi jest też fakt, że pewien typ pamięci RAM (statyczny CMOS) bywa wyposażany w niewielką litową baterię elektrochemiczną, co czyni z niego całkiem niezły EPROM, cechami przypominający EEPROM. Ten typ pamięci jest używany do przechowywania informacji o wyjściowej konfiguracji sprzętowej komputera (tzw. SETUP CMOS). Rozładowanie baterii tej pamięci (co następuje po kilku latach) objawia się dla użytkownika dość niemile, sprawiając wrażenie prawdziwej katastrofy. W gruncie rzeczy całość naprawy sprowadza się w takim przypadku do zakupu nowej baterii za kilka złotych i ponownej definicji ustawień systemu. Ten element wprowadza do systemu okresowość zachowań, niekiedy anonsowaną przez osobny kanał sygnalizacyjny.

Pamięć masowa zwykle jest znacznie większa od pamięci operacyjnej, nieulotna (zapis jest trwały) ale oferuje znacznie wolniejszy dostęp do zapisanej informacji. Wpisywanie do pamięci na ogół ma charakter blokami sekwencyjny, a czas pozyskania zapisanej informacji zwykle zależy od lokalizacji bloków na poszczególnych talerzach dysku. W znakomitej większości przypadków pamięć masowa zbudowana jest z dysków magnetycznych. Do celów archiwizacji zapisu dokonuje się również na taśmach magnetycznych lub dyskach optycznych, czy też magneto-optycznych. Pamięć masowa jest jednak tylko rozszerzającym dodatkiem do systemu i zostanie omówiona w dalszej części niniejszego rozdziału (dyski, archiwizacja).

Urządzenia wejścia – wyjścia

Wybrane standardy i technologie

Urządzenia wejścia – wyjścia to niezmiernie ważny element systemu cyfrowego. Niezmiernie ważny – bo chyba najbardziej zawodny. W kręgach związanych z technologią cyfrową panuje zresztą opinia, że w wielkich firmach produkujących sprzęt funkcjonują specjalne zespoły, zajmujące się projektowaniem akceptowalnego tempa zużycia poszczególnych elementów systemów cyfrowych, a szczególnie urządzeń wejścia – wyjścia. Zadaniem tych zespołów bynajmniej nie jest projektowanie urządzeń trwałych – wręcz odwrotnie. [14]

Gdzie szukać tych słabych punktów? W zasadzie prawie każdy współczesny system komputerowy jest kompozycją elementów elektronicznych i elektrycznych z mechanicznymi. Z tych trzech grup elementów najbardziej zawodne i wymagające najczęstszej wymiany i serwisu są elementy mechaniczne. Zaliczamy do nich: dyski magnetyczne, napędy dyskietek i dysków optycznych, klawiatury, urządzenia pozycjonujące (mysz, trackball) oraz wentylatory.

Urządzenia wejścia – wyjścia dołącza się do komputera przez dedykowane gniazda komunikacyjne. Z ważniejszych należy wymienić szeregowe w standardzie RS 232C (lub wyższe), szeregowe w standardzie USB, szeregowe w standardzie IrDA (transmisja bezprzewodowa), szeregowe w standardzie IDE (nowy standard do przyłączania twardych dysków), równoległe drukarkowe (Centronics), równoległe aparaturowe (IEC 625, HP-IB, IEEE-488), równoległe w kilku klasach standardu SCSI. Prognozy technologiczne przewidują zmniejszanie się udziału transmisji w standardach równoległych na rzecz standardów szeregowych (zmniejszenie ilości kabli usprawnia wydatnie wentylację i odprowadzanie ciepła, a zarazem poprawia dostęp do podzespołów komputera w czasie serwisu).

Urządzenia wejścia – wyjścia mają swoją drogę ewolucyjną i warto trochę ją prześledzić, ma ona bowiem swoje ważne implikacje dla życia społecznego. Rozwój tych urządzeń z jednej strony jest stymulowany oczekiwaniami społecznymi, z drugiej – sam wpływa na postawy konsumentów w taki sposób, by domagali się oni dalszych zmian i innowacji. Jednym słowem w zamierzeniach jej reżyserów ma to być samonapędzająca się maszyna, samograj. Poniższy zarys rozwojowy jest swego rodzaju swobodną układanką trzech ciągów technologicznych. Realia są takie, że w praktyce ciągle współpracują ze sobą urządzenia bardzo stare (np. stare terminale znakowe Wyse 50) z najnowocześniejszymi serwerami.

Pierwsza generacja sprzętu do wprowadzania i prezentacji: klawiatura, papier, czytnik i perforator papierowego nośnika przyłączone przez interfejs szeregowy.

Okazuje się, że wczesny okres komputeryzacji miał swoje techniczne ograniczenia, które zaważyły na tempie rozwoju standardów koniecznych do minimalizacji efektu Wieży Babel. Jak wcześniej wspomniano, pierwszym etapem komunikacji człowieka z komputerem były terminale znakowe, będące w stanie przesyłać w trybie dalekopisowym bardzo ograniczoną liczbę znaków. Pierwszym typem terminala znakowego był dalekopis (np. typ ASR-33) - urządzenie powolne, mające standardową klawiaturę, rolkę papieru przesuwanego mechanicznie, na który wyprowadzana była tekstowa informacja, czytnik i perforator 5-cio lub 8-mio kanałowej taśmy papierowej, oraz interfejs komunikacyjny (na ogół szeregowy w standardzie RS-232). Repertuar drukowanych znaków ograniczony był standardową czcionką maszyny do pisania, lub metalowego, kulistego elementu drukującego - obejmował zatem skromny zestaw znaków narodowych. Ostatnie wcielenie sprzętowe tego typu terminala było znaczne szybsze w pracy i bardziej niezawodne od wersji mechanicznej. Na swym wyposażeniu posiadało monitor ekranowy, optyczny czytnik medium perforowanego i drukarkę mozaikową: obydwa elementy miały możliwość ograniczonego sprzętowego dostosowania repertuaru drukowanych znaków do potrzeb użytkownika (wymiana generatora znaków zapisanego w pamięci ROM). Był to wstęp do zbudowania terminala graficznego. Wprowadzanie znaków narodowych spoza repertuaru używanego w USA nastręczało ogromne problemy. W gronie 5 różnych modeli wprowadzania do komputera znaków tekstowych alfabetu chińskiego, Tucker [1987] referuje dawną, zarzuconą koncepcję budowy wielkiej multipleksowanej klawiatury o 256 klawiszach z 14 znakami przypisanymi każdemu z klawiszy. Technologia terminali znakowych ograniczona była w swym rozwoju praktycznie tylko ceną i gabarytami urządzenia. Ta generacja systemu wejścia – wyjścia cechowała się podwyższonym poziomem głośności pracy, znaczną zawodnością wnoszoną przez odczyt perforowanego medium papierowego (zwłaszcza taśmy) oraz powolnym przesyłaniem informacji.

Druga generacja sprzętu do wprowadzania i prezentacji: kablowe (galwaniczne) przyłączenie klawiatury, myszy i sieci, ekran CRT, dyskietka.

Klawiatura drugiej generacji nie musi już przełączać tak dużych prądów, jakie są potrzebne do obsługi dawnego dalekopisu. Jednak wyżej klawiatura wymieniona była w grupie elementów mechanicznych o podwyższonej zawodności i to cały czas obowiązuje. W klawiaturze są dwa miejsca szczególnie wrażliwe: styk elektryczny, zwierający kombinację linii poziomych i ukośnych matrycy klawiszy, oraz ścieżki przewodzące. Styk elektryczny najpowszechniej realizowany jest poprzez zwieranie dwóch sprężynujących płytek kontaktronu przez miniaturowy, stały magnes, poruszany klawiszem. Zawodność tej funkcji klawiatury wywołana jest zmęczeniem materiałowym styków kontaktronu, choć najczęściej przyczyną jej uszkodzenia jest zalanie jej kawą przez niechlujnego użytkownika. Przez jakiś czas w dystrybucji znajdowały się znakomite klawiatury bezstykowe oparte na halotronach (element półprzewodnikowy wchodzący w stan przewodzenia pod wpływem pola magnetycznego), ale najwyraźniej z powodu wysokiej ceny zupełnie znikły z rynku. W rachubę wchodzi pojawienie się tanich, bezstykowych modeli z własną logiką dekodującą, opartych na filozofii detekcji przesłaniania wiązek niskoenergetycznego promieniowania. W przypadku zniszczenia ścieżek przewodzących, klawisze łatwo można przełożyć z jednej klawiatury do drugiej (klawisz wyjmuje się przez zwykłe podważenie go, np. pilniczkiem do paznokci) – może to zrobić osobiście osoba zupełnie niewykwalifikowana. Jeśli uszkodzeniu uległa trudna do kupienia w Polsce klawiatura z podwójnym opisem klawiszy (np. łacina + cyrylica), to klawisze zawierające podwójny opis można przenieść na sprawną klawiaturę z pojedynczym opisem, a jej cechy funkcjonalne pozostaną bez zmiany. Interpretacja położenia klawisza zawarta jest nie w klawiaturze, a w oprogramowaniu komputera.

Jeśli nie uwzględniać faktu, że klawiatura bywa wykonana w wersji ergonomicznej, mającej dość wyszukany kształt dobrany tak, by zminimalizować napięcie mięśni i ścięgien osoby piszącej, to jest to ta część komputera, która na przestrzeni lat zmieniła się najmniej.

Drugim etapem rozwoju prezentacji wyników przetwarzania było pojawienie się monitora graficznego. Najwcześniejsza mutacja realizowała wyłącznie zadania terminala znakowego, a nad dalekopisem miała tą przewagę, że była nie tylko cichsza, ale również znacznie szybsza. Natomiast repertuar prezentowanych na monitorze znaków był ograniczony do zestawu znajdującego się w generatorze znaków. Następną mutacją był terminal graficzny, dający możliwość prezentacji grafiki komputerowej. Ale i terminal graficzny miał swój osobny rozwój. Ze zrozumiałych powodów przyjmował on (i nadal przyjmuje) zlecenia pracy w dwóch przełączalnych programowo trybach: graficznym i znakowym. Tryb graficzny pozwala na swobodne alokowanie fizycznej przestrzeni pikseli ekranowych dowolną grafiką. Tryb znakowy posługuje się podziałem ekranu na kolumny oraz wiersze wraz ze związanymi z nimi interliniami, przydzielając każdemu miejscu przeznaczonemu na wyświetlanie znaku matrycę pikseli zgodną z przyjętymi standardami. Ilość możliwych do zapamiętania znaków zależała tylko od wielkości przestrzeni adresowej generatora znaków. Konieczność szybkiego rozwoju terminali graficznych dla potrzeb obsługi tekstu wielojęzycznego w bibliotekach dyskutował już Miller [1982]. Jednak nie w wizualizacji znaków na ekranie monitora CRT (ang. Cathode Ray Tube) widział on główne trudności w kompleksowym rozwiązaniu tego zagadnienia, a w klawiaturze; a to z uwagi na jej fizyczne ograniczenia.

Kolejnym etapem rozwoju terminali znakowych stały się terminale z ładowalnym generatorem znaków. W tym miejscu dodamy istotne rozszerzenie dyskutowanych pojęć: to co przed chwilą zostało powiedziane o terminalach graficznych, dotyczy też adapterów graficznych w komputerach osobistych. Ładowalne generatory znaków stały się kamieniem milowym na drodze rozszerzenia obsługi wielojęzycznej poza granice wyznaczone wąskim horyzontem projektantów sprzętu komputerowego. To one umożliwiły Młodzianowskiemu [1994] opracowanie pierwszego na świecie terminala [15], umożliwiającego sklejanie znaków diakrytycznych z literami alfabetu angielskiego. Terminal ten był pierwszym krokiem do przyszłego terminala unikodowego, obsługującego ekranowo nie tylko sklejanie znaków diakrytycznych z literami, ale i obsługę ligatur. Warto dodać, że terminal ISO 6937 rozwiązał jeszcze jeden bardzo ważny aspekt techniczny: sposób wprowadzania diakrytycznych znaków narodowych ze standardowej klawiatury przez przedefiniowanie klawiatury numerycznej.
Rozwój i powszechna akceptacja standardu okienkowego (Apple, Microsoft) stworzyły nową możliwość oferowania przez aplikację dodatkowych usług niezwykle upraszczających proces edycyjny i proces komunikacyjny. Mysz, jako pierwsze urządzenie wskazująco – pozycjonujące, wniosła ze sobą jakościowo coś zupełnie nowego: jak gdyby prawzór kartoteki haseł wzorcowych ze skończoną liczbą dobrze zdefiniowanych, systemowych napisów, lub ikon, które należało wskazać, zamiast wpisywać z klawiatury odpowiednie komendy. Wskazanie predefiniowanego obiektu miało znacznie zmniejszyć liczbę błędów literowych. Tego rodzaju technologia miała znacznie ułatwić komunikację człowieka z komputerem. Połączona z kolejnymi innowacjami, takimi jak funkcja „przeciągnij i upuść”, przesunęła ciężar komunikacji tekstowej w kierunku operacji graficznych, szybko stając się światowym przebojem. Mysz jednak nie wyeliminowała klawiatury, ograniczyła tylko liczbę błędów na poziomie komunikacji systemowej. Klawiatura nadal pozostaje niezastąpiona przy wprowadzaniu danych.

Monitor oparty na lampie kineskopowej (CRT) to ciągle bardzo popularne rozwiązanie techniczne. W stosunku do pierwszych modeli nastąpiła znaczna poprawa jakości. Obecnie praktycznie nie używa się już wersji monochromatycznej i powszechnie króluje monitor kolorowy. W życie weszły drastyczne normy dotyczące emisji pola elektromagnetycznego i szkodliwego promieniowania. Spadło napięcie przyspieszające wiązkę elektronów, poprawiono odprowadzanie ładunku z powierzchni ekranu. Ekran przestał "strzelać" i nie przyciąga już tak bardzo brudnego pyłu. Spłaszczyła się znacznie jego powierzchnia. Niejednokrotnie współczesny monitor wygląda tak, jak gdyby był wklęsły. Nowe modele są też często sterowane cyfrowo. Z pewnością jest to jeszcze stosunkowo ciężki mebel, zajmujący sporo miejsca. Nie ma też wątpliwości, że długotrwała praca przy takim wyświetlaczu ani nie należy do przyjemności, ani nie jest zdrowa - nawet jeśli dysponuje się modelem z wysoką częstotliwością odchylania. Nie ma też wątpliwości, że w takim rozwiązaniu technicznym nikt nie widzi przyszłości i jest kwestią niezbyt długiego czasu, gdy stary typ monitora zostanie zastąpiony przez następcę lżejszego, zajmującego znacznie mniej miejsca i przyjemniejszego w użyciu. Jednak w roku 2002 wciąż aktualne jest stwierdzenie, że odwzorowanie 24-bitowej palety kolorów na ekranach CRT bije na głowę odwzorowanie barw na ekranach LCD TFT. Wadą monitorów CRT są ciągle gabaryty i nic nie wskazuje na to, by coś się tu mogło zmienić.

Dyskietka jako medium przenośne sukcesywnie zmniejszała swe rozmiary od 11” , przez 8”, i 5,25” do 3,5” (efemeryczny standard 3” nie będąc zaakceptowany przez największych producentów, szybko zniknął z rynku) stając się coraz bardziej niezawodną aż do bezterminowej gwarancji, z której producenci szybko się wycofali. Obecnie jest to jedno z najbardziej niepewnych mediów i należy przewidywać rychłe odejście klasycznej dyskietki 3.5”.

Sieć stała się standardem. Ciągle funkcjonuje bardzo duża liczba sieci lokalnych o szybkości transmisji 10 Mbps, nowe buduje się prawie wyłącznie w standardzie 100 Mbps, gigabitowe sieci są u nas bardzo rzadko spotykane.

Trzecia generacja sprzętu do wprowadzania i prezentacji: technologia bezprzewodowa (klawiatura, mysz, drukarka, sieć), ekran LCD /TFT, dyski wymienne w technologii EEPROM.

Rozpowszechniają się standardy bezprzewodowej komunikacji. Pierwszą powszechnie stosowaną technologią jest transmisja w podczerwieni. Początkowo jest stosowana głównie do wyprowadzania danych na drukarkę, potem do komunikacji pomiędzy palmtopami i komputerami stacjonarnymi. Od strony ogólnej koncepcji pomysł to niezbyt nowy: do celów telefonii bezprzewodowej wykorzystywany był już w czasie II Wojny Światowej w Afryce przez armię Rommla, mimo bardzo trudnych technologicznie warunków (silne promieniowanie termiczne tła). Obecnie wydaje się zwolna ustępować miejsca bezprzewodowym połączeniom w paśmie fal radiowych wysokiej częstotliwości. Tak np. w notebooku Siemensa-Fujitsu klawiatura komunikuje się z płytą główną w standardzie Bluetooth [Notebooki, 2002].

W zakresie prezentacji wizualnej na trzecim poziomie rozwoju pojawił się ekran wykorzystujących ciekłe kryształy (LCD) w kilku różnych mutacjach. W stosunku do ekranów CRT wniósł znacznie większy komfort pracy, redukując zmęczenie wzroku oraz – co ważniejsze – obniżając ogromnie konsumowaną moc. Znacznie zmniejszone gabaryty ekranu umożliwiły prawdziwą eksplozję produkcji ręcznych zegarków elektronicznych, przenośnych urządzeń diagnostycznych (glukometry, mierniki ciśnienia krwi), komputerów podręcznych, kieszonkowych, palmtopów, telefonów komórkowych. Kolejne mutacje technologii ciekłokrystalicznej są coraz lepsze – wydatnie zmniejszyło się smużenie; skrócił się czas odpowiedzi ekranu, ale odwzorowanie ciągłej palety barwnej na ekranach CRT nadal charakteryzuje się wyższą jakością.

Pojawia się zewnętrzna pamięć masowa ze zmienioną technologią zapisu: następuje odejście od zapisu magnetycznego na rzecz nieulotnego zapisu elektrycznego w pamięciach reprogramowalnych elektrycznie (EEPROM). Zniknięcie czynnika mechanicznego znacznie podwyższa niezawodność zapisu. Styk tej pamięci z komputerem realizowany jest galwanicznie, kabel transmisyjny jest zarazem kablem zasilającym (USB). Nowa technologia zauważalnie obniża gabaryty przyłączanego urządzenia.
Masowa produkcja komputerów przenośnych i rozwój telefonii komórkowej doprowadziły do konwergencji tych dwóch technologii. Komputery przenośne włącza się do Internetu za pośrednictwem telefonii komórkowej, a w telefonach komórkowych zaczyna się wprowadzać przesyłanie krótkich wiadomości w wersji tekstowej (SMS) – pierwszą usługę cyfrową, oraz WAP – bezprzewodowy protokół obsługi aplikacji sieciowych. Pojawiają się komunikatory - pierwsze konstrukcje będące wynikiem integracji przetwarzania cyfrowego i komunikacji bezprzewodowej; obecnie jeszcze bardzo drogie, ale wróży im się świetlaną przyszłość.


W oczekiwaniu na czwartą generację sprzętu wprowadzania i prezentacji: głos i prezentacja bezpośrednia (siatkówka, stymulacja pracy chorych organów, protetyka cyfrowa)
Spośród wymienionych charakterystyk wiele problemów technicznych jest już rozwiązanych, choć nie wszystko jest dostępne obecnie dla wszystkich i nie wszystko jest już doskonałe. Moduł rozpoznawania głosu dla języka angielskiego można uznać nawet za bardzo udany. Tak też należy ocenić jakość funkcji sterowania głosem w systemie MS Windows 2000. W najbardziej rozwiniętych technologicznie krajach (USA, Francja, Japonia) moduły rozpoznawania języka narodowego są w zasadzie już niezłe, a niekiedy wręcz znakomite. Szkoda, że Polska wciąż jeszcze nie osiągnęłą tego poziomu; syntezatory polskiej mowy pozostawiają jeszcze życzenia.

W pewnych warunkach, na przykład w bibliotecznych czytelniach czy konferencjach prasowych, używanie głosu do wprowadzania informacji czy sterowania komputerem jest niewskazane. Na podobne okoliczności firma Senseboard Technologies AB zaproponowała ostatnio interesujące rozwiązanie nazwane przez twórców wirtualną klawiaturą. Służy ona do obsługi miniaturowego sprzętu osobistego. Składa się ona z nakładek na dłonie, bezprzewodowego systemu transmisyjnego w paśmie wysokich częstotliwości oraz oprogramowania. Nakładki zawierają czujniki przemieszczeń palców tak, że pisać można dosłownie na narysowanej na papierze klawiaturze nie połączonej fizycznie z komputerem, do którego informację się wpisuje.
Rysunek 1. Wirtualna klawiatura. Dzięki uprzejmości Senseboard Technologies AB.

Wirtualna klawiatura

W zaawansowaną fazę rozwoju wchodzi obrazowanie bezpośrednie na siatkówce oka. Za przykład realizacji takiego rozwiązania posłużą tu produkty firmy Microvision, które w chwili obecnej pozwalają sprawnie sumować na siatkówce dwa obrazy: jeden rzeczywisty, drugi generowany przez komputer.

Rysunek 2. Składanie na siatkówce oka obrazów rzeczywistych z obrazami generowanymi przez komputer w systemie Nomad.

Nomad
(opis rysunku dla niewidomych)

Rysunek 3. Testowanie punktu kontrolnego układu elektrycznego. Z lewej strony rysunku, również na tle elementów mechanicznych, widoczny jest w postaci czerwonych linii obraz panelu oscyloskopu cyfrowego, podający analogowy przebieg sygnału (sinusoida) oraz wartości cyfrowe napięcia i częstotliwości. Rysunek publikowany jest dzięki uprzejmości firmy Microvision Incorporated.

Testowanie punktu kontrolnego
(opis rysunku dla niewidomych)

Firma Microvision twierdzi, że poziom energii wiązki laserowej skierowanej na siatkówkę oka jest bardzo niski i nie szkodzi wzrokowi. Przy tej okazji warto jednak przypomnieć, że już wiele lat temu firma Barco, produkująca trójstrumieniowe projektory graficzne, w których źródła światła stanowiły przysłonięte filtrami RGB lampy kineskopowe, znalazła ciekawe i proste rozwiązanie, zapobiegające wypalaniu luminoforu lamp przez niezwykle silną wiązkę elektronów. Polegało ono na programowej, powolnej, mimośrodowej rotacji środka obrazu (nazwanej przez producenta orbiting software) z okresem około 5 minut. Microvision nic nie pisze o podobnym rozwiązaniu, choć wydaje się, że można by je tu zastosować z doskonałym skutkiem.


Rozpoczęto pierwsze próby z bezpośrednim wprowadzeniem sygnału elektrycznego z kamery wprost do mózgu osoby niewidzącej z zamiarem utworzenia substytutu wzroku (http://www.dobelle.com/asaio1.html). Celem ich jest doprowadzenie do rozróżnienia na poziomie centralnego układu nerwowego obszarów jasnych i ciemnych. Metoda wykroczyła już dalece za laboratoryjne eksperymenty i nieproduktywne teoretyzowanie. Dobelle [2000] referuje zbiorcze wyniki świetnie zaprojektowanych dwustopniowych badań z udziałem ochotników widzących, którzy z różnych względów musieli być poddani operacjom oczu, oraz osób całkowicie niewidomych. Tak dobrane, podlegające badaniom zbiorowości, gwarantowały wysoki stopień wiarygodności wyników. Idea metody polega na wprowadzeniu specjalnie uformowanych sygnałów elektrycznych, otrzymywanych z miniaturowej kamery telewizyjnej, bezpośrednio do odpowiedzialnej za widzenie części kory mózgowej. Kanał transmisyjny wyposażono dodatkowo w splitter, pozwalający przełączyć sygnał z kamery na sygnał wysyłany wprost z komputera. To rozwiązanie miało umożliwić rehabilitowanemu ochotnikowi wykonywanie ćwiczeń w środowisku sprzętu komputerowego, tak niezbędnego obecnie w prowadzeniu pracy zawodowej. Stymulujące impulsy były odbierane przez ochotników jako prostokątna siatka plam białych i czarnych, które autor nazywa fosfenami (ang. phosphenes). Wnioski płynące z trwającego 20 lat eksperymentu są ze wszech miar pozytywne. Po przełamaniu trudności wstępnego okresu rozpoznawanie kształtu testowych znaków przez niewidomego stało się rutynowe. Należy jednak pamiętać, że ciągle jest to jeszcze etap badań i rozwoju metody. Zdolność rozdzielcza matrycy stymulowanych punktów jest ciągle niska, obraz jest płaski bez jakichkolwiek cech przestrzenności, brak koloru, brak półtonów. Istnieją podejrzenia, że stymulację należy rozpoczynać możliwie szybko, by nie dopuścić do zaniku zdolności recepcji. Wydaje się, że naukowcy ciągle jeszcze mają zbyt mało rozpoznane protokoły transmisji między receptorami a centralnym systemem nerwowym. Z pewnością też za słabo zbadana została biofizyka pola recepcyjnego. Problemem jest zarówno poziom, jak i charakter sygnału (Chemiczny? Elektryczny? Mieszany?). Bardzo potrzebne są nieinterwencyjne metody pomiarowe.

Program satelitarnej telewizji francuskiej PLANET wyemitował w maju 2002 film „Koniec tajemnic” (La fin des secrets) w reżyserii Marie Arnaud i Delphine Morel. Film prezentował szereg współczesnych osiągnięć w zakresie sztucznej inteligencji. Jednak to nie systemy inteligentnego rozpoznawania twarzy były warte utrwalenia w pamięci. Także nie widok szczura z implantem mózgowym, niosącego na głowie moduł elektroniczny z zasilaczem, upiększony radiatorem niczym koroną – szczura sterowanego pilotem! – pozostawiał na widzu wstrząsające wrażenie. To wrażenie (niekoniecznie pozytywne) pozostawił profesor uniwersytecki pracujący nad sztuczną inteligencją, który demonstrował, jak funkcjonuje na terenie budynku zaprojektowany przez niego system lokalizacji człowieka, mającego wszczepiony implant chipowy. Człowiek ów dzielił się wrażeniami, jakie wywiera na nim integracja z budynkiem. Dialog „Cześć budynek! ” – „Witaj profesorze XY” oddaje już pewną poufałość, zażyłość. Fascynacja człowieka własnymi wynalazkami i konsekwencje tej fascynacji nieraz były przedmiotem twórczości artystycznej. Film „Koniec tajemnic” ma jednak w podtekście świeżo zrealizowane projekty lokalizacji więźniów w więzieniach amerykańskich, że wspomnieć tak niedawno popularny film Matrix. Widok plamki, lokalizującej żywego człowieka na wyświetlonym na ekranie planie budynku skłania do zadania pytania, czy w tym schemacie czystej nauki znajdzie się miejsce na jakąś intymność i prywatność; czy zostanie zachowane choć jedno pomieszczenie w budynku z którego do zarządcy systemu nie dochodzi informacja czy pracownik siedzi, czy też stoi, i z którego nie transmituje się odgłosów online?

Foliowy ekran zwijany i ładowalna książka

Już w tej chwili mamy przedsmak nadchodzącej przyszłości w zakresie prezentacji: firma Lucent Technologies we współpracy z E-Ink opracowała elestyczny foliowy ekran, który można zwijać i wkładać między karty książek i zeszytów. To już tylko krok do ładowalnej książki! Być może zakup książki przez Internet nie będzie już wymagał istnienia księgarń. Książkę będzie się ładować z sieci wprost z serwera domu wydawniczego. Dzieci uczęszczające do szkół odbiorą ładowalną książkę jako prawdziwą rewolucję. Skończy się noszenie ciężkich tornistrów z domu do szkoły. Zasób pomocy dydaktycznych (książki, mapy, zbiory zadań) na cały rok będzie się mieścił na jednym tanim i niewielkim CD-ROMie. Jedna książka ładowalna będzie stanowić chwilową kompozycję materiału dydaktycznego ze wszystkich przedmiotów np. na jeden tydzień. Zestaw potrzebnego na lekcje materiału uczeń będzie mógł sobie załadować w domu pod opieką rodziców, a w szkole pod opieką nauczyciela - lub - bibliotekarza. Po pierwszym okresie sprzętowych inwestycji ceny materiałów edukacyjnych gwałtownie się obniżą. Można przypuszczać, że poziom konsumpcji tej książki przez światowe systemy edukacyjne może być ogromny i to właśnie będzie stanowić źródło obniżki kosztów produkcji. Kartki książki ładowalnej prezentować się będą znacznie lepiej niż wiele książek współczesnych. Będą one wykonane z tworzywa sztucznego o znacznej większej odporności na działanie wody, poplamienie i rozdarcie, niż papier tradycyjny. Czytać ją będzie można w tramwajach i kolejce elektrycznej. Jeśli zaczną zanikać księgarnie to "w powietrzu wisi" gwałtowny spadek zapotrzebowania na tradycyjną poligrafię. Tak jak niedawno zniknęły linotypy, tak niedługo znikną naświetlarki folii i nikt już więcej nie będzie robił wyciągów barwnych. Znikną profesjonalne drukarki termodyfuzyjne i inne podobne im urządzenia. Powoli zaczną znikać stołowe skanery. Z pewnością od tej chwili dzieli nas jeszcze kilka lat, jednak nie jest to rozważanie abstrakcyjne lecz wyciąganie wniosków z perspektyw rozwojowych aktualnie opanowanej technologii, która jest udoskonalana. Zatem wszelka dyskusja na powyższy temat nie powinna być prowadzona w kategoriach „czy?”, lecz „kiedy?”.

Rysunek 4. Wyświetlacz foliowy. Dzięki uprzejmości Lucent Technology.

Wyświetlacz foliowy

Materiałem wyświetlacza jest folia z tworzywa sztucznego, w której zdyspergowano mikrokapsułki zawierające pigment zawieszony w cieczy przypominającej atrament. Na razie zapis jest jednobarwny, ale trwają intensywne prace badawcze nad realizacją wyświetlacza kolorowego. Wyświetlacze te obecnie wykonuje się zarówno w postaci przezroczystej folii, jak i na podłożu nieprzezroczystym. Ze względu na możliwość realizacji trwałego zapisu nowa technologia stwarza realne perspektywy masowej produkcji tanich, elektronicznych, wielokrotnie zapisywalnych przez użytkownika książek, do złudzenia przypominających książki drukowane. W chwili obecnej technologia ta cechuje się niezbyt wysoką zdolnością rozdzielczą szczegółów – jest ona rzędu 200 dpi (a więc znacznie lepszą, niż obraz uzyskany z tzw. zrzutu ekranu monitora komputerowego), ale ta granica niustannie się podnosi.

Monitor brajlowski.

Godne uwagi jest to, że w przypadku użytkownika niewidomego monitor wcale nie jest potrzebny (chyba, że stanowisko jest współużytkowane przez osoby widzące). Dobitnie dał temu wyraz Raman [1997], odwołując się do czynnika technicznego. Wyłączenie wyświetlacza w jego notebooku pozwalało na dłuższą pracę z zasilaniem bateryjnym [16]. Problem dedykowanego, taniego komputera bez drogiego monitora po dzień dzisiejszy w ogóle nie został na świecie rozwiązany. Konsekwencją tego są niezmiennie wysokie koszty ponoszone zarówno przez rodziny niewidomych, jak i sponsorów [Czermiński 2000-2]. Byłoby rzeczą niesłychanie wartościową opracowanie oszczędnościowej wersji komputera osobistego dla osób niewidzących, wyposażonego w mały i tani panel ciekłokrystaliczny dla prac instalacyjno - diagnostycznych prowadzonych przez osoby widzące. Problem ten nie jest trywialny, bo w zasadzie wiąże się z odejściem od powszechnie używanego interfejsu graficznego użytkownika (ang. Graphical User Interface, GUI) na rzecz interfejsu znakowego oraz z opracowaniem od nowa całej koncepcji klienta dla osób niewidzących. Obecnie stosowane rozwiązania nakładają się na istniejące oprogramowanie użytkowe, mają wiele wad i są bardzo kosztowne. Obszerny przegląd technologii alternatywnych dla inwalidów można znaleźć w doskonałej monografii Barbary Mates [2000], wydanej staraniem Amerykańskiego Stowarzyszenia Bibliotekarzy. Na Rysunku 5 przedstawiony jest tzw. 45 - cio znakowy monitor brajlowski (zwany też linijką brajlowską), odwzorowujący dynamicznie w 8-punktowym zapisie Braille'a połowę jednego wiersza ekranu (40 znaków). Odwzorowanie obejmuje jedynie część znakową ekranu (bez grafiki). Podłużne przyciski pomiędzy matrycą brajlowską a klawiaturą pozwalają na błyskawiczne przestawienie kursora na pozycję odpowiadającą danemu znakowi. Pięć nadwyżkowych, wydzielonych pozycji z lewej strony to blok sterujący (służy między innymi do odczytywania drugiej połówki wiersza ekranu). Jak widać, monitor brajlowski jest podkładką umieszczaną pod zwykłą klawiaturą, co znakomicie integruje niewidomemu cały system. Dodać tu należy, że niewidomi z zasady mają doskonale opanowany rozkład klawiszy zwykłej klawiatury, tak jak profesjonalne maszynistki (które przecież też nie patrzą na klawisze) i piszą bardzo szybko. Ze zrozumiałych powodów powierzchnia klawiszy w klawiaturach używanych przez niewidomych jest gładka - brajlowskie wypukłości odczuwało by się bardzo niemile podczas pisania.

Rysunek 5. Piezoelektryczny monitor brajlowski. Dzięki uprzejmości firmy Tieman.

Combibraille
Dyski i macierze dyskowe.

Dyski magnetyczne, wymienione wyżej na pierwszym miejscu listy głównych elementów komputera, mają relatywnie wysoką podatność na awarię. Awaria może być spowodowana szeregiem różnych czynników: uderzeniem lub wstrząsem, Z całą mocą należy tu podkreślić, że awaria dysku głównego serwera biblioteki może mieć pełne cechy prawdziwej katastrofy, powodującej przepadek dorobku wielu lat pracy; katastrofy prawdziwie trudnej do zniesienia. Do takiej katastrofy nie wolno dopuszczać, ale na jej nadejście trzeba się przygotować. Ona kiedyś nadejdzie, choć nie wiadomo kiedy. Si vis pacem para bellum. Biblioteka dysponująca własnym serwerem i nie mogąca sobie pozwolić na tydzień przestoju, absolutnie powinna dysponować zapasowymi dyskami systemowymi, co pewien czas włączanymi do pracy i testowanymi w pełnym ruchu usług. Temat ten szerzej poruszymy przy okazji omawiania bezpieczeństwa i archiwizacji.

Macierze dysków zewnętrznych z interfejsem sieciowym to coraz popularniejszy element najbliższego otoczenia współczesnych serwerów. W zgrabny sposób pozwalają one współdzielić zasoby takiej pamięci masowej przez kilka serwerów (nawet o różnych systemach operacyjnych), charakteryzując się zarazem prostą administracją. Zwykle wykonywane są w konfiguracji RAID (ang. Redundant Array of Inexpensive Disks) z możliwością odtworzenia uszkodzonego bloku danych. Nowe modele mają możliwość wymiany uszkodzonych dysków w czasie pracy systemu bez wyłączania zasilania (ang. Hot Swap, HS). Do niedawna strukturę RAID realizowało się wyłącznie na drogim interfejsie SCSI. Ostatnio pojawiły się kontrolery RAID obsługujące interfejs IDE, a zatem umożliwiające korzystanie ze znacznie tańszych dysków. Ten typ urządzenia zdecydowanie winien się znaleźć w obszarze zainteresowania bibliotek, od których w szczególnej mierze oczekuje się bezawaryjności systemu.

Półprzewodnikowe pamięci wymienne (dyski wymienne).

Szybko rozwija się produkcja pamięci półprzewodnikowych, które nie zawierają żadnych części ruchomych i być może już wkrótce zastąpią dyski magnetyczne. Można przypuścić, że za jakiś czas ten typ pamięci zacznie dominować nad dyskami, a to z uwagi na brak części ruchomych, co gwarantuje znacznie większą niezawodność. Już teraz można zakupić taką pamięć w wersji Disk-On-Chip, którą można włożyć do pustej podstawki układu scalonego, ale na razie zarówno pojemność, jak i cena nie stanowią konkurencji dla dysków. Jest rzeczą interesującą, że już w obfitości pojawiły się w handlu przenośne pamięci masowe wykorzystujące technologię flash, pod handlową nazwą Pen Drive (Rysunek 6) – wielkością swą rzeczywiście nie większe od kciuka dorosłego mężczyzny, łączone z komputerem poprzez port USB (na razie w standardzie 1.1).

Rysunek 6. Pamięć masowa Pen Drive. Dzięki uprzejmości QART Serwis s.c.

Pen Drive


W chwili przygotowywania do druku niniejszej książki pamięci te wykonywane są w pojemnościach od 8 MB do 1 GB. Doświadczenie kilku miesięcy pracy z 32 MB Pen Drive’m pozwala autorowi wystawić tej technologii wysoką ocenę, aczkolwiek pojawiły się pierwsze zachowania wskazujące problemy z kontaktem elektrycznym. Pamięć ta ma małe gabaryty (można ją nosić jak długopis w kieszonce) i dużą pojemność przy akceptowalnej (na poziomie 32 MB) cenie. Brak ruchomych części sprawia, że w stosunku do dysków i dyskietek zapisywanie na niej będzie się cechowowało podwyższoną niezawodnością. Jest ona nadto wyposażona w przełącznik blokady zapisu. Model, który kupił autor wymagał sformatowania jak zwykły dysk. Pracuje bez zarzutu pod Win 98 i 2000; po wetknięciu w gniazdo USB sam zgłasza się systemowi jako „Wymienny dysk”. Osobliwość pod Win 2000: choć nie potrzeba go instalować tak jak w UNIX-ie, to przed wyjęciem należy go odinstalować poprzez ikonę, która pojawia się w pasku zadań w momencie wetknięcia urządzenia do portu USB. Co ciekawe: producent oferuje opcjonalną dostawę pamięci z ładowalnym systemem operacyjnym i ochroną dostępu na poziomie hasła. Fakt ten nasuwa uwagę, że być może jest to pierwszy krok do realizacji miniaturowych komputerów modularnych. Jednak problemy ze stykiem zdają się wskazywać, że również i ta konstrukcja jest formą przejściową, a prawdziwą przyszłość należy widzieć w urządzeniach połączonych bezprzewodowo. Opisany tu model bez problemu instaluje się bezpośrednio w gniazdku USB, ale w przypadku wykorzystywania obydwu bardzo blisko koło siebie położonych gniazdek USB naeleży posłużyć się przedłużaczem. Warto odnotować, że już na rynku pojawiły się modele o znacznie bardziej zminiaturyzowanych gabarytach, które nie mają powyższego ograniczenia.

Pen Drive’a można używać jako doskonałego medium do przechowywania klucza prywatnego oraz kluczy publicznych osób posługujących się podpisem elektronicznym. W związku z wykryciem w marcu 2001 braku ochrony zarówno publicznych parametrów jak i klucza publicznego w pakiecie klucza prywatnego (plik secring.skr) zarówno odkrywcy nieszczelności, czescy kryptolodzy Vlastimil Klima i Tomáš Rosa [2001], jak i twórca Pretty Good Privacy (PGP) Phil Zimmerman (http://news.zdnet.co.uk/story/0,,t269-s2085201,00.html), zwrócili uwagę, że podstawą do przejęcia klucza prywatnego jest uzyskanie przez włamywacza kontroli nad plikiem, w którym jest on przechowywany. Pen Drive jest już urządzeniem niezbyt drogim i daje daleko większe poczucie prywatności niż zwykła dyskietka. Tego rodzaju rozwiązania (tzw. klucz USB) są już sprzedawane przez firmy oferujące sprzęt, oprogramowanie i usługi z zakresu zarządzania bezpieczeństwem systemów komputerowych.

Archiwizatory.

Archiwizatory to urządzenia do sporządzania kopii bezpieczeństwa oprogramowania oraz danych. Wykonuje się je w trzech dominujących technologiach: z zapisem magnetycznym, optycznym, lub hybrydowym - magnetooptycznym. Archiwizator powinien oferować możliwość oddzielenia medium zapisu od urządzenia zapisującego i przechowywania archiwum z dala od archiwizowanego oryginału. Do archiwizatorów nie należy zaliczać systemów sporządzania kopii na 'lustrzanych' dyskach (ang. mirror disk), ponieważ zwykle nie spełniają one wymagania przenośności medium. Przy okazji warto sobie uświadomić, że struktura RAID jest znacznie bardziej ekonomiczna od lustrzanego dublowania dysków. Klasyczną formą archiwizacji była, i ciągle pozostaje, archiwizacja na kasetkach magnetycznych DAT z sekwencyjnym dostępem do danych. Pojemność tych kasetek w przeciągu ostatniego dziesięciolecia zwiększyła się rzędy wielkości razy. W niedawno wprowadzonej technologii LTO Ultrium pojedynczy napęd HP SureStore Ultrium 230 oferuje archiwizację 200 GB przy szybkości transferu 30 MB/s (Rzeźnicki [2001]). Szybki wzrost pojemności dysków w dużych serwerach sprawia jednak, że kolejne generacje rozwojowe Ultrium zapowiadają archiwizację 1.4 TB na pojedynczym nośniku. Trzeba jednak pamiętać, że urządzenia te są bardzo drogie. Duże systemy mają wbudowaną dedykowaną robotykę, prowadzącą całą obsługę wymiany kaset. Rysunek 8 przedstawia zdjęcie dużego taśmowego archiwizatora z wbudowaną robotyką. Prezentowana jednostka jest jednym z elementów systemu archiwizacji w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.

Rysunek 7. Karuzelowy zmieniacz dysków optycznych na 240 dysków (Kubik 240 M Jukebox). Odczyt równoległy poprzez 4 napędy CD. Interfejs SCSI-2. Zdjęcie autora.
Rysunek 8. Archiwizator taśmowy. Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej. Zdjęcie autora.

Jukebox
Serwery i stacje robocze.

Komputery sprzedaje się w kilku różnych wykonaniach, w zależności od potrzeb odbiorcy. Spośród nich wymienimy serwery baz danych i stacje robocze. Serwer baz danych jest przeznaczony do przetwarzania znacznych ilości danych o ustalonej programowo strukturze. Aby serwer spełniał pokładane w nim oczekiwania, jego czas odpowiedzi na zlecane mu zadania musi być jak najkrótszy. Jest naiwnością przypuszczać, że pierwszy-lepszy szybki współczesny komputer osobisty nadaje się do pełnienia roli serwera bibliotecznego. Szybkość przetwarzania transakcyjnego bardzo zależy od zegara systemowego, wewnętrznej architektury procesora (zwłaszcza wielkości oraz cech funkcjonalnych pamięci podręcznej), wreszcie od szybkości twardych dysków i rodzaju kontrolera, jakie te dyski obsługuje. Last but not least – ogromnie ważna jest pamięć, od której bardzo zależy moc przetwarzania serwera. Od rodzaju obsługiwanych protokołów w fundamentalny sposób zależą wymagania nakładane na budowę serwera. W przypadku serwerów FTP lub pocztowych, krytyczna jest wydajność dysków serwera, natomiast w przypadku np. serwerów Z39.50 – bardzo dużą rolę zaczyna odgrywać wielkość pamięci RAM i zegara systemowego.

Na przełomie lat 2000/2001 w klasie serwerów zaczynają dominować jednostki wieloprocesorowe, ciągle wykorzystujące technologię krzemową, za to już z wyraźnie obniżonym napięciem zasilania i wysoką częstotliwością taktowania procesora. Bogatsze instytucje konfigurują tego rodzaju wieloprocesorowe moduły w klastry posiadające bardzo dobre parametry użytkowe.

Stacja robocza to stanowisko komputerowe końcowego użytkownika wyposażone w dostęp do sieci. W odróżnieniu od serwera, gdzie całkowite koszty inwestycyjne są zdominowane przez licencję aplikacji, uzależnioną od złożonych czynników (dawniej była to liczba użytkowników, obecnie ogólna wydajność serwera) – koszt stacji roboczej determinują urządzenia dostępowe sprofilowane ze względu na użytkownika. Im mniej spotykane na rynku wymagania ma użytkownik, tym wyposażenie jego stacji roboczej jest droższe. Najlepiej to widać na przykładzie stanowiska roboczego osoby niewidomej, w którym to przypadku sprzęt brajlowski niebywale podwyższa koszt całej inwestycji. Można nawet wypowiedzieć bardzo ogólną opinię, że sprzęt rehabilitacyjny pozwalający na korzystanie inwalidów z systemu komputerowego jest bardzo drogi.
Ze sprzętem komputerowym immanentnie związane jest oprogramowanie. W ogólności dzielimy je na systemowe i użytkowe (aplikacyjne). Oprogramowanie często przygotowywane jest pod odpowiedniego producenta sprzętu. Samodzielne składanie komputera i dostrojenie do niego całego osprzętu i oprogramowania wymaga sporej wprawy, a wiele problemów wychodzi na jaw dopiero przy instalacji oprogramowania.

Architektura systemu

Rola, jaką w nowoczesnym systemie cyfrowym odgrywa jego architektura, była kilkakrotnie prezentowana przez autora na forum bibliotek polskich [Czermiński 1994, 1996, 2000], swoją pracę poświęcił jej też Radwański [1996]. Nowa wizja technologiczna systemów masowej obsługi rozdziela przestrzennie odbiorcę od zasobów. W technologii cyfrowej jest to aż nadto widoczne. Wymieńmy zatem podstawowe bloki morfologiczne takiego systemu:

Stajnia serwerów

1.1. Strefa produkcyjna (strefa zasobów chroniona przed użytkownikiem)
1.1.1. Serwer produkcyjny
1.1.2. Serwer dokumentów elektronicznych wysokiej wierności
1.1.3. Serwer archiwizacyjny (por. Składniki systemu)
1.1.4. Serwer weryfikacyjny [por. Atkins et al., 1997:359]
1.1.5. Podsystem bezpieczeństwa (ochrona systemów operacyjnych oraz zasobów składowanych na serwerach)
1.2. Strefa prezentacyjna (zdemilitaryzowana strefa dla użytkownika)
1.2.1. OPAC (replika katalogu produkcyjnego)
1.2.2. Serwer FTP
1.2.3. Dokumenty elektroniczne prezentacyjnej jakości
1.2.4. Serwer pocztowy
1.2.5. Serwer WWW ogólnego przeznaczenia

2. Stanowiska klienta systemu
2.1. Moduł wprowadzania informacji
2.1.1. Dotykowy (klawiatura, mysz, czytnik pisma brajlowskiego)
2.1.2. Akustyczny (mikrofon, ultradźwiękowy skaner linii papilarnych)
2.1.3. Optyczny (video kamera, czytnik kodu paskowego)
2.1.4. Magnetyczny (dyskietki, przenośne dyski, czytniki kart)
2.1.5. Elektryczny (czytniki pamięci flash, PenDrive)
2.2. Moduł wyprowadzania informacji
2.2.1. Optyczny (monitor, nagrywarka dysków optycznych)
2.2.2. Akustyczny (głośnik, słuchawki)
2.2.3. Dotykowy (monitor brajlowski)
2.2.4. Magnetyczny (dyskietki, wymienne dyski, taśmy)
2.2.5. Elektryczny (czytniki pamięci flash, PenDrive)

3. Infrastruktura komunikacyjna
3.1. Sprzęt
3.1.1. Sprzęt przełączający (przełączniki, routery, huby)
3.1.2. Ściany ogniowe
3.1.3. Sprzęt publicznego dostępu do sieci (moduły integracji z telefonią analogową i cyfrową, telewizją kablową, cyfrowej sieci radiowej)
3.2. Okablowanie

Z powyższego wynika, że model systemu ma charakter zatomizowany. Usługi są podzielone na poszczególne serwery. To niekoniecznie musi oznaczać fizyczne rozbicie oprogramowania na różne komputery: dwa serwery mogą być zainstalowane na jednym komputerze. Jednakże fizyczna rozdzielność poszczególnych modułów zwiększa szansę obecności instytucjonalnej na sieci w przypadku uszkodzenia jednego modułu. Warunkiem takiej obecności jest zarezerwowanie pewnej przestrzeni informacyjnej w ramach każdego modułu na monitorowanie aktywności pozostałych modułów systemu. Takie redundancyjne rozwiązanie byłoby organizacyjną realizacją tworzenia kodu nadmiarowego korekcji błędu w systemach pamięci. Oczywiście w dyskutowanym tu wypadku na ogół nie ma możliwości odtworzenia brakującej funkcjonalności uszkodzonego modułu, ale stworzone zostają warunki do przyspieszenia procesu usunięcia awarii. W korzystnym przypadku możliwe jest również obudzenie “śpiącego” serwera awaryjnego sygnałem z sieci (maszyna musi mieć zainstalowaną funkcję Wake-On-LAN). Szczególnie proste jest zorganizowanie tego dla usług opartych o darmowe oprogramowanie dostępne na platformie Linuxa (serwery FTP, WWW, poczty elektronicznej). Takie rozwiązanie okaże się natomiast znacznie kosztowniejsze w stosunku do firmowych zintegrowanych systemów informatycznych (systemy zarządzania bazami danych, aplikacje biblioteczne). Właściwym rozwiązaniem wydaje się być realizacja serwerów strefy prezentacyjnej z systemem operacyjnym posadowionym w pamięci stałej, lub ze sprzętową blokadą zapisu na twardych dyskach. Już w tej chwili można kupić takie pamięci w modułach wysokiej poj emności z preinstalowanym systemem plików (Disk-On-Chip). Tego rodzaju konstrukcja pozwala na bezpieczną realizację procesów komunikacyjnych pomiędzy serwerami strefy produkcyjnej, a serwerami strefy prezentacyjnej. Fizyczne wyniesienie prezentacji OPAC-u do strefy nie chronionej jest jednak pewnym wyzwaniem technicznym. Ochrona zasobów głównych nie powinna bowiem zauważalnie obniżać czasu obsługi, ale też nie powinna ułatwiać wprowadzenia potencjalnego “konia trojańskiego” przez dedykowany kanał transmisyjny. A przecież moduł prezentacyjny musi mieć możliwość przyjmowania od anonimowego użytkownika zleceń on-line i retransmisji ich do serwera produkcyjnego. Znalezienie skutecznego rozwiązania jest tu ciągle wyzwaniem technologicznym oraz intelektualnym. Wydaje się, że bezpiecznym rozwiązaniem byłaby tutaj limitowana translacja skryptowa przy całkowitym pozbawieniu serwera prezentacyjnego typowego oprogramowania środowiska unixowego.
Zaproponowana tu architektura korzysta w pewnym stopniu z filozofii ścian ogniowych (wydzielenia nie chronionej “strefy zdemilitaryzowanej”, ang. De-Militarized Zone, DMZ).

Problem dublowania serwera katalogu głównego jest już od jakiegoś czasu rozwijany na świecie, znamy go na przykład z Biblioteki Kongresu. Ostatnio szczególny gest wsparcia dla tej idei okazała jedna z najnowocześniejszych i najbardziej aktywnych bibliotek świata - Narodowa Biblioteka Norwegii [Brygfield 2001]. Rdzeniem systemu tej biblioteki są dwa czteroprocesorowe serwery Hewlett-Packarda klasy N z 8 GB RAM, zintegrowane z systemami macierzy dyskowych i archiwizatorów taśmowych poprzez strukturę sieci SAN w technologii Fiber Channel. Bez najmniejszych wahań można podać powyższy przykład jako zasługujący na szczególne wyróżnienie i naśladowanie.

Bezpieczeństwo

Współczesne informacyjne systemy cyfrowe należą do systemów masowej obsługi społeczeństwa (takich, jak np. liczne usługi komunalne), ale wyróżniają się spomiędzy nich swoją pełną dostępnością w skali globalnej (a nie lokalnej) przez 7 dni w tygodniu i 24 godziny na dobę. Są podobne do stabilizowanego na poziomie narodowym zaopatrzenia w elektryczność, bez którego niesposób wyobrazić sobie funkcjonowanie przemysłowych cywilizacji XXI wieku. Jednak w odróżnieniu od narodowych systemów energetycznych o scentralizowanym zarządzaniu, systemy cyfrowe na ogół nie mają tak dobrej ochrony, a to ze względu na cechującą je integrację systemu zarządzania z systemem użytkowym (aplikacją). Wyposażone przez ich twórców w odpowiednią porcję sztucznej, lecz mocno niedoskonałej inteligencji, stały się w jakimś sensie odbiciem obecnej epoki, cech i potrzeb tego społeczeństwa, które je wytworzyło. Reakcja systemów cyfrowych jest bardzo szybka, choć niekoniecznie zgodna z oczekiwaniami indywidualnymi czy społecznymi. Jak powszechnie wiadomo, interwencja pojedynczego szaleńca, mającego uprawnienia administratora systemu, może prowadzić do katastrofy o niewyobrażalnej skali. O ile jednak szaleniec obejmujący czołowe stanowisko w administracji państwowej jest w stanie doprowadzić do końcowej katastrofy dopiero po kilku latach od chwili przejęcia uprawnień, o tyle w systemach cyfrowych po jednej minucie ze wspaniałej konstrukcji będą już ruiny. Toteż do najważniejszych składników cyfrowego systemu należą podsystemy nadzoru:

Zagadnienie bezpieczeństwa jest niezmiernie szerokie i dotyczy praktycznie wszystkich aspektów funkcjonowania każdego systemu. Było ono przedmiotem troski właścicieli, projektantów i administratorów systemów cyfrowych już ponad ćwierć wieku temu. Mimo że wiele głównych problemów nic nie straciło na swej aktualności, to jednak specyfikacje niektórych niebezpieczeństw grożących systemom informacyjnym z epoki przed-internetowej brzmią niekiedy zabawnie. Znakomity Peter Naur (ten od notacji BNF) pisze: "Można rozróżnić kilka rodzajów wrogów systemu. Konkurenci mogą próbować wydostać tajemnice systemu. Malwersanci mogą dążyć do zmodyfikowania działania systemu w taki sposób, aby uzyskać nie należące się im korzyści, na przykład wysokie kwoty na swoich rachunkach pieniężnych. Wandale mogą podejmować próby fizycznego uszkodzenia systemu choćby przez podłożenie bomby, ale i przez subtelniejsze metody, na przykład przez poddanie taśm działaniu przypadkowych pól magnetycznych". [Naur 1979 strona 316]. Federalne Biuro Śledcze (FBI) opracowało czteropoziomową charakterystykę przestępców komputerowych, która stanowi swojego rodzaju wzorzec odniesienia (Machnacz [2000]). Wyróżnione w niej zostały:

Świadomość wagi, jaką należy przypisywać bezpieczeństwu systemów operacyjnych, bardzo powoli torowała sobie drogę do należnego jej miejsca. Już w 1976 roku na polskim rynku dostępna była książka [Colin 1976], poruszająca w ograniczonym aspekcie sprawę bezpieczeństwa systemu operacyjnego. Znaczący wkład w uporządkowanie spraw związanych z bezpieczeństwem systemów operacyjnych wniósł Olszewski [1981]. Prawdziwy przełom w tej sprawie nastąpił jednak w 1983 r., gdy to staraniem Departmentu Obrony USA wydany został w postaci książkowej spis kryteriów oceny wiarygodności systemów komputerowych [DoD Trusted Computer System Evaluation Criteria, 1983]. Obecnie książka ta (znana jako Orange Book z tzw. tęczowej serii) jest dostępna na sieci pod adresem:

http://www.radium.ncsc.mil/tpep/library/rainbow/5200.28-STD.html.

Waga, jaką rząd USA przywiązywał do sprawy bezpieczeństwa systemów komputerowych, otrzymała pełną oprawę prawną po wejściu w życie w 1987 roku Computer Security Act. Obecnie, również u nas, mamy już sporo opracowań na temat bezpieczeństwa systemów komputerowych. W obszarze systemu operacyjnego UNIX można polecić lekturę piątego rozdziału książki UNIX. Administracja systemu [Frisch 1996]. Prawdziwym kompendium jest przede wszystkim Computer Security Basics [Russel, Gangemi 1991]. Przez jakiś czas dostępny był na sieci interesujący dokument zatytułowany US Military and Government Security Guides and Information. Samemu tylko bezpieczeństwu systemu, wystawionemu na publiczny dostęp w sieci, poświęcona została znakomita, prawie 900 stron licząca, praca zbiorowa "Bezpieczeństwo Internetu" [Atkins et al. 1997], którą bezwzględnie należy polecić wszystkim władzom, odpowiadającym za bezpieczeństwo danych. W odniesieniu do bezpieczeństwa różnych mutacji UNIXa można odesłać Czytelnika do 17 rozdziału sumiennie udokumentowanej książki Warhole [1999]. Z polskich opracowań warto wymienić bardzo pożyteczne książki Kutyłowskiego i Strothmana [1999], Lidermana [2000] oraz Wrony [2000]. Pocieszający jest fakt podejmowania ambitnych prac magisterskich na polskich uczelniach w tematyce dotyczącej szeroko rozumianego bezpieczeństwa. Dobrym przykładem może tu służyć dokument sieciowy: http://dyplomy.sk-kari.put.poznan.pl/Tematy/Tematy00.html .
Dla ułatwienia Czytelnikowi poruszania się w obszernej terminologii zagadnień bezpieczeństwa systemów cyfrowych warto zasygnalizować, że Orange Book definiuje 7 klas bezpieczeństwa:

Od kilku lat istnieją już na rynku systemy operacyjne o podwyższonym bezpieczeństwie. W roku 1992 firma Hewlett-Packard ujawniła swoim dystrybutorom, że dysponuje systemem operacyjnym o nazwie HP-UX B-Level Security Operating System, spełniającym kryteria bezpieczeństwa na poziomie B1. Produkt ten jest wymieniany m.in. w cytowanej wyżej książce Warhole[1999:139]. Mimo zapytań kierownictwa Zespołu Koordynacyjnego ds. Wdrażania VTLS o cenę i dostępność produktu na polskim rynku, producent nie udzielił wówczas żadnej odpowiedzi. Pytania te powtórzono jeszcze dwukrotnie: w 1994 oraz 2001, za każdym razem z tym samym skutkiem. Należy z tego wnioskować, że produkt ten nie jest dostępny dla polskiego odbiorcy, mimo formalnej przynależności Polski do NATO. Czyżby członkowstwo NATO mało ukryte kategorie zaufania? Na szczęście firma Hewlett – Packard nie jest już jedynym dostawcą sprzętu komputerowego, posiadającego system operacyjny o wysokim poziomie bezpieczeństwa. Obecnie sytuacja jest znacznie lepsza. Firma SUN Microsystems oferuje Trusted Solaris 8, który od listopada 2000 poddawany jest testowaniu na spełnianie wymogów klasy B1. Specyfikację techniczną tego systemu można otrzymać od dystrybutorów komputerów SUN w postaci pliku w formacie PDF. Dla wielu użytkowników jednak znacznie ważniejszy jest fakt przeprojektowania Linuxa (kernel 2.2.12 na procesory Intela x86) przez laboratoria National Security Agency, pod kątem podwyższenia jego bezpieczeństwa. Podrasowany Linux został wytestowany na dystrybucji Red Hat 6.1 i można go wraz z dokumentacją pobrać z serwera NSA na warunkach GNU General Public License (http://www.nsa.gov/selinux). Są też poprawione wersje Linuxa pochodzące od innych producentów. Można je znaleźć na sieci pod adresami: http://www.trustix.net//  oraz http://www.bastille-linux.org/. Pożyteczną może się też okazać lektura artykułu Malinowskiego [2002], strony 162-166, omawiającego zabezpieczanie Linuxa poprzez dodanie odpowiednich łatek.

W tym miejscu warto zachęcić biblioteki do zainteresowania się systemami operacyjnymi o podwyższonym bezpieczeństwie. Popularny obecnie na serwerach bibliotecznych UNIX w swej klasycznej postaci nie jest bezpieczny. Doskonale świadczy o tym przytaczany przez Bacha [1995:32] diagram blokowy jądra systemu. Na tym diagramie nie widać obrysu stref bezpieczeństwa i sprawa bezpieczeństwa jeśli jest dyskutowana w tej książce, to w zakresie minimalnym. Oczywiście można winić za to autora, jednak prawdziwą przyczyną tego jest nie uwzględnienie spraw bezpieczeństwa funkcjonowaniania systemu przez jego pierwszych twórców. Jeżeli więc można by niewielkim kosztem podwyższyć stopień jego bezpieczeństwa, to czemu tego nie zrobić? Doprawdy trudny do przyjęcia jest brak bezpiecznego systemu operacyjnego. Z tej pozycji pozostaje tylko apel do zarządców zainstalowanych w Polsce komputerowych systemów bibliotecznych oraz dyrektorów bibliotek o wszczęcie uporczywych starań mających na celu posadowienie oprogramowania na systemach o podwyższonym poziomie bezpieczeństwa. Mimo że administratorzy tych systemów są bardzo kompetentnymi i zaangażowanymi w swą pracę osobami, użytkowane przez nich systemy operacyjne są platformami stosunkowo prymitywnymi i obsługa ich wymaga znacznej uwagi. Administratorom należy dostarczyć wszelkich dostępnych nowoczesnych narzędzi pracy. Cieszyć się należy, że do chwili obecnej nie zdarzył się żaden poważniejszy przypadek. Jednak długotrwała sytuacja bezawaryjna zawsze podwyższa pewność siebie i obniża poziom samokontroli. Tak upadały wszystkie wielkie imperia.

Reprezentacja obiektów w systemach cyfrowej pamięci elektronicznej

W systemie cyfrowym operujemy pewnymi obiektami mającymi wyłącznie postać cyfrową. Na przełomie XX i XXI wieku powszechnie realizowanym fizycznie wewnętrznym zapisem liczb w systemach komputerowych jest zapis dwójkowy (binarny), a to ze względu na jego techniczną prostotę. Do niedawna były poważne trudności z uzyskaniem stabilnych, leżących blisko siebie, ale zarazem rozróżnialnych i licznych (więcej niż 2) fizycznych stanów materii. Zapis dwójkowy natomiast daje się stosunkowo prosto zrealizować od strony technicznej. Rozumieć jednak należy, że w pamięci maszyny nie rezydują prawdziwe "jedynki" i "zera". Tam w procesie zapisu i wymazywania informacji wytwarzane są dwa w miarę dobrze wyróżnione stany materii, które symbolicznie utożsamiamy z "jedynką”, czy też "zerem". Dla przykładu podamy, że w serii standardowej cyfrowych układów scalonych TTL (ang. Transistor-Transistor Logic) przyjmuje się [17], że na wyjściu bramki logicznej jest stan "zero", jeśli napięcie na nim mieści się w granicach 0,0 - 0,4 V, a stan "jeden" - jeśli mieści się ono w przedziale 2,4 - 5,0 V. Obydwa stany przedzielone są 2 - woltową "przestrzenią niczyją", swojego rodzaju strefą zdemilitaryzowaną. Ten nadmiarowy, redundancyjny obszar bezpieczeństwa zajmuje w układach TTL 40% całego operacyjnego interwału napięciowego. To niemała wartość. W najnowszych systemach cyfrowych z zasilaniem 1,2 V przestrzeń redundancyjna rozdzielająca "jedynkę" od "zera" została już zmniejszona do 17% całego przedziału napięciowego, co wyraża swego rodzaju podwyższone zaufanie projektantów do stosowanej technologii.. Owa przedziałowa definicja stanów logicznych może ułatwi czytelnikowi zrozumienie, jak trudnym musi być fizyczna realizacja zapisu cyfrowego i jak ważnym czynnikiem jest stabilizacja warunków jego pracy (w tym chłodzenia). Wreszcie jak niedaleko stąd do sytuacji, kiedy komputer będzie realizował paranoiczne operacje na zniekształconych danych. Mamy tu przecież do czynienia z sytuacją, w której jednemu poziomowi logicznemu ("zero") przypisane jest continuum liczb rzeczywistych z pierwszego cytowanego przedziału, a stanowi logicznemu "jeden" - continuum liczb z przedziału drugiego. Realistycznie rzecz biorąc, jest tu jakaś forma konwersji logiki rozmytej (ang. fuzzy logic) do logiki dwuwartościowej - boolowskiej. Grozą zieje wizja potencjalnego zachowania się półprzewodnikowych, cyfrowych układów scalonych w warunkach wysokiej radiacji, gdy większość złącz p-n wchodzi w stan przewodzenia. W tych warunkach jest rzeczą całkowicie zrozumiałą, że do tej chwili nie udało się zaprojektować żadnego robota, który był by w stanie wjechać do wnętrza osławionego czernobylskiego "sarkofagu" celem rozpoczęcia usuwania zeń paliwa reaktorowego. O wojnie jądrowej lepiej już nie myśleć. Mimo tych kasandrycznych rozważań faktem jest, że systemy oparte na takich rozwiązaniach technologicznych działają w normalnych warunkach - i to na ogół znakomicie.

Kończąc komentarze na temat reprezentacji obiektów cyfrowych w systemach pamięci elektronicznej, poruszymy jeszcze jeden ważny aspekt stosowania wewnętrznej, dwójkowej reprezentacji liczb. W zapisie dwójkowym mamy tylko 4 reguły mnożenia. Tabliczka mnożenia w systemie dziesiętnym (zmora matematyczna uczniów szkół podstawowych) dla bezdusznych maszyn została ograniczona w systemie dwójkowym do strawnego minimum. Pojedyncze quantum informacji nazywa się tu bitem. W konwencji liczbowej bit może przyjmować wartość 0 lub 1. Najmniejszą, adresowalną porcję informacji nazywa się bajtem (ang. byte). Zwykle bajt utożsamia się z uporządkowanym ciągiem 8 bitów.

Czy jednak arytmetyka binarna jest nieuchronnie związana z systemami cyfrowymi? Z pewnością nie. Nie można wykluczyć pojawienia się w przyszłości systemów wykorzystujących więcej niż dwa stabilne stany materii i migracji obecnych systemów dwójkowych do trójkowych, a nawet jeszcze wyższego rzędu. Od czasu słynnego eksperymentu Barta J. Van Weesa z 1987 r., w którym określił on warunki kwantowania prądu elektrycznego w nanobwodach, zaistniały technologiczne okoliczności realizacji arytmetyki ponad-binarnej w układach scalonych. Dlatego nie należy uważać, że "cyfrowość" jest immanentnie związana z arytmetyką binarną, jak to niekiedy się sądzi.

Digitalizacja

Wielu polskim bibliotekarzom digitalizacja często kojarzy się z procesem retrokonwersji katalogu kartkowego. Pojęcie to jest jednak znacznie szersze. Pragnienie umieszczenia czegokolwiek w systemie cyfrowym musi prowadzić do utworzenia c yfrowego obrazu obiektu rzeczywistego. Proces taki odnosimy do obiektów nie-cyfrowych i nazywamy digitalizacją (cyfryzacją). Posługując się programem graficznym kolorowy rysunek możemy wytworzyć na komputerze od razu w postaci cyfrowej. Przerobienie do postaci cyfrowej podobnego obrazka, który został namalowany ręcznie, wymaga posłużenia się skanerem, albo kamerą cyfrową.

Głównym elementem dokonującym tej konwersji jest przetwornik analogowo-cyfrowy (ang, Analog-to-Digital converter, ADC, A/D converter). Wzorcowy obraz w czasie skaningu oryginału jest rozłożony na swego rodzaju tabelę prostokątną składającą się z punktów (pikseli). Zagęszczenie tych punktów zależy od rodzaju wykorzystywanej matrycy fotodetekcyjnej, serwomechanizmu skanera oraz życzenia użytkownika, a zewnętrznie jest reprezentowane rozdzielczością skanowania, wyrażaną w liczbie punktów przypadającej na jeden cal linii skanowanego oryginału (ang. dots per inch, dpi). Żeby odczuć skalę tych wartości podamy, że typowy zrzut ekranu w postaci pliku komputerowego waha się od 72 dpi do 95 dpi, zalecana rozdzielczość do skanowania tekstu, który ma być rozpoznawany optycznie programem OCR wynosi 300 dpi, typowy wydruk z drukarki laserowej charakteryzuje się zdolnością rozdzielczą 300 dpi, natomiast do celów poligraficznych zdolność rozdzielcza nie powinna być niższa od 600 dpi.

Jeśli skanowaniu podlega obraz barwny, i barwy nie mają być konwertowane do głębi szarości, to w prostych urządzeniach każdemu punktowi system będzie przypisywał trzy składowe barwne: czerwoną (ang. Red), zieloną (ang. Green) i niebieską (ang, Blue) [19]. W uproszczeniu, wg powyższego schematu RGB, polega to na trzykrotnym odczytaniu wielkości sygnału przechodzącego przez wymienione barwne filtry i skonwertowaniu go przetwornikiem A/D do postaci cyfrowej. Im przetwornik ma lepszą zdolność rozdzielczą, tym skaner pozwala na uzyskanie większej głębi koloru. Do prostych zastosowań, jak np. ilustracje do stron internetowych, całkowicie wystarczy przypisanie każdej składowej czterech bitów. Na czterech bitach można reprezentować szesnaście poziomów nasycenia każdej komponenty barwnej. Przynajmniej raz popatrzmy jakie są to układy bitów:

Tabela 1. Lista poziomów nasycenia komponenty barwnej (4 bity). Opracowanie autora.

0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111


Razem daje to możliwość przybliżenia skanowanego oryginału paletą wykorzystującą 16*16*16= 4096 różnych kolorów. Mówimy, że taka digitalizacja daje 4+4+4=12 bitową głębię koloru. Analogicznie rzecz wygląda przy skanowaniu z większą głębią kolorów. Jeśli jesteśmy w stanie rozpoznać nasycenie każdej składowej w zmieniającej się od 0 do 255 (8-bitowa skala), to będziemy mówić o 24-bitowej głębi koloru (nazywanej po angielsku true color /”prawdziwy kolor”), w której system ma formalne możliwości rozróżnienia 256*256*256 = 16 777 216 różnych kolorów.

W powyższym myślowym doświadczeniu przeprowadzaliśmy próbkowanie obiektu (ang. sampling) i każdemu punktowi płaszczyzny oryginału przypisywaliśmy pewną liczbę (tutaj był to uporządkowany ciąg trzech liczb). Z jednej strony próbkowanie przeprowadzane było poprzez lokalizację geometryczną analizowanego punktu – możemy więc powiedzieć, że w tym konkretnym eksperymencie próbkowaliśmy najpierw przestrzeń [20] kartezjańską. Wynikiem tego pierwszego próbkowania było przypisanie każdemu punktowi digitalizowanego oryginału uporządkowanej pary dwóch liczb – jego współrzędnych kartezjańskich (skanowanym oryginałem był obiekt płaski, 2-wymiarowy).

W każdym punkcie przeprowadzaliśmy dodatkowe, nowe próbkowanie. Dodatkowemu egzaminowaniu podlegały jego cechy kolorystyczne, a więc zdolność do selektywnej absorbcji pewnych długości fal, należących do zakresu widzialnego fal elektromagnetycznych. Powiemy, że dla każdego punktu przestrzeni kartezjańskiej próbkowaliśmy przestrzeń częstotliwości promieniowania odbitego od oryginału (w przypadku skanowania refleksyjnego) dla trzech standardowych częstotliwości światła.

Podobne próbkowanie dla dźwięku możemy przeprowadzić w przestrzeni czasu. Znakomitą monografię poświęconą digitalizacji dźwięku wydał ostatnio Czyżewski [1998].

Za wynik digitalizacji oryginału uznajemy superpozycję (złożenie) procesów próbkowania ze wszystkich przestrzeni, wraz ze sprzężoną z tymi próbkowaniami konwersją sygnału analogowego do wartości cyfrowej. Do każdej próbki (punktu próbkowanej przestrzeni) „dowieszamy” wektor atrybutów. To właśnie na składowych tego wektora atrybutów dokonuje się algorytmicznych manipulacji, mających na celu kompresję cyfrowego obrazu, - a więc tak pożądanego zmniejszenia fizycznej objętości wynikowego zbioru cyfrowego.

Produktem końcowym nie są jednak same dane binarne, ale plik (ang. file) komputerowy obejmujący oprócz cyfrowej reprezentacji obrazu również inne elementy, takie jak oznaczenie początku zbioru cyfrowego, liczbę jego elementów oraz oznaczenie zakończenia. Od razu trzeba jednak uczynić zastrzeżenie. Do chwili obecnej na świecie pojawiło się już bardzo wiele najrozmaitszych standardów formatowania danych. Z faktu, że posiadamy jakiś plik cyfrowy wcale nie wynika, że będziemy potrafili go odczytać. Do ponurych żartów należy to, że wielcy producenci oprogramowania wcale się nie wstydzą, że w rodzinie ich własnych produktów nie obowiązuje wcale zasada "zgodności wstecz" (ang. backward compatibility). Typowy dokument - plik cyfrowy napisany pod edytorem Word 97 bez dodatkowej konwersji był nie do odczytania przez jego protoplastę Worda 6.0, choćby zawierał najprostszy tekst.

Należy pamiętać, że wygórowany apetyt na wysoką jakość cyfrowego obrazu ma równie wysoką cenę: gwałtownie rośnie rozmiar pamięci potrzebnej do jego przechowania. Dotyczy to zarówno zdolności rozdzielczej, jak i głębi kolorów. Zagadnienie to było przedmiotem poważnych rozważań już stosunkowo dawno temu, gdy pamięci komputerów w stosunku do dzisiejszych były niewielkie [Wintz 1972], ale – o dziwo – rozważania te nic a nic nie straciły na swej aktualności. Utworzone w trakcie digitalizacji duże pliki powodują problemy w przenoszeniu pomiędzy komputerami, oraz między komputerami a urządzeniami peryferyjnymi (monitor, drukarka etc.). Z pomocą przychodzi w takich momentach opanowanie apetytów, kompresja plików oraz ulepszenie sprzętowe systemu prezentacyjnego - w tym możliwość zapisu i odczytu na przenośnym medium wysokiej pojemności, takim jak np. dyskietki Iomega ZIP 250 MB, dyski Iomega JAZ 2 GB, a obecnie różnego rodzaju wymienne dyski półprzewodnikowe oparte na pamięciach EEPROM.

Na marginesie konwersji analogowego oryginału do postaci cyfrowej warto poruszyć sprawę przygotowania materiału do digitalizacji. Podobnie jak to ma miejsce przy reprodukcji (zwłaszcza starodruków i rękopisów) proces digitalizacji musi być prowadzony z wielką ostrożnością. Niejednokrotnie zdarza się, że fizyczny stan obiektu wymaga podjęcia poważnych prac studialnych a następnie konserwatorskich jeszcze przed rozpoczęciem procesu digitalizacji. Nie zawsze są na to pieniądze, sprzyjające okoliczności, i nie zawsze jest dostępna odpowiednia technologia. Niekiedy utworzenie analogowej repliki oryginału poprzedza proces digitalizacji.

Być albo nie być archiwalnego materiału często leży w kompetencji dwóch osób. Pierwszą jest ta, która wstrzymuje przedwczesne prace, nie mające jeszcze szans powodzenia. Drugą jest osoba inicjująca i doprowadzająca do końca rozpoczęte dzieło. Poznajmy dwa takie przykłady z własnego podwórka: jeden pozytywny i jeden negatywny. Obydwa te przykłady będą dotyczyć nagrań fonograficznych (więcej danych na temat tej technologii można znaleźć u Kaczmarka [1953], Janczewskiej-Sołomko [2000] oraz w Internecie, patrz Schoenherr [2000]).

Świetnym pozytywnym przykładem służyć tu może historia odczytu i wykonania replik wałków fonograficznych nagranych przez Bronisława Piłsudskiego w czasie pobytu na zesłaniu na Sachalinie [ICRAP 1985, Ogonowska 1993, Czermiński 1999].

Wałki Piłsudskiego zostały odnalezione po II Wojnie Światowej na Uniwersytecie Adama Mickiewicza w Poznaniu i pierwsze próby przegrania ich zawartości na taśmę magnetofonową podjął Kaczmarek około 1953 r. Prace te nie zostały dokończone i dziesięć lat później Bańczerowski podjął kolejną próbę odczytu i przepisania zawartości wałków na taśmę magnetofonową. Brak zadawalających efektów skłonił go do wstrzymania prac, a racje dla których to uczynił są godne uwagi (fragment wystąpienia na konferencji w Sapporo):

“[...] jakość zapisów na taśmie nie była zadawalająca. (...) Niemożność reprodukcji zapisów oraz dalsze dyskusje z chemikami potwierdziły moje wewnętrzne przeświadczenie, że przepisanie zawartości wałków nie może być przeprowadzone w wyniku zastosowania konwencjonalnych procedur, i że mniej lub bardziej odległa przyszłość powinna się zająć tą sprawą. Pomimo tego smutnego wniosku nie popadłem w rozpacz. Jakiś wewnętrzny głos obiecywał mi końcowy sukces, chociaż nie wiedziałem, kiedy to się urzeczywistni. Ale byłem całkowicie pewien, że tak się stanie. Tym niemniej, doskonale zdawałem sobie sprawę z tego, że dla wałków rozpoczęło się odliczanie wsteczne i, konsekwentnie, że one nie mogą w nieskończoność czekać na efektywną interwencję. Co pewien czas, któryś wałek, tak sam z siebie, rozpadał się na kawałki. W miarę, jak kolekcja stopniowo się kurczyła, moje rozdrażnienie narastało. Możecie sobie wyobrazić, światli naukowcy, jakie męki Tantala przechodziłem na widok rozpadającego się wałka, którego zawartość bezpowrotnie znikała w przeszłości”
[Bańczerowski 1985].

Tym drugim człowiekiem, który z niezwykłą energią uruchomił kompleksowy, międzynarodowy projekt zbadania, konserwacji i odtworzenia zawartości wałków a następnie ich opracowania pod względem naukowym był Alfred F. Majewicz. Jego pierwsza zagraniczna publikacja na temat wałków Piłsudskiego [Majewicz 1977] spotkała się z żywym odzewem, ale szczegółowa organizacja projektu zajęła ponad trzy lata. W efekcie powstała konieczność dokonania niezwykłego wyczynu: wysłania kompletu bezcennych wałków do Japonii, dokładnie w czasie trwania stanu wojennego. Determinacja Majewicza zaowocowała w sposób wręcz niezwykły. Wałki zostały wysłane, przebadane z pełnym japońskim pietyzmem, poddane naprawie oraz konserwacji, wykonano ich wierne kopie w żywicy epoksydowej i odtworzona została ich zawartość. Dzięki temu projektowi powstała, i ciągle narasta, długa lista znakomitych prac naukowych, a próbkę cyfrowej wersji nagrania wykonanego 100 lat temu na Sachalinie przez Bronisława Piłsudskiego można dzisiaj przesłuchać odwiedzając prototyp internetowej strony informacyjnej projektu ICRAP.

Z kolei przejdźmy do przykładu, którego zakończenie trudno nazwać optymistycznym. Świadomość zagrożeń płynących z miękkości wałków woskowych istniała od samego początku. Na szczęście dla oświeconych i bogatych, już od 1900 roku znana była, znakomita jak na owe czasy, technologia zabezpieczania informacji zapisanej na wałkach fonograficznych. Ta technologia polegała na galwanoplastycznym wykonaniu negatywowej matrycy wałka [21]. Woskowy wałek srebrzy się, tak jak srebrzy się szkło, by uzyskać lustro. Nie przewodząca powierzchnia wałka staje się przewodząca. Taki wałek wkłada się do cyjankowej kąpieli galwanicznej zawierającej sole miedzi, podłącza do niego biegun ujemny źródła prądu stałego i prowadzi elektrolizę z anodą miedzianą. Na wałku odkłada się spójna warstwa miedzi, nieporównanie twardsza i trwalsza od wosku. Takie negatywy wałków nazywane są popularnie galvanos. Wykonanie miedzianej kopii negatywowej doskonale zabezpieczało zapisany na wałku dźwięk. Po dzień dzisiejszy zachowała się znaczna liczba galvanos, ale bezpośrednie odtworzenie z nich dźwięku stało się możliwe dopiero obecnie [22]. Jeśli negatyw został wykonany wkrótce po nagraniu, to w rowkach wałka nie zdążyły zajść procesy degradacyjne (krystalizacja niektórych składników wosku, wżery zrobione przez pleśń, uszkodzenia mechaniczne w czasie transportu, “golenie” zapisu przez igłę w trakcie odtwarzania) i jakość odtwarzanego dziś dźwięku jest znakomita.

Reprodukcję negatywu takiego wałka przedstawia Rysunek 9.

Rysunek 9. Miedziane negatywy wałków fonograficznych (galvanos). Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Galvanos

Rysunek 10. Mikroskopowe zdjęcie powierzchni wałka negatywowego z widocznymi ścieżkami dźwiękowymi. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Ścieżki

Rysunek 11. Szczegół bezpośredniego odtwarzacza wałków negatywowych. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Aparat

Rysunek 12. Spektrogram cyfrowo zrekonstruowanego (FFT) zapisu dźwięku. Pieśń weddyjska. Ceylon 1907. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Spektrogram

Świadomość tych faktów miał również Bronisław Piłsudski po swym powrocie do Polski. Ale okazało się, że świadomości tego nie mieli inni – jak na ironię naukowcy – wśród nich również Sekretarz Akademii Umiejętności w Krakowie. W zapiskach późniejszego, wieloletniego Dyrektora Muzeum Tatrzańskiego znajdujemy co następuje: “Skarżył się właściciel (B. Piłsudski - przyp. aut.) cennego zbioru fonogramów, jak nietrwały jest materiał przeznaczony do wyrobu wałków. Nieodzownym warunkiem utrwalenia delikatnych rowków, które wyżłobił rylec pod membraną, jest wykonanie matrycy drogą galwanoplastyczną. Za granicą, np. w Wiedniu, w Ameryce powstają z tych matryc całe archiwa pieśni ludowych i gwarowych tekstów najrozmaitszych narodów. Jego wałki, starannie chronione, i tak dziwnym zbiegiem okoliczności trzymają się świetnie: zahartowały je nadspodziewanie swędzące dymy w ajnuskich jurtach; wprost uwędziły się w pobliżu ogniska. Ale to nie jest rozwiązanie sprawy; potrzeba matrycy metalowej, aby praca nie poszła na marne; a na to pieniędzy nie ma i niepospolitemu zbiorowi grozi zniszczenie.” [Zborowski 1972 strona 310].

Sachalińska kolekcja Piłsudskiego oraz jego entuzjazm okazały się zaraźliwe, ale też trafiły na nieprzeciętny grunt. Zborowski, nie mogąc zdobyć pieniędzy z Akademii Umiejętności [23] kupił z własnej pensji (był zastępcą c.k. nauczyciela gimnazjalnego) fonograf oraz 100 wałków i z zapałem rozpoczął nagrania w terenie: "[...] a na pierwszy ogień szedł grajek nad grajki, boży talent muzyki Podhala, Bartuś Obrochta. Trzeba go było widzieć, jak z całą satysfakcją przysłuchiwał się nagranym przez siebie wałkom, jak co chwila przygadywał "dobrze, dobrze" - i jak, przytupując nogą do taktu, wygłosił swoją opinię: "Wiécie, panie profesórze, to niegłupio tromba!". Ale problem był tylko do połowy rozwiązany. Wspólną uciechę rozpoczęcia fonograficznych notowań zwarzył rychło Bronisław Piłsudski, sam zaniepokojony o trwałość wałków z pieśniami Ajnosów. Bez utrwalenia zdjęć galwanoplastyczną metodą cała praca może pójść na marne. Zarówno przy reprodukowaniu oryginalnych wałków z miękkiego materiału, jak i pod wpływem działania powietrza delikatne rowki, wyryte rylcem przy nagrywaniu, mogą się zetrzeć, popsuć, a nawet na pewno im takie zniszczenie grozi. Byliśmy bezradni. Mowy nie było ani o kupieniu potrzebnej aparatury, ani choćby o posłaniu wałków do Wiednia i zamawianiu metalowych matryc z własnej kieszeni. Nawet i ten stosunkowo niewielki wydatek nie znalazł łaski tam, gdzie się znowu o zasiłek kołatało. Niestety, wkrótce przyszło to, czego się spodziewano. Znany lwowski muzykolog, prof. Adolf Chybiński, zgłosił się listownie do Muzeum Tatrzańskiego i ówczesny wiceprezes wydał mu wałki do opracowania muzycznego. Finał całego naukowego zapału Chybińskiego, bez jego najmniejszej pomocy finansowej dla dobra sprawy, gorzko kwituje Zborowski: "Wałki były w nienagannym stanie i dały się świetnie reprodukować. Cały zbiór znalazł się wkrótce w nutowym zeszycie prof. Chybińskiego. Ale niedługo potem rozpoczął się proces rozkładu. Reprodukowanie fonogramów zniszczyło znacznie subtelne rowki w miękkim materiale, a dostęp powietrza zrobił swoje. Przeniesienie zdjęć na metalowe podłoże byłoby bezcelowym wyrzuceniem pieniędzy. Z cennego zbioru został dosłownie szmelc".

Marnie zrehabilitowała się za całą Akademię jej Komisja Językowa kupując wkrótce fonograf i 10 razy mniej wałków niż zastępca c.k. nauczyciela gimnazjalnego za jedną swoją pensję. Gdyby akademicy krakowscy okazali się innego formatu, inny los spotkałby moje fonogramy i to, co już nie wróci: nagrania Bartusia Obrochty i zamierające pieśni ze staroświeckiej epoki. - kończy ze smutkiem Zborowski.

Zestawienie tak odmiennych postaw dwóch profesorów na przestrzeni półwiecza winno być przestrogą, że żaden pośpiech w realizowaniu swoich marzeń naukowych nie powinien odbywać się kosztem zagrożenia istnienia dokumentu. Dziś moglibyśmy słuchać bajecznych gęślicek Bartusia w wersji cyfrowej - wprost z Internetu - ale na próżno o tym marzyć.

Archiwizacja, konserwacja i składowanie materiału cyfrowego

Archiwizacja jest zespołem czynności, które w przyszłości umożliwią odtworzenie pewnego stanu przeszłości, jeśli zaszła by taka konieczność. W stosunku do środowiska cyfrowego w tej sekcji na pierwszy plan wysuwają się trzy podstawowe zagadnienia:

Co do konieczności archiwizacji systemowych wraz ze wszystkimi aplikacjami w zasadzie nie ma żadnych nieporozumień. Zarówno informatycy, jak i bibliotekarze są zgodni, że jest to konieczność i nikt nie kwestionuje potrzeby ponoszenia odpowiednich kosztów. Jednak w stosunku do dokumentów elektronicznych o charakterze statycznym daje się słyszeć zapytania, czy jest to rzeczywiście konieczne. Takie wątpliwości wynikają z faktu, że sam proces digitalizacji jest często zaliczany do czynności archiwizacyjnych i wielu osobom trudno jest pojąć, po co archiwizować archiwum. Aby ułatwić zrozumienie konieczności takiego postępowania British Library wydała, przygotowane przez National Preservation Office, syntetyczne studium poświęcone zabezpieczaniu elektronicznych materiałów (Feeney [1999]). Autorzy studium uważają błyskawiczne starzenie się sprzętu komputerowego oraz oprogramowania za podstawowy problem, który zmusza do szybkiego zajęcia się archiwizacją materiałów cyfrowych i proponują trzy podstawowe podejścia:

  1. Zachować oryginalne oprogramowanie (i możliwie sprzęt), które zostały użyte do wytworzenia i dostępu do informacji (strategia zachowania technologii)
  2. Oprogramować przyszły, silny komputer tak, by mógł emulować stare, wyszłe z użycia platformy sprzętowe (strategia emulacji technologii)
  3. Zapewnić przeniesienie informacji cyfrowej do nowych technologii, zanim stare technologie wyjdą z użycia (strategia migracji informacji cyfrowej), w tym:
    • Zmianę nośnika zapisu z mniej stabilnego na bardziej stabilny
    • Oparcie się na aplikacjach mających "zgodność wstecz": dokumenty tworzone przez nowe oprogramowanie dadzą się otworzyć przez starsze wersje oprogramowania
    • Oparcie się na rozwiązaniach mających między sobą wspólne formaty wymienne

Jest rzeczą ciekawą, że szczegółowa analiza znacznego materiału porównawczego doprowadziła do konkluzji, iż na 10 omawianych kategorii zasobów cyfrowych aż w 9 przypadkach (zbiory danych, teksty strukturalizowane, dokumenty biurowe, dokumentacja komputerowego wspomagania projektowania (CAD), grafika prezentacyjna, obrazy statyczne, zapisy mowy i dźwięku, materiały video oraz materiały geograficzne) rekomendowana jest strategia migracji informacji cyfrowej. Jedyna kategoria, dla której zalecono strategie zachowania i emulacji technologii, to interakcyjne materiały dydaktyczne i instruktażowe.

Wielką uwagę do zagadnienia archiwizacji zasobów cyfrowych przywiązuje się również w Wspólnocie Europejskiej. Staraniem DLM Forum w roku 1997 wydane zostały Wytyczne co do najlepszych praktyk wykorzystania informacji w postaci elektronicznej (Guidelines [1997]), poprzedzone przedmową pióra Martina Bangemanna, który określił w niej usługi archiwizacji jako istotny składnik społeczeństwa informacyjnego. Cyfrowa wersja Wytycznych dostępna jest pod URL: http://europa.eu.int/ISPO/dlm/monitoring/tenpoints.html. Godny uwagi i naśladowania jest nagłówek cytowanego dokumentu: This website has been archived, świadczący o zorganizowanej formie archiwizacji cyfrowych dokumentów elektronicznych we Wspólnocie Europejskiej.

Rysunek 13. Tekstowa wersja archiwizowanego systemu cyfrowych dokumentów elektronicznych.


This website has been archived
Please visit the new site at:
http://europa.eu.int/information_society
DLM Forum
European citizens and electronic information : the
memory of the Information Society
Cooperation Europe-wide

[DLM Forum '99] [ Become a DLM Correspondent ] [Contacts]


After the successful first DLM-Forum which was held in Brussels from 18th to 20th December 1996 the European Commission organised the second multidisciplinary DLM-Forum in the framework of the Community on the problems of the management, storage, conservation and retrieval of machine-readable data on the 18th and 19th of October 1999. Public administrations and national archives services, as well as representatives of industry and research, took part in the Forum.

DLM Forum '99


Some further photographic impressions
Results of the DLM-Forum '99

Treść dokumentu w jego istotnej części zawiera pewną skromną (i zdaniem autora niezbyt udaną) próbę zdefiniowania niezbędnej terminologii (informacja, dane, dokument), analizę cyklu życia informacji elektronicznej, jej projektowania, tworzenia, obsługi i klasyfikacji. Ostatnie rozdziały poświęcone są formatom plików i dostępowi do nich. Całość uzupełniają obszerne aneksy. Dokument powstał najwyraźniej pod wpływem lobby tworzącego wizję społeczeństwa informacyjnego. Prezentowana tam terminologia jest utrzymana w stylu urzędniczym i być może została stworzona na potrzeby szkolenia średnich warstw unijnej administracji. Stosowana terminologia musiała zapewne spotkać się z jakąś formą krytyki, skoro zawarte w punkcie 8.1 definicje opatrzono następującym komentarzem: Poniższe definicje zostały użyte na potrzeby niniejszych Wytycznych. Regulacje prawne różnych krajów również zawierają definicje, które powinny być wzięte pod uwagę.

Na gruncie polskim godzi się odnotować zapowiedź Wydawnictwa DiG druku książki Archiwa elektroniczne – dokumenty elektroniczne [Wajs 2002].

Uwagi godne są pierwsze próby rozszerzenia egzemplarza obowiązkowego na dokumenty publikowane w Internecie wraz z ich obowiązkową archiwizacją. Wbrew początkowym obawom rozmiar takich archiwów w skali państwowej nie okazał się porażający: w końcu 1998 r. fiński Web zamknął się w granicach ok. 200 GB z przewidywaniem osiągnięcia 1 TB jesienią 2000. W Szwecji archiwum krajowego Web'a zajęło wiosną 2000 roku zaledwie 400 GB przestrzeni dyskowej [Hakala 2000 strona 20].

Z pewnością nierozwiązanym w Polsce problemem jest problem miejsca składowania i rotacji cyfrowych zapisów archiwalnych. Utrzymywanie się koncepcji archiwizacji na poziomie lokalnym, bez terytorialnej wymiany kopii jest wyjątkowo niefortunne. Ciągle jeszcze brak jest instytucji (rządowych, samorządowych lub komercyjnych), które mogły by oferować takie usługi, jak przechowywanie cyfrowych materiałów archiwalnych (dobre pole do zrobienia interesu). Wymaga to oczywiście sporej wiedzy z zakresu konserwacji takich materiałów, no i nienajgorszej organizacji.

Użytkownik systemu. Karbowy, kucharz, czytelnik, słuchacz, dotykacz, czy widz?

System cyfrowy pracujący na potrzeby masowej obsługi nie jest i nie będzie systemem demokratycznym. Jak większość podobnych systemów cechuje się dychotomią zasobów: są w nim zasoby konsumpcyjne, są i administracyjne. Trudno więc się dziwić, że będzie występować i dychotomia użytkowników. Przeciwko temu principium walczyli, walczą i zapewne będą walczyć światowe ugrupowania anarchistów i wandali sieciowych. System taki jest systemem autokratycznym o dobrze ustalonej hierarchii uprawnień różnych kategorii użytkowników.

W hierarchii tej najwyższe uprawnienia ma administrator systemu (ang. root, superuser, supervisor). Administrator może, od strony dostępnych dla niego funkcji, zrobić niemal wszystko. To właśnie on ma niczym nieograniczony dostęp do zasobów administracyjnych. W przeszłości administrator systemów kupionych na indywidualne wnioski o import sprzętu wysokiej technologii (embargo) nie miał prawa wglądu do urządzeń archiwizujących informacje o przebiegu uruchamianych procesów. Czego administrator nie może teraz zrobić? Jeśli system cyfrowy jest firmowy, bez posiadania kodu źródłowego i możliwości jego modyfikacji, administrator nie może rozszerzyć podstawowych jego funkcji (choć na ogół może je zubożyć). Nie ma też do dyspozycji administracyjnych narzędzi do odszyfrowania hasła użytkownika, ani treści zaszyfrowanych przez użytkownika plików. Może natomiast wywłaszczyć dowolny proces systemowy zainicjowany przez użytkownika, zmienić jego uprawnienia dostępu do plików, zlikwidować konto użytkownika. I te niezwykle wysokie uprawnienia są przedmiotem apetytów hackerów całego świata.

Administratorem w żadnym wypadku nie powinna być jedna osoba. Taka sytuacja mogłaby się okazać fatalna dla systemu. Od samego początku należy stworzyć i utrzymywać grupę administratorów, rozumiejąc potrzebę konieczności specjalizacji w ramach tej grupy, ale też i posiadania możliwości zamiany ról poszczególnych specjalistów w sytuacjach awaryjnych. Należy pamiętać, że każda wiedza starzeje się i trzeba koniecznie przewidywać fundusze na szkolenia administratorów. O administratorów trzeba dbać niesłychanie, bo to w ich rękach tkwią klucze do pełnej operacyjności systemu. Są to ludzie o bardzo wysokich kwalifikacjach i wykształceniu, na ogół bardzo skromni i taktowni, bo pokory uczy ich poziom złożoności systemu, którym administrują. Jednak rola ich jest podobna do kontrolerów ruchu powietrznego na lotniskach, bo muszą być przygotowani do podejmowania błyskawicznych decyzji o strategicznym znaczeniu.

Inaczej sprawa się ma z pozostałymi użytkownikami systemu cyfrowego. To dla nich przeznaczone są konsumpcyjne zasoby systemu. Ale i w tej grupie nie ma równouprawnienia. Nawet i w stołówce, gdzie serwuje się typowy produkt konsumpcyjny, jest podział na tych, co przygotowują posiłki i na tych, którzy je konsumują. I trudno się dziwić, że kucharze nie wpuszczają do kuchni zwykłych konsumentów. W grupie konsumenckiej [24] będziemy wyróżniać administratorów aplikacji o bardzo urozmaiconych funkcjach, często bardzo różniących się odpowiedzialnością - jednak mających w mniejszej, czy większej skali uprawnienia do modyfikacji zasobów cyfrowych. W bibliotekach należeć do nich będą specjaliści od zarządzania oprogramowaniem bibliotecznym, ale też katalogerzy, bibliotekarze sporządzający opis egzemplarza, czy mający dyżur w wypożyczalni. Przyjrzyjmy się fragmentowi takiego opisu, korzystając z danych obowiązujących w systemie VTLS zainstalowanym w Bibliotece Głównej UG i przytoczonych przez Misiewicza (2000):

Tabela 2. Typy użytkowników. Źródło: Misiewicz [2000].

Nazwa użytkownika
Uprawnienia
user
Przeglądanie katalogu, bez dostępu do powłoki [25]systemu operacyjnego
epac
mutacja typu „user” - przeglądanie katalogu, bez dostępu do powłoki systemu operacyjnego. Specyficzny dla programu - klienta VTLS Windows® EasyPac.
cat
Kataloger - użytkownik z uprawnieniami do wprowadzania, modyfikacji i usuwania rekordów:¨ książki,¨ autora,¨ egzemplarza.Bez dostępu do powłoki systemu operacyjnego.
circ
pracownik Wypożyczalni posiadający w systemie możliwość ingerencji w informację o Czytelniku.Może:· wypożyczyć książkę;· usunąć informację o stanie konta Czytelnika;· usunąć informację o Czytelniku;· wprowadzić informację o nowym Czytelniku.
admin
użytkownik o uprawnieniach wyższych od katalogera, np. bibliotekarz systemowy - poprawiający błędy we wprowadzonych rekordach. W zależności od potrzeb ma możliwość uruchamiania programów zewnętrznych. Posiada dostęp do powłoki systemu operacyjnego MPE/XL, może również uruchamiać programy zewnętrzne, również pisane przez siebie.
manager
superużytkownik - ma prawo do ingerencji w system na każdym poziomie. Poza dostępem do wszystkich komend samego systemu, posiada dostęp do powłoki systemu operacyjnego MPE/XL, może również uruchamiać programy zewnętrzne, również pisane przez siebie.

Oczywiście w ramach aplikacji na ogół zawsze można zdefiniować znaczną liczbę różnych grup użytkowników - zdecydowanie więcej niż to zapewniają współczesne, wielodostępne systemy operacyjne. Bardziej szczegółowy opis sugerowanych przez VTLS funkcji i odpowiedzialności różnych użytkowników można znaleźć w cytowanej wyżej pracy Misiewicza.

Bardzo sensowne ustawienie kontroli sieciowego dostępu do zasobów bibliotecznych i sklepowych w oparciu o zalecenia POSIX zaproponował niedawno Gladney [1997]. Według jego propozycji uprawnienia są reprezentowane przez wektory boolowskie stwarzające nadzieję na sprawną obsługę przez systemy zarządzania relacyjnymi bazami danych.

Przejdźmy wreszcie do ostatniej kategorii użytkownika systemu - tego 'czystego konsumenta'. Tak jak i w życiu, prawdziwa demokracja dotyczy tylko tych, którzy nie mają już nic do powiedzenia. To dla nich (pewnie na osłodę losu) otoczenie sprzętowe nowoczesnej biblioteki musi stawać się uniwersalne. Takie są współczesne tendencje i tego oczekuje rynek odbiorcy. Jest to wizja demokratycznej biblioteki, dostępnej dla wszystkich, bez dzielenia na kategorie lepszych i gorszych. O swobodnym, nieograniczonym dostępie do zasobów bibliotek bardzo silnie wyraża się amerykańska ustawa biblioteczna o prawach (patrz http://www.ala.org/work/freedom/lbr.html) [26]. To głośne hasło równości, ponad dwa stulecia szerzące się w swych rozlicznych odmianach, szczególnie silnie daje swój wyraz na niwie dostępu do cyfrowych zasobów bibliotecznych. Nie ma i nie będzie osobnej "profesorskiej czytelni" dokumentów cyfrowych. W równym stopniu nie powinno się tworzyć gett dla “sprawnych inaczej” - gdyż w świecie cyfrowym nie ma miejsca na cyfrowe biblioteki specjalne. To już nie czytelnik: to uogólniony odbiorca. To słuchacz, to czytelnik, to widz – stosownie do swoich możliwości, potrzeb, oraz wyposażenia osobistego i czytelni (czy też publicznego, sieciowego punktu dostępu do systemu). Warunkiem tego, że takiego odbiorcę biblioteka pozyska w przyszłości, jest odpowiednie jej przygotowanie na jego przyszłą obecność. Mamy tu na myśli przygotowanie całej instytucji: obiektu, jego wyposażenia, regulaminu i personelu.

Przyjrzyjmy się niewidomym. Mało który bibliotekarz wie, że współczesny niewidomy, mimo że w ogóle nie widzi ekranu komputera, znakomicie surfuje po Internecie posługując się syntezatorem mowy (rozwiązanie tanie) i/lub linijką brajlowską (rozwiązanie drogie). Można nawet wyrazić uzasadnione przekonanie, że niewidomi znacznie częściej korzystają z serwerów FTP oraz grup dyskusyjnych, niż bibliotekarze. Nie tylko zresztą bibliotekarz ma bardzo ograniczoną wiedzę na ten temat. Gdy wiosną 2000 roku autor wprowadzał niewidomego magistranta anglistyki (wraz z towarzyszącym mu psem-przewodnikiem) do sąsiadującej z wydziałowym laboratorium komputerowym pracowni wyposażonej w sprzęt przygotowany do obsługi osób niewidzących [27], na twarzy pracującego przy stacji roboczej studenta pojawiło się coś w rodzaju wyrazu politowania. Po kilku minutach można było zobaczyć niepomierne zdumienie odmalowujące się na tej samej twarzy, gdy z otoczenia sprzętu brajlowskiego zaczęły dochodzić głosy profesjonalnej dyskusji na temat Sieci. Taki właśnie niewidomy, przy minimalnym instruktażu, znakomicie potrafi przeglądać OPAC. Autor sprawdził to osobiście. A nie mówimy tu o pojedynczej osobie. Obecne programy wsparcia niewidomych na skalę masową otworzyły bramy internetowej edukacji dla setek niewidomych w całej Polsce i to od poziomu szkoły podstawowej. Na zapotrzebowanie tej grupy społecznej trzeba koniecznie się otworzyć.

Zapytajmy jednak, po co niewidomemu taki OPAC, jaki można obecnie powszechnie spotkać? Czy znajdzie tam skatalogowaną jakąś pozycję w brajlu i jak w tym tłumie czarnodruku ma takie pozycje prosto wyselekcjonować? A może książkę mówioną? Czy znajdzie tam choć kilka "podpiętych" pełnotekstowych monografii? A tak choćby jak tą wspomnianą poprzednio, cyfrową Bibliotekę arcydzieł polskiej literatury, na które wygasły już prawa przedruku? Nasz niewidomy raczej nie używa telnetu. To oprogramowanie nie jest popularne w tej grupie inwalidztwa z różnych względów. A który z istniejących w Polsce interfejsów WWW do katalogu publicznego oferuje wybór względem materiału publikacji, nie odwołując się do pustych rekordów?

Pewnie, że można niewidomego odesłać z biblioteki akademickiej do specjalnej, ale tam z pewnością nie zdobędzie materiałów do studiowania. Zapewne są i ważniejsze sprawy. Niejednokrotnie przewijające się zapytanie: “A ilu tych niepełnosprawnych macie?” budzi jednak smutek. Aż nazbyt kojarzy się ono z Konferencją Poczdamską. Poszukajmy więc bardziej pozytwnego przykładu. Warto więc wspomnieć, że w Amsterdamie niewidomy student czy uczeń otrzymuje potrzebną książkę w postaci cyfrowej w ciągu 24 godzin! Podobnie jest to zorganizowane na Uniwersytecie Warszawskim. Jest to wynik połączenia szlachetnego i mądrego ustawodawstwa o prawach przedruku z dobrą, przemyślaną organizacją – w tym również zachętą i wsparciem dla wolontariatu. Przynajmniej w jednej swej lokalizacji każda większa biblioteka powinna być wyposażona w sprzęt usuwający bariery komunikacyjne, będące wynikiem różnego rodzaju niepełnosprawności. W 2000 roku praktycznie tylko Biblioteka Uniwersytecka w Warszawie przekroczyła pod tym względem poziom "masy krytycznej" w nasyceniu takim sprzętem. Prowincji pozostaje tylko dużo mówiące westchnienie. Te znaki zapytania to namiętny apel autora do bibliotek, do ich P.T. Dyrektorów i do samych bibliotekarzy. Już teraz można tak dużo zrobić dla niepełnosprawnych: wystarczy dodać 'w czynie społecznym' choćby kilka hiperłączy do opisu bibliograficznego, rozszerzyć indeksowanie na materiał publikacji i poszerzyć opcje filtracyjne w OPACu. Oszczędzi to niewidomym trudów komunikacyjnych i pomoże im zintegrować się z resztą społeczeństwa. Trzeba uczynić wszystko, co możliwe, by i oni mogli być partnerami osób widzących w rozmowie na temat przeszukiwania katalogu biblioteki.

Nie należy się dziwić, że w niniejszym opracowaniu mówimy nieproporcjonalnie więcej na temat dostępu do informacji osób niewidomych, niż na przykład głuchych. Niewiedza społeczna na temat inwalidztwa jest ogromna. Bardzo mało osób wie, że niewidzący, lecz słyszący człowiek, jest pod względem możliwości zdobywania wiedzy w znacznie lepszej sytuacji niż inwalida widzący, ale głuchy od urodzenia. Osoba głucha od urodzenia praktycznie w ogóle nie zna swego ojczystego języka! Dla takiej osoby pełnotekstowy dokument cyfrowy wyświetlony na ekranie komputera może mówić mniej, niż kolorowe obrazki. Pierwszym językiem, który polskie dziecko otrzymuje od niesłyszących rodziców (nawet, jeśli samo jest słyszące) to PJM - język migowy [Świdziński, 2000], a nie język ojczysty. W Polsce niewielki ułamek osób głuchych posługuje się polskim językiem fonicznym w odmianie pisanej, a spośród tej grupy tylko niektórzy i w mówionej. Zacytujmy wyjątki z artykułu Świdzińskiego: "Języki migowe spełniają definicję języka naturalnego. Są wyrafinowanym narzędziem komunikacji uniwersalnej, systemem dwuklasowym znaków, ze słownikiem i gramatyką. Od języków brzmiących różni je natura fizyczna znaków, które przekazywane są kanałem wizualno-przestrzennym, a nie wokalno-audytywnym. W języku migowym "mówi się" rękami. Ale do produkcji tekstu wykorzystywane są nie tylko ręce; także tułów, głowa, twarz i jej mimika, czasem - całe ciało; i często owe znaki niemanualne wyrażają treści, które w języku fonicznym obsługiwane są przez osobne słowa lub konstrukcje. (...) Język migowy populacji zamieszkującej obszar danego języka fonicznego (angielskiego, polskiego, szwedzkiego) nie jest językiem angielskim, polskim, szwedzkim. To język drastycznie odmienny pod każdym względem od języka słyszącej populacji. PJM nie ma nic wspólnego z polszczyzną. Pewnie dlatego słyszącemu tak trudno tekst migowy zrozumieć. Trudno mu się tego języka nauczyć. Bardzo trudno język migowy opisać".

Z pewnością stało się niedobrze, że rozwój języków migowych na świecie nie uwzględnił potrzeb komunikacji międzynarodowej i nie doprowadził do unifikacji bazowego słownictwa i gramatyki. Dziś trudno przewidzieć, czy można tu liczyć na jakąkolwiek poprawę. W każdym razie na dzień dzisiejszy z pewnością prawdziwe są słowa autorów artykułu "INTERNET - szansa dla osób niepełnosprawnych" [Sońta, Markiewicz 2000]: "Również język może być barierą. Dla osoby głuchej, której językiem ojczystym jest język migowy, dostęp do informacji głównie po angielsku i to na całkiem wysokim poziomie złożoności, może okazać się problemem".

Użytkownik systemu informacyjnego może mieć i inne cechy. Polska stała się krajem otwartym, odwiedzanym przez licznych gości z całego świata. Naturą gościa jest ciekawość – gość wypróbowuje wizytowany kraj gdzie się tylko da, łatwiej mu bowiem zapamiętać różnice, niż ogarnąć całokształt nowego obrazu. Systemy informacyjne o kraju są szczególnym obiektem zainteresowania. Naukowiec z Chin przebywający na kilkumiesięcznym stażu za granicą nie tylko w Polsce miał problemy z dostępem do własnej literatury w związku ze stosowaną lokalnie transkrypcją. Wprowadzona w 1950 r. w USA romanizacja języka chińskiego wg. schematu Wade-Giles (WG) okazała się nie do przyjęcia dla Chińczyków i po prawie półwieczu kosztem wielkich nakładów zmieniana jest na pinyin (PY). To wszystko jednak było zbędne. Gdyby tylko pół wieku temu pamiętano, dla kogo jest dzieło pisane po chińsku, nie byłoby dziś tych wielkich kosztów i przysłowiowego zamętu. A w wersji oryginalnej dzieło takie z pewnością nie jest adresowane do osoby nie znającej chińskiego. Uświadomienie sobie tego faktu doprowadziło do zapoczątkowania znaczącego (i kosztownego) w swej skali procesu uzupełniania opisu bibliograficznego o opis w języku oryginału, dla uniknięcia wszelkich nieporozumień związanych z nieznajomością lokalnych zasad transkrypcji i transliteracji u obcokrajowców. Do szczegółów tej sprawy powrócimy szerzej przy omawianiu dokumentu elektronicznego.

Identyfikacja użytkownika oraz uwierzytelnienie dokumentów, podpisów i oświadczeń

Obecnie dysponujemy już szeregiem metod, przy pomocy których użytkownik może uwiarygodnić swoją obecność w wielodostępnym systemie cyfrowym. Ma on w nim administracyjnie przypisane sobie dwie cechy identyfikacyjne: nazwę konta systemowego (ang. login name) oraz hasło dostępu do konta (ang. password). Nazwa konta systemowego jest trwała i może ją usunąć tylko administrator. Hasło może być zmienione przez użytkownika w każdej chwili, a większość systemów ze względów bezpieczeństwa wymusza nawet na użytkownikach okresowe zmiany hasła. Hasło można wpisywać ręcznie na klawiaturze, wczytywać z karty magnetycznej, karty z wydrukowanym kodem paskowym, czy też karty chipowej (elektronicznej). Hasło jest szyfrowane na poziomie systemu, a w czasie wpisywania go z klawiatury nie jest widoczne na ekranie. Ze względu na procedurę szyfrowania administrator systemu nie jest w stanie odczytać hasła użytkownika, ale może je zmienić na żądanie użytkownika, gdy ten je zapomni. Nazwa konta jest częścią publiczną (jawną) systemu identyfikacji użytkownika, hasło – jego częścią prywatną (tajną). Aby przesłać pocztą elektroniczną do kogoś wiadomość, nadawca musi się posłużyć adresem tej osoby. Składa się nań nazwa konta adresata skojarzona przy pomocy znaku @ z adresem serwera, na którym założono to konto (np. kali@macumba.gov.gh). Jednak tak przesłaną wiadomość, mimo, że zwykle nie jest ona szyfrowana, odczytać tylko ta osoba, która zna hasło (a więc część prywatną systemu identyfikacji) [30].

Nazwa konta, jest jak nazwisko adresata na kartce pocztowej, a hasło - jak kluczyk do jego skrzynki na listy. Natomiast treść kartki może być odczytana przez każdego urzędnika poczty, jakkolwiek nie jest on upoważniony do czynienia tego. Aby treść uczynić niewidoczną nawet dla przygodnego inspektora, trzeba ją zaszyfrować. Czytelnik zechce zapamiętać następujące spostrzeżenie: podobnie, jak w przypadku nadawania i odczytu poczty elektronicznej, współczesne algorytmy szyfrowania (tzw. asymetryczne) będą oparte na koncepcji istnienia i używania dwóch kluczy: klucza publicznego i klucza prywatnego (Robling Denning [1992]). Bezpieczeństwo szyfrowania jest w zasadniczy sposób uzależnione od długości klucza szyfrującego: im dłuższy jest klucz, tym jest on trudniejszy do złamania [31]. Ale trzeba pamiętać o sprawie głównej: bezpieczeństwo prywatnych interesów użytkownika będzie zachowane wtedy, gdy nie będzie on udostępniał swego klucza prywatnego osobom trzecim.

Niestety, obecna struktura systemów szyfrujących nie jest dopasowana do poczucia bezpieczeństwa instytucji finansowych; w związku z tym powołano instytucje autoryzujące sieciową obecność użytkownika systemu chronionego. Mówiąc oględnie taka sytuacja wprowadza nowy element rozproszony i nie wzmacnia odporności szyfru na złamanie - wręcz odwrotnie - zmniejsza ją. A któż jest w stanie zapewnić, że system komputerowy instytucji autoryzującej będzie szczelny? Ależ to jest najbardziej interesujące miejsce ataku dla przestępców! Czy jakikolwiek rząd, z rządem USA na czele, czuje się na siłach udzielić gwarancji finansowych autoryzującym agencjom w stosunku do ewentualnych roszczeń osób, które poniosły stratę wynikłą z nieszczelności ich systemów? Trudno w coś takiego uwierzyć.

Jedynym remedium jakie przychodzi tu na myśl w związku z podpisem elektronicznym, może być złamanie paradygmatu dwu-kluczowego modelu szyfrowania i zastąpienie go modelem trój-kluczowym. Taki model musiałby uwzględniać istnienie wszystkich trzech stron zainteresowanych tą sprawą. Zatem mielibyśmy trzy klucze: klucz publiczny, klucz autoryzujący oraz klucz prywatny. Jedno jest pewne: taki system nie został jeszcze stworzony (przynajmniej oficjalnie) i trudności intelektualne, jakie mogą powstać przy poszukiwaniu takiego modelu, mogą przypominać znany z fizyki problem trzech ciał. Wydaje się, że istnieje pilna potrzeba opracowania nowego modelu szyfrowania uwzględniającego istnienie czynnika autoryzującego.

W ostatnich latach coraz bardziej istotnym staje się problem potwierdzenia autentyczności nadawcy dokumentu elektronicznego. Podstawy normatywne do wprowadzenia tej ustawy dało przyjęcie pewnej liczby norm, spośród których należy wymienić PN-ISO/IEC 9798-3 [1996] oraz PN-ISO/IEC 9798-3 [1996]. Po raz pierwszy chyba w historii powojennej Polska idzie niemal równo ze Stanami Zjednoczonymi. W Załączniku A-1 na końcu książki przytoczone są wyjątki z ustawy `Electronic Signatures in Global and National Commerce Act' (dostępna pod URL:

http://thomas.loc.gov/home/c106query.html

poprzez Senate bills ustawa S 761) podpisanej przez prezydenta Clintona 30 czerwca 2000. W tekście widać wyraźnie, na jak bardzo wstępnym etapie rozwoju znajdują się amerykańskie prace legislacyjne, upoważniające Dyrektora Narodowego Instytutu Standardów i Technologii do podjęcia kroków wykonawczych w zakresie przyjęcia i wdrożenia podpisu elektronicznego na poziomie agencji federalnych i do zachęcenia prywatnego sektora gospodarki, by posługiwać się podpisem cyfrowym w transakcjach elektronicznych. Uwagi godne jest zarówno użycie w Akcie terminu zachęta, jak i status samej instytucji, która ma sprawować pieczę nad procesem wdrożenia tej ustawy.

Jeszcze przed wejściem w życie polskiej ustawy o podpisie elektronicznym jej przyszły kształt stał się przedmiotem zażartych dyskusji i alternatywnych projektów rządu i Sejmu. Warto zacytować z tamtego okresu wypowiedź ówczesnego wiceministra gospodarki Wojciecha Katnera, jednego ze współtwórców projektu rządowego, które przedstawił w wywiadzie dla “Teleinfo” [Katner, 2000]: “ /.../ Poza samą ustawą, która ma charakter bardziej techniczny, istotną rzeczą są zmiany w kodeksie cywilnym, równoważące złożenie oświadczenia woli z podpisem elektronicznym ze złożeniem oświadczenia woli z podpisem własnoręcznym. /.../ Ustawa ma charakter techniczny, ponieważ dotyczy przede wszystkim tego, w jaki sposób podpis ma być złożony, aby zachować jego integralność, ażeby nie można było oświadczenia woli podrobić, aby się nie mógł wedrzeć do tego oświadczenia woli nikt w trakcie jego przekazywania [32] i dokonać zmiany przy samym podpisie, bo jednak w formie elektronicznej można manewrować tekstem przy zachowaniu podpisu. Poza tym, zależy nam, żeby nie mogły podpisu odkodować osoby, które nie mają do tego prawa, czyli żeby składający taki podpis czuł się bezpiecznie. Podpis elektroniczny będzie można uzyskać za określoną sumę w organie certyfikującym [33]. Wyobrażamy sobie, że instytucjami certyfikującymi e-podpisy mogłyby być organizacje prywatne, działające na podstawie zezwolenia. Kontrolować je będzie państwowy organ autoryzujący. Sądzę, że na początek wystarczy kilkadziesiąt organów certyfikujących.. Stosownie do nowych przepisów, jakie będą obowiązywać od 1 stycznia 2001 r., każdy, kto spełni warunki zezwolenia, będzie mógł uzyskać możliwość wykonywania tego typu działalności gospodarczej.

W tym samym czasopiśmie obiekcje merytorycznych krytyków rządowego projektu ustawy przedstawił Kutyłowski (2001). Wskazuje on na niebezpieczeństwo sprawowania zbyt daleko posuniętego nadzoru przez Ministerstwo SWiA nad procedurą certyfikacyjną, w patologicznych okolicznościach grożące podrabianiem certyfikatów przez MSWiA. Ale jest i sprawa poważniejsza. Po drugie, klucze prywatne generowane na potrzeby klientów też nie są bezpieczne. Ponieważ klucze generowane są przez generatory pseudolosowe, znajomość wykorzystywanych przez nie zarodków właściwie owe klucze zdradza. Elementarnym działaniem zgodnym z zasadmi bezpieczeństwa byłoby niszczenie zarodka natychmiast po wygenerowaniu klucza. Niestety, nie jest to możliwe. Ustawa nakłada obowiązek przechowywania zarodka przez 50 lat (opcjonalnie minister może ten okres skrócić, ale musi on wynosić co najmniej 20 lat). /.../ Autorzy projektu rządowego dają bardzo silne kompetencje w ręce jednego ministerstwa i nie ustanawiają kontroli nad nim. (ibid). Kutyłowski dalej pokazuje na przykładzie algorytmu szyfrowania RSA, że projekt zawiera prawną możliwość obejścia zakazu przechowywania klucza prywatnego przez przechowywanie równoważnego mu w sensie kryptologicznym substytutu.

Szczytne marzenia rządu o przyjęciu ustawy o podpisie elektronicznym przed 1 stycznia 2001 r. nie ziściły się i ustawa weszła w życie dopiero 18 września 2001 (Dz.U. 2001, Nr 130, poz. 1450). Warto przytoczyć wyjątki z tej ustawy, które mogą być interesujące dla Czytelnika.
Rozdział II, Art. 3.:
1 ) „podpis elektroniczny” – dane w formie elektronicznej, które wraz z innymi danymi służą do potwierdzenia tożsamości osoby fizycznej składającej podpis, które spełniają następujące wymogi:
a) określają jednoznacznie osobę fizyczną składającą podpis
b) umożliwiają identyfikację osoby składającej podpis
c) są sporządzone za pomocą środków technicznych i informacji, które składający podpis ma pod swoją wyłączną kontrolą
d) jakakolwiek zmiana danych podpisanych jest rozpoznawalna
/.../
7) „kwalifikowany certyfikat” – certyfikat wydawany przez podmiot świadczący akredytowane usługi certyfikacyjne
/.../
Rozdział III, Art. 4:
/.../
3. Podpis elektroniczny może być znakowany czasem
4. Domniemuje się, że podpis elektroniczny znakowany czasem został złożony w czasie określonym za pomocą usługi znakowania czasem
5. Dokument opatrzony podpisem elektronicznym złożonym na podstawie ważnego kwalifikowanego certyfikatu jest równoważny pod względem skutków prawnych dokumentom opatrzonym podpisami własnoręcznymi

Jak widać z powyższego, zamiar operowania podpisem elektronicznym ważnym w sensie prawa wymaga zakupienia kwalifikowanego certyfikatu od podmiotu świadczącego usługi certyfikacyjne (na podobieństwo aktu notarialnego). W tym sensie ściągniętym z sieci freeware’owym pakietem do składania podpisu elektronicznego można się bawić w gronie przyjaciół, a nie podpisywać urzędowe dokumenty. Trudno wierzyć w to, że znajdzie się choćby jedna instytucja skłonna świadczyć za darmo akredytowane usługi certyfikacyjne. W centrum spraw związanych z podpisem elektronicznym znajduje się bezpieczeństwo przeprowadzanych operacji. W marcu 2001 dwóch czeskich kryptologów, Klima i Rosa [2001] opublikowało informację o znalezieniu nieszczelności w popularnym formacie Open PGP i odtworzeniu klucza prywatnego zakodowanego w pliku secring.skr. Istnienie tej nieszczelności potwierdziły źródła niezależne, łącznie z Philem Zimmermanem, twórcą PGP. Uwagi godne jest to, że skuteczność ataku na niezmodyfikowany format jest duża tylko w przypadku dostępu do pliku secring.skr (na przykład współużytkowanie komputera, w którym na twardym dysku przechowuje się klucze). Aktualne wersje Open PGP są już „załatane”. Przypadek ten jednak powinien przestrzec użytkowników przed innymi, ciągle ukrytymi nieszczelnościami, przypomina też on o konieczności uważnego nadzorowania medium, na którym klucze są przechowywane.
Wprowadzenie w miarę bezpiecznej technologii podpisu elektronicznego stwarza solidne podstawy do realizacji ciągle nie spełnionego marzenia z wczesnej epoki wprowadzania komputerów: redukcji obrotu papierem. Na sieci znajduje się już znaczna liczba dokumentów, które można odszukać poprzez dwie niezależne frazy wyszukiwawcze:

i. Paperwork reduction act of 1995 (PRA)
ii. Government paperwork elimination act of 1998 (GPEA)

Powyższe akty odwołują się do wcześniejszego rozporządzenia o nazwie:

iii. Computer Security Act of 1987 (CSA)

Podstawową filozofią rządu USA jest w tej materii zmuszenie państwowych urzędników do wprowadzenia elektronicznych form wysyłki, przyjmowania i archiwizacji dokumentów, oraz zachęcenie obywateli a także instytucji prywatnych do nadsyłania dokumentacji w postaci elektronicznej. Rząd nałożył rygory czasowe na zakończenie tego procesu (23 października 2003), domagając się od agencji rządowych przedstawienia swych planów odnośnie implementacji tego rozporządzenia jeszcze w roku podatkowym 2000.
W tym miejscu warto zacytować fragment naszej ustawy o podpisie elektronicznym, który głosi: W terminie 4 lat od wejścia w życie ustawy organy władzy publicznej umożliwią odbiorcom usług certyfikacyjnych wnoszenie podań i wniosków oraz innych czynności w postaci elektronicznej, w przypadkach gdy przepisy prawa wymagają składania ich w określonej formie lub według określonego wzoru. (Art. 58, pkt. 2). I wreszcie bardzo ważny zapis dotyczący finansów: Minister właściwy do spraw finansów publicznych, w terminie roku od dnia wejścia w życie ustawy, dostosuje przepisy regulujące sposób wnoszenia opłat za czynności administracyyjne do wymogów obrotu prawnego z wykorzystaniem podpisu elektronicznego.(Art. 58, pkt. 4). Pierwszy rok już minął. Odnotujmy te zapisy – wszakże dotyczą one również bibliotek! Ustawa nie zna litości.
Można by powiedzieć, że Polska tym razem jest niezbyt z tyłu za USA. Z nadzieją należy patrzyć na perspektywę wydania brakujących u nas rozporządzeń rządowych, natomiast z troską śledzić poczynania władz w zakresie zmuszania obywateli i instytucji prywatnych do bezwarunkowego akceptowania nałożonego na państwowe instytucje obligatorium stosowania obrotu dokumentem elektronicznym. Przedsmak tego już dał się u nas odczuć w niedawnej przeszłości. Warto też zwrócić uwagę na pewne wytyczne Biura Zarządzania i Budżetu (Office of Management and Budget) co do interpretacji GPEA (http://www.whitehouse.gov/omb/fedreg/gpea.html):
(Section 4)

a. Elektroniczne uwierzytelnienie winno być używane tylko wtedy, gdy jest potrzebne. Wiele transakcji nie potrzebuje i nie powinno domagać się detalicznej informacji o osobie

b. Gdy elektroniczne uwierzytelnienie jest wymagane do pewnej transakcji, nie należy gromadzić więcej informacji od użytkownika, niż wymaga tego aplikacja.

Jak z tego widać, biuro Prezydenta USA zachęca swą administrację do oszczędności informacyjnej. Przykład jakże wart promocji!

Nadejście pierwszego, podpisanego elektronicznie (termin wg. brzmienia Ustawy) listu może wprawić adresata we niejaką frustrację. Oto stan ekranu ostrzeżenia w pakiecie MS Outlook Express 6.0 poprzedzającego moment otwarcia listu:

Rysunek 14. Ekran poprzedzający pierwsze otwarcie podpisanego elektronicznie listu, w stosunku do którego nie została jeszcze podjęta decyzja adresata o wiarygodności podmiotu uwierzytelniającego podpis.



Od:
  
                          Wojciech Wojcik
Data:                         5 lipca 2002 08:10
Do:                           Czerminski Jurand
Temat:                     Witaj Jurand
Zabezpieczenia:   Cyfrowo podpisana - podpisujący identyfikator cyfrowy nie jest godny zaufania

Wystąpiły problemy zabezpieczeń tej wiadomości.
Przejrzyj wyróżnione elementy wymienione poniżej

 
Wiadomość nie została zmieniona przez niepowołane osoby
? Decyzja o tym, czy identyfikator cyfrowy jest godny zaufania, nie została jeszcze przez Ciebie podjęta
Identyfikator cyfrowy nie wygasł
Nadawca i identyfikator cyfrowy mają ten sam adres e-mail
Identyfikator cyfrowy nie został odwołany lub nie można określić informacji o odwołaniu tego certyfikatu.
Nie ma innych problemów z identyfikatorem cyfrowym

     Nie pytaj mnie więcej o tą wiadomość

  
Otwórz wiadomość
Przeglądaj identyfikator cyfrowy
Edytuj zaufanie


Po uważnym przyjrzeniu się wyświetlonym komunikatom, sformułowanie „Wystąpiły problemy zabezpieczeń tej wiadomości” okazuje się mało istotne. Należy wybrać opcję „Przeglądaj identyfikator cyfrowy”, co daje dostępi do następujących informacji o nadawcy:

Rysunek 15. Właściwości podpisującego identyfikatora cyfrowego. Część I.

Własności podpisującego identyfikatora cyfrowego
?
krzyżyk
Zakładka "Ogólne" (pasywna)
Zakładka "Szczegóły" (aktywna)
Zakładka "Ścieżka certyfikacji" (pasywna)
Zakładka "Zaufanie" (pasywna)
Pole
Wartość
Wersja
V3
Numer seryjny
024C
Algorytm podpisu
md5RSA
Wystawca
CNRS Standard, CNRS, FR
Ważny od
21 maja, 2002 15:42:20
Ważny do
21 maja, 2003 15:42:20
Temat
wojcik@in2p3.fr , Wojciech Woj.
Klucz publiczny (podgląd poniżej)
RSA [1024 Bits ]
Podgląd aktywnego pola (klucza publicznego)
3081 8902 8181 00F6 CA8A AED7 6A4B 9821 C9D4
8947 2E8C 12F5 0B16 E9E6 0B11 8292 37DF 1724
97E0 C942 D2C9 FFC5 9D21 AA10 4923 AB27 6729
AD24 3C0A EDAD 8709 0234 6BF5 C57B CADC 21A9
65F2 92E5 D903 9579 001B 59AF 9BA0 C431 4E58
3E38 3731 6A1A E887 606F 14F2 9FA1 9487 6B33
9FFB 67C4 84FE A014 39A4 C44E 5BE9 AD86 6CDF
8146 5C3D 78F2 B54B 1502 0301 0001

Edytuj właściwości
Kopiuj do pliku
OK


Rysunek 16. Właściwości podpisującego identyfikatora cyfrowego. Część II.
Jeśli przytoczone dane identyfikujące nadawcę nie wydają się podejrzane, to należy uznać, że podmiot uwierzytelniający jest godny zaufania (opcja „Edytuj zaufanie”). Od tej chwili, aż do momentu naruszenia zasad bezpieczeństwa korespondencji, wszystkie listy od tego nadawcy będą odczytywane bez pokazywania ekranu ostrzeżenia.

Własności podpisującego identyfikatora cyfrowego
?
krzyżyk
Załadka "Ogólne" (pasywna)
Zakładka "Szczegóły" (aktywna)
Zakładka "Ścieżka certyfikacji" (pasywna)
Zakładka "Zaufanie" (pasywna)
Pole
Wartość
Alternatywna nazwa tematu
Nazwa RFC 822=wojcik@in2p3.fr
Punkty dystrybucji (podgląd poniżej)
[Punkt dystrybucji
Netscape Revocational URL
http://igc.services.cnrs.fr/cgi-bin
Netscape Cert Renewal URL
https://igc.services.cnrs.fr/cgi-
Podstawowe warunki ogranic.
Typ tematu =J. Maksymalna dł...
Użycie klucza
Podpis cyfrowy. Bez odrzucani...
Algorytm odcisku palca
sha1
Odcisk palca
7BB0 8669 C795 15CB 6A53 3...
Podgląd aktywnego pola (punkty dystrybucji)
[1]Punkt dystrybucji CRL
Nazwa punktu dystrybucji:
Pełna nazwa:
Adres URL=http://igc.services.cnrs.fr/cgi-bin/loadcrl?CA=CNRS-Standard&format=DER

Edytuj właściwości
Kopiuj do pliku
OK

Nie ma wątpliwości, że tempo narastania liczby serwerów zawierających autoryzacyjne bazy danych, pozwalające na identyfikację posiadacza konta systemowego, sukcesywnie będzie się zwiększać. Od sporego czasu narastała też świadomość niedoskonałości systemu otwierania sesji na serwerze przez dwa składniki: znany publicznie (nazwa konta) oraz znany prywatnie (hasło dostępu). Szybki wzrost mocy przetwarzania komputerów przyczynił się w ostatnich latach do rozwoju biometrycznych metod identyfikacji użytkownika systemów komputerowych [34] . Celem, jaki stawiają sobie te metody, jest obiektywizacja identyfikacji. Zakres obejmowanych technologii jest bardzo szeroki: mamy tu metody optyczne analizy obrazu (tęczówka oka, siatkówka oka, kształt dłoni, kształt twarzy, linie papilarne), metody akustyczne (głos, ultradźwięki do rozpoznawania linii papilarnych), metody mechaniczne analizy ruchu (sposób pisania, gesty, ruchy warg). W trakcie opracowań jest rozpoznawanie zapachu. A zatem do konta użytkownika i jego nazwy oprócz samego znakowego hasła dostępu do konta można dodać również pewne atrybuty hasła - np. atrybuty biometryczne. W tak rozszerzonym systemie podsystem nadzoru dostępu powinien być w stanie przeprowadzić analizę spójności wprowadzanych danych identyfikacyjnych w oparciu o wagi statystyczne, przypisywane poszczególnym atrybutom identyfikacyjnym. W obawie, że identyfikacja może być jeszcze nie dość precyzyjna w obliczu zmian fizycznych, które pojawiły się na skutek choroby, czy zmęczenia, wprowadza się metody hybrydowe, będące superpozycją kilku metod.

Rysunek 17. Karta elektroniczna i token USB. Dzięki uprzejmości firmy Cryptotech.

Karta i token USB

Rysunek 18. Skaner linii papilarnych zintegrowany z czytnikiem kart magnetycznych. Dzięki uprzejmości firmy Cryptotech.

Skaner linii papilarnych

Rysunek 19. Skaner linii papilarnych. Dzięki uprzejmości firmy Cryptotech.

Skaner linii papilarnych

Rysunek 20. Rozpoznawanie kształtu dłoni. Dzięki uprzejmości firmy ASTRONTECH.

Rozpoznawanie kształtu dłoni

Tak np. program BioID opiera identyfikację o porównanie wyników trzech metod biometrycznych w czasie ustnego podawania hasła do mikrofonu i ruchów mięśni twarzy, głosu i ruchu warg. Stopień wiarygodności jest w tym wypadku bardzo wysoki. W czasie testów w Instytucie Fraunhofera system ten pozwalał rozróżnić jednojajowe bliźniaki.
W tym miejscu autor chciał wyrazić swój krytycyzm w związku ze spontanicznym wykorzystaniem przez wynalazczość wszelkich możliwych cech osobniczych do celów identyfikacyjnych, bez względu na istnienie dostatecznie obszernej dokumentacji, pokazującej skorelowanie tych cech ze stanami emocjonalnymi czy chorobowymi człowieka. W przeszłości nienajlepszą sławą cieszył się osławiony amerykański "wykrywacz kłamstw", oparty o koncepcję podwyższonej potliwości człowieka kłamiącego w ogniu krzyżowych pytań. Obecnie proponuje się rozpoznawanie tęczówki do identyfikacji człowieka. Tymczasem od dawna znane są środki farmakologiczne, pozwalające zmieniać jej barwę. Co ważniejsze - od długiego już czasu tęczówka wykorzystywana jest do diagnostyki bardzo wielu chorób (irydodiagnostyka). Skoro obraz bardzo wielu chorób jest w tęczówce odwracalny, to bazowanie na tego rodzaju wyróżniku wydaje się być co najmniej wątpliwe. Bardzo dobrą pracę z irydodiagnostyki, opartą o szerokie badania kliniczne opublikowała grupa rosyjskich klinicystów [Velhover, 1988].
Metoda morfologiczna zapytuje o idealną wydajność systemu. Odpowiedź jest prosta w stosunku do relacji człowiek – maszyna. Człowiek korzystający z usług lub zasobów systemu cyfrowego powinien być obsłużony w czasie niezauważalnie dla niego krótkim, natychmiast. Odbiorca nie powinien odczuwać opóźnienia odpowiedzi systemu w stosunku do zleconego zadania. Jednak realne możliwości szybkiej odpowiedzi na zadany problem zależą od rodzaju zadania. Nawet po zbudowaniu komputerów kwantowych, których wydajność przetwarzania będzie kilka rzędów wielkości wyższa od komputerów dzisiejszych, będą istnieć zadania, których realizacja wymaga długiego czasu. Taką klasą zadań zajmuje się obecnie np. kryptografia kwantowa. Dla relacji maszyna – maszyna w większości przypadków progowa wartość dopuszczalnego czasu odpowiedzi systemu cyfrowego jest już dzisiaj na ogół dużo niższa, niż dla relacji człowiek – maszyna. Tak jest np. w mechanice, a już zwłaszcza w sterowaniu mocą reaktora jądrowego. Ale i od tego są wyjątki, np. w zakresie sterowania procesami chemicznymi.

4 Zasoby cyfrowe

Motto:

W ciągu dziesiątków tysięcy lat na wszystkich kontynentach języki rozwijały się, zmieniały i ginęły bez śladu, ponieważ ginęły mówiące nimi ludy, brak zaś było metody utrwalania tych języków dla potomności

David Diringer, „Alfabet czyli klucz do dziejów ludzkości”, 1972, strona 24


Znak i kod

Pojęcie znaku użytkowane jest w wielu naukach, często przybierając szeroką gamę odcieni znaczeniowych. Badaniem systemów znaków zajmuje się semiologia (por. Guiraud [1974]). Na potrzeby niniejszego opracowania znakami nazywane będą elementy pewnego zbioru, służące do tworzenia komunikatów. W bardzo wielu językach cyfry są podzbiorem podstawowego alfabetu. Semantyka określonego znaku na ogół nie jest jednoznaczna, lecz ma charakter konwencji. Na marmurowej płycie grobowca Machiavellego w kościele Świętego Krzyża we Florencji czytamy co następuje:

TANTO.NOMINI.NVLLVM.PAR.ELOGIVM
NICHOLAVS.MACHIAVELLI
OBIT.AN.A.P.V. CIƆIƆXXVII.

Z kontekstu wynika, że ciąg symboli CIƆ̑IƆXXVII, pojawiający się w ostatnim wierszu napisu na grobowcu, jest zapisem daty śmierci, a użytym w nim znakom alfabetycznym przypisano nowe znaczenie. Zakończony kropką ciąg siedmiu symboli ostatniego wiersza CIƆ̑IƆXXVII jest całkowicie równoważny ciągowi znaków MDXXVII. Odpowiednik ten podajemy ze względu na potencjalne użycie syntezatora mowy przy interpretacji wersji online. W zapisie oryginalnym zamiast litery M oznaczającej tysiąc (por. Ifrah [1990, strona 142]), występuje ciąg trzech dużych liter, z których pierwsza jest dużą literą C, a druga dużą literą I. Trzecia litera ma graficzną formę odwróconej o sto osiemdziesiąt stopni litery C. Znak ten zwany antisigmą został wprowadzony około 2 tysiące lat temu przez cesarza Klaudiusza na oznaczenie głoski będącej zbitką ps [Diringer op.cit. strona 516]. Kod tej litery do chwili obecnej nie jest implementowany na syntezatorach i z tego względu cytowany napis został poddany transkrypcji. W podobny sposób występująca w zapisie oryginalnym sekwencja dwóch znaków: litery I oraz litery antisigma, została zastąpiona równoważną jej pojedynczą literą D.

A więc te same znaki w jednym miejscu oznaczały litery – w innym liczby. Rzym nie był tu żadnym wyjątkiem: taką numeracją alfabetyczną posługują się jeszcze dzisiaj Żydzi przy pisaniu dat według swego kalendarza oraz przy numerowaniu ustępów i wersetów Starego Testamentu lub stronic dzieł wydanych po hebrajsku (Ifrah [op.cit., strona 160]).
Zdawać by się mogło, że znaki mające tak dobrze ustaloną semantykę jak cyfry, występując poza obszarem tradycji nie powinny zmieniać swego znaczenia. Wszakże zostały przez człowieka wymyślone do spełniania ściśle określonej roli. Nie jest to jednak prawdziwe. Agresywność subkultury rynkowej, a zwłaszcza reklamy, w pogoni za wszelkimi formami mogącymi zaskoczyć odbiorcę i swą odmiennością zwrócić uwagę potencjalnego klienta zmieniła i tą sferę znaczeniową. Oto trzy przykłady z kręgu języków: polskiego (operator telefonii komórkowej Idea), angielskiego i francuskiego:

Tabela 3. Zmiana znaczenia liczb w tekście reklamowym.

Reklama Tekstowa interpretacja reklamy Fonetyczna alternatywa reklamy Fonetyczna alternatywa reklamy
zdjęcie trzech kobiet rozmawiających przez telefony komórkowe pod którym jest słowo "kciuki" trzy mamy kciuki trzymamy kciuki trzymamy kciuki
4 sale four sale for sale Na sprzedaż
O 20 sans O O vingt sans O Au vin sans eau Przy winie bez wody

Jak widać semantyka znaków, z których buduje się liczby, już o dawna nie była ściśle określona, a i obecnie styk świata cyfrowego z komercją pozostawia różne drobne niejednoznaczności. Jednak w środowisku cyfrowym dobrym obyczajem jest nie pozostawianie decyzji interpretacyjnych systemowi lub aplikacji, lecz używanie różnego rodzaju podpowiedzi lub formularzy, ułatwiających użytkownikowi podjęcie prawidłowej decyzji interpretacyjnej.

Kodem nazwiemy wzajemnie jednoznaczne przyporządkowanie wszystkich elementów pewnego skończonego zbioru odpowiednim elementom drugiego skończonego zbioru. Jeżeli elementami jednego z tych zbiorów są liczby, to kod nazywamy cyfrowym. W szczególności z różnych powodów kodowane cyfrowo mogą być również cyfry/liczby. Tak np. w powszechnie stosowanym w osobistych systemach komputerowych kodzie ASCII cyfrze 0 przyporządkowany jest kod dziesiętny 48, cyfrze 1 – kod 49 itd. Przyczyny, dla których twórca kodu wybiera takie a nie inne przyporządkowanie, są bardzo różne. W przypadku systemów komunikacyjnych na ogół chodzi o skrócenie czasu przekazywania komunikatów. W kodzie ASCII daleki od intuicji system kodowania cyfr (jedynka nie ma kodu 1) wynika prawdopodobnie z najwyższego priorytetu przypisanemu 32 kodom sterującym, dla których prosta struktura dekodera gwarantowała najszybsze wykonanie stosownej instrukcji. Złożoność kodu Morse’a dla danego znaku alfabetu jest odwrotnie proporcjonalna do częstotliwości występowania kodowanego znaku w języku angielskim. Najczęściej występująca w języku angielskim litera E jest kodowana pojedynczą kropką. Takie „usprawnienie” wprowadzone na podstawie czystej statystyki przez wynalazcę, w szczególnym przypadku może się okazać spektakularnym niewypałem. Pierce [1967:63] podaje, że Ernest Vincent Wright napisał w 1939 roku powieść, w której na 267 stronach nie użył ani jednego wyrazu, w którym występowała by litera E. Mamy tu, oczywiście, do czynienia z żartem literackim, nie zmienia to jednak faktu, że kody dobre do jednych celów, mogą się okazać nieefektywne w stosunku do innych celów [35].

Typy danych prostych

Dla komputera pamięć stanowi jednolitą masę bitów bez jakiejkolwiek widocznej struktury. Prawdę tą przypomina nam Wirth [1989:17] i powinna ona każdemu uświadomić, że interpretacja zawartości pamięci komputera zależy od człowieka. Aby kiedykolwiek coś sensownego dało się wydobyć z tej bezkształtnej masy, już na etapie pamiętania czegokolwiek komputer musi wykonać coś, co doskonale jest znane każdemu biliotekarzowi: skatalogować przechowywany zasób. I tu, podobnie jak i w wielu bibliotekach, ekonomia obsady pamięci odgrywa dużą rolę. Dla nadania pewnego porządku takiemu przedsięwzięciu we wszystkich językach programowania definiuje się pewne typy danych, którymi wolno posługiwać się programistom i użytkownikom. Z żalem trzeba powiedzieć, że ani znaczenie (sens) poszczególnych typów danych, ani ich nazwy, nigdy nie zostały ujednolicone. Najlepszym tego przykładem jest tabela, porównująca typy danych obowiązujące w SQL, z typami danych dopuszczalnymi w językach: Ada, C, Fortran, MUMPS, Pascal i PL/1 [Gruber, 1996, wewnętrzna strona tylnej okładki]. Bez specjalnego ryzyka można przyjąć, że w znakomitej większości przypadków komputer zaakceptuje następujące cztery typy danych prostych:

  1. liczby całkowite (typ integer)
  2. liczby rzeczywiste (typ real)
  3. wartości logiczne (typ Boolean)
  4. znaki dopuszczalne na urządzenia zewnętrznych, jak klawiatura i monitor (typ char)

Typy te wymieniane są przez Iglewskiego et al. [1986] jako standardowe w Pascalu, nie wymagające osobnej deklaracji. Wymienione cztery typy proste są typami skalarnymi. Z typów prostych możemy tworzyć typy okrojone przez zdefiniowanie odpowiednich podzbiorów. Na przykład miesiące mogą być symbolizowane liczbami należącymi do podzbioru liczb naturalnych nie większych od 12. Są jeszcze inne racje, dla których wypada wyróżnić wymienione wyżej typy danych. W tym celu przyjrzyjmy się pewnemu aspektowi sprzętowemu wydarzeń, które mają miejsce w komputerze.

Operacje wykonywane na prostych typach danych cyfrowych

Głównym elementem procesora, wymienionego przez nas wcześniej wśród składników systemu cyfrowego, jest jednostka arytmetyczno - logiczna, JAL (ang. Arithmetic-Logic Unit, ALU). Jak nie trudno się domyślić, jednostka ta może wykonywać zarówno operacje arytmetyczne (dodawanie i odejmowanie) jak i logiczne (alternatywa, koniunkcja, negacja); a także przechowywać końcowy wynik operacji. Bez większego ryzyka można również przyjąć, że niemal każda współczesna JAL ma zintegrowaną obsługę liczb rzeczywistych na poziomie koprocesora arytmetycznego (w rodzinie procesorów firmy Intel fakt ten ma miejsce począwszy od modelu 486).

W tej sytuacji widzimy, że współczesny komputer ma od swego urodzenia (jak to się w żargonie informatycznym określa: natywnie) wbudowane wykonywanie operacji arytmetycznych na dwóch typach liczb: całkowitych i rzeczywistych, oraz operacji logicznych na parach bitów (suma logiczna, iloczyn logiczny), lub pojedynczych bitach (negacja). Bez specjalnych skrupułów możemy więc powiedzieć, że typem prostym jest typ bezpośrednio obsługiwany przez sprzęt systemu [36].
Dla znaków definiuje się operację konkatenacji (sklejania znaków, tworzenia łańcucha znaków). Operacja ta jest intuicyjnie oczywista, wynika z potrzeby tworzenia napisów oraz sekwencyjnej pracy większości urządzeń zewnętrznych.

Typy danych złożonych

Danymi pochodzącymi z typów prostych można się posłużyć dla utworzenia różnego rodzaju danych zagregowanych. Będziemy mówili, że agregaty te należą do typów złożonych. Klasycznym - rzec by można - przedstawicielem tego gatunku jest data kalendarzowa: trzy liczby, z których jedna określa rok, druga miesiąc, trzecia - dzień. Niestety - i w tym przypadku panuje niezgoda wśród ludzi. W skali świata nie udało się doprowadzić do ustalenia, w jakiej kolejności te trzy liczby powinny być zapisywane. Tak na przykład w USA obowiązującą kolejnością jest: Miesiąc/Dzień/Rok. Natomiast w Polsce w powszechnym obiegu stosuje się dwa zapisy zwierciadlane względem siebie: Dzień/Miesiąc/Rok oraz Rok/Miesiąc/Dzień, - jeśli nie podjąć tematu różnic w używanych separatorach, czy innej rachuby czasu w poza-chrześciańskich kulturach. Istnienie tych niejednoznaczności może w pewnych przypadkach prowadzić do nieporozumień, a nawet być przyczyną poważnych strat materialnych.

Data kalendarzowa jest archetypem wektora - skończonego, uporządkowanego ciągu pewnych obiektów, mających w komputerze swoją cyfrową reprezentację. Jako przykład wektora możemy podać symboliczny opis zasobów w poszczególnych jednostkach pewnej biblioteki:

Tabela 4. Tabela jednowymiarowa jako przykład wektora . Opracowanie autora.

liczba tytułów druków zwartych
liczba tytułów rękopisów
liczba roczników czasopism
liczba numizmatów
liczba wydawnictw kartograficznych

Tak zdefiniowany wektor stanu ma pięć składowych. Oczywiście definicja wektora ma charakter arbitralny. Mimo różnych opisów merytorycznych każdej składowej, odnotujemy ważną cechę przysługującą całemu wektorowi: wszystkie składowe wektora muszą być tego samego typu. Tutaj jest to typ całkowity (ang. integer) - w każdym opisie występuje termin „liczba”. Jeśli przyjąć powyższą konwencję, to wektory stanu dla kilku wybranych jednostek biblioteki będą wyglądały następująco:


Tabela 5. Tabela dwuwymiarowa. Przykład autora.

Czytelnia ogólna
2550
0
30 0 25
Czytelnia czasopism 120 0
175
0

Zbiory specjalne
4961 384
22
974
634
Magazyn 1332855
0 3879
0
226


Czytelnik zechce zauważyć, że dla wektorów obowiązują specjalne reguły, opisujące wykonywanie operacji arytmetycznych. Po pierwsze dodawane wektory muszą mieć identyczną liczbę składowych. Po drugie: suma dwóch wektorów też jest wektorem o składowych, będących sumami odpowiednich składowych dodawanych wektorów. Warto nadmienić, że niektóre procesory mają wbudowane mechanizmy do sprzętowej realizacji operacji na wektorach. Kilka wektorów ustawionych jeden pod drugim tworzy tablicę - twór należący do kolejnego typu danych złożonych - typu tablicowego. Albo może inaczej: wektor jest jednowymiarową tablicą. Tablice to najpopularniejsze, złożone struktury danych, zbudowane z elementów tego samego typu. Powyżej zapisana tablica była dwuwymiarowa. Nie nakłada się żadnych formalnych ograniczeń na liczbę wymiarów tablicy.

Wszystkie elementy tablicy muszą być tego samego typu. Jednak rzeczywistość nie składa się z zestawień wyłącznie samych liczb, albo z samych tekstów. Było by to trudne do zaakceptowania ograniczenie. Przeto wprowadza się swojego rodzaju uogólnienie typu tablicowego i nazywa go typem rekordowym. Pojedynczy rekord składa się z określonej liczby składowych zwanych polami, które mogą być różnych typów. Tak oto definicyjnie przybliżyliśmy się do obszaru, z którym wielu bibliotekarzy jest już nieco oswojonych.

W tym miejscu nie sposób przejść do porządku dziennego nad sprawą nomenklatury. Termin rekord jest kalką przeniesioną do nas z angielskiego. Podobnie jak w języku rosyjskim, przekład tego terminu na polski nastręczał trudności. Przyczyn takiego stanu rzeczy należy upatrywać w bogactwie możliwych technologicznych kontekstów użycia tego słowa w języku angielskim. Wirth [1989] przypomina pragmatyczne względy, dla których powołano to pojęcie i wymienia cztery odcienie znaczeniowe tego terminu: zapis, rejestr, nagranie, przechowywany zestaw informacji. Znakomitą analizę semantyczną terminu electronic record na gruncie języka angielskiego przeprowadził niedawno Morelli [1998]. Wnioski z tej analizy skłaniają do rezygnacji z używanego niekiedy w Polsce terminu krotka i przyjęcia kalki rekord, jako pojęcia o dobrze poznanej sferze znaczeniowej jej źródłosłowu.

Na końcu wymienimy niezmiernie ważny typ plikowy. Pliki służą do wymiany informacji zarówno między dwoma komputerami, jak i między komputerem a urządzeniem zewnętrznym. Na wielkość plików nie nakłada się żadnych formalnych ograniczeń; oczekuje się tylko, że plik bę dzie się składał z elementów tego samego typu. Mamy więc pliki binarne, pliki tekstowe, pliki z zapisanym dźwiękiem, pliki zawierające rekordy danych osobowych (np. kartoteki czytelników) [37]. Każdy plik ma określoną długość i znacznik końca pliku (ang. End Of File, EOF). Z plikiem należy kojarzyć operacje zapisu pliku oraz odczytu pliku. Trzeba pamiętać, że pliki tworzone na jakimkolwiek nośniku zależą od systemu operacyjnego, pod którym zostały wygenerowane. Fakt ten może stwarzać pewne problemy przy przenoszeniu plików między odmiennymi systemami operacyjnymi [38]. W dalszym ciągu, w odniesieniu do technologii cyfrowej implementowanej w komputerach, będziemy utożsamiać pojęcie pliku z pojęciem zbioru.

Bazy danych

Bazy danych to termin, który jest zakorzeniony w technologii komputerowej od bardzo dawna i głęboko już wrósł w realia dzisiejszego dnia. Baza danych to zbiór wystąpień różnych rekordów oraz opisów powiązań między rekordami, danymi zagregowanymi i danymi elementarnymi [Martin, 1983:26]. Zagadnienie projektowania, testowania i eksploatacji baz danych jest bardzo złożone. Na łamach niejszej książki nie ma najmniejszych szans nawet na fragmentaryczne naszkicowanie terminologii i z tych względów poprzestaniemy na odesłaniu zainteresowanego czytelnika do specjalistycznej literatury [Date 1981, Martin 1983, Gruber 1996]. Do zagadnienia tego jednak odwołamy się w dalszym ciągu jeszcze raz, omawiając dostęp do zasobów cyfrowych, aby nakreślić raczej mało znaną bibliotekarzom problematykę logiki trójwartościowej.

Wybrane rodzaje plików cyfrowych

Plik cyfrowy identyfikuje się przez nazwę. W pierwszych wersjach systemu DOS na nazwę nakładano dodatkowe ograniczenia. Nie mogła być ona dłuższa od 8 liter (z repertuaru ASCII), cyfr oraz znaków interpunkcyjnych, plus co najwyżej trzy-literowe rozszerzenie podawane po kropce. Restrykcje nakładane na nazwę pliku zakazywały również używania 14 wyróżnionych znaków:
. „ \ / [ ] : < > + = ; ,

W obecnych systemach te ograniczenia zostały znacznie zliberalizowane. Warto jednak dodać, że swojego rodzaju ukłonem osób projektujących złożone dokumenty internetowe jest nadawanie nazw w miarę możliwości zgodnych ze starymi ograniczeniami DOSu. Pewnych kłopotów dostarcza niekiedy transgraniczna wymiana plików. Pliki wykorzystujące w nazwach kody przekraczające 128 (np. nazwy pisane cyrylicą) po zmianie środowiska systemowego na ogół wymagają zmiany nazwy.

Jeżeli w systemie występuje struktura katalogów, to odwołanie się do pliku na ogół zawsze wymaga podania pełnej specyfikacji pliku (to znaczy nazwy poprzedzonej tzw. ścieżką dostępu do pliku). Przyzwyczaić się tu trzeba do różnic pomiędzy Unixem a DOS i Windows. W tym pierwszym przejście na inny poziom katalogu oznacza się znakiem / podczas, gdy w dwóch pozostałych znakiem \ .

W miarę rozwoju technologii cyfrowej wytwórcy oprogramowania utrwalili w użytkownikach obyczaj rozpoznawania typu pliku po rozszerzeniu jego nazwy.

Tabela 6. Wybrane typy plików. Wybór autora.

Rozszerzenie
Typ pliku
com
plik wykonywalny
exe
plik wykonywalny
bat
plik wsadowy (zbiór komend systemowych do automtycznego wykonania)
sys
plik systemowy (zawierający informację o żądanej konfiguracji systemu)
tmp
plik pomocniczy
txt plik tekstowy (w domyśle zawierający tylko znaki ASCII)
doc
plik tekstowy formatowany (w zasadzie utożsamia się z plikiem zredagowanym pod którąś z mutacji edytora MS Word)
wp
plik tekstowy formatowany, zredagowany pod edytorem Word Perfect
rtf
plik tekstowy formatowany zredagowany w formacie Rich Text Format
htm, html plik hipertekstowy zredagowany w formacie HTML
ps plik w formacie PostScript
wav
plik dźwiękowy
au
plik dźwiękowy
jpg, jpeg
plik graficzny w formacie JPEG
tif, tiff
plik graficzny w formacie TIFF

Niesłychanie bogaty alfabetyczny indeks stosowanych typów plików można znaleźć na sieci pod URL:
http://whatis.techtarget.com/fileFormatA/0,289933,sid9,00.html.

Plik tekstowy

Cyfrowy plik tekstowy podparty technologią uwierzytelnionego podpisu elektronicznego to kamień węgielny współczesnej gospodarki elektronicznej. Na mocy współczesnego ustawodawstwa autor tekstu cyfrowego nadaje swemu cyfrowemu podpisowi taką samą moc prawną, jak podpisowi odręcznemu, a przesłanemu tekstowi pełne cechy dokumentu de iure.
Podstawowym rodzajem tekstu jest tekst niesformatowany. Tekst niesformatowany to typowy tekst używany w tradycyjnej, unixowej poczcie elektronicznej. Nie zawiera on żadnych wskazówek, mogących wpływać na stronę prezentacyjną. To tekst monochromatyczny, mający ten sam typ, rodzaj i wielkość czcionki. Zwykle też nie wykracza poza alfabet angielski [39] choć oczywiście istnieje oprogramowanie, pozwalające na poziomie konsoli unixowej operować pełnym zestawem czcionek narodowych całego świata.

Style tekstu

Już w pierwszych zaawansowanych komputerach osobistych, pracujących pod nadzorem systemu CP/M istniała możliwość przypisania każdemu znakowi widocznemu na ekranie komputera ograniczonej liczby wyróżników (atrybutów): podkreślenia wyświetlanego znaku i wygaszenia jego jasności o połowę. Polegało to na tym, że pamięć ekranu zamiast 8-bitowego modułu, służącego do pomieszczenia wyświetlanego znaku miała moduł 9-bitowy. Ponieważ do wyświetlenia podstawowego zestawu znaków ASCII wystarczy 7 bitów, więc ósmy, standardowy bit był używany jako wskaźnik podkreślenia znaku, a dziewiąty, dodatkowy - jako wskaźnik kontroli jego jasności.
Włączanie i wyłączanie pewnych atrybutów tekstu jest uzasadnione praktyką poligraficzną i zostało unormowane przez ANSI w postaci tzw. sekwencji escape. Pod nazwą tą kryje się sekwencja znaków sterujących ruchami kursora, definiowaniem klawiatury oraz modyfikacją wyświetlacza graficznego. Aktywizację mechanizmu tych sekwencji użytkownik mógł wcześniej poznać w systemie DOS w związku z konfiguracją pliku config.sys [40]. Sekwencja escape zaczyna się niewidocznym na ekranie znakiem, generownym przez naciśnięcie klawisza ESC (kod dziesiętny 27), po którym następuje ciąg parametrów. Wymienimy kilka sekwencji escape ograniczonych wyłącznie do kontroli monitora:

Tabela 7. Sekwencje escape. Wybór autora.


Do wyłączenia wszystkich atrybutów stosowana jest sekwencja ESC [ 0
Do rozpoczęcia wytłuszczania tekstu (tu atrybutem tekstu jest wytłuszczanie) stosowana jest sekwencja ESC [ 1
Do rozpoczęcia podkreślania tekstu (tu atrybutem tekstu jest podkreślanie) stosowana jest sekwencja ESC [ 4
Do rozpoczęcia migotania tekstu (tu atrybutem tekstu jest migotanie) stosowana jest sekwencja ESC [ 5

W podobny sposób można sterować kolorem tekstu i jego tła - w tabeli jest to drugi, liczbowy parametr sekwencji escape, który w przypadku sterowania barwą zmienia się w granicach od 30 do 47 (te sekwencje są już zgodne z normą ISO 6429).
A więc dla tekstu można zdefiniować rodzaj fontu i jego wielkość, można tekst lokalnie ukryć, ujawnić ukryty, spowodować jego migotanie, podkreślić, pochylić (posłużyć się kursywą), zmienić jego barwę, - ale można też określić język tekstu (ważne przy edytorach wyposażonych w słowniki ortograficzne, oraz przy wielojęzycznych syntezatorach mowy). Zamierzona kompozycja zespołu wyróżników (atrybutów) tekstu będzie przez nas nazywana stylem tekstu.

Formatowanie tekstu

Formatowanie tekstu to nadanie mu żądanej formy, kształtu prezentacyjnego. Elementy, które należy tu wyróżnić, to:

  1. Wyrównywanie tekstu (lewostronne, centrowane, prawostronne, obustronne)
  2. Tworzenie szpalt
  3. Listy numerowane z konspektami numerowanymi
  4. Listy nie numerowane
  5. Tablice
  6. Balans proporcji pomiędzy tekstem właściwym i przypisami

Skład tekstu

Skład tekstu ma na celu końcowe przygotowanie tekstu do publikacji. Skład tekstu to nałożenie stylów i formatowania na strukturę fizycznych wymagań środowiska prezentacyjnego (drukarka, naświetlarka, ploter, ekran, syntezator mowy). Produkt będący wynikiem składu musi być bezpośrednio rozumiany przez urządzenie techniczne, realizujące finalną postać publikacji.

Alternatywna wizualizacja tekstu

Wybrany tekst niejednokrotnie dobrze jest przedstawić w formie alternatywnej. Taki zabieg służy wówczas konkretnemu celowi. Sens alternatywnego zapisu jest natychmiast rozumiany, gdy chodzi np. o wydawnictwo drukowane brajlem. Jednak tym razem zreferowana będzie alternatywna forma zapisu ułatwiająca szybkie wprowadzanie zapisu do systemu cyfrowego. Mowa tu będzie o bardzo już popularnej formie zapisu, zwanej kodem paskowym (ang. bar code). Ten bardzo pożyteczny kod został zaprojektowany na potrzeby handlu celem szybkiego przetwarzania informacji o towarze. Obecnie rozpowszechnił się on na wiele innych dziedzin, znamy go dobrze ze sklepów i chyba na dobre zadomowił się już w wielu bibliotekach. Obecnie kod paskowy występuje w dwóch głównych odmianach: jednowymiarowej i dwuwymiarowej. W tym ostatnim przypadku występują zresztą zarówno wersje kropkowe (plamkowe), jak i paskowe.
Najpierw zreferowany będzie przypadek jednowymiarowy. Na początek małe wyjaśnienie. Nawet w przypadku jednowymiarowym nie osiągnęliśmy takiego poziomu standaryzacji, by na świecie użytkowany był tylko jeden, jednowymiarowy kod paskowy. Już w tej chwili liczba ich jest znaczna. Dużo pożytecznej informacji na ten temat można znaleźć na sieci:

http://www.barcodingfonts.com/barcode.htm
http://www.adams1.com/pub/russadam/stack.html
http://www.spatula.net/proc/barcode/code39.src

Oto nazwy kilku popularnych specyfikacji: kod 2 z 5 (ang. Code 2 of 5), kod 2 z 5 z przeplotem (ang. Code 2 of 5 Interleaved), kod 3 z 9, kod 128 UCC/EAN 128, kod EAN 8/13 [42] , PostNet, UPC-A, UPC-E. Na przykładzie kodu "3 z 9" (trzy z dziewięciu) spróbujemy przeanalizować jego budowę. Na wstępie przedstawimy tytuł niniejszego paragrafu w symbolice zwykłego kodu ASCII oraz kodzie "3 z 9".

Tabela 8. Reprezentacja tekstu w symbolice ASCII oraz symbolice kodu "3 z 9" (opracowanie własne).

 
Font Lucida Sans Unicode 12 pts Font 3 of 9 Barcode 36 pts
Alternatywna Alterna tywna
wizualizacja wizualizacja
tekstu tekstu


Na kod ten składa się sekwencja 5 czarnych pasków (p), między którymi są 4 białe odstępy (o). Zarówno paski, jak i odstępy mogą występować w wersji szerokiej, jak i wąskiej. W tej sekwencji szerokie muszą być trzy spośród dziewięciu elementów (stąd nazwa kodu). Stosunek szerokości większego elementu kodu (paska lub odstępu) do mniejszego nie jest standaryzowany i powinien zawierać się w przedziale 2,25:1 do 3:1. Schemat ten daje możliwość zakodowania 43 znaków, w tym cyfr, dużych liter alfabetu angielskiego oraz znaków używanych w księgowości (+ - * / % . symbol waluty - np. $ ). Do celów obsługi księgowej każdy pełen kod paskowy powinien być poprzedzony znakiem początku kodu i zakończony znakiem końca kodu. Dla kodu "3 z 9" rolę obydwu ograniczników odgrywa ten sam znak kontrolny: jest to znak mnożenia (*). Poszczególne znaki tekstu separowane są pojedynczym wąskim odstępem. Słowa zapisane w powyższym przykładzie nie zawierają dopisanych ograniczników kodu. Przyjrzyjmy się bliżej definicji tego kodu. W poniższej tabelce zestawiony jest fragment kodu

Tabela 9. Fragment specyfikacji kodu kreskowego 3 z 9 w postaci źródłowej i prezentacyjnej.
W - element wąski, S - element szeroki (opracowanie własne)

Znak
Wartość
p1
o1
p2
o2
p3
o3
p4
o4
p5
Postać prezentacyjna znaku
0
0
W
W
W
S
S
W
S
W
W
0
1
1
S
W
W
S
W
W
W
W
S
1
2
2
W
W
S
S
W
W
W
W
W
2
3
3
S
W
S
S
W
W
W
W
W
3
4
4
W
W
W
S
S
W
W
W
S
4
5
5
S
W
W
S
S
W
W
W
W
5
6
6
W
W
S
S
S
W
W
W
W
6
7
7
W
W
W
S
W
W
S
W
S
7
8
8
S
W
W
S
W
W
S
W
W
8
9
9
W
W
S
S
W
W
S
W
W
9
A
A
S
W
W
W
W
S
W
W
S
A
B
B
W
W
S
W
W
S
W
W
S
B
C
C
S
W
S
W
W
S
W
W
W
C
D
D
W
W
W
W
S
S
W
W
S
D
E
E
S
W
W
W
S
S
W
W
W
E
F
F
W
W
S
W
S
S
W
W
W
F
G
G
W
W
W
W
W
S
S
W
S
G
H
H
S
W
W
W
W
S
S
W
W
H
odstęp

W
S
S
W
W
W
S
W
W
 

Kod paskowy może służyć do zapisywania zarówno liter jak i cyfr. Pokazaliśmy powyżej, że tytuł niniejszego paragrafu potrafimy zapisać kodem paskowym na papierze. Zrobiliśmy to przy pomocy komputera i drukarki, ale całkiem nieźle mogło by nam się to udać przy pomocy dwóch precyzyjnych rapidografów różnej szerokości, albo odpowiednio przygotowanych na frezarce matryc celuloidowych oraz czarnej farby w aerozolu. I w takich wersjach ten zapis cyfrowy naprawdę nie miał by nic wspólnego z komputerem, czy elektroniką. Do odczytania tego kodu potrzebna jest tylko kompletna tabelka jego definicji. Jak nie trudno sobie wyobrazić, odkodować go można przez wizualne porównanie zapisu z tabelą kodu, choć z pewnością jest to żmudne i powolne. Podobnie zapis cyfrowy, na przykład "czysty" zapis binarny możemy zrealizować praktycznie na dowolnym nośniku, bez związku z jakąkolwiek elektroniką. Można wykuć w granicie ciąg zer i jedynek, albo kropek i kresek, umownie przedstawiających poszczególne bity. I to będzie znakomity, bardzo trwały zapis cyfrowy. Dla posiadacza takiego zapisu realnym problemem będzie tylko to, jak sprawnie odczytywać i przetwarzać zapisaną informację. I tu elektronika pokazuje swoje prawdziwe zalety. Tym nie mniej konkluzja jest klarowna: zapis cyfrowy może być zrealizowany w różnych technologiach. Jedną z nich, ale nie jedyną i nie wyłączną, jest technologia elektroniczna. Są jednak również inne technologie zapisu cyfrowego, a przykładem takiego zapisu jest kod paskowy. Nie inaczej było z technologiami perforacji kart i taśm papierowych używanych jeszcze w latach 80-tych do wprowadzania cyfrowych danych do komputerów i sterowania obrabiarek numerycznych, a również amerykańskich kart do głosowania w czasie wyborów prezydenckich w roku 2000.

Jednowymiarowy kod paskowy ma jednak swoje ograniczenia. Do podstawowych ograniczeń należy repertuar dopuszczalnych symboli, które podlegają kodowaniu. Dokuczliwość tego ograniczenia udało się znacznie zmniejszyć przez wprowadzenie kodowania dwuwymiarowego. Nie ma tu nic zaskakującego, że tym sposobem kodowania bardzo interesują się kraje dalekowschodnie. Jako przykład takiego kodu podamy kod QR (od ang. Quick Response Code), opracowany przez Nippondenso ID Systems i udostępniany w klasie licencji publicznych (ang. Public Domain). Kod ten jest tworzony w postaci kompozycji trzech narożnych symboli, określających przestrzenną orientację kodu, oraz pola danych. Kompozycja ta wypełnia kwadrat małymi komórkami, również o kształcie kwadratu. Maksymalny rozmiar matrycy kodu QR to 177 modularnych kwadratów zdolnych zakodować 7366 znaków numerycznych lub 4464 znaków alfanumerycznych. Ważną cechą tego kodu jest możliwość bezpośredniego kodowania znaków znajdujących się w japońskich sylabariuszach (kanji, kana).  Osobom niewidzącym polecamy wyłącznie identyfikację symboli przestrzennej orientacji kodu.  W analizowanym tu przykładzie są to trzy kwadraty  o rozmiarze 7 na 7 komórek. Każdy symbol składa się z jednokomórkowej, ciemnej (w naszym przykładzie granatowej) "skórki", jednokomórkowego, jasnego "miąższu" oraz ciemnej "pestki" o rozmiarze 3 na 3 komórki. Dla ułatwienia identyfikacji do ciemnych komórek wpisana została mała litera "c", natomiast komórki wypełnione jasnym tłem są puste. Wszystkie trzy symbole przestrzennej orientacji kodu oddzielone są jednokomórkowym, jasnym pasem od pola danych. Rozkład zaciemnionych komórek w polu danych generowany jest algorytmicznie i dla postronnego obserwatora jawi się jako czysto losowy, nie niosący żadnej informacji.

Rysunek 21. Dwuwymiarowy kod towarowy QR. Opracowanie własne na podstawie materiałów użyczonych autorowi przez Nippon Denso


 
c
c
c
c
c
c
c
      c      
c
c
c
c
c
c
c
c
         
c
 
c
c
c
c
     c            c
c
 
c
c
c
 
c
       c  
c
   c    c c
c
   c
c
 
c
c
c
 
c
       c      c    c  c  c    c
c
 
c
c
c
 
c
   c  c  c  c  c    c    c c
c
   c
c          
c
       c  c      c            c
c
c
c
c
c
c
   c    c    c    c c
c
c
c
c
c
                   c  c                    
     c    c      c  c    c        c      c  
   c      c          c    c  
c
 c  c        
 c      c      c    c    c    c        c    
c
 c    c        c    c  c  c  c      c    
                 c          c  c  c  c    c  c  c
 c c
c
c
c
c
c
           c  c  c  c    c  c    
          c      c        c        c    c  c
 c    c c  c    c    c    c    c    c    c  c    c  c
 c    c  c  c    c          c    c    c      c  c  
 c    c  c  c    c    c  c  c  c      c  c  c        c
 c            c      c    c  c  c      c  c  c  c  c
c
c
c
c
c
c
   c  c  c        c    
 
Przykład 1.

Kod zawarty w kwadracie o boku 10,5 mm

Zawartość: 60 znaków numerycznych (cyfr)

Przykład 1.

Kod zawarty w kwadracie o boku 14 mm

Zawartość: 60 znaków alfanumerycznych 
(cyfr i liter alfabetu angielskiego)

Przykład 1.

Kod zawarty w kwadracie o boku 17,5 mm

Zawartość: 55 japońskich znaków kanji 


Kod ten, podobnie jak i kilka innych kodów, ma możliwość korekcji błędów wywołanych uszkodzeniem zapisu lub defektem urządzenia odczytującego. Dzięki posiadanej nadmiarowości, oryginalnie zapisana przy pomocy tego kodu informacja może być poprawnie odtworzona przy częściowym zniszczeniu, uszkodzeniu lub zabrudzeniu zapisu. Jak widać z przytoczonego przykładu, rozmiar powierzchni kwadratu zajmowanego przez kod dwuwymiarowy zwiększa się w miarę wzrostu liczby kodowanych bajtów (pojedynczy znak kanji kodowany jest na 3 bajtach)

Hipertekst

Hipertekst to uogólnienie klasycznego tekstu w środowisku cyfrowym. Elementami odróżniającymi hipertekst od tekstu są:

Dokumenty hipertekstowe przygotowuje się obecnie w kilku różnych standardach, wywodzących się ze wspólnego rdzenia: normy ISO 8879 definiującej Standard Generalized Markup Language (SGML). Największą popularność na świecie zdobył sobie jego dialekt o nazwie HTML (Hyper Text Markup Language), najnowszą odmianą jest XML (Extensible Markup Language). Przykładami przeniesień koncepcji SGML na inne obszary zastosowań może być język opisu rzeczywistości wirtualnej VRML, lub języki opisu mówionego tekstu SSML [Taylor 1997] i STML [Sproat 1997]. W dalszym ciągu nie podejmiemy dawno zapoczątkowanej dyskusji na temat wad i ograniczeń tak niewiarygodnie dziś popularnego dialektu SGML jakim jest HTML. Ma on w istocie sporo wad, z których niektóre są postrzegane jako zalety. Tak na przykład liberalność przeglądarek hipertekstowych, interpretujących wyłącznie poprawne składniowo fragmenty publikacji, a ignorujące fragmenty niezgodne z implementowaną składnią, jest uważana za zaletę. Taka implementacja interpretuje co prawda publikacje zawierające błędne konstrukcje składniowe (te są w zasadzie ignorowane przez przeglądarki), ale zarazem interpretuje znaczne, "klasyczne" fragmenty publikacji przygotowanych w nowszych mutacjach formatu HTML, jeszcze przez przeglądarkę nie zaimplementowanych. Daje to szanse szybkiego rozwoju formatu z niewielkim uszczerbkiem dla jakości publikacji. Liczba publikacji stosująca format HTML przekracza o rzędy wielkości liczbę publikacji w pozostałych formatach i trzeba być wyjątkowo naiwnym, by wierzyć w realność migracji tych publikacji do formatu XML w skali globalnej. Na to jest już za późno. Można tu się chyba zgodzić, że zwykle wygrywa narzędzie proste, bardziej prymitywne, za to masowo stosowane.

Formatowanie hipertekstu

Formatowanie hipertekstu polega na wpisaniu explicite stylów i dyrektyw formatujących w zwykły tekst. Jest to ogromna zaleta, zważywszy, że komercyjne produkty na ogół oferują tekst zakodowany, zazdrośnie chroniąc swych warsztatowych tajemnic. Taki "otwarty" plik tekstowy jest niesłychanie bezpieczny dla właściciela - edytować go można niemal "byle czym". Nie zamierzamy przeprowadzać tu kursu formatowania tekstu w standardzie HTML - można to znaleźć w licznych, dostępnych od kilku lat na rynku księgarskim książkach [Macewicz 1996, Taylor 1996]. Czytelnikowi wrogo nastawionemu do przyswajania sobie nowych pojęć, ale posiadającego umiejętność posługiwania się edytorami MS Word (ten rekomendujemy począwszy od wersji Word 97) lub Corel Word Perfect (rekomendujemy od wersji 8) zalecamy przygotowanie sobie wersji "zwykłego" dokumentu, a następnie wyeksportowanie go do formatu HTML. Czytelnik łatwo się przekona, że tolerancja przeglądarek w stosunku do odstępstw od zalecanej składni publikacji jest wręcz niewiarygodna.

Znaczniki używane do nadawania tekstowi jego atrybutów i formatowania go są zestawiane w postaci pary: atrybut otwiera się znacznikiem <nazwa atrybutu> i kończy się znacznikiem </nazwa atrybutu>. Nazwy standardowo pochodzą z języka angielskiego i każda osoba, operująca podstawowym słownictwem edytorskim w tym języku szybko chwyta zasady formatowania hipertekstu według definicji HTML. Nie przewiduje się wprowadzenia narodowych wersji języka znaczników. Wymienimy dla przykładu kilka najprostszych znaczników:

Tabela 10. Wybrane znaczniki formatowania HTML. Wybór autora.

Atrybut
Znacznik początku
Znacznik zakończenia
Wytłuszczenie tekstu
<B>
</ B >
Kursywa
<I>
</I>
Wielkość i kolor fontu
<FONT SIZE=6 COLOR="#0000FF">
</ FONT >
Centrowanie tekstu
<CENTER> </CENTER>


Wymienione znaczniki tekstu (ewentualnie tła tekstu) odnosiły się do tej pory tylko do obsługi użytkownika czytającego (oglądającego) tekst. Jednak z różnych powodów użytkownik może nie być w stanie w ogóle widzieć tekstu (jest niewidomy, lub ma chore oczy), bądź nie chcieć go chwilowo widzieć (jest zajęty innymi sprawami). Równocześnie ten sam użytkownik ma możliwość przesłuchiwania wyselekcjonowanego tekstu przy pomocy syntezatora mowy. Okazuje się, że rozwój współczesnych syntezatorów mowy wyprzedził technologię języków opisu publikacji hipertekstowych. Mówiąc inaczej, twórcy tych języków mało wiedzieli o potrzebie zastosowania syntezatorów mowy do przeglądania publikacji internetowych. Na rzecz zdefiniowania takiego standardu zawiązało się w ostatnich latach pod nazwą SABLE konsorcjum sześciu instytucji (http://www.cstr.ed.ac.uk/projects/sable/). Spośród nowych znaczników proponowanych przez SABLE wymienimy: czteropoziomową emfazę, czteropoziomową przerwę w czytaniu, pięciopoziomową szybkość czytania, czteropoziomową głośność, płeć lektora i pięć kategorii wieku lektora. Czytelnik zechce tu docenić zalety tolerancji przeglądarek. Każdą publikację hipertekstową można wzbogacić o znaczniki sterujące syntezatorem, praktycznie bez żadnego wpływu na jej interpretację.

Niezwykle nowatorskie podejście do formatowania tekstu, zorientowanego na systemy syntezatorów mowy, zaprezentował Raman [1998]. W oparciu o zdefiniowane przez siebie rozszerzenie języka Common Lisp skonstruował on formater audio o nazwie AFL (ang. Audio Formatting Language), który w środowisku przeglądarki opartej o syntezator mowy może być uważany za odpowiednik Postscriptu. Autor tego rozwiązania (sam zresztą całkowicie niewidomy) doprowadził niemal do perfekcji stworzony przez siebie zespół narzędzi programistycznych o nazwie Audio System for Technical Readings (ASTER) [44], umożliwiających niewidomym tworzenie i analizę złożonych tekstów matematycznych z pomocą syntezatora mowy. Lektura znakomitej książki Ramana, osobiście złamanej do druku przez samego jej autora, pozostawia na każdym jej czytelniku niezatarte wrażenie i ze wszech miar jest godna polecenia. Przyjrzyjmy się, jak ASTER przekłada na angielską mowę wzór Faa de Bruno, zaczerpnięty przez Ramana z pierwszego tomu znakomitej książki Knutha [1968] - patrz ćwiczenia do paragrafu 1.2.5, zadanie 21:

Równanie 1. Wzór Faa de Bruno.

Dnx w
=

Dju w
n! (D1x u)k1...(Dnx u)k n
k1! (1!)k1.....kn! (n!)k n


0≤ j ≤ n
k1+k2+...+kn = j





k1+2*k2+...+n*kn = n





k1,k2,...,kn≥0




Wzór powyższy odczytywany jest następująco [45] (plik dźwiękowy sec18-ex3.au dostępny jest pod adresem http://www.cs.cornell.edu/home/raman/aster/demo.html):

Ennth derivative with respect to x of w equals summation over
0 less than or equal to j less than or equal to n
The quantity being summed summation over
k1 plus k2 plus AND SO ON plus kn equals j and below that
k1 plus 2k2 plus AND SO ON plus nkn equals n and below that
k1 comma k2 comma ellipsis comma kn greater than or equals to 0
The quantity being summed
jayth derivative with respect to u of w [46]
CORRECTION
the product n factorial quantity first derivative with respect to x of u raised to k1
AND SO ON
Quantity ennth derivative with respect to x of u raised to kn
DIVIDED BY
the product k1 factorial quantity one factorial raised to k1
AND SO ON
kn factorial quantity n factorial raised to kn

W tym miejscu widać bezsiłę drukowanego tekstu. Dla oddania melodii zastosowanego przez Ramana formatowania audialnego, w powyższym tekście zostały użyte wyróżniki. Tak więc wykładniki k1 oraz kn zapisane w górnym indeksie wymawiane są wysokim głosem. Jednak nie oddaje to wrażenia jakie ma słuchacz. Osoby znające angielski zachęcamy do przesłuchania znajdujących się na Sieci plików audio. Zostały one wykonane przez digitalizację sygnału wytworzonego przez syntezator Dectalk, którym posługiwał się Raman i są bardzo dobrej jakości. Warto jeszcze dopowiedzieć, że Raman zaproponował dwie formy interpretacji takich złożonych wyrażeń, różniące się między sobą poziomem przyswajania i czasem odczytu. Raman umiejętnie posługuje się formatowaniem audialnym zmieniając cechy głosu syntetycznego lektora w zależności od elementu strukturalnego interpretowanego wzoru. Innym głosem syntezator wypowiada podstawową linię formuły, innym licznik i mianownik ułamka, jeszcze innym wykładniki. Spektakularne osiągnięcia Ramana w zakresie formatowania audialnego tekstów technicznych obalają wszelkie prymitywne stereotypy na temat możliwości zdobywania najwyższych kwalifikacji przez osoby całkowicie niewidome i pokazują, jak wielkie są możliwości tej grupy inwalidzkiej w zakresie prowadzenia zaawansowanych prac (por. Czermiński [2001-2]).

Na marginesie omawianych tu spraw związanych z redakcją i odbiorem tekstów przez osoby niewidome warto odnotować równie, a może nawet i bardziej fascynujący fakt opracowania przez Heshama Kamela, niewidomego doktoranta Uniwersytetu w Berkeley, pakietu pozwalającego niewidomym tworzyć, przeglądać i edytować grafikę. Więcej informacji na ten temat można znaleźć wizytując stronę internetową twórcy pakietu IC2D (http://guir.berkeley.edu/projects/ic2d).

Morfologia tekstu formatowanego

Czytelnik oswojony z pracą edytorską w środowisku Windows ma w znakomitej większości przypadków wbudowaną usługę wizualizacji tekstu w jego finalnym formacie. W żargonie informatycznym znana jest ona pod nazwą standardu WYSIWYG (ang. What You See Is What You Get - to co widzisz jest tym, co otrzymujesz). Mało który edytor oferuje możliwość podejrzenia i ewentualnie skorygowania znaczników, czy kodów formatujących tekst. Do takich nielicznych pozytywnych przykładów możemy zaliczyć Word Perfect. Pod klawiszem funkcyjnym F11 edytor ten oferuje funkcję edycji kodów formatujących, określaną nazwą Reveal Codes (ujawnij kody). Ale zarazem możemy powiedzieć z poczuciem pełnej odpowiedzialności, że funkcję taką ma każdy tekst sformatowany zgodnie ze standardem SGML i jego standardami następczymi (HTML, XML, STML, VRML). Każdy taki plik edytowany pod edytorem znakowym (takim, jak np. MS NotePad) ujawnia wszystkie atrybuty tekstu i znaczniki formatujące. Wynika z tego, że cyfrowy tekstowy dokument elektroniczny ma dwie postaci, z których jedna jest zawsze dostępna dla użytkownika, a druga może być dostępna lub nie - w zależności od woli twórcy oprogramowania. Dla pierwszej postaci zaproponujemy nazwę postać prezentacyjna tekstu, dla drugiej przyjmiemy termin będący już w użytkowaniu: postać źródłowa tekstu. W normalnym trybie edytora lub przeglądarki dostępna jest postać prezentacyjna. Postać prezentacyjna z kolei może się dzielić na podpostacie zorientowane sprzętowo w zależności od rodzaju odbiorcy. Można tu wymienić dominującą postać wizualną, coraz bardziej popularną postać audialną, wreszcie rzadko występującą postać sensoryczną. Postać źródłowa publikacji internetowych dostępna jest w menu przeglądarek pod pozycją "Widok" poprzez funkcję "Źródło".

Przyjrzyjmy się, jak udostępniane są obydwie postacie tego samego tekstu przez różne pakiety oprogramowania. Tekst oryginalny został przygotowany pod edytorem Word 97 i dodatkowo skonwertowany do formatów HTML i WP ((WordPerfect). Konwersja ta spowodowała automatyczną zmianę rodzaju czcionki z niedostępnego na platformie Word Perfecta Ariala na najbardziej do niego zbliżoną czcionkę bezszeryfową jaką jest Univers Condensed. MS Word 97 oferuje bardzo ograniczoną usługę dostępu do źródłowej postaci tekstu. Tabela 11 ilustruje kształt postaci prezentacyjnej i źródłowej tekstu widzianej przez pryzmat różnych narzędzi programistycznych. Użytkownik tego edytora może kontrolować wyświetlanie na ekranie kodów wewnętrznych edytora poprzez pozycję menu Narzędzia, funkcję Opcje i zakładkę Widok. Wyjątkowo zwodnicza jest możliwość pokazywania kodów wszystkich znaków niedrukowanych - to dopiero pokazuje faktyczną skromność oferty Microsoftu.

Tabela 11. Postać prezentacyjna i postać źródłowa tekstu.

Postać tekstu
Widok na ekranie
Prezentacyjna (WYSIWYG)
(MS Word 97,
Word Perfect 6.0,
Netscape Navigator,
Internet Explorer)




Electronic Document Morphology

It should be noted that in a straightforward example it is possible to present semantically and graphically the same information using a number of different software


Źródłowa

(Word Perfect 6.0)

[Char Style On: heading 1][Just][Mrk Txt ToC Begin][Font Size:14pt][Font:Univers Condensed][Lang] Electronic Document Morphology][Mrk Txt ToC End][Bold Off][HRt] [Char Style Off: heading 1] It should be noted that in a straightforward example it is possible to present semantically and graphically the same information using a number of different software
Źródłowa

(Netscape Navigator,
Internet Explorer)

<B><FONT FACE="Arial" SIZE=4><P>Electronic Document Morphology</P></B></FONT><FONT SIZE=2>
<P ALIGN="JUSTIFY"> It should be noted that in a straightforward example it is possible to present semantically and graphically
the same information using a number of different software </P></FONT>

W postaci źródłowej ujawnionej przez Word Perfect nietrudno zauważyć znacznik elementu wbudowywanego do opcjonalnego spisu treści publikacji (Mrk Txt ToC, ToC - ang. Table of Contents) - element brakujący w tekście konwertowanym do HTML. Wynika to z faktu, że Word przeniósł do Word Perfecta style, natomiast nie przeniósł ich do formatu HTML.  Dla ułatwienia analizy żródłowej postaci dokumentu znaczniki formatujące oznaczone zostały kolorem czerwonym.

Mając do dyspozycji tekst w postaci źródłowej, użytkownik dysponuje w pełni przewidywalnymi zachowaniami systemu. To właśnie ten element przyczynił się do tak wielkiego sukcesu systemu TEX w środowiskach technicznych. Czy się jednak to komu podoba czy nie, dominująca liczba tzw. przeciętnych użytkowników preferuje systemy WYSIWYG i należy przypuszczać, że proporcja ta nie ulegnie zmianie. Piszący te słowa z konieczności umotywowanej brakiem czasu sam używa pakietu MS Office 2000, choć dysponuje przykładowym plikiem w formacie WORDa, nie spełniającym postulatu WYSIWIG: w tekstowym dokumencie zaszyty jest obrazek, którego nie widać na ekranie, ale który jest drukowany na drukarce. Nie ma wątpliwości, że obecnie stosowane oprogramowanie w większości wypadków jest dalekie od doskonałości. Na zakończenie warto wspomnieć, że przez wiele lat prawdziwą furorę budził zaprojektowany przez S. Jobsa system operacyjny NeXT Step (i jego potomek OPEN STEP). Cechowała go jednolita technologia obsługi zarówno drukarki, jak i ekranu: był to PostScript. To powodowało przewidywalne zachowanie się systemu u końcowego użytkownika. NeXT Step dobrze odpierał atak krytyki na nieprzewidywalność efektów artystycznych na stacji roboczej końcowego użytkownika, ale - mówiąc szczerze – był to użytkownik elitarny. Fakt ten okupiony był jednak znacznymi ograniczeniami: dla platformy intelowskiej producent systemu publikował listę produktów mających atest zgodności sprzętowej. Dotyczyło to płyt głównych, kart graficznych, kart dźwiękowych, kontrolerów SCSI itp. Niestety koszty rozwoju takiego systemu są bardzo wysokie, i firma nie była w stanie nadążyć z pisaniem sterowników obsługujących ogrom pojawiających się nowych produktów rynkowych. NeXT Step urodził się za wcześnie, gdy stopień standaryzacji sprzętowej jeszcze był niski, a moc przetwarzania pod każdym względem zbyt mała. Jak to wspomniano uprzednio, wraz z wprowadzeniem systemu operacyjnego Windows 2000 Microsoft ośmielił się opublikować na swej stronie domowej wykaz sprzętu posiadającego atest zgodności z tym systemem. Fakt ten staje się nowym wyzwaniem dla użytkowników oprogramowania produkowanego przez tą firmę rokującym zbliżone kłopoty do tych, które mieli użytkownicy NeXT Stepa instalowanego na platformie intelowskiej.

Jak wyżej pokazano na przykładach, edytor może należeć do jednej z trzech grup:

  1. Oferującej wyłącznie formę prezentacyjną (np. MS Word)
  2. Oferującej zarówno formę prezentacyjną, jak i źródłową (Corel Word Perfect 8. niektóre edytory HTML)
  3. Oferującej wyłącznie formę źródłową (takim jest np. S.C. UniPad

Można by się spodziewać, że w przypadku Worda użytkownik ma do dyspozycji klasyczną usługę WYSIWYG: na drukarce dostajesz to co widzisz. Jak do tej chwili nie jest to prawdziwe. Microsoftowski Word nadal jest niespójny wewnętrznie. Jak długo w menu Worda w pozycji Widok będzie się znajdowało okienko z trzema opcjami przeglądania dokumentu: ‘Normalny’, ‘Układ sieci Web’ oraz ‘Układ strony’, - tak długo użytkownik musi zdawać sobie sprawę, że w danym momencie ogląda tylko jeden z możliwych obrazów tworzonego dokumentu. Te obrazy mogą się od siebie bardzo różnić. Tak np. w układzie normalnym Word nie pokazuje pól tekstowych. Celem zilustrowania takiego przypadku przygotowany został plik w formacie Word zawierający pola tekstowe. Poniższe rysunki są zrzutami ekranu tworzonymi w trakcie przeglądania tego pliku w układzie normalnym (Rysunek 22) oraz w układzie strony (Rysunek 23).

Rysunek 22. Tekst dokumentu alyakhtund.doc w układzie normalnym. Opracowanie autora.

Песни, посвящённые мне.
№ 1.
Poland, 18 April 2002
Бронислав Пилсудский

Вунит, сестра Чурки, поэтесса, зная что я очень люблю песни, решила составить песню,
обращённую ко мне. Когда я ездил (в 1897 г.) по гилякским селениям, обучая гиляков
солить рыбу,она жила в с.Кезириво, лежащем на островке по р.Тыми близ Мозьб’ во.
Приходила она и ко мне, но не застала дома, потом как и все айны отправилась (очевидно
весною 1898 г.) в Арково. Аляхтунд. Акан- тох алеhынд.* женщ[ина] Вунит. 1898 г.

Аляхтунд.

Акан– тох алеhынд.*

женщ[ина] Вунит.
1898 г.
Кезириво фина / Когда я жила в Кезириво
хеми ями чхерш внизу по реке и вверху
па мыта /Мусьпи рох маhна | про тебя только разговоры слыхала,
hуктох тырахарш толь варшке/ когда спустилась к месту где лодки
оськ варэт урыты причаливают,

Rysunek 23. Tekst dokumentu alyakhtund.doc w układzie strony. Opracowanie autora

Песни, посвящённые мне.
№ 1.

Poland, 18 April 2002

Бронислав Пилсудский

Вунит, сестра Чурки, поэтесса, зная что я очень люблю песни, решила составить песню, обращённую ко мне. Когда я ездил (в 1897 г.) по гилякским селениям, обучая гиляков солить рыбу, она жила в с. Кезириво, лежащем на островке по р. Тыми близ Мозьб’ во
Pole tekstowe: Библиотека Польской Академии Наук в Кракове. Подлинник.

Приходила она и ко мне, но не застала дома, потом как и все айны отправилась (очевидно весною 1898 г.) в Арково. Аляхтунд. Акан- тох алеhынд.* женщ[ина] Вунит. 1898 г .

.


Аляхтунд.

Акан– тох алеhынд.*

Pole tekstowe: Подготовка текста и публикация В.М.Латышева



Кезириво фина /





Jak widać z powyższych przykładów, obydwa obrazy znacznie różnią się między sobą. Układ strony jest prawdopodobnie najbliższy usługi WYSIWIG i z dużym prawdopodobieństwem można orzec, że tak właśnie będzie wyglądał wydruk na drukarce kolorowej, natomiast z całą pewnością nie będzie tak wyglądał wydruk na drukarce biało-czarnej. Natomiast układ normalny jest jakąś formą uproszczoną, która może nie zawierać pewnych elementów. Powyższe komentarze pozwalają zrozumieć, dlaczego na Zachodzie przereklamowanym standardom przemysłowym szybko dokleja się uszczypliwe etykietki, Tak więc w szczególności usługa WYSIWIG bywa przezywana WYSIWYNG (ang. What You See Is What You Never Get – to co widzisz jest tym, czego nigdy nie otrzymasz).

Przytoczona analiza porównawcza ujawnia polimorfizm cyfrowego dokumentu elektronicznego, widziany przez pryzmat standardowych narzędzi środowiska edycyjnego i prezentacyjnego (monitor, drukarka biało-czarna, drukarka kolorowa). Polimorfizm ten jest wyrazem kompromisu jaki producent oprogramowania chce osiągnąć; jest wyrazem balansu pomiędzy spodziewanymi potrzebami użytkownika i ofertą konkurencji. Związane z nim niejednoznaczności mogą poważnie spowalniać procesy redakcyjne i w ostateczności nawet wprowadzać deformacje do postaci prezentacyjnej.

Elektroniczny dokument cyfrowy musi być postrzegany jako byt zintegrowany ze światem, w którym go wytworzono, i do którego winien należeć. Przenoszenie go do niekompletnego środowiska mającego inne wersję oprogramowania użytkowego, sterowniki, fonty czy obsługę ekranu może poważnie zmienić jego cechy. W końcu nawet meduza wyrzucona przez fale na morski brzeg jest tylko marną karykaturą misternego organizmu zawieszonego w wodzie.

Teksty wielojęzyczne

Stwierdzenie, że wielojęzyczność jest immanentnie związana z komunikacją międzynarodową - pieszą, morską czy lotniczą - jest chyba dla wszystkich oczywiste. Dokumentom wielojęzycznym już w starożytności przypisywano ponadczasową wartość. Najlepszym przykładem takiego dokumentu jest pieczołowicie przechowywana w British Museum bazaltowa stela znana pod nazwą Kamienia z Rosetty. To dzięki uwiecznionemu na tym kamieniu trójjęzycznemu zapisowi (hieroglify egipskie, pismo demotyczne i pismo greckie) Jean François Champoillon był w stanie odcyfrować niezrozumiałe już od dwóch tysiącleci egipskie hieroglify. Nie od rzeczy będzie też przypomnieć, że jeden z naszych najciekawszych zabytków – „Psałterz floriański” – zawiera 150 psalmów pisanych w trzech językach: łacińskim, polskim i niemieckim. Jednak wielojęzyczne dokumenty najczęściej nie występują w zbiorach specjalnych, lecz w podręcznym księgozbiorze każdej czytelni: są to słowniki, tak pożyteczne przy bieżącej pracy.

W dzisiejszych czasach ożywiona wymiana handlowa nasyca światowe rynki towarem z wielojęzycznym opisem. Mamy go na słoikach z dżemem, w instrukcjach obsługi pralek i telewizorów, w opisach informacyjnych filmów fotograficznych i leków, na okładkach międzynarodowych biletów lotniczych i kolejowych. Bodaj czy nie jeszcze bujniej rozwija się produkcja materiałów wydawniczych w muzeach. Świat stał się nie tylko bardziej wielojęzyczny, ale i wielokulturowy. Ciekawy przegląd współczesnych zagadnień związanych z wielojęzycznością zaprezentowała niedawno Borgman [1997]. Autorka spostrzega fakt pojawienia się na świecie wielkiej ilości materiału cyfrowego i koncentruje się na konieczności unifikacji zasad kodowania w ramach Unicode'u.

W ostatnich latach poligrafia światowa całkowicie zmieniła swoje oblicze. Obecnie większość tekstów wielojęzycznych sporządza się komputerowo. Czy wszystko jednak da się tu zrobić? Jakie są ograniczenia w poligrafii, a jakie w edytorstwie internetowym? Jakie są współczesne tendencje w zakresie katalogowania wydawnictw obcojęzycznych?

W następnych paragrafach dyskusję wybranych tu problemów ilustrować będziemy przykładami z dalekowschodniego obszaru językowego. Podobne ilustracje tekstowe przez długie lata były przyjmowane z dreszczykiem emocji, teraz stają się powoli codziennością.

Techniczne aspekty wielojęzyczności

W syntetycznym skrócie techniczne problemy związane z obsługą tekstów wielojęzycznych można pogrupować na następujące kategorie:

  1. wprowadzanie znaków tekstu
    • aspekt sprzętowy (klawiatura, sieć poprzez adapter sieciowy, terminal włączony poprzez interfejs szeregowy, mikrofon włączony do karty dźwiękowej plus oprogramowanie rozpoznawania mowy)
    • aspekt programowy (graficzne kompozery złożonych znaków z predefiniowanych struktur, tezaurusy, przełączniki kierunkowości zapisu: lewa do prawej, prawa do lewej, pisanie poziomo, pisanie pionowo)
  2. prezentacja znaków tekstu poprzez urządzenie peryferyjne komputera (ekran, drukarka)
  3. formatowanie tekstu identyfikujące język mówiony na potrzeby obsługi syntezy mowy (programowa synteza przez kartę dźwiękową lub sprzętowa przez autonomiczny syntezator mowy traktowany jako urządzenie peryferyjne)
  4. kodowanie znaków (wybór standardów,transkodowanie online, migracje)
  5. definiowanie sekwencji sortujących terminy i sekwencji określających tryb przeszukiwania i interpretacji tekstu wielojęzycznego
  6. automatyczne tworzenie streszczeń i indeksu słów kluczowych
  7. automatyczne tłumaczenia online

Warto teraz przyjrzeć się kilku wybranym technikom wprowadzania dalekowschodnich tekstów do dokumentu. Rozwój i powszechna akceptacja standardu okienkowego (Apple, Microsoft, X-Windows) stworzyły nową możliwość oferowania przez aplikację dodatkowych usług, niezwykle upraszczających proces edycyjny. Najprostszym (i zarazem najbardziej powolnym) sposobem wprowadzenia tekstu jest pobieranie pojedynczych znaków z posiadanego repertuaru. Nie zamykając edytora użytkownik może wywołać sobie małą przeglądarkę dostępnych znaków, posługując się funkcją Wstaw z poziomu głównego menu edytora, i wybierając z listy pozycję Symbol. Po ukazaniu się okienka dialogowego funkcji Symbol należy wybrać font, zawierający potrzebny podzbiór znaków (w cytowanym przykładzie jest to Hiragana). Jeśli wybrany zostanie font unikodowy, to po prawej stronie okna dialogowego udostępnione zostaje dodatkowe okno podzbioru grupy językowej (np. cyrylica, czy ujednolicone ideogramy CJK). Potrzebny znak wskazuje się myszką, a następnie przenosi się go do głównego okna edytora poprzez aktywizację pozycji Wstaw. Przy rutynowym wpisywaniu obcojęzycznego tekstu użytkownik może oczywiście ostrożnie zredefiniować sobie klawiaturę [47] przy pomocy pozycji Klawisz skrótu. Rysunek 24 przedstawia przykładowe wpisywanie tekstu japońskiego indywidualnie wybieranymi znakami z podzbioru Hiragana:

Rysunek 24. Wprowadzanie tekstu japońskiego w edytorze Word 97 (wybieranie znaków sylabami z puli systemowej fontu Arial Unicode MS). Opracowanie autora.

Proszę pisać - Microsoft Word
Plik Edycja
Widok
Wstaw
Format
Narzędzia
Tabela
Okno
Pomoc









    かいてくだ

Symbol

Symbole

Znaki specjalne

 

Czcionka:  Arial Unicode MS

Podzbiór:   Hiragana

 

Autokorekta:

Klawisz skrótu...

Klawisz skrótu:


Wstaw

Anuluj

 


Przyjrzyjmy się z kolei, na ile szersze techniczne możliwości tworzenia napisów w językach dalekowschodnich daje edytor wprowadzania IME (ang. Input Method Editor) firmy Microsoft (Rysunek 25).

Rysunek 25. Edytor IME. Opracowanie autora.

Dokument10 - Microsoft Word
Plik Edycja Widok Wstaw Format Narzędzia Tabela Okno Pomoc
   Karafuto
からふと

カラフト
樺太
からふと
カラフト
karafuto
KARAFUTO

Karafuto

karafuto

KARAFUTO



W klasyfikacji Tuckera [1987] IME podpada pod kategorię systemów konwersji fonetycznej (ang. phonetic conversion systems). Narzędzie to jest swojego rodzaju kombajnem, operującym w środowisku edytorów obsługujących format HTML, umożliwiającym posłużenie się transkrypcją z poziomu klawiatury angielskiej i opcjonalnym, bardzo dogodnym tezaurusem, usłużnie podstawiającym alternatywne skrypty z listy dostępnych sylabariuszy (japoński). Dodatkowo IME oferuje czcionkę standardową, lub połowicznej szerokości (tą ostatnią tylko dla katakany i znaków ASCII). W IME tekst japoński wprowadzamy do otwartego już dokumentu w transkrypcji Hepburna. Edytor podsuwa jednak piszącemu trzy możliwości prezentacji tekstu na ekranie: albo tekst niekonwertowany (romaji) albo automatycznie konwertowany do hiragany lub katakany. Jeśli po zakończeniu pisania jakiegoś słowa naciśniemy klawisz spacji, to wyświetlone zostanie okienko z listą proponowanych alternatywnych form zapisu (homofony). Rysunek 21 ilustracją, obrazującą sposób wyboru zapisu nazwy Karafuto - japońskiego określenia wyspy Sachalin, gdzie więziony był Bronisław Piłsudski. Na rysunku widać od góry alternatywne formy prezentacji: katakanę, kanji, hiraganę (wszystkie trzy w pełnej szerokości), katakanę w połowicznej szerokości czcionki i pięć wersji romaji w obydwu szerokościach czcionki (pozycje 5-9).

W miarę poprawy parametrów technicznych ekranu (ogniskowanie, aberracje odchylania, zdolność rozdzielcza) adaptera graficznego oraz mocy przetwarzania procesora zaczęły narastać apetyty na bardziej wyrafinowane metody tworzenia tekstów wielonarodowych. Przyjrzyjmy się na koniec (Rysunek 26) interesującemu narzędziu, oferowanemu przez firmę Aurora w ramach pakietu dla bibliotek i służącemu do wprowadzania znaków alfabetu chińskiego [48]. Przedstawiane narzędzie to czteropoziomowy kompozer złożonych znaków chińskich w oparciu o pule prymitywów składniowych. Ideę jego przedstawiamy w postaci tablicy podzielonej na cztery sekcje z których pierwsza ogranicza się tylko do jednej kolumny zawierającej znaki oparte na różnych dwuwymiarowych orientacjach pojedynczej kreski (prosta pozioma, prosta pionowa, i dwie wygięte). Dwie następne sekcje (druga i trzecia), o szerokości 5 komórek każda, zawierają ideogramy średniego stopnia złożoności służące do kompozycji finalnego znaku znajdującego się w sekcji czwartej. W rzeczywistym edytorze Jianyi Bushou sekcje przedzielone są suwakami pozwalający wybrać z obszernego pola potrzebny do kompozycji prymityw. Wynika z tego, że złożoność znaku narasta od lewej strony do prawej. W klasyfikacji Tuckera [1987] narzędzie to należy do systemów kompozycyjnych (ang. composition systems) i może się okazać bardzo przydatne przy zapisie chińskich imion własnych, spotykanych na tyle rzadko, że żadna instytucja nie będzie zainteresowana poszukiwaniem takiego samego znaku w innym obszarze językowym tak, jak to miało miejsce przy unifikacji ideogramów CJK.

Rysunek 26. Edytor kompozycyjny. Opracowanie własne na podstawie materiałów firmy Aurora.


 

 

 

 

 

 

 

 

 

丿

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Kodowanie i repertuary znaków

Bardzo poważnym problemem jest kodowanie znaków narodowych. Jeśli nie odwoływać się do historii budowy Wieży Babel, to przypisanie kodów do konkretnych znaków tradycyjnego pisma zawsze miało posmak narodowy i doskonale odzwierciedlało wolę narodów i grup językowych do samostanowienia. Prym wiedli tu Amerykanie, mający najwięcej sprzętu komputerowego i przez wiele lat ignorujący wartość poznawczą poza-anglojęzycznych tekstów. Proponowane przez nich repertuary znaków takie jak EBCDIC, czy też ASCII w założeniach swoich odsuwały w niebyt istnienie innych repertuarów znaków, orientując się głównie na sfery biznesowe. Europa, przyglądająca się tym wyczynom z oddali, i dalekowschodnia Azja, może z nieco mniejszym dystansem z powodu swego dalszego zaawansowania technologicznego, zaczęły na własną rękę tworzyć standardy narodowe i międzynarodowe, oraz inicjować regionalne prace unifikacyjne (por. Tseng i in. 1987). Regionalność zaczęła być oznaczana anagramami: LGC (Latin + Greek + Cyrillic), CJK (Chinese + Japanese + Korean), JACKPHY (Japanese, Chinese, Korean, Persian [Farsi], Hebrew, Yiddish). To sobiepaństwo w zakresie standardów kodowania stało się wyjątkowo uciążliwym hamulcem w rozwoju globalnej wioski. Te różne standardy na ogół bez przeszkód mogą współistnieć pokojowo obok siebie w jednej bazie danych. Niemal w każdym rekordzie bazy danych może zostać wpisana sekwencja znaków zgodna z innym standardem. Jest nawet osobna norma (ISO 2022) regulująca mechanizmy przełączania się między różnymi systemami kodowania. Jednak z faktu istnienia jakiegoś zapisu nie wynika jeszcze możliwość odczytania. Czytelnik może się przekonać o tym osobiście, wizytując np. serwer testowy Z39.50 Research Library Group i filtrując rekordy zawierające pole 066. Bez posiadania specjalistycznego oprogramowania (np. sprzedawanego przez RLG) nie ma szans na poprawne obejrzenie zapisów w języku oryginału (zazwyczaj są one w polu 880). Jest jeszcze jedno ważne ograniczenie - tym razem dotyczące plików pełnotekstowych. W jednym pliku HTML nie można używać kilku różnych standardów kodowania! Zamiar wydawania wielojęzycznej publikacji w Internecie niemal skazuje wydawcę na stosowanie standardu Unicode.

Przyjrzymy się, jak na tą samą przestrzeń adresową (kody z przedziału 128 - 254) poszczególne grupy narodowościowe nakładały swoje znaki w ramach normy ISO 8859-x:

Tabela 12. Współdzielenie przestrzeni kodów przez różne normy ISO 8859-x

>ISO 8859-1

A0

A1

¡

A2

¢

A3

£

A4

¤

A5

¥

A6

¦

A7

§

A8

¨

A9

©

AA

ª

AB

«

AC

¬

AD

­­

AE

®

AF

¯

B0

°

B1

±

B2

²

B3

³

B4

´

B5

µ

B6

B7

·

B8

¸

B9

¹

BA

º

BB

»

BC

¼

BD

½

BE

¾

BF

¿

C0

À

C1

Á

C2

Â

C3

Ã

C4

Ä

C5

Å

C6

Æ

C7

Ç

C8

È

C9

É

CA

Ê

CB

Ë

CC

Ì

CD

Í

CE

Î

CF

Ï

D0

Ð

D1

Ñ

D2

Ò

D3

Ó

D4

Ô

D5

Õ

D6

Ö

D7

×

D8

Ø

D9

Ù

DA

Ú

DB

Û

DC

Ü

DD

Ý

DE

Þ

DF

ß

E0

à

E1

á

E2

â

E3

ã

E4

ä

E5

å

E6

æ

E7

ç

E8

è

E9

é

EA

ê

EB

ë

EC

ì

ED

í

EE

î

EF

ï

F0

ð

F1

ñ

F2

ò

F3

ó

F4

ô

F5

õ

F6

ö

F7

÷

F8

ø

F9

ù

FA

ú

FB

û

FC

ü

FD

ý

FE

þ

FF

ÿ


ISO 8859-2


A0

A1

Ą

A2

˘

A3

Ł

A4

¤

A5

Ľ

A6

Ś

A7

§

A8

¨

A9

Š

AA

Ş

AB

Ť

AC

Ź

AD

­­¯

AE

Ž

AF

Ż

B0

°

B1

ą

B2

ˎ

B3

ł

B4

´

B5

Ĭ

B6

Ś

B7

˅

B8

¸

B9

š

BA

ş

BB

ť

BC

ź

BD

˝

BE

ž

BF

ż

C0

Ŕ

C1

Á

C2

Â

C3

Ă

C4

Ä

C5

Ĺ

C6

Ć

C7

Ç

C8

Č

C9

É

CA

Ę

CB

Ë

CC

Ĕ

CD

Í

CE

Î

CF

Ď

D0

Ð

D1

Ń

D2

Ň

D3

Ó

D4

Ô

D5

Ő

D6

Ö

D7

×

D8

Ř

D9

Ů

DA

Ú

DB

Ű

DC

Ü

DD

Ý

DE

Ţ

DF

ß

E0

ŕ

E1

á

E2

â

E3

ă

E4

ä

E5

ĺ

E6

ć

E7

ç

E8

č

E9

é

EA

ę

EB

ë

EC

ě

ED

í

EE

î

EF

ɗ

F0

đ

F1

ń

F2

ň

F3

ó

F4

ô

F5

ő

F6

ö

F7

÷

F8

ř

F9

ů

FA

ú

FB

ű

FC

ü

FD

ý

FE

ƫ

FF

'


ISO 8859-5

A0

A1

Ё

A2

Ђ

A3

Ѓ

A4

Є

A5

Ѕ

A6

І

A7

Ї

A8

Ј

A9

Љ

AA

Њ

AB

Ћ

AC

Ќ

AD

­

AE

Ў

AF

Џ

B0

А

B1

Б

B2

В

B3

Г

B4

Д

B5

Е

B6

Ж

B7

З

B8

И

B9

Й

BA

К

BB

Л

BC

М

BD

Н

BE

О

BF

П

C0

Р

C1

С

C2

Т

C3

У

C4

Ф

C5

Х

C6

Ц

C7

Ч

C8

Ш

C9

Щ

CA

Ъ

CB

Ы

CC

Ь

CD

Э

CE

Ю

CF

Я

D0

а

D1

б

D2

в

D3

г

D4

д

D5

е

D6

ж

D7

з

D8

и

D9

й

DA

к

DB

л

DC

м

DD

н

DE

о

DF

п

E0

р

E1

с

E2

т

E3

у

E4

ф

E5

х

E6

ц

E7

ч

E8

ш

E9

щ

EA

ъ

EB

ы

EC

ь

ED

э

EE

ю

EF

я

F0

а

F1

ё

F2

ђ

F3

ѓ

F4

є

F5

ѕ

F6

і

F7

ї

F8

ј

F9

љ

FA

њ

FB

ћ

FC

ќ

FD

§

FE

ў

FF

џ


ISO 8859-7

A0

A1

ʽ

A2

ʼ

A3

£

A4

A5

A6

¦

A7

§

A8

¨

A9

©

AA

AB

«

AC

¬

AD

­­-

AE

AF

¯

B0

°

B1

±

B2

²

B3

³

B4

´

B5

΅

B6

Ά

B7

·

B8

Έ

B9

Ή

BA

Ί

BB

»

BC

Ό

BD

½

BE

Ύ

BF

Ώ

C0

ΐ

C1

Α

C2

Β

C3

Γ

C4

Δ

C5

Ε

C6

Ζ

C7

Η

C8

Θ

C9

Ι

CA

Κ

CB

Λ

CC

Μ

CD

Ν

CE

Ξ

CF

Ο

D0

Π

D1

Ρ

D2

D3

Σ

D4

Τ

D5

Υ

D6

Φ

D7

Χ

D8

Ψ

D9

Ω

DA

Ϊ

DB

Ϋ

DC

ά

DD

έ

DE

ή

DF

ί

E0

ΰ

E1

α

E2

β

E3

γ

E4

δ

E5

ε

E6

ζ

E7

η

E8

θ

E9

ι

EA

κ

EB

λ

EC

μ

ED

ν

EE

ξ

EF

ο

F0

π

F1

ρ

F2

ς

F3

σ

F4

τ

F5

υ

F6

φ

F7

χ

F8

ψ

F9

ω

FA

ϊ

FB

ϋ

FC

ό

FD

ύ

FE

ώ

FF


Unicode

Mechanizmy przełączania sekwencji escape są bardzo kłopotliwe w praktycznej implementacji. Przeciętny śmiertelnik nie może na swoim komputerze osobistym obejrzeć takich zasobów cyfrowych. Trudno się dziwić, że przy pierwszej nadarzającej się okazji rozpoczął się odwrót od tej technologii na rzecz jednolitej metody kodowania. Zmiana postawy amerykańskiej nastąpiła, jak się wydaje, w mniejszym stopniu na skutek nacisku światłych sfer akademickich, a bardziej w wyniku spodziewanych beneficji z tytułu obrotu handlowego z ogromnymi i chłonnymi rynkami azjatyckimi. Czynnikiem zwiastującym początek nowej ery w stosunkach gospodarczych było zniknięcie "żelaznej kurtyny". Synchronicznie z latami tego przełomu na początku lat 90-tych rodzą się dwie niezależne inicjatywy ujednolicenia zasad kodowania: pierwszej przewodzi grupa amerykańskich producentów sprzętu i oprogramowania komputerowego, drugiej - International Organization for Standardization (ISO). Pierwsza grupa zawiązała korporację w styczniu 1991 r. pod nazwą Unicode Inc. W tym samym roku obie zainteresowane strony doszły do porozumienia, że dysponowanie jednym, spójnym kodem, obejmującym wszystkie znaki obecnie znane, jest sprawą godną najwyższego poparcia. Wzajemnie zaakceptowane zmiany zostały wprowadzone do Wersji 1.0 standardu Unicode, oraz do wstępnego dokumentu ISO/IEC Draft International Standard DIS 10646.1. Połączenie obydwu nastąpiło w styczniu 1992 roku. Końcowa postać tej wersji standardu została opublikowana w 1993 r. Już w zaraniu egzystencji tego nowego standardu stało się jasne, że kończy się czas funkcjonowania mechanizmów przełączania między różnymi repertuarami znaków, i że należy się jak najszybciej wycofać z używania ISO 2022, oraz standardów o zasięgu lokalnym i regionalnym, takich jak rodzina ISO 8859-x na rzecz Unicode'u [Aliprand 1992].

Konwencje notacyjne Unicode'u

Poniższy wybór został opracowany na podstawie 2 wersji standardu. Wszystkie znaki Unicode mają jednoznaczne nazwy składające się wyłącznie z dużych łacińskich [49] liter od A do Z, odstępu i myślnika - minusu. Nazwy alternatywne (aliasy) pisane są kursywą.

W tekście niniejszym pojedyncza wartość unikodu [50] zapisywana jest jako U+nnnn, gdzie nnnn jest czterocyfrową liczbą w zapisie heksadecymalnym. Na przykład U+0041 jest wartością unikodu znaku nazywanego LATIN CAPITAL LETTER A.

Ideogramy wschodnio-azjatyckie nazywane [51] są CJK UNIFIED IDEOGRAPH-X, gdzie X zastępowany jest heksadecymalną wartością unikodu

Założenia projektowe standardu Unicode

Projekt Unicode'u został oparty na następujących 10 zasadach wypunktowanych w definicji standardu:

  1. Kody znaków standardu mają jednolitą szerokość 16 bitów
  2. Cała 16-bitowa przestrzeń kodowa jest dostępna dla kodowania znaków
  3. Standard określa kodowanie znaków, a nie kształtów. Na przykład A A A A A A , to różne kształty tego samego znaku U+0041 LATIN CAPITAL LETTER A.
  4. Znaki mają dobrze zdefiniowane znaczenie
  5. Standard Unicode służy do kodowania tekstu
  6. Domyślne rozlokowanie znaków tekstu w pamięci jest w porządku logicznym (to jest w takim porządku, w jakim tekst jest pisany na klawiaturze). Gdy tekst komponowany z angielskiego i arabskiego (lub hebrajskiego) ma być przesłany na ekran, wtedy logiczny porządek słów pamiętanych w pamięci zmienia się, aby umożliwić poprawną prezentację tekstu, składającego się z zapisów czytanych z lewej do prawej oraz czytanych z prawej do lewej.
  7. Gdziekolwiek jest to możliwe, standard Unicode scala znaki duplikujące się w różnojęzycznych zapisach. Francuskie igrecque, niemieckie ypsilon, angielskie wye, wszystkie są reprezentowane przez kod tego samego znaku U+0059 LATIN CAPITAL LETTER Y. Podobnie chińskie zi, japońskie ji oraz koreańskie ja, wszystkie są reprezentowane przez kod tego samego znaku, U+5B57 CJK UNIFIED IDEOGRAPH 字 . Autor niniejszej książki pozwala sobie mieć krytyczny stosunek co do pełnego sukcesu standaryzacji zaleconej w tym punkcie. Litera Y została zaimportowana do łaciny z greckiego a dalej do języków nowożytnych, o czym najlepiej świadczy wymowa takiej pojedynczej litery we francuskim, polskim i niemieckim. Jednak ten sam znak jest odmiennie kodowany w obu tych grupach językowych: U+0059 Y LATIN CAPITAL LETTER Y oraz U+03A5 Y GREEK CAPITAL LETTER UPSILON. To samo dotyczy wielu innych znaków (jak np. A w cyrylicy). Z pewnością trudność w standaryzacji bierze się z faktu, że kryterium rozróżnienia znaków nie jest oparte ani na fonetyce ani na kształcie znaku, tylko dość abstrakcyjnie i dowolnie zdefiniowanej semantyce znaku. Ale z drugiej strony bardzo sensownie zgrupowano w osobnym bloku kodu rzymskie liczby i tak np. znak M interpretowany jako łacińska litera ma kod 0041, natomiast interpretowany jako cyfra rzymska "jeden tysiąc" ma kod 216F. W tym samym bloku numerycznym jest osobno wyróżniona alternatywna reprezentacja tego znaku o której wspomniano wcześniej omawiając inskrypcję na grobie Machiavellego. Zapisana tam sekwencja 10 znaków: CIƆIƆXXVII ma swój poprawny unkodowy odpowiednik w postaci 5 znaków ↀⅮⅩⅩⅦ zdecydowanie określających dedykowaną semantykę numeryczną. Uwagi godne jest przy tym to, że "jeden tysiąc" traktowany jest w arytmetyce rzymskiej jako cyfra; podobnie cyfra rzymska jest jednym znakiem, a nie konkatenacją trzech znaków.
  8. Standard Unicode dopuszcza dynamiczną kompozycję form akcentowanych.
  9. Dla prekomponowanych form statycznych standard Unicode zapewnia odwzorowanie na równoważne sekwencje dynamicznie komponowanych znaków.
  10. Zagwarantowano dokładne przekształcanie Unicode na inne powszechnie stosowane standardy i vice versa.

Font unikodowy

Z faktu, że grupa ekspertów była w stanie doprowadzić do publikacji dokumentu, w którym każdemu wydrukowanemu znakowi przypisuje się jednoznacznie kod, nie wynikało jeszcze, że oprogramowanie znajdujących się w użytku komputerów posiada czcionkę unicodową, ale - co ważniejsze - umie poprawnie obsłużyć nowy standard. Bardzo szybko, bo już w 1993 roku Bigelow i Holmes opublikowali detale swego projektu nacelowanego na konstrukcję fontu unikodowego. Zaprojektowany i wykonany przez nich font o nazwie Lucida Sans Unicode True Type Font obejmował 1700 znaków z rodziny języków wywodzących się z łaciny plus greka (nowożytna), plus cyrylica, to znaczy pełne środowisko LGC. Ponadto hebrajski, znaki fonetyczne, ramki oraz znaki matematyczne. Cztery następne lata trzeba było czekać na pojawienie się nowego fontu obejmującego oprócz obszaru językowego LGC również języki dalekowschodnie: chiński, japoński i koreański (CJK). Stało się to za sprawą firmy Bitstream, której font Cyberbit oprócz języków już uwzględnionych przez zbiór Lucida Sans Unicode zawierał dodatkowo: arabski, tajski, chiński, japoński i koreański. Zbiór ten w pierwszej swej wersji (1.1) zawiera m.in. 1 153 sylaby z sylabariusza Hangul oraz 20 902 ideogramów Han. Cyberbit ma znaczne rozmiary. W pierwszej wersji jest to plik o wielkości 13 MB (nieskompresowany), który został zaoferowany darmowo i ciągle jest dostępny na różnych serwerach FTP. Ważnym źródłem darmowej czcionki unicodowej jest też produkt pracy kompilacyjnej naszego rodaka, Romana Czyborry, który pracowicie zebrał z różnych źródeł czcionkę, przekonwertował i udostępnił w Internecie pod nazwą UNIFONT. Pakiet ten zawiera ponad 34 000 znaków i był projektowany głównie z myślą o środowisku unixowym. Na koniec należy wymienić nowy, niezwykle bogaty i nienagannie technicznie dopracowany Arial Unicode MS produkcji Microsoftu, zbiór prawie dwukrotnie większy od Cyberbita wersja 1, obecnie również dostępny za darmo dla celów niekomercyjnych.

Celem porównania obsługi tego nowego standardu przez kilka aktualnie dostępnych na rynku zestawów czcionek wykonaliśmy test na dwóch przedziałach kodów dla trzech rodzajów czcionki. Testowanie zostało przeprowadzone przy pomocy edytora yudit zainstalowanego na platformie Linuxa (Debian) i pracującego pod nadzorem X-Windows. Każdy testowany podzbiór zawierał 112 znaków. Wyniki porównania przedstawia tabela 13 [Czermiński 2001]:

Tabela 13. Liczba brakujących znaków w implementacji fontu (opracowanie autora)

Nazwa czcionki  U+AC60 ...U+AC5F
(Hangul)
U+8600 ... U+866F
(Zunifikowane ideogramy CJK
Unifont 0  18
Bitstream Cyberbit  1.1 83 0
Arial Unicode MS 0 0

Tablica potwierdza słabą obsługę koreańskiego sylabariusza przez Bitstream Cyberbit i pokazuje na wyraźną przewagę microsoftowskiego Ariala Unicode MS.

Formaty transformacyjne UTF

Systemy komputerowe i sprzęt teletransmisyjny są bardzo konserwatywne. Obok najnowocześniejszych maszyn stoją stare i bardzo stare. Szesnastobitowy kod nowego standardu nie jest strawny dla starych komputerów, których architektura oparta jest na 8 bitach, a nawet na 7 bitach (stare systemy operacyjne i stare urządzenia sieciowe). Dla znalezienia jakiegoś polubownego rozwiązania opracowano kilka formatów transformacyjnych, które rozkładają szesnastobitowy kod na mniejsze segmenty. Wśród tych kilku formatów wyróżnimy UTF-8, będący już stałą opcją kodowania przy zapisywaniu plików wielojęzycznych na dysku. Z praktycznego punktu widzenia UTF-8 należy rozumieć jako specyficzną formę Unicode. Zaletą UTF-8 jest to, że podstawowe znaki ASCII (o kodach do 127), które jak na razie królują w Internecie, są pamiętane w postaci 8 bitów, a nie 16 – tak jak by tego wymagał klasyczny unikod.

Dla ilustracji, jak konwertuje się 16-bitowy kod utworzony wg standardu Unicode do UTF-8 ograniczymy się tylko do najprostszego przypadku interesującego Polskę z uwagi na kodowanie polskich liter diakrytycznych. Wszystkie one w formacie UTF-8 mieszczą się na dwóch bajtach. Ogólny, ale uproszczony do 3 wynikowych bajtów, schemat transformacji podaje tabela 14.

Tabela 14. Transformacja 16-bitowego unikodu do wielobajtowego ciągu UTF-8. Opracowanie własne na podstawie Tablicy A-3 w Unicode [1998].

Wartość unikodu Produkt transformacji do UTF-8
Pierwszy bajt Drugi bajt Trzeci bajt
0000 0000 0xxx xxxx 0xxx xxxx

0000 0yyy yyxx xxxx 110y yyyy 10xx xxxx
zzzz yyyy yyxx xxxx 1110 zzzz 10yy yyyy 10xx xxxx

W powyższej tabeli bity zapisane kolorem czerwonym są obligatoryjne. Naruszenie tego obligatorium powoduje automatyczną detekcję nielegalnej struktury bitów. Grupowanie po cztery bity ułatwia przejście do zapisu heksadecymalnego. Bity opisane kolorem niebieskim przy dekompozycji 16-bitowego kodu do UTF-8 stanowią uzupełnienie obligatoryjnego nagłówka pierwszego (dwubajtowa dekompozycja) lub drugiego (trzybajtowa dekompozycja) bajtu. Podobnie jest w przypadkach bitów oznaczonych kolorem czarnym. Odpowiednia tablica dla polskich liter diakrytycznych przedstawia się następująco:

Tabela 15. Dekompozycja 16-bitowych kodów polskich liter diakrytycznych do sekwencji UTF-8. Opracowanie własne.

Litera Kod hex.
(UCS-2)

Kod binarny
Produkt transformacji do UTF-8
Kod hex.
(UTF-8)

Pierwszy bajt
Drugi bajt
Ą
01 04
0000 0001 0000 0100
1100 0100
1000 0100
C4 84
ą
01 05
0000 0001 0000 0101
1100 0100
1000 0101
C4 85
Ć
01 06
0000 0001 0000 0110
1100 0100
1000 0110
C4 86
ć
01 07
0000 0001 0000 0111
1100 0100
1000 0111
C4 87
Ę
01 18
0000 0001 0001 1000
1100 0100
1001 1000
C4 98
ę
01 19
0000 0001 0001 1001
1100 0100
1001 1001
C4 99
Ł
01 41
0000 0001 0100 0001
1100 0101
1000 0001
C5 81
ł
01 42
0000 0001 0100 0010
1100 0101
1000 0010
C5 82
Ń
01 43
0000 0001 0100 0011
1100 0101
1000 0011
C5 83
ń
01 44
0000 0001 0100 0100
1100 0101
1000 0100
C5 84
Ó
00 D3
0000 0000 1101 0011
1100 0011
1001 0011
C3 93
ó
00 F3
0000 0000 1111 0011
1100 0011
1011 0011
C3 B3
Ś
01 5A
0000 0001 0101 1010
1100 0101
1001 1010
C5 9A
ś
01 5B
0000 0001 0101 1011
1100 0101
1001 1011
C5 9B
Ź
01 79
0000 0001 0111 1001
1100 0101
1011 1001
C5 B9
ź
01 7A
0000 0001 0111 1010
1100 0101
1011 1010
C5 BA
Ż
01 7B
0000 0001 0111 1011
1100 0101
1011 1011
C5 BB
ż
01 7C
0000 0001 0111 1100
1100 0101
1011 1100
C5 BC

Tabela 15 zawiera pewną osobliwość: są to diakrytyczne litery „Ó” oraz „ó”, które w odróżnieniu od wszystkich pozostałych polskich liter diakrytycznych (zbiór Latin Extended-A) znajdują się w zbiorze Latin-1 Supplement. Z tego powodu pierwsze dwie ‘starsze’ tetrady 16-bitowego kodu złożone są z samych zer, co mogło by predystynować te litery do kodowania jednobajtowego. Jednak Tabela 14 jako obligatorium wymaga, by do jednobajtowego kodowania najstarszy bit w trzeciej tetradzie był zerem, co w tym przypadku nie ma miejsca. Tak więc w ramach transformacyjnego formatu UTF-8 wszystkie polskie litery diakrytycznie są jednolicie kodowane na dwóch bajtach

Przygotowanie tekstu publikacji internetowej kodowanej w unikodzie

Podstawowym wymaganiem jest tu obsługa standardu Unicode przez system operacyjny. Komputer osobisty musi mieć zainstalowany 32-bitowy system operacyjny (Windows 95, Windows 98, Windows NT, Windows 2000, Linux).  Na tym systemie musi być zainstalowany edytor obsługujący Unicode. W systemie MS Windows minimalnym pakietem musi być Word 97. Dobrym edytorem znakowym dla Windows jest też SC UniPad, a dla Linuxa yudit. Te dwa edytory pozwalają na sprawną redakcję kodu źródłowego. Uznanie budzi zwłaszcza yudit, który ma bardzo dobry, wielojęzyczny moduł wprowadzania tekstu wraz z dobrze opisaną dokumentacją, oraz możliwość korzystania z bardzo bogatych fontów unikodowych w formacie TTF w X-Windows.

Największą dogodność pracy dla osoby nie pragnącej uczyć się formatowania w standardzie HTML przedstawia sobą MS Word, który bardzo dobrze obsługuje Unicode. Dokument napisany w tym edytorze można łatwo wyeksportować do formatu HTML. Bardzo dobry jest wielojęzyczny moduł wprowadzania tekstu – IME.

Niestety Word 97 ma sporo minusów - w tym bardzo ubogą paletę koloru i słabą obsługę tabel. Dlatego bardziej wymagający użytkownik, pragnący bardziej efektownie opracować sobie publikację internetową, winien wykonany pod Wordem dość surowy dokument otworzyć w kompozerze przeglądarki Netscape i tam doprowadzić go do lepszej postaci. Ale trzeba też pamiętać, że i to ostatnie narzędzie ma swoje wady: źle obsługuje listy numerowane i obustronne wyrównywanie tekstu. Wklejanie tekstów przygotowanych pod innym standardem kodowania do publikacji już zakodowanej jako unikodowa na ogół nie da się bezpośrednio zrealizować. Tak np. teksty japońskie przygotowane pod IME (kodowane w JIS, ang. Japan Industry Standard) należy wstawić do pustego dokumentu w Wordzie, zmienić w przekopiowanym dokumencie czcionkę na unikodową i wyeksportować do formatu HTML. Dopiero taki plik można wkleić do innej publikacji zakodowanej w UTF-8. Wśród uwag praktycznych należy też wspomnieć, że przenoszenie bloków tekstu metodą kopiuj i wklej (Ctrl C – Ctrl V) w środowisku heterogenicznym – np. pomiedzy Netscape i MS Wordem na ogół powoduje utratę atrybutów tekstu (wyróżników tekstu i formatowania).

Mimo piętrzących się, chwilowo dokuczliwych, problemów - już teraz posiadamy komplet narzędzi edycyjnych pozwalających przygotować i wystawić na widok publiczny wielojęzyczne systemy informacyjne. Jako przykład może służyć prototyp pięciojęzycznego (angielski, japoński, litewski, polski, rosyjski) systemu informacyjnego projektu ICRAP (http://www.icrap.org).

Rysunek 27. Wielojęzyczny dokument internetowy w unikodzie. Projekt autora.

Bronisław Piotr Piłsudski
Бронислав Осипович Пилсудский
ブロニスワフ . ピョ トル . ピウスツキ

portret

polska wersja english version russian version japanese version lithuanian version

Życiorys

Opracowanie dorobku

Konferencje

Instytucje współpracujące
i osoby kontaktowe

Bibiliografia

Kultura Ajnów

Zespół Redakcyjny

Lokalizacja dokumentów

Posłuchaj starej pieśni ajnuskiej nagranej sto lat temu!
(plik audio MP3, 400 KB)
Ainu song
Listen to the old Ainu song recorded one hundred years ago!
(MP3 audio file, 400 KB)

百 年前の歌をお聴き下さい。



Doświadczenie zebrane przez autora w trakcie przygotowywania tego prototypu wskazuje na znaczną przewagę trudności organizacyjnych nad technicznymi. Jest to jednak doświadczenie ze wszech miar pozytywne. W projekcie bierze udział znaczna grupa osób o przekroju wiekowym od 20 do ponad 60 lat, zamieszkująca obszar geograficzny od Londynu po Tokio. Na potrzeby projektu wpłynęły i ciągle wpływają liczne deklaracje zgody na internetową re-edycję opublikowanych wcześniej materiałów zarówno ze strony wydawców, jak i autorów. Znakomicie wprost układa się współpraca z Instytutem Dziedzictwa Bronisława Piłsudskiego w Jużno-Sachalińsku [53], którego Dyrektor, В.М.Латышев, w pełni docenia siłę publikacji w Internecie.

Edytorstwo internetowe

Na kulturę niewiele się obecnie łoży z pieniędzy budżetowych i Internet jest dla niej prawdziwą łodzią ratunkową na wzburzonych falach gospodarki rynkowej. Odnotujmy kilka ważnych przewag publikacji internetowych nad tradycyjnymi:

  • Niska cena publikacji [54]
  • Pełne wsparcie dla multimediów (płynna integracja w ramach pojedynczej publikacji tekstu, danych, głosu, grafiki i filmu)
  • Dostępność szerokiej gamy technologii dystrybucji informacji (poczta elektroniczna, listy dystrybucyjne, listy dyskusyjne, zintegrowane usługi katalogowe - np. X.500, serwery WWW)
  • Darmowe, wysoko efektywne sieciowe systemy indeksujące i roboty wyszukiwawcze (Alta Vista, Lycos, Yahoo, Google i in.)
  • Czasooszczędne zakładkowanie przeglądanych publikacji i dowiązywanie publikacji zależnych przy pomocy "gorących łączników"
  • Duża szybkość i niska cena aktualizacji treści publikacji
  • Duża oferta pakietów dostępnego oprogramowania, zarówno komercyjnego, jak i darmowego
  • Niski koszt pobierania informacji
  • Wysoka szybkość dostępu do informacji
  • Powszechność dostępu do informacji
  • Fundamentalne zmiany w zachowaniu ludzi, prowadzące do znacznego podwyższenia indywidualnej produktywności

Edytorstwo internetowe należy ze wszech miar wspierać. Biblioteki w tej materii mają wyjątkowo dobry punkt startu: dysponują klasycznymi zasobami: książkami, czasopismami, wydawnictwami kartograficznymi itp. Tradycją stały się wystawy organizowane w bibliotekach okresowo, lub okolicznościowo. Nie ma wątpliwości, że do tej chwili nie ujawniło się w większej skali w bibliotekach wystawiennictwo internetowe. Pod tym względem wart rozpowszechnienia jest przykład Biblioteki Królewskiej w Hadze, gdzie na korytarzach zorganizowano stoły ze zgrabnie wbudowanymi komputerami o płaszczyźnie ekranu pokrywającej się z płaszczyzną stołu. Na tych stanowiskach odwiedzający bibliotekę mogą oglądać cyfrowe wersje zbiorów specjalnych biblioteki. Nietrudno sobie wyobrazić, o ile bardziej pożyteczny dla czytelnika byłby kontakt z pełną, cyfrową kopią starodruku czy rękopisu, niż pełne nostalgii oglądanie szacownych opraw, lub dwóch stron rozłożonych dzieł. Aby dać Czytelnikowi przedsmak, co przy dobrych chęciach biblioteki można w tej materii zrobić, proponujemy obejrzenie cyfrowej repliki Grammaire Egyptienne Jean François Champolliona, udostępnianej w Internecie przez University of Illinois w Chicago pod adresem:

http://efts.lib.uchicago.edu/cgi-bin/eos/eos_title.pl?callnum=PJ1135.c45

Uwagi godne jest to, że każdą stronę można oglądać w dwóch trybach pracy: przy normalnej jakości obrazu i wysokiej jakości obrazu. Dobre pytanie: dlaczego to przepiękne dzieło oferują nam w cyfrowej postaci Amerykanie a nie Francuzi, pozostanie bez odpowiedzi. Pytanie, jak winny się zachować polskie biblioteki wobec takiego wyzwania pozostawiamy Czytelnikowi.
Transliteracja i transkrypcja. Romanizacja, cyrylizacja, germanizacja?
Transliteracja to sposób przepisywania tekstów zapisanych literami jednego alfabetu na teksty zapisane literami innego alfabetu zgodnie z zasadą: litera za literę; bez uwzględniania właściwości wymowy.
Termin transkrypcja jest używany w dwóch znaczeniach:

  1. Zapisywanie dźwięków mowy jakiegoś języka za pomocą liter oznaczających te same dźwięki w języku, na który dokonuje się transkrypcji (transkrypcja fonetyczna)
  2. Zapisywanie dźwiękowej postaci języka lub dialektu za pomocą liter i innych znaków w konsekwentny sposób symbolizujących poszczególne głoski (transkrypcja alofoniczna) lub fonemy (transkrypcja fonematyczna)


Transkrypcja i transliteracja są zabiegami wychodzącymi na przeciw niemocy twórcy transkryptu lub jego adresata w zakresie czynnego posłużenia się zapisem oryginału w celach identyfikacyjnych lub komunikacyjnych. W zasadzie chyba panuje powszechna zgoda wszystkich wypowiadających się specjalistów co do tego, że zarówno transliteracja jak i transkrypcja są niedokładne i należy dołożyć wszelkich starań celem zapewnienia możliwości współbieżnego zapisu w języku oryginału. Bardzo dobre studium tego tematu przedstawiła Aissing [1992]. W bibliotekach znanym na świecie zabiegiem jest romanizacja (termin używany powszechnie na Zachodzie). Pod nazwą tą Miller [1982] definiuje metodę konwersji słowa zapisanego alfabetem nie wywodzącym się z łaciny (ang. non-roman) w słowo, które brzmi (ang. sounds) jak oryginał, ale jest zapisane literami alfabetu łacińskiego (patrz przypis 38\ na dole strony 90); dodając, że można tego dokonać na drodze transliteracji, bądź transkrypcji fonetycznej. Niestety, romanizacja nie jest zabiegiem dobrze określonym: różne kraje stosują różne schematy. Spośród podanych przez niego pięciu popularnych form wyszukiwania nazwiska Чайковский (10 liter) jedna ma 10 liter, dwie 11 liter i dwie 12 liter - a zatem przeważa schemat transkrypcyjny nad transliteracją. Fakt ten prowadzi do bardzo ograniczonej skuteczności wyszukiwania obcojęzycznego w zagranicznych serwerach, skuteczność ta bowiem zależy od znajomości lokalnego schematu romanizacji przez zdalnego użytkownika i, ewentualnie, od szczęśliwego zbiegu okoliczności istnienia odpowiednio bogatej listy haseł wzorcowych na lokalnym serwerze (o ile w ogóle lokalny serwer ma kartotekę haseł wzorcowych). Zdalny użytkownik po prosu na ogół nie ma pojęcia, czy lokalnie stosuje się transkrypcję czy transliterację. Borgman [1997] określa taką transformację danych jako stratną (ang. lossy), odwołując się do jej podobieństwa ze stratną kompresją obrazu. Zabawne, że takie problemy występują też na gruncie lokalnym. W cytowanej wyżej pracy Aissing podaje dla ilustracji swych wywodów, że na 50 studentów języka rosyjskiego indagowanych na okoliczność sposobu transkrypcji (autorka niepoprawnie posługuje się tu terminem 'transliteracja') litery Я aż 80% wybrało ya, podczas, gdy tylko 7% procent respondentów podało zgodną z praktyką Biblioteki Kongresu wersję ia (pozostałe propozycje nie zostały przytoczone). A zatem stosowany przez bibliotekę schemat nie spotyka się z oczekiwaniami publicznymi! Dla kogo zatem biblioteki wprowadzają swoje przepisy? Niech odpowiedzią na to pytanie będzie zacytowana w pracy Aissing wypowiedź wyjęta z dawno opublikowanego artykułu Sommer [1934]: Dla czyich korzyści robi się transliterację? Czy jest ona przede wszystkim dla czytelników, czy personelu (ang. staff)? Po rozważeniu może być tylko jedna odpowiedź: dla personelu, lub, bardziej ogólnie, dla tych, którzy nie są w stanie czytać zapisu oryginalnego. ... A jeśli chodzi o czytelników zagranicznych, to oczywiście wolą oni zapis oryginalny, nie czerpiąc praktycznie żadnych korzyści z transliteracji. Termin romanizacja ma na tyle swoisty posmak, że Polakowi nasuwają się niemiłe skojarzenia z germanizacją. Tucker [1987] używa podobnego określenia: cyrylizacja w odniesieniu do języków mniejszości etnicznych, jako formy presji o naturze politycznej, religijnej i kulturowej w odniesieniu do języków tureckich na początku tego wieku (zapewne chodziło Tuckerowi o Rosję, ZSRR oraz Bułgarię). Ale oczywiście cyrylizacja jest normalną procedurą stosowaną w np. bibliotekach rosyjskich.

Przykładem niefortunnie zaprojektowanej i wdrożonej transkrypcji był wspomniany wcześniej system transkrypcji języka chińskiego według schematu Wade-Giles. Szczegóły kosztownej migracji do schematu pinyin można znaleźć w zasobach sieciowych Biblioteki Kongresu pod adresem: http://lcweb.loc.gov/catdir/pinyin

Wydaje się, że w czasach obecnych, gdy znikały żelazne kurtyny i kruszone były betonowe mury, nadszedł czas na pełne respektowanie piękna kulturowego innych narodów i zaniechania niesławnych praktyk przeszłości. Wyzwaniem czasu nie jest całkowite zarzucenie transliteracji i transkrypcji, lecz wprowadzenie jednolitych zasad dodatkowego posługiwania się językiem oryginału w systemach informacyjnych i jak najszybsze wdrożenie ich w codzienną praktykę.

Wielojęzyczność w opisie bibliograficznym

Dawniej właściciel kolekcji książek, a później jego bibliotekarz nie stronili od opisu bibliograficznego rozszerzonego o dane zapisane w języku oryginału. Na wstępie przyjrzymy się kilku wybranym przykładom takich opisów z polskich bibliotek.

Rysunek 28. Opis w języku oryginału. Biblia hebrajska. Wydanie z 1928 roku. Biblioteka Jagiellońska.



184306
III
Tel-Aviv - Warszawa
1928
"Central"
Druk. Sikora i Mylner
I
(Biblia)
כְּתוּבִים
עִס בֵּאוּר חָדָשׁ
, מַפות וְצִיּוּרים
מאת שׁ. ל. גרדון

(Kethūbhim)
Hagiographa
z nowym komentarzem ...
przez Sz.L.Gordona

I. סֵפֶר תְהִלִּים                  
מְבאָר   עַל־יְדֵי  שׁ. ל. גרדון

(Sēfer thillim.) [Księga Psalmów]
str. CXII str. 320.

ob.

1928.


ekt

vol. 1



Rysunek 29. Opis w języku oryginału: Iliada po grecku. Wydanie z 1803 roku. Biblioteka Jagiellońska. (opis dla niewidomych)


Numerus
currens
Litera
H.
Auctores Gracci
807
Ενετιησιν
Νικολάου Γλυκύ
1803
Forma Armarium Forulus Series

Homeros



dar Ł. Bromirskiego
1872
Ομήρου Ιλιας σύν τοίς σχολίοις ψευδεπιγραφοις Διδύμου. Δαπάνη άδρᾶ̩ τν͂ς τῶν Ζωσιμάδων γενναίας αΰταδελφότητος.

Tomów dwa.
8



Rysunek 30. Opis w języku oryginału: Biuletyn statystyczny Tytuł wpisano po grecku. Alternatywny tytuł czasopisma podano po francusku. Wpisano roczniki od 1929 do 1939. Centralna Biblioteka Statystyczna. (opis dla niewidomych)

GŁÓWNY URZĄD STATYSTYCZNY Nr. inw. ............................. Nr. bib. 17099
ΜΗΝΙΑΙΟΝ ΣΤΑΤΙΣΤΙΚΟΝ ΔΕΛΤΙΟΝ ΤΗΣ ΓΕΝΙΚΗΣ ΣΤΑΤΙΣΤΙΚΗΣ ΥΠΗΡΕΣΙΑΣ ΤΗΣ ΕΛΛΑΔΟΣ.
Bulletin mensuel de statistique publié par la Statistique Générale de la Grèce
Wychodzi od 1929 Przest. wych.




Znak według klasyfikacji-
dziesiętnej
31 (495) (95)
Miejsce wyd. Athènes
Wydawca

Rok.wyd. Rok.wyd. Rok.wyd.
1929
1934
1939









1930
1935










1931
1936










1932
1937










1933
1938












Rysunek 31. Opis w języku oryginału: Spółdzielcze spichlerze zbożowe. Tytuł i instytucja sprawcza wpisane w języku rosyjskim. Miejsce wydania podane w transliteracji. Centralna Biblioteka Statystyczna. (opis dla niewidomych)

URZĄD GŁÓWNY STATYSTYCZNY
[Magaziny] - [Магазины] No 2799 2049
[Obščestvennye]
Общественные сельские хлѣбозапасные магазины
въ 46 губерніах Европейской Россіи ихъ вмѣстимость и стоимость. Составлено Центральнымъ Статистическимъ Комитетомъ по даннымъ Хозяйственнаго Департамента М.В.Д. къ 1892 г.

<Временникъ Центральнаго Статистическаго Комитета Министерства Внутреннихъ Дѣлъ N 31.>
Nr-inwentarza 316/1918 Format
Miejsce wydania
S.-Pietierburg
Wydawca
Cientralny Statisticzeskij Komitet
Ministierstwa Wnutriennych Dieł
Drukarnia
W.Biezobrazow i Komp.
Znak  wedł. klas.dzies. [ 31:[72:633] (41)
Tom
Rok wyd.
Stron
Tabl.
Tom
Rok wyd.
Stron
Tabl.
Tom
Rok wyd.
Stron
Tabl.
1
1894
XVIII+177
-

































Z przytoczonych przykładów widać, że dawniej polski bibliotekarz uważał za swój honor wiernie zapisać tytuł wydawnictwa w języku oryginału, bez żadnej transliteracji, czy transkrypcji. Podobnie postępowano z nazwiskami autorów i niektórymi innymi detalami opisu bibliograficznego. Oczywiście, pozostała część opisu bibliograficznego wykonywana była w lokalnym języku narodowym. Powyższe przykłady nie są u nas czymś wyjątkowym. Nawet sprawdzając poprzez sieć dotychczasowe zasoby znajdującego się w trakcie retrokonwersji alfabetycznego katalogu Biblioteki Jagiellońskiej, a dotyczące np. Arystotelesa, można znaleźć znacznie więcej takich przykładów. To nie były pojedyncze przypadki – to była reguła. Nie inaczej było za granicą. Maja Žumer [1999] charakteryzując liczący 95 tys. kart i obejmujący okres 1774 – 1947 narodowy katalog Słowenii, wśród języków katalogowania wymienia łaciński, niemiecki, grecki, hebrajski, - obecne są też pozycje katalogowane cyrylicą.

Najbardziej restryktywne przepisy katalogowania ma pod tym względem Rosja. Odziedziczona po czasach ZSRR norma GOST 7.1-84, p.1.6 wyraźnie nakazuje „Opis bibliograficzny tworzony jest w języku tekstu dokumentu” [Pastukhova 2000]. Tu nie ma opcji – tu jest nakaz. Widać to najlepiej na załączonych kopiach oryginalnych kart katalogowych udostępnionych przez Bibliotekę Rosyjskiej Akademii Nauk w St. Petersburgu, a obejmujących wydawnictwa współczesne.

Rysunek 32. Opis w języku oryginału. Zasady tworzenia indeksu i klasyfikacji. Tytuł w języku arabskim, w transkrypcji na cyrylicę i w tłumaczeniu rosyjskim. Biblioteka Rosyjskiej Akademii Nauk. St. Petersburg. Karta prosta bez podziału na rubryki.



Ар 1982 к
8

مبادئ لفهرسة والتصنيف. – الموصل:
دار الكتب للطباعة والنشر،      
١٩-

Мабади ли-фихриса ва-т-тас-ниф.
– Мосул, 1980
Принципы составления указателяи и классификаци.
Т.2. 1980 220с.


ОЛСАА 339-82 5602

W lewej części karty umieszczony jest symbol oznaczający język: „Ар” (arabski). Po tytule w języku oryginału umieszczono transkrypcję tytułu w języku rosyjskim. Skrót: ОЛСАА oznacza Dział literatury krajów Afryki i Azji.

Rysunek 33. Opis w języku oryginału: K. Marks: Praca najemna i kapitał. Autor i tytuł w języku perskim i w tłumaczeniu na rosyjski bez transkrypcji. Biblioteka Rosyjskiej Akademii Nauk. St. Petersburg. (opis dla niewidomych)




МЭ перс-47
3- 1

ماركص.
كارمزدورىوسرمايه.– مسكو:بنكاه

نشرياتبروكرس ، ١٩٨١. 48 – ص. ؛ 20 سم.


Маркс, Карл.

Наемный труд и капитал. – М.:

Прогресс, 1981.

ОЛСАА 386-83
72764




Rysunek 34. Opis w języku oryginału. Katalog dokumentów o byłym Premierze Japonii Katsura Taro. Tytuł w języku japońskim, transkrypcji i tłumaczeniu. Biblioteka Rosyjskiej Akademii Nauk. St. Petersburg. (opis dla niewidomych)



З В-спр.
Яп. 246


桂太郎関係文書目録   「東京」、

国立国会図書館、 1965 (憲政資料目録第三)


Кейтаро канкей бунсё мокуроку, [Токио],

Кокурицу коккай тосёкан, 1965 (Кэнсэй сирё мокуроку № 3).

[Каталог документов из собрания Кэйтаро]
<РПМ Б-ки Ак. наук СССР

ОЛСАА 211-68 65300



Od góry wpisano ręcznie trzy wiersze po japońsku a dalej wpisano propozycję ich rosyjskiej transkrypcji jak następuje: Кейтаро канкей бунсё мокуроку, 1965 [Токио], Кокурицу коккай тосёкан, (Кэнсэй сирё мокуроку № 3). Po transkrypcji podano tłumaczenie tytułu na rosyjski: [Каталог документов из собраниа Кэйтаро]. Na dole karty podana jest nazwa jednostki sporządzającej opis: „РПМ Б-ки Ак. наук СССР” liczba 65300 oraz napis „ОЛСАА 211-68”. Transkrypcja rosyjska na tej karcie katalogowej jest miejscami błędna. Poprawna transkrypcja wg. schematu Hepburna (latynizacja) winna brzmieć: Katsura taroo kankei bunsho mokuroku [tookyoo] kokuritsu kokkai toshokan, 1965 (kensei shiryoo mokuroku daisan). Tłumaczenie: Wykaz dokumentów o Katsura Taro" [Tokyo], Narodowa Biblioteka Diety, 1965 (Lista dokumentów o Rządzie Konstytucyjnym . Tom. 3)

>Rysunek 35. Opis w języku oryginału. Japońsko – chińskie terminy meteorologiczne. Tytuł w języku chińskim, transkrypcji i tłumaczeniu na rosyjski. Biblioteka Rosyjskiej Akademii Nauk. St. Petersburg. Karta prosta bez podziału na rubryki.



З В-спр.
Кит 570



日 漢気象学詞匯:日中気
象学用語集 「北京」: 科学
出版社、
1981. - У,288 с;
19 см.

Жи хань цисянсюе цыхуй: Жи чжун
цисянсюе юнъюй цзи. - 「Пекин」, 1981.
Японско-китайские метеорологические термины,

РПМ Б-ки Ак. наук СССР
ОЛСАА 670-82
5026


A zatem Rosjanie na bieżąco katalogują tradycyjnie na kartach, posługując się równolegle zapisem w języku oryginału i transkrypcją, lub transliteracją (cyrylizacja).

W miarę tak zwanego rozwoju, zamożnych i wykształconych właścicieli bibliotek zaczęli zastępować wynajęci ludzie - bibliotekarze i stopień znajomości języków obcych u osób opracowujących opis zasobów gwałtownie zaczął się pogarszać. Postępująca deprecjacja zawodu doprowadziła w efekcie do wprowadzenia takich przepisów katalogowania, które pozwoliły by uniknąć jakiegokolwiek strapienia z tytułu kontaktu z jakimś egzotycznym przypadkiem. Sposoby tłumaczenia się bibliotekarzy z tego powodu są niekiedy osobliwe. Padziński [2000:20] pisze co następuje: „Polskie Normy” i w ślad za nimi „Przepisy katalogowania książek” dopuszczają podawanie elementów zapisanych w alfabetach niełacińskich w formie oryginalnej. Jednakże w praktyce jest to rzadko stosowane, głównie z powodów technicznych. Uwaga ta dotyczy zarówno katalogów kartkowych, jak i komputerowych. W przypadku zautomatyzowanych katalogów bibliotecznych duże nadzieje na zmianę tej sytuacji wiąże się z pracami nad wdrożeniem ISO 10646 [147] i UNICODE [55]. Jednakże droga od projektów i eksperymentów do rzeczywistego zastosowania jest daleka. Polscy bibliotekarze dawno przestali stosować katalogowanie w języku oryginału, na długo przed wprowadzeniem komputerów osobistych i katalogów on-line. Żadne więc względy techniczne nie są w stanie usprawiedliwić takiego postępowania. Po dzień dzisiejszy robią to Rosjanie – więc mogli by to robić również Polacy. Jeśli współpracujący z biblioteką orientalista może wpisać na karcie katalogowej fragment opisu posługując się transkrypcją, to może to zrobić również w języku oryginału. Chyba, że kierująca się względami „politycznymi” biblioteka nie chce mu na to pozwolić.

Dla uświadomienia bibliotekarzom jak niewiele potrzeba, by katalogować w języku oryginału dodamy tu, że autor niniejszej książki nie jest orientalistą, nie zna hebrajskiego, arabskiego, perskiego, japońskiego ani chińskiego i mieszka w mieście, gdzie nie ma na uniwersytecie ani jednego zakładu filologii orientalnej. Tym niemniej nie ruszając się z Gdańska był w stanie zorganizować w krótkim czasie przygotowanie w unikodzie kilku dość egzotycznych opisów w języku oryginału, będących wiernymi odpowiednikami oryginalnych kart katalogowych i nie płacąc za to nawet przysłowiowej złotówki. Prawdziwości opinii o możliwości sporządzenia opisów bibliograficznych w unikodzie nie byłby w stanie Czytelnik sprawdzić korzystając z drukowanej wersji tej książki, natomiast może to sprawdzić korzystając z niniejszej wersji online. Wszystkie powyższe oryginalne skrypty można przenieść do innego dokumentu oznaczając je blokiem a następnie stosując mechanizm „kopiuj-wklej” , co ambitny bibliotekarz może niniejszym potraktować jako zlecone „zadanie domowe”.

Droga, jaką trzeba przebyć od projektów do katalogowania w języku oryginału w ramach współczesnych systemów komputerowych nie musi być długa. Z pewnością można już na nią wchodzić, bo właściwie wszystko już jest do dyspozycji. Ci którzy chcą - po prostu już katalogują. Szanujące się biblioteki świata starają się od długiego czasu honorować oryginalny język opisu pozycji wydawniczej - już w nowej, cyfrowej technologii - nie ograniczając się do transliteracji, czy też transkrypcji. Aliprand [1992] podaje kilka dat: "...niełacińskie dane urzeczywistniły się (w formacie USMARC - przyp. JBC) z implementacją zapisów wschodnioazjatyckich w RLIN w roku 1983. Kolejnymi amerykańskimi implementacjami języków niełacińskich były: implementacja zapisów wschodnioazjatyckich w OCLC (1986), zaś w RLIN cyrylicy (1986), hebrajskiego (1988) i arabskiego (1991)". Znaczne też już są skatalogowane zasoby, choć z pewnie wiele gorzkich słów można by wypowiedzieć o ich jakości i poziomie unifikacji. Zhang i Zeng [1998] podają: Na przykład pliki bibliograficzne RLIN i OCLC zawierają ponad 30 milionów tytułów w ponad 360 językach. Ponad 1,5 miliona rekordów w bazie RLIN zawiera zapisy dalekowschodnie, cyrylicę, hebrajski i arabski. W katalogu centralnym OCLC OLUC (Online Library Union Catalog) ponad 14.000 pozycji ma rekordy w 45 językach.

Przykład katalogowania wydawnictw niełacińskich (pełen opis w USMARCu) można znaleźć w publikacji Aliprand [1992]. Dzięki uprzejmości firmy Aurora podajemy ładny, acz niekompletny (brak Etykiety Rekordu), przykład katalogowania wydanej w Korei książki pt. : "Główne zagadnienia koreańskiej ekonomii w roku 1993 i zagadnienia pokrewne".

Rysunek 36. Alternatywny opis bibliograficzny w języku oryginału. MARC 21. Opracowanie własne na podstawie materiału firmy Aurora.


245

0

0

$6880-01$a1993- nyon Hanguk kyongje ui chuyo hyonan gwa chongch'æk tæung
:$bKDI yongu sokpo moumjip.

246

3


$aCh'on-kubæk-kusipsamnyon Hanguk kyongje ui chuyo hyonan gwa chongch'æk tæung

260



$6880-02$aSeoul T'ukpyolsi:$bHanguk Kæbal Yonguwon,$c1994

300



$a315 p.:$bill.;$c26 cm.

500



$a"1994.2."

651


0

$aKorea (South)$xEconomic policy$y1960-

650


0

$aPlanning$zKorea (South)

651


0

$aKorea (North)$xEconomic conditions

710

2


$6880-03$aHanguk Kæbal Yonguwon.

880

0

0

$6245-01/$1$a1993년 한국 경제의 주요 현안과 정책 대응:$b연구속보 모음집

880



$6260-02/$1$a서울특별:$b한국개발연구원

880

2


$6710-03/$1$a한국개발연구원


Tradycyjnie możliwości operowania zapisami różnojęzycznymi w środowisku komputerowym ograniczał repertuar znaków objęty jednolitym kodowaniem. Jeśli dwa języki należały do dwóch różnych repertuarów znaków (a więc np. przypisujących ten sam kod do różnych znaków), to aplikacja mogła odmówić usługi. Tak np. wczesne wersje węgierskiego oprogramowania do rozpoznawania znaków Recognita na pozwalały na rozpoznawanie tekstu zawierającego mieszaninę słów polskich i szwedzkich. Te dwa języki nie mogły obok siebie być rozpoznawane. Zagadnienia te były omówione wyżej przy normach ISO 8859-x. Jednak w wielu przypadkach istniała możliwość posłużenia się mechanizmem przełączania repertuarów znaków zdefiniowanym przez normę ISO 2022. W szczególności dotyczyło to bibliograficznych baz danych. USMARC zarezerwował pole zmiennej długości 066 na umieszczenie informacji o stosowanych repertuarach znaków. Powtarzalne pole 880 przeznaczone jest na przechowywanie alternatywnej reprezentacji graficznej opisu podanego w innym polu. Niestety, mechanizm przełączania repertuarów znaków z konieczności musi posługiwać się kodami kontrolnymi. Przeto bez specjalnego oprogramowania taka informacja bibliograficzna jest bardziej zniechęcająca niż zachęcająca. Zhang i Zeng [1998] piszą wprost: W podsumowaniu, bez Unicode'u użytkownicy mogą potrzebować różnego oprogramowania i różnych terminali aby wyświetlić czy wprowadzić dane w różnych językach, szczególnie wtedy gdy ma się do czynienia z więcej niż kilkoma zapisami, zwłaszcza zapisami niełacińskimi. To może być do przyjęcia dla pewnych aplikacji komputerowych, ale z pewnością nie jest do zaakceptowania dla czytelników biblioteki. Najbardziej właściwym rozwiązaniem jest tu przejście na kodowanie w ISO 10646 (Unicode). Aliprand [1999] gorąco zachęca narodowych redaktorów przepisów katalogowania do rewizji aktualnie ich używanych wersji pod kątem widzenia dostosowania się do możliwości nowych technologii. Dobrze jest oczywiście mieć na względzie fakt, że MARBI już szczegółowo przedyskutowało wszystkie "za" i "przeciw" migracji do Unicode w ramach USMARCa (http://lcweb.loc.gov./marc/marbi/1998/98-18.html). Szczegóły ustaleń podane są w cytowanym dokumencie MARBI. Z ustaleń komisji wiemy, że uzgodniono następujące zasady zmian:


W wyniku podjętych decyzji w formacie MARC 21 schemat kodowania znaków został przeniesiony do Etykiety Rekordu pozycja 09 (http://www.loc.gov/marc/bibliographic/ecbdldrd.html). Z punktu widzenia zarówno bibliotekarza, jak i użytkownika należy jeszcze zreferować stan propozycji w zakresie szeregowania wielobajtowych łańcuchów kodowanych w UTF-8. Wkrótce po opublikowaniu specyfikacji UNICODE 3, Davies i Whistler [2001] opublikowali algorytm porównywania łańcuchów unikodowych. Algorytm ten rozwiązuje wielką liczbę problemów w skali wszystkich języków. W szczególności zapewnia porządkowanie alfabetyczne, diakrytyki (wszystkich poziomów) oraz dużych i małych liter. Ma on jednak pewne cechy, które będą wymagały rozwiązania. W szczególności:

  1. nie gwarantuje odwracalności do stanu sprzed sortowania
  2. nie zapewnia formatowania numerycznego
  3. nie specyfikuje żadnego API
  4. nie dostarcza prostych mechanizmów do obsługi stop-listy

O tym, że to wszystko jest do zrobienia już dziś, świadczy unikodowa bibliograficzna baza danych, oraz unikodowe konwersje oferowane przez Research Library Group swoim członkom (http://www.rlg.org/r-focus/i47eureka.html). Dobrze, że do oglądania tej bazy nie jest już potrzebne specjalne oprogramowanie, by ujrzeć ją w całej urodzie malowniczego Orientu. Po prostu wystarczy dobra przeglądarka WWW.

Jednak posługiwanie się standardem Unicode do reprezentacji alternatywnego opisu w języku oryginału – choć ze wszech miar pożądane – często nie jest konieczne. Świadczą o tym katalogi zbiorów orientalnych udostępnione sieciowo przez biblioteki użytkujące system Allegro. W charakterze przykładów wymienimy tu Bodleian Library z Oxfordu (http://www.bodley.ox.ac.uk/dept/oriental/allegro.htm) oraz Staatsbibliothek zu Berlin – Preußischer Kulturbesitz (http://ead.sbb.spk-berlin.de:8080/cat.html). Mimo operowania narodowymi repertuarami znaków dalekowschodnich (kodowanie Big-5 dla chińskiego oraz EUC dla japońskiego) ideogramy są znakomicie dekodowane przez współczesne przeglądarki internetowe, a co ważne – dopuszczają wykorzystanie 7-bitowych kodów ASCII cennie uzupełniających opis bibliograficzny.

Z powyższego widać, że funkcjonująca w bibliotekach wielojęzyczność zasobów podzieliła społeczność bibliotekarzy na dwie grupy, stosujące odmienne podejścia w opisie bibliograficznym. W przebadanych rozwiązaniach zarysowały się kolejne podpodziały wyznaczone przez zaimplementowane standardy (japoński: EUC, JIS, Shift-JIS, Unicode; polski: ISO 8859-2, CP 1250, Mazovia, Unicode; rosyjski: KOI-8, ISO-8859-5, CP1251, Unicode).

Próby zaagitowania środowiska bibliotekarzy do katalogowania w języku oryginału często sprowadzają się do werbalizacji problemu, bez praktycznej demonstracji własnych lub choćby cudzych dokonań. Ostatnio Chachra [2001] w swoim wystąpieniu na temat globalizacji i standardu Unicode, na 5 ilustracji (zrzuty ekranu z klienta VTLS Virtua oraz przeglądarki internetowej korzystającej z Virtua Web Gateway) nie podał ani jednego przykładu demonstrującego współegzystencję zapisów orientalnych i europejskich w jednym rekordzie bibliograficznym, czy dokumencie pełnotekstowej bazy dostępnej przez Z39.50. Można mieć nadzieję, że prezentowana w niniejszej książce egzemplifikacja aktualnych możliwości stosowania unikodu w systemach cyfrowych zachęci i ośmieli polskich bibliotekarzy do odważniejszego i czynnego wdrożenia tego standardu.

Metadane

Powyżej zostało pokazane, że elektroniczny dokument cyfrowy ma dwie podstawowe postaci: źródłową i prezentacyjną. Czytelnik spostrzegł, że w dokumencie żródłowym umieszczona jest znaczna ilość informacji, niewidocznej w postaci prezentacyjnej dokumentu. W głównej mierze jest to informacja związana z formatowaniem dokumentu. Jednak fakt podziału zawartej w dokumencie informacji na ujawnianą i ukrywaną można wykorzystać dla dodatkowego opisu dokumentu. Tego rodzaju opis to w uproszczeniu mówiąc, dane o danych. Posługując się terminem wprowadzonym przez Tarskiego [1936] będziemy mówili o wprowadzaniu do dokumentu metadanych (ang. metadata). Nie ma jakiejś specjalnej potrzeby szczegółowego przybliżania polskim bibliotekarzom celów tworzenia metainformacji. Zagadnienie to zostało obszernie zreferowane przez Bożennę Bojar [1976], a dekadę później przywołane przez Annę Sitarską [1987] – ze szczególną intencją promocji idei wzbogacenia informacji o tekstach w danych bibliograficznych. Krótki komunikat na ten temat przedstawił ostatnio Marek Nahotko [2001].

Duch metadanych ożywa w szczególny sposób w czasach żywiołowego rozwoju cyfrowych publikacji elektronicznych. W stosunku do znakomitej większości tych dokumentów dość łatwo jest określić autora i tytuł. Na ogół są ogromne trudności z ustaleniem daty powstania dokumentu, niemal kompletnie brak informacji o czasie i zakresie wprowadzonych do pierwotnego dokumentu zmian. Nie ma najmniejszych szans na pełne uzupełnienie tych danych w Internecie (ponad 2 miliardy dokumentów indeksowanych w 2002 roku ). Warto jednak zachęcać autorów nowych dokumentów do wprowadzania metainformacji.
W poniższym przykładzie wykorzystane zostaną zalecenia The Dublin Core Metadata Initiative oraz Nordic Metadata Project (http://www.lub.lu.se/cgi-bin/nmdc.pl) . Dużą liczbę użytecznych hiperłączy do stron oferujących formularze do generacji metadanych można znaleźć pod adresem: http://dublincore.org/tools.

Rysunek 37. Wypełnianie formularza Nordic Metadata Project

Nordic Metadata Project

Wybrany formularz nie obsługuje standardu Unicode, ale jest wystarczająco użyteczny, by przy drobnych modyfikacjach móc się nim posłużyć. Przy okazji warto odnotować fakt niedoceniania przez twórców formularzy potrzeby obsługi standardu Unicode przy generacji metadanych. Można przypuszczać, że jedną z przyczyn braku takiego zainteresowania jest brak tej obsługi w systemach wyszukujących wszystkich dawnych systemów (Lycos, yahoo, AltaVista). Dopiero Google zaoferował pełne indeksowanie i wyszukiwanie metadanych kodowanych w tym standardzie. Ta sytuacja może się zmienić za jakiś czas, ale na razie oferta jest bardzo ograniczona.
Końcowym produktem pracy systemu formularza są metadane, które użytkownik zamierza wbudować do swego dokumentu. Na potrzeby uzupełnianego tu artykułu Łatyszewa konieczne jest wprowadzenie w wygenerowanych wyżej metadanych kodowania zgodnego z dokumentem (Unicode), a dodatkowo na potrzeby niniejszego opracowania wprowadzony zostaje kolor fontu ułatwiający semantyczną analizę metadanych. Oto uzyskane metadane:

<META NAME="DC.Title" CONTENT="САХАЛИН В СУДЬБЕ БРОНИСЛАВА ПИЛСУДСКОГО">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#title">
<META NAME="DC.Creator.PersonalName" CONTENT="ЛАТЫШЕВ Владислав Михайлович">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#creator">
<META NAME="DC.Creator.PersonalName.Address" CONTENT="sakhmus@snc.ru">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#creator">
<META NAME="DC.Subject" CONTENT="Bronislaw Pilsudski">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#subject">
<META NAME="DC.Subject" CONTENT="Бронислав Пилсудский">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#subject">
<META NAME="DC.Subject" CONTENT="Сахалин">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#subject">
<META NAME="DC.Subject" CONTENT="Sakhalin">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#subject">

<META NAME="DC.Type" CONTENT="Text.Article">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#type">

<META NAME="DC.Identifier" CONTENT="http://panda.bg.univ.gda.pl/ICRAP/ru/latyshev.html">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#identifier">

<META NAME="DC.Identifier" CONTENT="(SCHEME=ISBN) 5-900334-02-3 (Т. 1)">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#identifier">

<META NAME="DC.Language" CONTENT="(SCHEME=ISO639-1) ru">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#language">
<META NAME="DC.Date.X-MetadataLastModified" CONTENT="(SCHEME=ISO8601) 2002-07-03">
<LINK REL=SCHEMA.dc HREF="http://purl.org/metadata/dublin_core_elements#date">

Dokument. O nieskuteczności typologii w czasach rewolucji

W niniejszej pracy podjęta została próba uściślenia zakresu posługiwania się pewnymi terminami. W niniejszym rozdziale szczególna uwaga zostanie poświęcona możliwym zakresom znaczeniowym terminu ‘dokument’ i sprecyzowaniu w jakim sensie termin ten będzie rozumiany na łamach niniejszej książki. Przed rozpoczęciem omawiania dokumentów cyfrowych, przedyskutowane zostanie kilka spraw związanych z dokumentami tradycyjnymi. Zwrócona przy tym będzie uwaga na trudności występujące zarówno przy definiowaniu dokumentu tradycyjnego, jak i całego szeregu jego form przejściowych do świata cyfrowego. Przy okazji podjęte zostaną pewne próby przedyskutowania zakresów znaczeniowych kilku używanych obecnie terminów. Należy powątpiewać w szansę znalezienia zadawalającego rozwiązania na łamach tej książki. Raczej należałoby przyjąć, że poniższe rozważania mogą skłonić kilka osób do rezygnacji z nadużywania w publikacjach pewnych terminów. Chodzi tu głównie o terminy współczesne, związane z zastosowaniem nowoczesnych technologii w bibliotekach. Nowe, wpadające łatwo w ucho i stylizowane na nowoczesność terminy (e-mail, e-business, e-conference, e-book, e-document, e-signature, virtual library, electronic library, digital library) tworzono na Zachodzie z wielką łatwością, lecz bez starań o precyzyjne ich zdefiniowanie. Okazuje się, że dopisanie drobnych dwóch znaków ‘e-’ do znanej od stuleci nazwy dramatycznie zmieniło dobrze ustaloną sferę opisową pierwowzoru, wprowadzając dezorientację, a nawet wstrząsając podstawami poczucia bezpieczeństwa szerokich mas społecznych, wychowanych i wykształconych na pożywce tradycyjnych technologi. Nie ma w tym nic zaskakującego. Przełomy rewolucyjne – zarówno wojskowe, jak i technologiczne – wywierają wielki wpływ na funkcjonowanie społeczeństw i używane przez nie języki. Jakże skrupulatnie, a zarazem obrazowo zreferował Victor Klemperer [1983] deformacje utartych znaczeń języka niemieckiego, jakie ujawniły się w ciągu kilku zaledwie lat istnienia Trzeciej Rzeszy. Podobnie ciągle jeszcze odczuwamy w naszym kraju obecność śladów komunistycznej ‘nowomowy’ w życiu codziennym. Uważne prześledzenie i analiza zmian terminologii staje się ważnym zadaniem w obecnym okresie ponadnarodowych integracji. Ostatnio ukazała się u nas wartościowa rozprawa Dariusza Grygrowskiego Dokumenty nieksiążkowe w bibliotece (Grygrowski [2001]), obszernie dyskutująca liczne nieścisłości i niekonsekwencje terminologiczne odnotowane przez niego zarówno w literaturze krajowej, jak i zagranicznej. Badania Grygrowskiego zmierzały jednak nieco innym kierunku, niż podjęte w ramach niniejszego opracowania. Niebywałe możliwości dnia dzisiejszego zaczynają nasuwać wątpliwości co do tego, jak długo możemy używać dobrze znanego terminu w procesie migracji technologicznej. Terminologia prawnicza nie nadąża za rozwojem technologii nie tylko u nas, ale również w USA. Rozwój ten nieustannie stawia prawników w dwuznacznej sytuacji.

Rozważmy następujący przypadek. Pod nazwą książka mówiona rozumiano przez długie lata nagranie magnetofonowe głosu lektora czytającego książkę na użytek inwalidów wzroku. Z biegiem czasu pojawiła się technologia zapisu dźwięku na dyskach CD o jakości nieporównywalnie wyższej, niż zapewniała to taśma magnetofonowa. Wydaje się, że bez specjalnych oporów termin książka mówiona można przenieść i na tą platformę technologiczną. Jednak już od jakiegoś czasu potrafimy taki głos skonwertować do wersji cyfrowej, usunąć szumy i skażenia oryginalnego nagrania i wreszcie skompresować, by wyjściowy plik zajmował możliwie mało miejsca na dysku. Taki plik, np. w formacie MP3, możemy odsłuchać na domowym komputerze przy pomocy jakiejś przeglądarki (a właściwie przesłuchiwarki) plików audio, powiedzmy popularnego WinAmp’a. Tu już sytuacja zaczyna być bardziej skomplikowana. W zasadzie wyjściowy plik został utworzony z jakiegoś oryginalnego nagrania książki mówionej - wiec niby wszystko jest OK! Właściwie można pogodzić się i z cyfrowym czyszczeniem oryginalnego nagrania. Ale problemy zaczynają się z formatem MP3. Ta technologia kompresji - jakkolwiek świetna - nie jest bezstratna! Bowiem w delikatny, nawet formalnie niezauważalny sposób usuwamy pewne elementy oryginalnego nagrania. Cechy funkcjonalne utworu zostają, choć tym razem re-edycja utworu może pociągnąć za sobą chęć czytającego aktora do uważnej inspekcji całego nagrania. Wykonawca utworu (lektor) może nie godzić się na taką maniulację jej/jego głosem. I to prawo trzeba respektować.

Jednak prawdziwy problem zaczyna się, gdy przechodzimy do najbardziej nowoczesnej technologii książki mówionej - syntezy mowy. Współczesne metody syntezy mowy, których najlepszym przykładem jest konkatenacja difonów opracowana w ramach projektu MBROLA, do skonstruowania syntezatora potrzebują tylko jednokrotnego odczytania standardowego tekstu przez lektora. Mówiąc w uproszczeniu, przetworzony wzorcowy głos z jednej strony zostaje ‘zużyty’ na wykonanie bazy difonów oraz informacji prozodycznej, z drugiej zaś - posłuży do rozpoznania cech intonacyjnych lektora. Końcowy produkt jest pakietem oprogramowania, pozwalającego w niezwykle wiernym stopniu przekształcić wybrany ‘spod dużego palca’ tekst w znajomy głos, czytający ten tekst całkowicie bez świadomości i fizycznego udziału właściciela głosu! W takich warunkach dowolny plik tekstowy staje się książką mówioną przez tego aktora, którego wybierzemy sobie z puli dostępnych głosów syntezatora. Więc może dziś wieczorem Ogniem i mieczem poczyta nam Andrzej Łapicki a zaraz potem córka posłucha sobie do poduszki Ani z Zielonego Wzgórza w wykonaniu Krystyny Czubówny.

Z jednej strony jest to fakt fascynujący, odkrywający wspaniałe możliwości uczestnictwa niewidomych w życiu publicznym. Z drugiej strony zauważamy tu jednak kolejną komplikację w definiowaniu kolejnej wersji książki mówionej. W związku z technologią budowy syntezatorów mowy i sposobem ich użytkowania, automatycznie nasuwa się nam bowiem nieodparta konieczność przyjęcia koncepcji dokumentu rodzicielskiego i dokumentów potomnych - zupełnie identycznie, jak to ma miejsce np. z procesami w systemie operacyjnym UNIX. W powyższym przypadku dokumentem rodzicielskim jest próbka głosu lektora użyta do skonstruowania syntezatora mowy [58], zaś dokumentami potomnymi są wszystkie zarejestrowane odczytania plików tekstowych przy pomocy danego syntezatora. W kategoriach produkcji mamy tu:

<plik tekstowy 1> + <syntezator mowy> => <utwór 1> ==> <dokument 1>
<plik tekstowy 2> + < syntezator mowy > => <utwór 2> ==> <dokument 2>

Oznaczenie <utwór> nie oznacza tu jeszcze dokumentu potomnego, ponieważ symbol ‘=>‘ określa zaledwie akt interpretacji tekstu przez syntezator. Tego rodzaju interpretacja może być przedmiotem dochodzenia praw autora tekstu (lub jego spadkobiercy) oraz lektora (wykonawcy), który użyczył lub odsprzedał swój głos na potrzeby konstrukcji syntezatora. Jednak aby sądowe dochodzenie czy interpretacja miała miejsce, musi być udokumentowane - zatem dopiero zarejestrowany utwór dźwiękowy staje się dokumentem, i dopiero ten może stanowić podstawę do roszczeń autorskich/wykonawczych. Sam fakt istnienia na jakimś komputerze obojga dokumentów rodzicielskich (tzn <pliku tekstowego> oraz < syntezatora mowy >) jeszcze nie implikuje, że kiedykolwiek miała miejsce interpretacja tekstu - czyli odtworzenie utworu. W tym myślowym eksperymencie należy rozdzielić okoliczność uzyskania pliku tekstowego od okoliczności jego interpretacji za pomocą syntezatora mowy. Ta pierwsza może być wynikiem zarówno ‘dozwolonego użytku’, jak i ‘nielegalnego naruszenia praw przedruku’ i dotyczy wyłącznie praw właściciela praw przedruku (wydawca, autor). Ta druga natomiast rozszerza obszar roszczeniowy o interesy ‘dawcy głosu’. Na polimorfizm dokumentu zaczyna nakładać się mozaika podmiotów prawnych, roszczących sobie prawa udziału w zysku z tytułu wniesionej przez nie wartości dodanej.

Z drugiej jednak strony - wobec pleniącej się na świecie zarazy nadużyć i przestępstw - technologia syntezy mowy może grozić ‘dawcy głosu do syntezatora’ nieobliczalnymi w skutkach konsekwencjami. Czy doczekamy się tego, że w tym niemoralnym świecie głos będzie zapisywany na cele publiczne wyłącznie w spadku, z zastrzeżeniem „do użytku wyłącznie po śmierci ofiarodawcy”? Czy zatem, oprócz agencji i stowarzyszeń autorskich: syntetycznym głosem poważniej interesować się będą również służby kryminalne?

Czy należy oczekiwać próby kontrolowania użycia i odpłatności każdego pojedynczego wykorzystania syntetycznego głosu danego lektora? Jak to nadzorować? Dziś jeszcze nie sposób przewidzieć rozwoju wypadków na tej scenie.

O tradycji

Podejmując się zadania prześledzenia losów nowych technologii, które coraz żwawiej wkraczają do bibliotek, wypada nam jakoś odróżnić ‘nowe’ technologie od ‘starych’. By uniknąć pejoratywnych konotacji, zwrot ‘stary’ zastąpimy zwrotem ‘tradycyjny’ i będziemy zmierzali do przyjrzenia się gromadzonym w bibliotekach zasobom z punktu widzenia kategorii dokumentu. Znacznie łatwiej podjąć decyzję, dotyczącą tego, co bylibyśmy skłonni uważać za dokument, niż określić co wpada w przedział czasowy, sugerowany terminem: tradycyjny. Dla odbiorcy tych słów tradycją jest to, co zostaje mu przedstawione w procesie wychowania jako fakt istniejący i zakotwiczony gdzieś w przeszłości. Dla polskiego czytelnika w wieku przedemerytalnym telewizja nie może być tradycyjną metodą przekazu, ponieważ nie istniała, gdy w latach pięćdziesiątych kończył obowiązkową szkolną edukację. Ale dla dzisiejszego absolwenta uniwersytetu telewizja jest już rzeczywistością, w której wyrósł i wykształcił się. Nie przyjmiemy jednak tej kuszącej skądinąd możliwości tworzenia dychotomii w oparciu o kryterium pokoleniowe, np. uznając, że głównym adresatem książki jest obecne pokolenie studenckie. Zamiast tego uznamy, że prawdziwą rewolucję technologiczną zamkniętego już tysiąclecia wyznaczył Internet. Nie ulegniemy przy tym pokusie przesunięcia początku skali do daty publikacji protokołu Hyper Text Transfer Protocol (HTTP) przez konsorcjum W3C, czy też udostępnienia za darmo światu przez NCSA pierwszej graficznej przeglądarki Mosaic - dwóch kamieni milowych dzisiejszego sukcesu Internetu. Zbyt wiele ważnych projektów zostało jednak wcześniej zainicjowanych przez Projekt DARPA i dlatego ta data (1968) będzie w dalszej części tego wykładu uważana za punkt podziału technologicznego. Tak więc do technologii tradycyjnych zaliczymy wszystkie technologie, które zostały opracowane (nie zaś zaadoptowane) przed rokiem 1968. W tym na przykład sensie, technologia odkwaszania papieru [59] jest technologią tradycyjną, ponieważ sam proces odkwaszania jest znany w chemii już od bardzo dawna.

O dokumencie

Z kolei zajmijmy się samym dokumentem. Definicja terminu dokument - podobnie jak terminów dzieło czy utwór – od wielu lat podlega najróżniejszym rewizjom. Gdyby ta terminologia wraz z jej semantyką była łatwa do zdefiniowania, to ustawy o prawach autorskich nie były by tak trudne do sformułowania i nie musiały by być często nowelizowane. Trudno się temu dziwić. Przypomnijmy jak słynąca ze swej precyzji matematyka zgrabnie unika definicji: Badania matematyczne opierają się na pojęciu zbioru. Nie będziemy zbioru definiowali, podajemy jedynie kilka przykładów. [Mostowski, Stark 1958: 7]. W obszarze terminologicznym najbliższym polskim bibliotekarzom w podobny sposób pisze Barbara Sordylowa [1987:37]: Dokumenty są przedmiotem zabiegów typologicznych i klasyfikacyjnych. To prawda, jednak propozycja ta nie daje możliwości rozróżnienia co jest dokumentem, a co nim nie jest. Bardziej szczegółowej definicji można oczekiwać tam, gdzie pojęcie to ma znacznie lepiej wykrystalizowany zakres znaczeniowy: u dokumentalistów i prawników.

Pojęcie dokumentu funkcjonujące w dzisiejszej dobie ma zakresy znaczeniowe uzależnione od środowiska, które się nim posługuje. W wydawnictwach encyklopedycznych dominuje orientacja prawnicza. Przyjrzyjmy się takiemu opisowi. W Dictionary of Contemporary English znajdujemy co następuje: ‘dokument /.../ kawałek papieru który daje oficjalną pisemną informację o czymś’ [Longman 1995:397]. Nie trudno zrozumieć, że w sferze kultury definicja taka jest zdecydowanie za wąska. Jak widać ogranicza się ona do pisanej dokumentacji na papierze. Tak to mniej więcej ujmuje indyjski teoretyk Ranganathan [1963], ale jego argumenty są miejscami tak naiwne, że nie trudno je od razu odrzucić. Uzależnianie faktu bycia dokumentem lub nie, od płaskości nośnika, na którym zapisana jest informacja, jest argumentem nie do przyjęcia. Szelakowa płyta gramofonowa z początku tego wieku (żeby nie wspomnieć o współczesnym nam hologramie) jest bardziej płaska, niż zapisane na ręcznie czerpanym papierze nadanie królewskie z XV wieku.
Są jednak definicje traktujące dokument na znacznie szerszej płaszczyźnie. Świetny przegląd podejść do tego tematu dał ostatnio Michael Buckland [1997]. Autor ten dyskutuje szereg prac, które już 70 lat temu wychodziły poza tekstową definicję dokumentu. Wśród nich godnymi uwagi są opracowania Paula Otlet [1934], Suzanne Briet [1951] oraz Waltera Schürmeyera [1935]. W tym miejscu autor niniejszej książki pragnie dać wyraz swojego szczególnego zauroczenia fundamentalnym dziełem Paula Otlet Traité de documentation i wyrazić żal, że nigdy nie zostało ono przetłumaczone na język polski – z wielką szkodą dla polskich bibliotekarzy.

Przechodząc do meritum sprawy warto odnotować, że w swym analitycznym artykule Buckland jeden jedyny raz kursywą wyróżnia podsuniętą przez Briet prowokującą definicję: Antylopa jako dokument. Może zatem i warto przytoczyć tu sześciowierszową tabelkę będącą syntezą przemyśleń Briet:

Tabela 16. Relacja pomiędzy obiektem i dokumentem wg. Briet. Źródło: Briet [1951:7].

OBIEKT
DOKUMENT ?
Gwiazda na niebie
nie
Fotografia gwiazdy
tak
Kamień w rzece
nie
Kamień w muzeum
tak
Zwierzę na wolności
nie
Zwierzę w ZOO
tak

Zatem w sensie Briet kamyk z plaży w Hawrze ofiarowany ponoć przez Mickiewicza pani Klustin jest dokumentem: Nie zostal przeze mnie podniesiony z ziemi. To muzealny eksponat, a więc kamień już przez kogoś „wybrany”, kamień któremu z jakichś powodów przypisano niezwykłą rangę. (Rosiek [1998]).

Wydaje się, że do terminu ‘dokument’ można zastosować bardziej elastyczne ujęcia, niż to prezentuje Briet. Nie wydaję się być sensowne, by uznanie świątyni Abu Simbel za zabytek - a więc swojego rodzaju dokument epoki faraonów - było uzależnione od przeniesienia go do muzeum w Kairze.

Do dokumentów należałoby więc również zaliczyć obiekty pozostawione w miejscu ich odkrycia, ale celowo wyodrębnione przez człowieka przez nadane im rangi dokumentu czy zabytku. W myśl powyższego dokumentem staje się również szkielet dinozaura pozostawiony na terenie wykopalisk (jak w miejscowości Dinosaur w stanie Utah), ale przecież także i świątynia Hatszepsut, i zabytkowy uschły dąb w Chełmnie oznaczony tabliczką Pomnik przyrody. I równie dobrze dokumentem jest kamień przeniesiony z Rosetty do British Museum, jak i petroglify pozostawione na miejscu odkrycia w pobliżu Carschenna (Szwajcaria).

Do tej definicji znacznie bardziej ogólnie podszedł wcześniej Schürmeyer [1935:389]. Już w 1935 r. pisał on: Pod nazwą Dokument człowiek dzisiejszy rozumie każdą materialną podstawę do rozszerzenia naszej wiedzy, dostępną do badań lub porównań. Definicja ta wydaje się bardzo dobrze obejmować wszystko, co w dalszym ciągu będziemy określać mianem dokumentu tradycyjnego, nadto wydaje się, że stanowi ciekawy punkt wyjścia do definicji dokumentu elektronicznego, a następnie dokumentu cyfrowego.

Przyjrzyjmy się policyjnej ekipie dochodzeniowej na miejscu przestępstwa. Kilku specjalistów od różnych profili dokumentów przeprowadza inspekcję gruntu, budynków, ogrodzeń, roślinności. Od ich doświadczenia w zakresie gromadzenia dokumentów zależy skuteczność dalszego przebiegu dochodzenia. Odcisk palca na klamce, kilka włókien zaczepionych na sztachecie płotu, popiół strząśnięty z papierosa, zwykły kamień leżący na skraju drogi - wszystko to może stać się dokumentem na skutek decyzji jednego specjalisty (choć jeszcze nie dowodem w inkryminowanej sprawie). A czyż inaczej jest w archeologii, paleontologii czy epidemiologii? Warto to podsumować.

Można by przyjąć bez większego ryzyka, że dokumentem (w klasycznym, tradycyjnym rozumieniu tego słowa) staje się pewien obiekt, pozwalający na powtarzalne badanie, i uznany za takowy przez pewną grupę opiniotwórczą, zdolną nadać bieg prawny swojemu osądowi, a często również wesprzeć od strony gospodarczej legislacyjny aspekt swej opinii.

Gwiazda na nieboskłonie w sensie definicji Briet nie jest dokumentem, w sensie definicji Schürmeyera jest dokumentem (z pewnością jest to obiekt materialny dostępny do badań i porównań), w sensie powyższej definicji może być dokumentem – pod warunkiem, że uzna go za takowy jakaś grupa opiniotwórcza.

Dokument nie musi mieć charakteru unikalnego. Jeśli np. jakaś umowa, czy porozumienie sporządzane jest w dwóch czy więcej, jednobrzmiących egzemplarzach, to wszystkie te egzemplarze zachowują w równej mierze atrybut bycia dokumentem. W identycznym stopniu zasada ta dotyczy dokumentów o innym charakterze.

Dokument tradycyjny wykonany z określonego materiału ma swoje wymiary fizyczne, choć nie musi mieć regularnego kształtu. Niekiedy możliwa jest jego replikacja/falsyfikacja, choć w przypadku odpowiednio dużego meteorytu jest to raczej niemożliwe. W przypadku niewielkich obiektów obecne technologie pozwalają często nawet na bardzo wierne odtworzenie fizycznego wyglądu oryginałów. Możliwa (choć bardzo kosztowna) jest również precyzyjna identyfikacja specyficznych cech dokumentu tradycyjnego na poziomie molekularnym, a nawet (w przypadku metalowych dokumentów) - atomowym. Tego rodzaju identyfikacja jest uzasadniona w stosunku do niezwykle cennych, rzadko spotykanych na rynku antykwarycznym, dokumentów.

Dokument tradycyjny. Kilka przykładów i kilka przemyśleń.>

Od tysiącleci człowiek pozostawia po sobie materialne obrazy wytworów swego intelektu. Zwłokom zmarłych, składowanym najpierw w pieczarach, potem w prymitywnych grobach, wreszcie w kunsztownych grobowcach, towarzyszą stroje, malowidła, przedmioty codziennego użytku, testamenty. Można przy tym śmiało powiedzieć, że już starożytni Egipcjanie osiągnęli wysoki poziom sztuki konserwatorskiej dla zapewnienia trwałości składowanych obiektów.

Wiele antycznych przedmiotów, które doczekały do naszych czasów, wytyczone miało cele transcendentne. Miasta czy zespoły świątynne projektowane na planie gwiazdozbiorów, kalendarze wykuwane w kamieniu, sylwetki rzeźbione w marmurze, alabastrze czy odlewane z brązu, wizerunki malowane na drzewie, szkle czy haftowane złotą nicią na płótnie, teksty zapisywane na papirusie, papierze i pergaminie, melodie wbijane młotkiem w bębny pozytywek - najczęściej pozerkiwały w niebo. Ale z wolna, niejednokrotnie jeszcze za życia ich twórców, stawały się wielkopańskimi darami a niezadługo potem przedzierżgały się w obiekty szerszego pożądania, rabunku, wymiany. Z postępującą sekularyzacją społeczeństw i wzrostu siły i znaczenia władzy cywilnej przyspieszał się proces komercjalizacji dóbr kultury i zmiany ich właścicieli.

Znakomita większość tego, co oglądamy dziś na własne oczy w muzeach i bibliotekach, jest obrazem przetworzonym przy zmieniającym się udziale osobowości i wyszkolenia dokumentalisty zwanego niekiedy rzemieślnikiem, niekiedy zaś twórcą lub artystą. Nasze bezcenne eksponaty niejednokrotnie bardziej stanowią obraz, jaki artysta lub zamawiający chciał widzieć, niż oddają to, jak coś naprawdę wyglądało, czy brzmiało.

Jeszcze zbyt słabo zbadane są starożytne źródła historyczne, by autorytatywnie orzec, na ile w przeszłości udało się w miarę wiernie udokumentować obrazy natury w postaci jakiegoś zdjęcia, czy też zapisać w jakiejś formie dźwięk. Wiadomo, że już przy dokumentacji rysunkowej miejskich zespołów Majów na półwyspie Jukatan rysownik posługiwał się urządzeniem optycznym (camera lucida), pozwalającym uzyskać wielką zgodność rysunku z oglądanym widokiem przy zachowanie dużej szybkości rysowania. Czy historia barwnej dokumentacji fotograficznej rzeczywiście ma swój początek w wynalazku płyt rastrowych Autochrome przez braci Lumière [Dubiel 1966:15], czy może zaczęła się wcześniej?

O tym, że winniśmy z pokorą podchodzić do naszej wiedzy o przeszłości, przypomina nam nie tylko pełna majestatu trwałość piramid egipskich, ale i niezwykła wzmianka we wstępie do bardzo sumiennie zredagowanej pracy rosyjskich klinicystów z zakresu irydodiagnostyki [Velhover, 1988] o przechowanych do dnia dzisiejszego kolorowych zdjęciach (!) tęczówki Tutanthamona wykonanych na aktywowanych metalowych płytkach przez nadwornego kapłana tego młodo zmarłego faraona. Ta bulwersująca wszystkich znawców współczesnych technologii wiadomość o opanowaniu przez starożytnych Egipcjan technologii otrzymywania barwnych fotografii z pewnością wymaga szczegółowych badań. Mając dodatkowo na względzie fakt, że współcześnie najskuteczniejszy środek przeciwmalaryczny został ostatnio wyodrębniony z rośliny rekomendowanej do leczenia malarii w starożytnych księgach medycyny chińskiej, nie można wykluczyć i tego, że nasi praojcowie uporali się również z zapisem dźwięku na długie stulecia przed narodzeniem Edisona i Berlinera.

Zachowała się też, w zmienionej upływem czasu formie, pewna liczba naturalnych dokumentów - milczących świadków przeszłości. Zmumifikowane przez suchy piasek, czy gorący popiół wulkaniczny szczątki ludzi i zwierząt, prehistoryczne gady w bitumicznym jeziorze, mamuty w lodach wiecznej zmarzliny. Mamy piękne okazy amonitów w skałach kredowych i niezwykle wiernie utrwalone w bursztynie owady oraz fragmenty roślin. Ale jest i Całun Turyński: płótno grobowe z zarejestrowanym niezwykłym wizerunkiem Męki. Mówiąc językiem technologicznym - jest to negatywowa odbitka stykowa z polimerycznym utrwaleniem Wizerunku, której analiza przeprowadzona przy pomocy elektronowego mikroskopu skaningowego ujawnia niezwykłą, trójwymiarową strukturę obrazu przypominającą dzisiejsze hologramy.

W barwnej palecie różnych gatunków tradycyjnego dokumentu warto wyróżnić specjalną ich klasę - zapisy muzyki mechanicznej. Heron z Aleksandrii (angielskie tłumaczenie [1851] ) nie pozostawił nam, niestety, zbyt wiele szczegółów w opisie konstrukcji swoich organów ołtarzowych. Chociaż nie zachował się żaden egzemplarz tych organów, to wiele wskazuje na to, że oprócz wykorzystywania siły wiatru do sprężania powietrza, realizował również jakiś zapis muzyki i mechaniczną automatykę; że to nie były jakieś asemantyczne dźwięki, ale odpowiednio skomponowana melodia. Być może był to jeden z pierwszych modeli sterownika z pamięcią Tylko-Czytaj (ROM - Read Only Memory), prawzór późniejszej pozytywki. Można powiedzieć, że heronowska inżynieria zapisu melodii (tzn. ułożenia piszczałek, ich geometrii i systemu przełączania strumienia powietrza) realizowała funkcje dokumentu muzycznego.

Urządzenia wykorzystujące zapis muzyki mechanicznej na bębnach, a potem na dyskach z pewnością stają się powszechne jakieś 15 stuleci później. Jest rzeczą zdumiewającą, jak wspaniałym modelem współczesnej maszyny cyfrowej z pamięcią ROM jest pozytywka. Wyprzedzając to, co godzi się być może powiedzieć przy dokumentach cyfrowych, przyjrzyjmy się temu prawdziwemu prototypowi dzisiejszych komputerów. Bęben pozytywki jest pamięcią maszyny wypełnioną wierszami sekwencyjnie zapisanych słów maszynowych. Są one zbudowne z dwuwartościowych jednostek informacji (w danej pozycji albo jest wbity kołek, albo go nie ma). Zatem ta maszyna ma arytmetykę binarną. Programowanie polega albo na wbijaniu kołka. albo na wyrywaniu go. Dekoderem instrukcji, arytmometrem oraz urządzeniem wejścia - wyjścia jest system sprężyn wydających dźwięk, czyli tak zwany grzebień W najprostszym wykonaniu pozytywki w tej pamięci mogą być tylko same dane (kod muzyki). Jeśli natomiast pozytywka ma realizować utwór o strukturze złożonej z optymalizacją pamięci (np. trzy zwrotki piosenki z refrenem zapisanym jeden raz po trzeciej zwrotce) wówczas dotychczasowa struktura bez mechanizmu skoków do procedury refrenu i identyfikacji miejsca skoku powrotnego po zakończeniu odtwarzania refrenu staje się niewystarczająca. W mechanizmach zegarowych z jednym kierunkiem obrotu bębna (jak w pozytywkach) nie zachodzi potrzeba adresowania każdego wiersza programu. Pożądany efekt osiąga się przy pomocy systemu kołków blokujących obrót bębna na początku każdej zwrotki i dźwigni odłączającej grzebień wygrywający melodię na czas cyklu szukania kołka wskazujacego początek nowej zwrotki. Widać z tego, że do rozszerzenia funkcjonalności takiej pozytywki trzeba wydłużyć słowo maszynowe o pozycje bitowe, wykorzystywane do sterowania mechanizmu.

W przypadku pozytywki dokumentem jest bęben z zaprogramowaną muzyką. Bęben ten, nasz tradycyjny dokument - zrazu niewymienny - staje się elementem wymienialnym. To co naprawdę w idei pozytywki wyprzedza epokę to fakt, że do odtworzenia zapisu na bębnie potrzebne jest osobne urządzenie, które w epoce Internetu nazwalibyśmy przeglądarką. Ale wymienialność bębnów - dokumentów jest ograniczona do danego egzemplarza pozytywki; a co najwyżej do danego producenta (manufaktury). Do standardów jeszcze daleko. Dla uzupełnienia dodamy, że pozytywka syntezuje muzykę w klasie instrumentów strunowych szarpanych, gdzie programowanie i odtwarzanie muzyki jest skwantowane.

Zbliżająca się szybkimi krokami rewolucja przemysłowa doby wczesnego kapitalizmu rzucała nowe wyzwania, które pociągnęły za sobą, jak byśmy to współcześnie powiedzieli, publikację dokumentów o nowej formie zapisu: perforacji. Motorem wymuszającym pospieszne zmiany była chęć podwyższenia zysków z produkcji i handlu. W automatyzacji rutynowych czynności upatrywano źródła szybkiej obniżki kosztów osobowych (zmniejszenie zatrudnienia) i podwyżki jakości produkcji (mniejszy procent braków produkcyjnych wywoływanych zmęczeniem robotników). W 1801 [60] roku Jacquard wprowadza sterowanie warsztatem tkackim przy pomocy kart perforowanych. Ciekawym jest, że na sterowanie grą pianina czy fortepianu przy pomocy rolki perforowanego papieru (pianola) ludzkość będzie musiała czekać jeszcze prawie sto lat. Za to po tak długim czasie jakby się otworzył worek przepełniony nowymi wynalazkami zwłaszcza w dziedzinie bezpośredniego zapisu dźwięku i na rynku pojawiają się nowe rodzaje dokumentów: fonograficzne wałki woskowe i celuloidowe, miedziane wałki negatywowe (galvanos), wreszcie płyty gramofonowe. W tym samym mniej więcej czasie udało się bezprzewodowo przesłać telegram radiowy - pierwszy prymitywny, niematerialny dokument kodowany [61] - za to od razu na tysiące kilometrów. Zrazu można go było odebrać przez słuchawki i konwertując w pamięci z alfabetu Morse 'na nasze', dyktować stenografowi. Po odkryciu sposobu wzmacniania sygnału elektrycznego, obrazem telegramu u odbiorcy stała się wąska taśma papierowa zawierająca wyłącznie kreski i kropki. A w fonografii inna sensacja: w przypadku negatywów wałków fonograficznych inwersja sygnału okazała się być niełatwym orzechem do zgryzienia dla ówczesnych inżynierów. Galvanos były używane do tworzenia celuloidowych replik wałków, ale na bezpośrednie odtworzenie dźwięku utrwalonego na negatywowych wałkach fonograficznych znowu przyjdzie ludzkości poczekać kolejne sto lat. Udało się to dopiero w roku 1999 zarówno w wersji mechanicznej jak i optycznej. Jak widać, czasem łatwiej jest zapisać jakiś dokument, niż go odtworzyć. Ta smutna prawda jeszcze nie raz da o sobie znać - i to w dość bolesnej formie.

Na zakończenie tej listy przykładów godzi się jeszcze wspomnieć o dokumencie mutimedialnym, a więc integrującym minimum trzy platformy oddziaływania na odbiorcę. W obszarze dokumentu klasycznego prym wiedzie tu film i jego formy potomne, jak telewizja. Cechą charakterystyczną dokumentu multimedialnego jest wydzielenie osobnych sekcji nośnika na rejestrację poszczególnych mediów (obrazu, dźwięku, tekstu). Widać to znakomicie na powiększeniu wycinka starej taśmy filmowej z zapisaną na jej skraju ścieżką dźwiękową. Już na pierwszy rzut oka każdy rozumie, że do odczytu ścieżki dźwiękowej potrzebny jest osobny system odsłuchu, zupełnie różny od systemu projekcji obrazu.
A więc otrzymaliśmy w dziedzictwie pewną dokumentację przeszłości: zbiór obiektów (dzieł, utworów) transcendentnego lub materialnego autorstwa, zwanych dokumentami. Spróbujmy zestawić kilka cech dokumentu tradycyjnego.

Tabela 17. Dokument tradycyjny i jego cechy (opracowanie autora)

Materiał podłożai jego trwałość
Rodzaj zapisywanej informacji
Sposób zapisu
Sposób odczytu
Uwagi
kamień
lawa wulkaniczna

bardzo duża trwałość skał krystalicznych
średnia skał osadowych
cienkie płyty kamienne wykazują znaczną łamliwość(np. tablice Dekalogu),znaczna wrażliwość skał kredowych i marmurów na kwaśne deszcze (dymy wulkaniczne, spaliny, pożary, wyładowania atmosferyczne,)
kształt (rzeźba, konstrukcja
skamielina)
rzeźbienie
ciosanie,
depozyt naturalny
wizualny
dotykowy
znaczna wrażliwość budowli antycznych na trzęsienia ziemi,
grafika (relief)
rzeźbienie
wizualny
dotykowy

grafika (malowidło)
malowanie
wizualny

tekst
rzeźbienie
wizualny
przykładowe zapisy:
Kamień z Rosetty,
inskrypcje nagrobne
ceramika
kryształy
szkło

na ogół mała wytrzymałość na udar

wysoka odporność na warunki atmosferyczne i zanieczyszczenie środowiska
kształt
modelowanie ręczne i maszynowe
wytapianie
wydmuchiwanie
szlifowanie
wizualny
dotykowy
utrwalanie wilgotnego modelu przez suszenie i wypalanie (glinki).przykład realizacji::
„Armia terakotowa”naczynia z kryształu górskiegoceramika budowlana , użytkowa i artystyczna
grafika
(relief i malowidło)
modelowanie
wytłaczanie
malowanie
emaliowanie
wypalana kalkomania
fotografia
napylanie
fotolitografia
trawienie
wizualny
kafle piecowe

selektywne trawienie fluorowodorem (mat) szkła i luster w sztuce secesyjnej

fotografia nagrobna na porcelanie
tekst
wytłaczanie
malowanie
wypalana kalkomania
fotografia
napylanie
Wizualny
Przykładowy zapis:
Kodeks Hammurabiego
metal

bardzo duża trwałość kształtu tytanu, żelazowców i platynowców, niska złota, srebra, miedzi oraz metali lekkich (glin, magnez)

Znane są procesy pasożytnicze: korozja żelaza trąd cynowy” - niskotemperaturowa przemiana alotropowa cyny prowadząca do rozsypania się metalu w szary proszek

bardzo duża wrażliwość glinu na zanieczyszczenie rtęcią.
kształt
odlewanie,
kucie
wytłaczanie wyciąganie
elektroliza
zgrzewanie
spawanie
wizualny
dotykowy
odlewane pomniki:(np. „Wilczyca karmiąca Romulusa i Remusa”)maski trumienne (złoto)
kute zbroje i oręż
elektroliza stosowana jest do tworzenia negatywowych metalowych matryc obiektów trójwymiarowych (np. wałków fonograficznych)
grafika (relief)
rzeźbienie
elektroliza
napylanie
fotolitografia
trawienie
wizualny
dotykowy
elektroliza stosowana jest do tworzenia tekstur (np. na powierzchni cyferblatów) oraz barwnych warstw ochronnych (anodyzacja)
grafika (malowidło)
malowanie
emaliowanie
elektroliza
sitodruk
wizualny
Złącze metal-emalia jest wrażliwe na duże skoki temperatury
tekst prosty i kodowany
malowanie
emaliowanie
fotolitografia
trawienie
sitodruk
wytłaczanie
wizualny
dotykowy
detekcja optyczna, mechaniczna, elektryczna
alternatywna technologia pisma brajlowskiego oferuje wytłaczanie tekstu na cienkich foliach aluminiowych
dźwięk
magnesowanie
detekcja pola magnetycznego
wrażliwość zapisu na zewnętrzne pola magnetyczne
zapis muzyki mechanicznej
wbijanie kołków w tarczę lub bęben
poprzez urządzenie odtwarzające

drewno
skorupy owoców

Duża wrażliwość na ogień. średnia odporność na wilgoć, grzyby, pleśń i szkodniki.
Wymaga dobrych warunków przechowywania oraz okresowej konserwacji

kształt
rzeźbienie
ciosanie
montaż
wizualny
dotykowy
budynki oraz stolarka użytkowa
(ozdobne klatki schodowe, meble)
rzeźba artystyczna
grafika
malowanie
rysowanie
inkrustacja
intarsja
rzeźbienie
wizualny
ikony bizantyjskie
plany miejskie Gdańska (rysunek na deskach, Bushe 1667)
stolarstwo artystyczne
tekst
rzeźbienie
malowanie
pisanie
wypalanie
wizualny
matryce drukarskie Gutenberga (obraz lustrzany tekstu)
sztuka ludowa
skóra
kształt
modelowanie na mokro
garbowanie i napalanie
wizualny
dotykowy
siodła końskie, obuwie
grafika
malowanie
rysowanie
wycinanie
wyplatanie
wytłaczanie
wizualny
dotykowy
odzież, ozdoby
tekst prosty i kodowany
malowanie
pisanie
wiązanie
wizualny
dotykowy
Pergamin jest w Europie powszechnie stosowym materiałem do pisania we wczesnym średniowieczu Inkowie przesyłali sobie komunikaty w postaci wiązki rzemieni z powiązanymi węzłami (kipu)
papier
celuloza
nitroceluloza
acetyloceluloza


(włókna roślinne mielone, naturalne i modyfikowane, materiał amorficzny na ogół o słabej anizotropii)

Niekiedy występuje dodatkowa warstwa z innego materiału
(jak żelatyna namateriałach fotograficznych).

Duża wrażliwość na ogień, a w przypadku materiałów niemodyfikowanych chemicznie również na wilgoć, grzyby i rozdarcie; znaczny udział czynnika technologicznego produkcji (kwaśny papier)
grafika artystyczna i użytkowa
malowanie
rysowanie
wycinanie
naklejanie
wytłaczanie
drukowanie
film
fotografia
puchnięcie
wizualny
dotykowy
klisze cięte, filmy i papiery fotograficzne są materiałami zawierającymi jedną lub więcej dodatkowych warstw żelatynowych w których jest zdyspergowany materiał światłoczuły (halogenki srebra) i, ewentualnie, komponenty sprzęgające do tworzenia obrazu barwnikowegopuchnięcie realizuje się pod wpływem wysokiej temperatury na specjalnym gatunku papieru,technologia ta jest stosowana do przygotowywania grafiki dotykowej dla osób niewidzących
tekst prosty i kodowany(Braille,BCD, Morse)
malowanie
pisanie
perforowanie
wytłaczanie
wizualny
dotykowy za pomocą sprzętu do detekcji otworów lub wypukłości połączona z dekodowaniem
podstawowa technologia druku brajlowskiego przewiduje wytłaczanie kodów Braille’a na papierze o podwyższonej gramaturze (pół-karton)stare typy komputerów wykorzystywały taśmy perforowane do wprowadzania zarówno tekstów programów w wersji źródłowej (do kompilacji), jak i danych do przetwarzania.
zapis muzyki mechanicznej
perforowanie
j.w. rolki papierowe do pianoli
sterowanie
urządzeniami przemysłowymi
perforowanie
j.w.
karty jacquardowskie do krosien
taśmy perforowane do sterowania numerycznego obrabiarek
tkanina,
sznury, filc,papirus

(sierść. włókna roślinne przeplatane lub wiązane)

materiały średniej trwałości, wrażliwe na wilgoć, grzyby i gryzonie
kształt
szycie, tkanie
haftowanie
wiązanie
wizualny
dotykowy
głównie ubiory i elementy wystroju mieszkań
Balony, spadochrony, sieci
grafika
szycie, tkanie, haftowanie
odbicia naturalne malowanie fotografia sitodruk
druk
wizualny
dotykowy

tekst
szycie, tkanie, haftowanie, fotografia, sitodruk, druk, pisanie ręczne
wizualny
dotykowy
papirusy egipskie
Wosk,
bursztyn,
żywice,
laki

Wysoka odporność na warunki atmosferyczne

Niska odporność na wysoką temperaturę
kształt
odlew z natury lub z formy, rzeźbienie, prasowanie, klejenie
wizualny
dotykowy
woskowe maski trumienne (negatyw),
figury woskowe,
rzeźba artystyczna
grafika
barwienie
inkrustacja
intarsja


tekst
rylec


dźwięk
rylec sprzężony z membranąwypraska z matrycy
fonograf
gramofon

Poliester

Na podłoże poliestrowe może być naniesiona dodatkowa warstwa.. Materiał wodoodporny, palny, łatwo topliwy, wrażliwy na kwasy i zasady (hydroliza)
dźwięk
obraz
magnesowanie
magnetofon
magnetowid
materiał rejestrujący ma postać taśmy z naniesioną warstwą zawierającą zdyspergowany materiał ferromagnetyczny.

Powyższe zestawienie ma stanowić pomoc w zrozumieniu proponowanych niżej definicji dokumentu elektronicznego i dokumentu cyfrowego. Niestety, nawet w obszarze klasycznego dokumentu rękopiśmiennego, czy drukowanego, zdarzają się zaskakująco błędne definicje. Dla ilustracji można tu przytoczyć proponowaną przez Bucklanda [1991:71] definicję charakterystyk zapisu informacji na papierze, mikroformach oraz w bazach danych. Dyskutując cechy zasobów [62] informacyjnych na nośniku papierowym (podkr. JBC) Buckland pisze m.in.: "Do ich odczytania nie jest potrzebne żadne specjalne oprzyrządowanie". Z dwóch względów trudno zgodzić się z taką charakterystyką: z jednej strony szansa odczytania zapisu na papierze zależy od człowieka - adresata informacji, z drugiej strony - również od sposobu zapisu (zapis może być zorientowany na odczyt sprzętowy).

Z jednej strony zaciążyła na tej definicji przynależność jej twórcy do kręgu osób widzących. Znakomita większość zbiorów bibliotecznych to teksty pisane i/lub drukowane z leksykograficznym uporządkowaniem znaków oraz ilustracje, nie dające rozpoznać się poprzez dotyk. Osoby niewidzące nie mogą odczytać tych materiałów bez pomocy do datkowych urządzeń. Niewidomi to około 0.5 % populacji ludzkiej, jednak osób z mniej poważnymi wadami wzroku jest znacznie więcej. Piszącemu te słowa nie jest znany stan wzroku Bucklanda. Być może już w chwili tworzenia swej klasyfikacji nosił on okulary nie spostrzegając, że właśnie używa specjalnego sprzętu do odczytywania informacji z tradycyjnych zasobów bibliotecznych, zapisanych na papierze. Nietrudno zauważyć, że w przeciętnej czytelni jest znaczna liczba osób noszących okulary. Znakomita ich większość tak jest oswojona z faktem używania okularów, że na ogół nie odnosi wrażenia posługiwania się "sprzętem wspomagającym". Jak na ironię, pisząc o technologiach informacyjnych opartych na papierze Buckland napisał, że cechy ich "/.../ są tak znane, że zarysowują się tendencje do przeoczania ich". To twierdzenie można zastosować do niego samego. W szczególności posługiwanie się sprzętem rehabilitacyjnym, zwłaszcza tak drobnym jak okulary, może pociągać za sobą niedostrzeganie faktu jego istnienia. W tym sensie nawet tak doświadczony teoretyk i praktyk, jak Buckland, sam padł ofiarą swoich ogólników, zalecając uważne przyglądanie się temu co się ma przed nosem, a nie temu, co się ma na nosie.

Z drugiej strony, we wspomnianej definicji brak jest precyzyjnego spostrzeżenia, że być może nie chodzi jej autorowi o samo podłoże (nośnik) informacji, ale o technologię zapisu. Gdy Buckland przed 10 laty pisał swą książkę, w każdym sklepie USA masami wyłożone były towary z nadrukowanym kodem paskowym. Ciekawe, że patrząc na pracę kasjerek w sklepach nigdy nie zauważył, że do odczytu zapisanego na papierze symbolu towarowego używany jest specjalny sprzęt, bo do zapisu posłużono się specjalną czcionką, składającą się z czarnych pasków. Podobne przypadki błędnego rozumowania spotyka się w licznych artykułach i książkach.

Dokument elektroniczny

W ramach arbitralnie tu przyjętego przedziału czasowego, w którym dokumenty nazywamy tradycyjnymi, już od stu lat wykorzystywane są różne technologie zapisu i odczytu informacji (mechaniczna, magnetyczna i optyczna). Ponad 110 laty liczy edisonowski zapis dźwięku (mechaniczne nacięcie ścieżki dźwiękowej na powierzchni woskowego walca), 100 lat magnetyczny zapis dźwięku (pierwotnie zrealizowany na drucie jako nośniku), 75 lat optyczny zapis ścieżki dźwiękowej na taśmie filmowej. Te dwie ostatnie, stare technologie realizowały praktycznie już około wiek temu jakąś formę dokumentu elektronicznego. Już wiek temu przesyłano wiadomości drogą radiową przez ocean. W zakresie rejestracji sygnału optycznego od stu lat praktycznie też nie wymyślono nic specjalnie nowego. Wszystko co dziś mamy, to w zasadzie znakomite poprawki wnoszone do znanego modelu znanych od dawna zjawisk. Najlepszym przykładem ilustrującym udoskonalenie starej fotograficznej metody rejestracji fal stojących w światłoczułych warstwach płyt lippmanowskich jest rejestracja hologramu. Wprowadzone poprawki dotyczyły głównie zmiany elementu oświetlającego przez wprowadzenia spójnych i monochromatycznych wiązek światła (lasery). Skąd zatem teraz tyle szumu w sprawie dokumentu elektronicznego?

W miarę doskonalenia narzędzi i metod badawczych udało się dość precyzyjnie poznać naturę takich zjawisk jak elektryczność, magnetyzm, światło i dźwięk i ich wzajemne relacje. Od początku też badano możliwości trwałego zapisu informacji z wykorzystaniem tych zjawisk. Od wieków znany i wykorzystywany był magnetyzm. Początek XIX wieku przyniósł nam ogniwo galwaniczne Volty, którego potomek - akumulator ołowiowy - dał się już odwracalnie naładować i rozładować, dysponował już zatem formą pamięci chemicznej. Niestety - procesy chemiczne są z natury powolne i pewną nadzieję można było pokładać w butelce lejdejskiej i jej następcy kondensatorze. Jakoż na efektywną materializację tej idei pamiętania ładunku elektrycznego trzeba było czekać aż do lat siedemdziesiątych XX wieku, gdy firma Intel opracowała pierwszą programowalną i wymazywalną pamięć półprzewodnikową EPROM. Prawdziwą rewelacją było tu odkrycie, że w zawieszonej w dielektrycznym medium bramce krzemowej tranzystora polowego można zmagazynować elektrony wstrzyknięte w trakcie kontrolowanego przebicia lawinowego i system ten cechuje tak minimalna upływność ładunku, że z pełnym zaufaniem można było to zjawisko wykorzystać do konstruowania reprogramowalnych pamięci stałych do komputerów (por. Kalisz [1977]:537). Model kondensatora okazał się skuteczny do pamiętania informacji cyfrowej dopiero w zminiaturyzowanej technologii scalonej, natomiast nieużyteczny do pamiętania informacji analogowej.

Technologia elektroniczna w jej odmianie analogowej szybko została zastosowana w praktyce, mianowicie już na początku tego wieku jako urządzenia komunikacyjne: w postaci telegrafu, potem telefonu, a później - radia i telewizji. Ale też zauważalnie szybko technologia ta została wprzęgnięta do zapisu informacji na nośniku magnetycznym (drut stalowy). To już był element umożliwiający tworzenie dokumentacji. Prawdziwą rewolucję wprowadza jednak dopiero wynalezienie tranzystora, a wkrótce i kolejnych generacji układów scalonych. Bardzo szybko miniaturyzuje się świat analogowej elektroniki użytkowej: najpierw pojawiają się kieszonkowe radia tranzystorowe, potem przenośne telewizory turystyczne, potem amatorskie magnetowidy i kamery video. Od samego początku jasnym było, że choć ważna jest sama przekazywana wiadomość, to skuteczność komunikacji krytycznie zależy od możliwości akumulacji przez odbiorcę dużej ilości informacji. Pojawiła się więc konieczność zapisu komunikatów. Telegraf pozwalał zarejestrować to na taśmie w kodzie Morse’a, jego syn - dalekopis - w postaci gotowego do odczytu tekstu drukowanego, jego wnuk - fax - był w stanie już przesłać grafikę.

Trudno jest jednak precyzyjnie zdefiniować to, co moglibyśmy uznać za dokument elektroniczny. O trudnościach towarzyszącym próbom nadania jednoznacznej interpretacji temu terminowi pisał stosunkowo niedawno Daniłowicz [1998]. Przyjrzyjmy się, jak w obszarze swych zainteresowań podchodzi do tego zagadnienia Sprague proponując krótkie definicje:

Użyty przez Sprague'a termin „elektroniczny” nie wydaje się być przekonywujący. Zachowajmy się bardziej energicznie: zajrzymy do tekstu Internet Growth and Development Act, wprowadzonego do Izby Reprezentantów Kongresu USA w 1999 r i zarejestrowanego pod numerem H.R.1685. W sekcji 101 Definicje znajdziemy pewien obszar interesujących nas terminów:
(2) ŚRODKI ELEKTRONICZNE - Termin 'środki elektroniczne' zawiera w sobie wszystkie formy komunikacji elektronicznej za pośrednictwem komputera, włączając w to komunikację telefoniczną, facsimile, pocztę elektroniczną, wymianę danych elektronicznych, łączność satelitarną, kablową i światłowodową.
.....................
(4) PODPIS ELEKTRONICZNY - Termin 'podpis elektroniczny' oznacza każdy symbol elektroniczny, lub ciąg symboli, utworzony lub przetworzony przez komputer, który w intencji strony używającej go (lub upoważnionej do jego użycia) ma mieć tą samą siłę sprawczą oraz efekt, co i ręczny podpis.

Prawie wszystkie definicje pojęć obdarzonych przymiotnikiem 'elektroniczny' odwołują się do komunikacji. Jednak nie wydaje się to konieczne. Mało tego - w pewnych przypadkach może to prowadzić do fałszywej interpretacji. Tak na przykład próba definicji postaci:

Dokumentem elektronicznym nazywamy każdy obiekt dający się przesłać w wyniku komunikacji pomiędzy komputerami mogła by prowadzić do zakwalifikowania zwykłego klucza do zamka wejściowego do drzwi jako dokumentu elektronicznego - co wydaje się być zupełnym nieporozumieniem. Bowiem w myśl przytoczonej, roboczej definicji można zaprojektować system replikowania na odległość kluczy przy pomocy frezarek numerycznych. W ramach tego hipotetycznego żartu dwoje małżonków - naukowców opuszcza dom i wyjeżdża na dwie różne konferencje międzynarodowe. Żona ma wrócić pierwsza, ale spostrzega w dzień odlotu, że przed wyjazdem nie zabrała kluczy do mieszkania, bo wyjeżdżający później mąż odwoził ją samochodem na lotnisko. Dzwoni więc do męża na komórkę: 'Skocz do United Replication Service i skopiuj mi swój klucz na oddział w Nowym Yorku. Tylko pospiesz się, bo mam samolot za 3 godziny'. Jakoż w okienku URS na lotnisku odbiera replikę mężowskiego klucza typu YALE - ale przecież to uczciwa, metalowa replika klucza, a nie żaden dokument elektroniczny, chociaż całą cyfrową transakcję załatwiły między sobą dwa komputery sterujące serwomechanizmami. Replika ta praktycznie nie posiada takiej samej struktury krystalograficznej jak oryginał, ale to nie jest ważne. W oryginale zawarta była informacja o kształcie. Tu nie jest też ważne, jaka kombinacja technologii (mechanicznej, optycznej, sonometrycznej itp.) była użyta do rozpoznania kształtu oryginalnego klucza i czym posłużono się do przesłania tej informacji. Istotne jest to, jak uzyskaną replikę bada urządzenie końcowe użytkownika - zamek w jego drzwiach. W przypadku tradycyjnego zamka YALE rozpoznaje on kształt wycięć na kluczu metodą mechaniczną, nie korzystając z rozpoznawania wzbudzonych stanów materii klucza, jakakolwiek byłaby natura tego wzbudzenia.

Koniecznością wydaje się więc oderwanie pojęcia dokument elektroniczny od pojęcia komunikacja i skupieniu się na aspekcie zapisu i odczytu informacji. Takie podejście powinno objąć to, co realizuje się w ramach wszystkich najpopularniejszych obecnie form zapisu: magnetycznej i optycznej i elektrycznej, i odwołujące się zarazem do możliwie ogólnej definicji dokumentu. W bardzo wielu punktach trafnie rozwiązuje ten temat propozycja ustawy amerykańskiej H.R. 2626 (patrz Załączniki), która przymiotnik „elektroniczny” definiuje jako: „odnoszący się do technologii mającej cechy elektryczne, cyfrowe, magnetyczne, optyczne, elektromagnetyczne, lub inne bez względu na nośnik. Autor tej propozycji niepotrzebnie wymienił osobno cechy magnetyczne i elektryczne, dalej wymieniając elektromagnetyczne, oraz niesłusznie skojarzył elektronikę z każdym rozwiązaniem cyfrowym. Tu należy przypomnieć, że stosunkowo niedawno w Wielkiej Brytanii zrekonstruowano i uruchomiono całkowicie mechaniczny komputer Charlesa Babbage’a, bez najmniejszego śladu elektroniki.

Potrzebą chwili staje się też pewna dywersyfikacja dokumentów w zależności od natury zapisu, a to z uwagi na zabiegi technologiczne mające na celu uzyskanie możliwie wysokiej trwałości zapisu.  Oto propozycja klasyfikacji, którą można wyprowadzić z powyższych rozważań:

Definicja 1
.

Dokumentem elektronicznym pierwotnym nazwiemy nie przetworzony, trwały zapis informacji naniesionej na dowolny nośnik przy pomocy fal elektromagnetycznych, a stanowiący obiekt poznania. Przykłady: utajony (nie wywołany) obraz w klasycznej fotografii na materiałach halogeno-srebrowych, nagrania na taśmach magnetycznych, dyskach optycznych wypalanych laserem i magnetooptycznych, zapis informacji w strukturach półprzewodnikowych pamięci cyfrowych programowanych elektrycznie (PROM, EPROM, EEPROM)

Definicja 2.

Dokumentem elektronicznym wtórnym nazwiemy produkt technologicznego (np. fizycznego lub chemicznego) utrwalenia niestabilnego zapisu zrealizowanego przy pomocy fal elektromagnetycznych, bez zmiany podłoża. Przykłady: klasyczna fotografia otrzymana na materiałach srebrowych po procesie wywoływania i utrwalania, fotolitografia po wypłukaniu nienaświetlonego fotorezystu, obraz na bębnach drukarek laserowych i kserografów po przeniesieniu tonera na bęben.

Definicja 3.

Dokumentem elektronicznym pochodnym nazwiemy produkt technologicznego przeniesienia pierwotnego dokumentu elektronicznego na inne podłoże z zachowaniem technologii zapisu przy pomocy fal elektromagnetycznych. Przykłady: produkt przeniesienia stanu matrycy CCD kamery cyfrowej do pamięci Flash, fotograficzna odbitka pozytywowa uzyskana z negatywu w procesie wykorzystującym naświetlanie materiału pozytywowego. Kontrprzykład: dokumentem elektronicznym pochodnym nie jest odbitka wytworzona w dyfuzyjnym fotograficznym procesie stykowym prowadzonym bez udziału światła (jak np. w starej technologii DOKUFO).

Trudno tu ocenić, czy te definicje przyjmą się, czy też nie. Podobnie jak niemal każda inna definicja, z biegiem czasu będą one odkrywać swoje wątpliwe strony.

W powyższym zestawieniu mamy zarówno przykłady zapisu analogowego, jak i cyfrowego - tu istotnym elementem jest technologia zapisu (rejestracji). W definicjach tych nie jest ważny nawet sposób odczytu: klasyczna fotografia jest rejestrowana przy pomocy fal elektromagnetycznych, jej odczyt tradycyjnie jest wizualny - a więc przez analizę odbitych od fotografii fal elektromagnetycznych. Jednak, w innym eksperymencie, można wytworzyć w warstwie fotorezystu niewidoczny dla oka obraz przy pomocy naświetlania podobnego jak w klasycznej fotografii, a następnie wypłukać nie naświetlony fotorezyst i poddać podłoże procesowi trawienia chemicznego. W wyniku tego powstanie relief, który może być badany dotykowo i to zarówno przez osoby widzące, jak i niewidzące. A więc w tym drugim przypadku, obraz pewnej rzeczywistości naniesiony w pomocą fal elektromagnetycznych po przetworzeniu (trawienie) może być dalej badany bez udziału fal elektromagnetycznych, np. mechanicznie. Jeżeli w wyniku kolejnych operacji technologicznych zachowana zostaje oryginalna warstwa, w której został wytworzony przy pomocy fal elektromagnetycznych pierwotny obraz, to nadal dokumentowi winien przysługiwać przymiotnik "elektroniczny". Nie będą natomiast dokumentami elektronicznym takie produkty. jak wydruk z drukarki laserowej, czy kserokopia. Będą to zwykłe dokumenty pochodne, ale nie dokumenty elektroniczne pochodne.

Z przytoczonych przykładów widać, że powyższe definicje są wystarczająco szerokie i można traktować je jako roboczy punkt wyjścia do szukania nowych, być może bardziej szczęśliwych definicji dokumentu elektronicznego.

Dokument cyfrowy
Definicja 4.
Dokument cyfrowy jest to dowolny dokument zakodowany przy pomocy dowolnego systemu liczbowego i dostępny do wszelkich transformacji cyfrowych. Przykłady: program w notacji RPN dla kalkulatora HP-41C zapisany kodem paskowym w podręczniku programowania, plik w formacie MS Word 2000 (*.doc) zapisany na dysku komputera osobistego, zdjęcie cyfrowe zapisane w pamięci Flash.

Utożsamianie dokumentów cyfrowych z dokumentami elektronicznymi stało się swego rodzaju obsesją obecnej epoki. Przytoczona wyżej definicja dokumentu cyfrowego nie czyni żadnej aluzji do technologii zapisu czy też odczytu informacji. Pierwszy podany w niej przykład (zapisany kodem paskowym program w notacji RPN) - to dokument sporządzony zwykłą techniką drukarską na papierze - dokument o treści widocznej nieuzbrojonym okiem. Producent HP-41C wyposażył kalkulator w piórowy skaner optyczny do czytania kodu paskowego - ale jest to opcjonalna metoda wpisywania, pośrednicząca pomiędzy tradycyjną, fizyczną postacią dokumentu cyfrowego, a elektroniczną naturą kalkulatora.
Innym przykładem dokumentu cyfrowego, nie będącego dokumentem elektronicznym, jest tak popularna jeszcze niedawno papierowa taśma perforowana (rysunek 38)

Rysunek 38. Dokument cyfrowy nie będący dokumentem elektronicznym. Papierowa taśma perforowana. Obraz tego dokumentu zaaranżowano w postaci tabelki.














o

o


o
o
o
o
o
o
o

o
o
o

o
o
o
o
o


o

o
o
o
o

o
o


o
o
o
o

o
o
o
o
o





o
o
.
.
.
.
.
.
.
.
.
.
.
. .
o
o

o

o
o
o


o

o


o
o
o


o


o
o
o
o
o

o


o
o
o
o
o

o

Obydwa wyżej wymienione przykładowe dokumenty zostały sporządzone na papierze, odmiennymi technikami, nie muszącymi mieć jakiegokolwiek kontaktu z elektroniką i mogą być zdekodowanc nawet „na piechotę", bez żadnych środków technicznych.

Perforowana taśma oferuje niską gęstość zapisu. Współczesne oprogramowanie PaperDisc™ (http://www.paperdisk.com/aboutpd6.htm) oferuje dużą gęstość zapisu na papierze w oparciu o dwuwymiarowy kod plamkowy, pozwalającą zmieścić 900 stron tekstu na pojedynczej kartce o wymiarach 8,5x11" (Bajty o przedłużonej trwałości, Teleinfo Nr 36/2001:29).

Nieco inaczej przedstawia się sprawa zapisanego na dysku pliku tekstowego zredagowanego pod wybranym edytorem. Miniaturyzacja zapisu odbywa się przez precyzyjne ogniskowanie silnego pola elektromagnetycznego na małej powierzchni. Towarzyszy temu strukturalizacja rozkładu informacji na fizycznym nośniku. Miniaturyzacja i strukturalizacja narzucają konieczność posłużenia się miniaturowymi detektorami o nienagannie wystandaryzowanych parametrach, obudowanymi mechaniką, precyzyjną! elektroniką oraz dodatkowo wspartymi odpowiednim oprogramowaniem. Taki plik zapisany na dysku nazwiemy elektronicznym dokumentem cyfrowym. Ma on wszystkie cechy obydwu zdefiniowanych wcześniej dokumentów: elektronicznego i cyfrowego. To właśnie ten typ dokumentu ma na myśli większość ludzi, posługujących się terminami „dokument elektroniczny" i „dokument cyfrowy".

Nie należy przypuszczać, że jedyną technologią, w ramach której można zbudować komputer, jest technologia elektroniczna. W roku 1991 w Wielkiej Brytanii zrekonstruowano, dokładnie według planów wynalazcy, „napędzany" korbą, całkowicie mechaniczny komputer, Dijference Engine No. 2, zaprojektowany pod koniec ubiegłego wieku przez sławnego Charlesa Babbage'a. Ku sporemu zaskoczeniu realizującego zespołu, mechaniczny komputer wyposażony w mechaniczny procesor i mechaniczną pamięć działał nienagannie. W dwa lata po zbudowaniu go postanowiono przeprowadzić zawody pomiędzy tym genetycznie odtworzonym dinozaurem wczesnej epoki informatyki oraz notebookiem Cannon BN22 (i486, 25 MHz). Dla pobudzenia ciekawości Czytelnika nie omówimy tu wyników tego fascynującego projektu. Więcej szczegółów na ten temat można znaleźć na sieci pod URL:
http://www.sciencemuseum.org.uk/collections/exhiblets/babbage/start.asp.
Uwagi godne jest także to, że komputer mechaniczny nie powinien się kojarzyć wyłącznie z archaiczną technologią. Problematyka ta jest bardzo aktualna w związku z rozwojem nanotechnologii i wiele interesujących informacji na ten temat można znaleźć w artykule Raipha Merkle [1993]. Dostępna jest też wersja sieciowa tego tytułu: http://www.zyvex.com/nanotech/mechano.html.

Natura dokumentu. Cyfrowo-analogowo-elektroniczna kość niezgody

Kopernik, ucząc się geometrii sferycznej, nie miał pojęcia o elektronice i nie miał nawet kalkulatora. A jednak obiekty, którymi się zajmował, były reprezentowane przez liczby, a jego instrumenty astronomiczne były swojego rodzaju przetwornikami ana-logowo-cyfrowymi. Mówiąc jeszcze inaczej, Kopernik poddał digitalizacji nieboskłon i zapisał swe wyniki we wspaniałym dokumencie. De revolutionibus jest jednak dokumentem hybrydowym: jedna część obrazu zapisanej rzeczywistości ma postać cyfrową (tekstową), druga część - np. rysunki - postać analogową.

Autor niniejszego opracowania jest zdecydowanym przeciwnikiem powszechnie dziś odczuwalnego chaosu terminologicznego. Oryginalność autorska coraz częściej przejawia się radosnym entuzjazmem w zakresie tworzenia nowych nazw lub przypisywaniem nowych znaczeń nazwom już istniejącym a posiadającym dobrze zdefiniowaną semantykę. Ta żonglerka słowami najczęściej odbywa się bez większej dbałości zarówno o wiedzę technologiczną, jak i historyczną. Z natury rzeczy na pokusę łatwizny interpretacyjnej znacznie bardziej narażeni są w tym zakresie humaniści niż technicy. Z zamiarem wyjaśnienia zakresów stosowania kilku popularnych terminów zestawiona została poniższa tabela.


Tabela 18. Przykłady realizacji dokumentów analogowych i cyfrowych w różnych technologiach zapisu. Opracowanie własne

Technologia zapisu
Natura dokumentu
analogowa
cyfrowa
mechaniczna
fonogram edisonowski
taśma perforowana
magnetyczna
taśma magnetofonowa
taśma DAT
optyczna
ścieżka dźwiękowa na taśmie filmowej
CD-RW
elektryczna/elektroniczna
relief litofotografii elektronowej
BIOS zapisany w pamięci PROM

Na podobieństwo fizyki podstawowy podział dokumentów wykreślimy ze względu na ich naturę. Jak wiadomo, fenomen światła może się manifestować ujawniając swą korpuskularną (w efekcie fotoelektrycznym) lub falową (w interferencji) naturę. W pierwszym przypadku światło zachowuje się tak, jak gdyby stanowiło strumień rozpędzonych cząstek materii, dysponujących masą i pędem. W drugim - zachowuje się tak, jakby wypełniało przestrzeń ciągłym polem, z okresowo - ale w sposób ciągły - zmieniającymi się jego charakterystykami. Tak więc przyjmiemy, że dokumenty mogą mieć naturę cyfrową lub naturę analogową.

Należy unikać sformułowań „nośnik cyfrowy" czy też „nośnik analogowy". Na danym nośniku na ogół zawsze można zapisać zarówno sygnał cyfrowy, jak i analogowy. Czyste, nieperforowane karty do dawnych komputerów klasy mainframe często używane były przez humanistów w charakterze fiszek. Fakt, że producent wyprodukował karty pod kątem widzenia tworzenia w trybie mechanicznym dokumentu cyfrowego, kodowanego w kodzie Holleritha, nie miał tu żadnego znaczenia. Osoba wypełniająca treścią te niestandardowe fiszki dokonywała wpisu ręcznie, lub na maszynie do pisania.

Atrybut "elektroniczny" winien być kojarzony ze sposobem (technologią) odczytu lub zapisu. Niejednokrotnie ten sam dokument (np. taśmę perforowaną) można odczytać różnymi sposobami.

5 Dostęp do systemu

Motto:

Zapewnienie dostępu nie koniecznie zawsze może okazać się możliwe: dla pewnych zapytań mogą nie istnieć stosowne źródła; w przypadku niejasnych zapytań źródło może istnieć, ale zrozumienie go może leżeć poza granicami pojmowania pytającego jak w przypadku fragmentów zaginionych języków.

Michael K. Buckland, „Library Services in Theory and Context”, 1988, strona 188.

Wstęp

Aspekt dostępu do systemu cyfrowego był już uprzednio podejmowany przez polskich badaczy przedmiotu (Daniłowicz [1982], Choroś i Daniłowicz [1982], Daniłowicz [1993], Grabowska [1995], Próchnicka [1996]). Jest rzeczą interesującą, że wszystkie te badania były głęboko pragmatyczne, nastawione na analizę procesu dostępu użytkownika do informacji, od poziomu modelowania potrzeb informacyjnych użytkownika na podstawie badania przestrzeni jego zapytań i przestrzeni dokonywanych przez niego selekcji zbioru odpowiedzi systemu, po ontologiczną analizę cech interfejsu użytkownika. Zatem spektrum badań rozciągało się od obszaru serwera badającego zachowanie klienta do obszaru klienckiej stacji roboczej.
W swych wcześniejszych pracach autor dał wyraz swemu zainteresowaniu ścieraniem się różnych koncepcji protokołów komunikacyjnych w dostępie do systemu cyfrowego (Czermiński [1994-1], [1994-2], [1996]). O ile w połowie lat 90-tych główne starcie miało miejsce na poziomie trzeciej warstwy (sieciowej) modelu ISO/OSI, o tyle obecnie przenosi się ono na warstwę siódmą (aplikacji). Pierwszym elementem dostępu do systemu są urządzenia techniczne, nazywane w informatyce urządzeniami wejścia/wyjścia. Urządzenia te zostały omówione wcześniej, w rozdziale poświęconym systemowi. Drugim elementem dostępu jest komunikacja między urządzeniami wejścia/wyjścia a serwerem zasobów cyfrowych. Ten element został nakreślony w poprzednim rozdziale. Obie grupy mieszczą się w trzech dolnych warstwach modelu ISO/OSI. W zasobach cyfrowych zreferowane zostały wybrane zagadnienia dotyczące kodowania i reprezentacji używanych znaków. Te zagadnienia z kolei mieszczą się w warstwie prezentacji modelu ISO/OSI. W niniejszym rozdziale zajmiemy się niektórymi problemami dostępu, należącymi do warstwy najwyższej - aplikacji.

Boole wyszukiwania. Od żelaznej logiki do liberalnej probabilistyki

Mówienie o światowej powodzi informacyjnej stało się już komunałem. Biblioteki zwolna są wciskane do wielkiego kotła wielkich światowych systemów informacyjnych. Choć pod wieloma względami bardzo się różnią od swoich czysto cyfrowych sióstr, to w stosunku do obydwu czytelnik zaczyna mieć te same oczekiwania i te same kryteria oceny. Trudno się zresztą dziwić, skoro od sporego już czasu bibliotekarze wspólnie pracują z informatykami nad doskonaleniem zunifikowanego interfejsu do bibliotecznych katalogów, niestrukturalizowanych zasobów tekstowych i najróżniejszych baz danych. Zadajmy sobie pytanie: czy rzeczywiście dzisiejsze biblioteki są "takie same, jak dawniej"? Z pewnością nie! Biblioteki włączyły się w owczy pęd nie gorzej od innych dziedzin. Porównując zawartość starych kartek katalogowych ze współczesnym katalogiem online odnotowujemy znaczny wzrost wpisanej przez bibliotekarzy informacji. Niby opis staje się bogatszy - to raczej i dobrze. Ale szybkie narastanie nagromadzonej informacji równie szybko stwarza poważne problemy wyszukiwawcze. Pojawienie się Internetu od razu rozbudziło apetyty na tworzenie i przetwarzanie różnego rodzaju metadanych. Do takich ciekawych projektów, budzących nadzieje czytelników, należą rozszerzenia opisu przedmiotowego katalogowanych książek (Subject Access Project) o spisy rozdziałów (Peis, Molina [1998]). Już bez wahania się mówi (z zauważalną przesadą, oczywiście), że jest to równoważne dostępowi do treści artykułów publikowanych w czasopismach. Jeśli tego rodzaju tendencje rozwiną się na skalę masową, to do przetwarzania informacji kontrolowanych przez biblioteki trzeba będzie szybko zastosować metody obsługi masowej. Cechą charakterystyczną obsługi masowej jest automatyka kontrolowana algorytmem, a proces ingerencji ludzkiej jest zminimalizowany do poziomu uzależnionego od ilości przetwarzanej informacji. Dobrym przykładem takiej automatyki jest katalogowanie w systemie centralnego serwera, zorganizowane i prowadzone przez OCLC. Konsekwencją takiego modelu jest szybkie powstanie wielkich zasobów o znacznej niejednorodności. Przeto w takich przypadkach przestaje się stopniowo stosować znaną już powszechnie bibliotekarzom i znacznej liczbie użytkowników dwuwartościową logikę boolowską i operowanie opisem dokładnym z pełnym przestrzeganiem ortografii. Precyzję dawnego opisu możliwego do przygotowania na poziomie niewielkich zasobów zaczynają zastępować inne narzędzia, charakterystyczne dla epoki masowej obsługi: logiki wielowartościowe oraz opis statystyczny. Stwierdzenie tego faktu jest raczej przykre dla bibliotekarza. Z jednej strony automatyka daje szanse na sprostanie gwałtownie narastającym oczekiwaniom, z drugiej - dawna duma z powodu oferowanej jakości ulega szybkiej erozji. Niemiłe jest również to, że jeszcze niedawno trzeba było się uczyć logiki boolowskiej, a tu już mówi się o logikach wielowartościowych (znacznie bardziej skomplikowanych) oraz probabilistyce.

Przedmiotem zainteresowania współczesnych bibliotekarzy ze zrozumiałych względów są bazy danych. Ich wysublimowanym etapem rozwojowym są relacyjne bazy danych. Do zarządzania takimi bazami służą wydzielone, wyspecjalizowane systemy, takie jak Oracle, Informix, Sybase czy INGRES, mające na standardowym wyposażeniu strukturalny język zapytań SQL (ang. Structured Query Language). Popularność jego wyznacza liczba implementacji. Gruber [1996] podaje, że SQL został zaimplementowany w ponad 140 produktach. Obecnie z pewnością liczba ta jest znacznie wyższa. Gruber nazywa go, chyba dość trafnie, podjęzykiem danych.

Standard SQL składa się z pary klient - serwer. Podobnie, jak i bazy danych, również i standard SQL nie będzie tutaj szerzej referowany - szczegółowy opis znajdzie Czytelnik w cytowanej literaturze. Wspominamy go tu na okoliczność faktu, że właśnie SQL ma zaimplementowaną logikę trójwartościową. Może Czytelnika zastanowi fakt, dlaczego omawiamy to zagadnienie tutaj, a nie przy Jednostce Arytmetyczno - Logicznej procesora. Przyczyna jest klarowna: obecna arytmetyka komputerowa jest oparta na zjawiskach fizycznych z dwoma rozróżnialnymi stanami fizycznymi - stąd w naturalny sposób arytmometr ma wbudowaną na stałe logikę dwuwartościową - boolowską. Niestety, szczegółowe prace nad bazami danych pokazały, że oprócz dwóch standardowych wartości logicznych: TRUE (prawda) oraz FALSE (fałsz) dobrze jest się jeszcze posłużyć wartością UNKNOWN (nieznane). Taki zabieg nie jest jednak realizowany sprzętowo, lecz programowo. Wprowadzenie trzeciej wartości logicznej, choć dobrze oddaje realia życia, stanowi jednak zauważalne utrudnienie. System wyszukiwawczy oparty o SQL oprócz spodziewanych odpowiedzi:

a) znalazłem nnn rekordów spełniających Twoje kryterium
b) nie znalazłem żadnego rekordu


może jeszcze dać trzecią odpowiedź:

c) nie mam pojęcia!


Trzeba bowiem zdawać sobie sprawę z faktu, że do bazy, zamiast brakującej danej można wprowadzić wartość NULL (zero, puste). Pojawienie się takiego obiektu jako argumentu np. relacji logicznej będzie prowadziło do nadania odpowiedniemu predykatowi wartości UNKNOWN. Wartości NULL nie muszą zresztą pochodzić bezpośrednio z bazy, ale mogą być również generowane przez zapytania, lub wyrażenia (patrz Gruber op.cit.:192). Warto wiedzieć, że pierwszą na świecie pracę na temat tej logiki opublikował J. Łukasiewicz [63] (Łukasiewicz [1920], por. też Kotarbiński [1957]). Okazuje się, że badania tekstów prowadziły do wielu ciekawych odkryć. Rogowski [1964] badając wypowiedzi Hegla na temat zagadnień antynomialnych opracował szczegółowo logikę czterowartościową, a Gödel [1931], analizując tekst pretendującego do bycia szczytem poprawności dzieła Russela i Whiteheada Principia Mathematica, udowodnił jedno z najciekawszych twierdzeń XX wieku - twierdzenie o niezupełności systemów dedukcyjnych, w których da się zbudować arytmetykę liczb naturalnych (por. też Nagel i Newman [1966]). Odnotowania godny jest też fakt zainicjowania przez Reichenbacha i Łukasiewicza badań dotyczących zastosowania logik wielowartościowych do teorii prawdopodobieństwa (Mała Encyklopedia Logiki [1970]). Nie ma zatem nic specjalnie zaskakującego w fakcie, że współczesne zabiegi o znalezienie nowych, efektywnych sposobów wyszukiwania informacji w wielkich zbiorach, sięgają do metod probabilistycznych (używany jest też termin wyszukiwanie bayesowskie). Tendencja ta już się zarysowała i należy oczekiwać jej intensyfikacji. Interesujące odnośniki literaturowe na ten temat można znaleźć np. w pracy Losee [1997].

Wybrane zagadnienia dotyczące protokołu ANSI/NISO Z 39.50

W niniejszym paragrafie poświęcimy nieco uwagi pewnym praktycznym, ale i teoretycznym aspektom tego ciągle mało popularnego w Polsce interfejsu opartego na protokole Z 39.50 Poruszane zagadnienia będą miały wyraźną orientację praktyczną, będą prezentowały wyniki własnych badań, testów i działań o charakterze organizacyjnym.

Na pierwszy rzut oka dziwne wydawać się może sformułowanie opinii, że usługa Z39.50 jest w Polsce niepopularna, gdy równocześnie liczne biblioteki systemu Horizon (Toruń, Poznań, Łódź) pracują właśnie w tej klasie protokołów. Z jednej strony rzecz polega na tym, która wersja protokołu jest na danym serwerze zaimplementowana. Z drugiej - chyba bardziej istotnej - w ilu oddziałach informacji naukowej polskich bibliotek i na ilu stanowiskach roboczych naszych naukowców zainstalowane jest oprogramowanie klienta Z39.50 z odpowiednią bogatą bazą adresową, dotyczącą zarówno serwerów baz bibliograficznych, jak i pełnotekstowych.

Historia rozwoju międzynarodowych standardów definiujących usługi oraz protokoły wyszukiwania i pobierania informacji (ang. Search and Retrieve, SR) liczy już sobie kilkanaście lat. W pierwszym zamyśle (1984) były one przeznaczone do obsługi informacji bibliograficznej (por. Buckland, [1987]). Solidne podstawy do przygotowania odpowiednich specyfikacji dała norma ISO 7498  oraz dokumenty ISO wydane na przełomie lat 1987/1988. W roku 1988 National Information Standards Organization, NISO (http://www.niso.org/),
zatwierdziła normę przygotowaną przez Komitet Standardów "D" (Z39) i moment ten uważa się za początek skali rozwoju tej relatywnie nowej dziedziny usług sieciowych.

Prowadzonym pracom od początku towarzyszyło nadspodziewanie wielkie zainteresowanie wszystkich, którym bliska była potrzeba dostępu do najróżniejszego typu informacji: bibliograficznej, finansowej, użyteczności publicznych, chemicznej (CAS: Chemical Abstracts Service, http://www.cas.org/)czy prasowej. Odpowiedzią na to zainteresowanie było utworzenie w 1990 roku interdyscyplinarnej grupy wdrożeniowej ZIG (Z39.50 Implementors’ Group), moderowanej przez ustanowioną rok wcześniej przy Bibliotece Kongresu USA, Agencję Obsługi Z39.50 (Z39.50 Maintenance Agency). Po dzień dzisiejszy obydwie te instytucje stanowią siłę motoryczną rozwoju nieustannie rozszerzającego się standardu. Osoby interesujące się bliżej tym rozwojem mogą się wpisać na listę dyskusyjną Z3950IW wysyłając list rejestracyjny pod adresem: Z3950IW@LISTS.UFL.EDU). Wszystkie teksty przesyłane do listserwera są automatycznie archiwizowane. Zawartość archiwum aktualnie dostępna jest na serwerze Florida University pod adresem:
http://www.lists.ufl.edu/archives/z3950iw.html

Dokumenty o charakterze wynikowym, ogólnym i pomocniczym dotyczące prac ZIG dostępne są w formatach *.ps, *.pdf, *.wp w katalogu pub/z3950 anonimowego konta serwera rs7.loc.gov (140.147.248.7),

Wersje standardu i dokumentacja

W zasadzie niniejszy przegląd referuje rozwój prac nad narodowym standardem USA, jakim jest Z39.50. Nadmienić jednak należy, że od samego początku zespół tworzący amerykańskie specyfikacje tego protokołu w znacznej mierze pokrywał się z zespołem rekomendującym do zatwierdzenia normy w International Organization for Standards, ISO (http://www.iso.ch/) . Fakt ten znakomicie wspomagał wzajemny przepływ idei i przyspieszał zatwierdzanie dokumentów. Praktyka jednak pokazuje, że ze względu na nieustannie prowadzone prace rozwojowe i szybkie tempo uzupełniania norm, specyfikacje amerykańskie stanowią nadzbiory odpowiednich standardów ISO. Rozróżnia się następujące poziomy rozwoju specyfikacji:


Zakres specyfikacji Wersji 2 został dobrany w taki sposób, by jej semantyka była zgodna z dokładnością co do pojedynczego bitu z wcześniej wprowadzonymi normami ISO 10162/10163. Współpraca pomiędzy NISO i ISO z biegiem czasu usprawniała się coraz bardziej i wersja 3 została praktycznie bez zmian przekształcona w normę ISO 23590. Negocjacyjny charakter protokołu w zasadzie nieźle zabezpiecza współpracę różnych wersji protokołu zaimplementowanych na kliencie i serwerze. Zgodność wersji 3 standardu z wersjami wcześniejszymi (obecnie właściwie już tylko wersją 2) wydaje się być zadawalająca.

Pełna dokumentacja 2 i 3 wersji standardu dostępna jest zarówno w formie wydawnictw NISO jak i dokumentów elektronicznych. Elektroniczna wersja najnowszej mutacji Z39.50 obejmuje cztery podstawowe formaty (*.pdf, .ps, .txt, .wp). Przy wyborze importowanego formatu należy mieć na uwadze, że pliki TXT są pozbawione tabel i ich użyteczność nie jest najwyższej klasy. Tekst w plikach zapisanych w formacie Word Perfect 5.1 (*.wp) ma układ dwuszpaltowy i jest źle konwertowany przez MS Word 97. Pliki są dostępne na sieci poprzez witrynę Agencji:
http://www.loc.gov/z3950/agency/.
W dalszym ciągu omawiana będzie wyłącznie trzecia wersja tego protokołu (1995), chyba że inna wersja zostanie wymieniona explicite.

Nomenklatura

Wszelkie akty normatywne rozpoczynają się listą określeń stosowanych przy opisie normy. W szczególności dotyczy to norm z obszaru informatyki i dziedzin pokrewnych. Z listy roku 1995, liczącej 102 pozycje, warto przetłumaczyć (w nawiasie podane są terminy angielskie) minimalną liczbę pojęć niezbędnych do zrozumienia prezentacji.


Rotacja terminów użytych w powyższych definicjach przez twórców normy może przypominać bibliotekarzowi znany z logiki błąd idem per idem (błędne koło). Jednakże Czytelnikowi mającemu wykształcenie informatyczne przytoczone definicje natychmiast będą się kojarzyć z werbalną wersją notacji BNF(Turski [1979:167]). Szczegółowa lista warunków sine qua non dla źródła i celu podana jest w dokumencie:
http://www.loc.gov/z3950/agency/v3base.html
.

Pragniemy zwrócić uwagę, że w zakresie stosowanej nomenklatury od roku 1988 nastąpiły zasadnicze zmiany. Już przy definicji opcji protokołu używany dawniej termin origin zastąpiony został terminem client, zaś termin target terminem server. Jednakże na poziomie opisu procesu inicjowania Z-Asocjacji terminy używane w 1988 roku i 1995 roku są identyczne. Świadczy to o przewartościowaniu obszarów znaczeniowych niektórych terminów. Używana poniżej terminologia bazuje na wersji z 1995 roku i w niektórych punktach nie jest zbyt szczęśliwa. Wprowadzanie całkowicie nowych określeń na oznaczenie terminów podrzędnych w stosunku do dobrze ukorzenionego pojęcia nie sprzyja popularyzacji tego dość trudnego standardu. Wydaje się, że świeżo zaproponowane przez Evansa terminy Z-klient na miejsce terminu źródło oraz Z-serwer na miejsce terminu cel, choć nieco dłuższe w zapisie, wydają się nieporównanie szczęśliwsze i należy mieć nadzieję, że się przyjmą.

Podstawowe informacje o protokole

Protokoł Z39.50 określa formaty i procedury rządzące wymianą komunikatów pomiędzy dwoma systemami komputerowymi, mające na celu pobranie informacji z serwera i przeniesienie jej do klienta inicjującego nawiązanie kontaktu. Protokół nie przewiduje inicjowania Z-asocjacji przez serwer. Elementami tego dialogu są: zgłoszenie zapotrzebowania na usługę przez Z-klienta lub Z-serwer (service request) oraz odpowiedź na zgłoszone zapotrzebowanie (response). Usługi mogą być potwierdzone, niepotwierdzone oraz potwierdzone warunkowo.

Bliższa charakterystyka procedur tego protokołu nie będzie tu przytoczona, choćby z braku miejsca. Dość będzie wspomnieć tylko, że detale techniczne tych procedur wymienione są w cytowanych wcześniej normach. Z punktu widzenia końcowego użytkownika znacznie ważniejsze są oferowane przez standard usługi czy też udogodnienia. Protokół Z39.50 definiuje 11 podstawowych udogodnień (zlepków usług o zbliżonym charakterze):

  1. Inicjowanie (Initialization facility) połączenia w ramach której Z-klient (źródło) proponuje Z-serwerowi (celowi) negocjację warunków zestawienia Z-asocjacji. Jeśli zarówno stan łącza fizycznego jak i warunki podlegające negocjacji umożliwią Z=Asocjację, to komunikujące się ze sobą systemy mogą przejść do następnego etapu. Negocjowana jest tu wersja standardu, repertuar znaków, segmentacja odpowiedzi, współbieżne przeszukiwanie kilku różnych baz danych (tylko wersja 3) oraz inne opcje

  2. Wyszukiwanie informacji (Search Facility). Z-klient ma możliwość indagowania bazy danych w oparciu o uzgodniony wcześniej format wyszukiwania, wytworzenia na serwerze zbioru wyników oraz otrzymanie informacji o tym zbiorze (m.in. jego liczebności). Ta faza rozpoczyna się negocjacją typu składni zapytań (języka zapytań). Wersja 3 standardu Z39.50 przewiduje sześć typów składni zapytań, proponowanych przez klienta serwerowi. Aktualnie rozważa się również wprowadzenie siódmego typu zapytań dopuszczającego użycie SQL:

  3. Drugim ważnym parametrem, ułatwiającym wyszukiwanie, jest profil dostosowujący charakterystykę pracy robota wyszukiwawczego do domeny zawodowej użytkownika. Wśród nich wymienimy następujące domeny:

    Protokół definiuje dwa typy rekordów odpowiedzi, które mogą zostać nadesłane z Z-serwera: rekordy bazy danych oraz rekordy diagnostyczne. Rekordy bazy danych mogą zostać przesłane w jednej z kilku różnych składni (formatów), na przykład:


    W trakcie opracowywania jest SQL-RS – składnia rekordów wspierająca typy danych SQL3 oraz XML. Ta ostatnia składnia wywołuje aktualnie gorące dyskusje na forum listy dyskusyjnej Z39.50 z uwagi na znaczną konsumpcję pamięci i pasma transmisyjnego w przypadku przesyłania rekordów, zawierających małe porcje danych. Tak np. zakodowanie pojedynczego bitu ‘1’ w XML pociąga za sobą 96-cio krotną ekspansję rozmiaru!

    Typy rekordów diagnostycznych nie będą tu omawiane.

    Po uzgodnieniu języka zapytań, Z-klient wysyła do Z-serwera przygotowane przez końcowego użytkownika zapytanie wyszukiwawcze, stosownie do składni, która została wcześniej wynegocjowana. Końcowym rezultatem tego procesu jest odesłanie komunikatu z podaniem liczby odnalezionych rekordów (ale nie ich zawartości). Jeśli zbiór rekordów nie jest pusty, cel może przejść do trzeciej fazy: pobierania informacji.

  4. Pobieranie informacji (Retrieval Facility) na które składają się dwie usługi:

    • Prezentacja wyników wyszukiwania. Usługa prezentacji rozpoczyna się negocjacją 16 parametrów, wśród których na początku źródło zamawia określoną liczbę rekordów z określeniem miejsca pierwszego zamawianego rekordu. Wśród opcjonalnych informacji Z-klient może określić format przysyłanych danych (np. MS Word lub HTML), zakres przesyłanych rekordów czy wskazać konkretne elementy do przesłania (np. autora, tytuł oraz ISBN)

    • Segmentacja zbioru wyników. Jeżeli zamówione przez źródło rekordy nie mieszczą się w granicach wyznaczonych tym parametrem, wówczas cel uruchamia automatycznie segmentację zgromadzonej informacji.

  5. Usuwanie zbioru będącego wynikiem wyszukiwania (Result-set-delete Facility)

  6. Kontrola dostępu do danych (Access Control Facility). Usługa ta pozwala na poziomie Z-serwera nadzorować dostęp do bazy danych poprzez wprowadzenie mechanizmów uwierzytelnienia, czy też szyfrowania informacji kluczem publicznym.

  7. Rozliczenie/kontrola zasobów (Accounting/resource Control Facility). Składają się nań trzy usługi:

  8. Sortowanie (Sort Facility). Pozwala klientowi na posortowanie wyników (w przypadku wcześniejszej segmentacji poszczególne segmenty mogą zostać przed sortowaniem połączone w jedną całość)

  9. Przeglądanie (Browse Facility). Możliwość przejrzenia (np. wg nazw, tytułów etc.) uporządkowanego zbioru

  10. Wyjaśnienie (Explain Facility). Możliwość uzyskania szczegółowych informacji technicznych o Z-serwerze

  11. Rozszerzone usługi (Extended Services Facility). Ułatwienia te dotyczą możliwości udostępnienia klientowi dostępu do usług nie zdefiniowanych w ramach Z-39.50, w szczególności tego, co klient oczekiwałby po zamknięciu Z-Asocjacji. Tu można wymienić automatyczne wykonanie tych samych poszukiwań po niezależnym od klienta uaktualnieniu bazy danych, lub wykonanie pewnych wsadowych wyszukiwań według określonego kalendarza, a także automatyczne dowiązanie usług oferowanych w ramach wypożyczalni międzybibliotecznej (Inter-Library Loan).

  12. Zakończenie (Termination Facility). Z-Asocjacja może zostać zakończona zarówno po stronie Z-klienta, jak i Z-serwera.

Wśród opcjonalnych usług należy wymienić:


Wyszukiwanie i prezentacja rekordów mogą być powtarzane w ramach Z-Asocjacji bez ograniczeń i wspomagane innymi dodatkowymi usługami, które może mieć zaimplementowane serwer, a predefiniowane klient.

Wykaz serwerów z zaimplementowanym standardem publikuje Biblioteka Kongresu w dokumencie zlokalizowanym na głównej stronie internetowej bramki Z39.50 pod adresem:
http://www.loc.gov/z3950/gateway.html.

Rejestr implementatorów (producentów oprogramowania) wraz z bliską charakterystyką produktów jest dostępny poprzez witrynę: http://www.loc.gov/z3950/agency/register/entries.html.

Cechy sieciowe

Protokoł Z39.50 wersja 2 należy do klasy połączeniowych (ang. connection-oriented) usług sieciowych (por. Bilski, Dubielewicz [1993]:153). Fakt ten w naturalny sposób sprzyjał dwom czynnikom: łatwej implementacji w sieciach X.25 opartych na rekomendacjach CCITT, oraz szybkiej adaptacji modelu przez ISO. Ze zrozumiałych jednak względów, amerykańscy twórcy specyfikacji Z39.50 wyraźnie ciążyli w stronę powszechnie zaakceptowanego w USA i burzliwie rozwijającego się Internetu. Jednakże protokoły TCP/IP służą do realizacji usług w sieciach lokalnych (LAN) w trybie bezpołączeniowym. Konflikt ten jest więc podobny do tego, który pojawia się w związku z problemem emulacji LAN w sieciach ATM. Rozwiązanie tego problemu byłoby stosunkowo proste do osiągnięcia w jednorodnym środowisku z zaimplementowaną Wersją 3 protokołu Z39.50. Natomiast w środowisku heterogenicznym nie jest to łatwe i wymaga dodatkowych zabiegów o ograniczonej skuteczności. Identycznie sprawa się ma z integracją Z39.50 z WWW - z uwagi na bezpołączeniowy charakter tego ostatniego.

Mimo formalnie podobnych specyfikacji warstwy aplikacji modelu ISO/ OSI, oprogramowanie zgodne z ANSI NISO Z39.50 wersja 2 nie komunikuje się bezpośrednio z oprogramowaniem zgodnym z ISO 10162/10163 z uwagi na odmiennie zdefiniowany stos protokołów warstw sieciowych i transportowych (por. Cechy sieciowe). Obejściu narosłych rozbieżności miał służyć realizowany przez trzy biblioteki europejskie (Irlandia, Dania i Hiszpania) projekt EUROPAGATE budowy adaptera międzysieciowego (bramki) - patrz Ciardhuain [1995]). Alternatywny projekt niemiecki "DBV-OSI II" ( patrz Herget [1995]), w którym oprócz kilku bibliotek niemieckich znajduje się również holenderska PICA przewiduje trójkanałowy dostęp do serwera SR-/Z39.50 (tak autorzy oznaczają tworzoną hybrydę ISO-ANSI). Ten ostatni projekt oprócz "czystych" wariantów dostępu (zestaw protokołów CCITT/ISO z jednej strony, zaś TCP/IP na warstwie fizycznej CSMA/CD z drugiej strony) przewiduje również wariant mieszany: standardowe usługi OSI warstw prezentacji i sesji posadawia się na warstwie transportowej TCP z uwzględnieniem zaleceń RFC 1006.

Pod względem sieciowym trzecia wersja protokołu Z39.50 w zasadzie usunęła wszystkie wady swego protoplasty. Zachowanie się aplikacji (7 warstwa modelu OSI/ISO) przestało zależeć od cech protokołu sieciowego (4 warstwa modelu OSI/ISO). Ponadto, dzięki protokołowi HTTP, Internet praktycznie zdominował komunikację w sektorach publicznych. Jednakże nie tylko atrakcyjność nowego protokołu warstwy aplikacji przyczyniła się do tego sukcesu. Sam protokół IP jest typu „lekkiego” i był zaprojektowany dla systemów o wysokiej niezawodności (Internet Protocol wywodzi się z projektu Departamentu Obrony USA). W odróżnieniu od niego protokół X.25 zaprojektowany został do pracy w środowisku o wysokim poziomie szumów i braki jakościowe w obszarze medium transmisyjnego wyrównywał algorytmicznie – kosztem szybkości transmisji. Po masowym wprowadzeniu technologii światłowodowej do warstwy fizycznej modelu współdziałania systemów otwartych błyskawicznie ujawniła się przewaga protokołu IP nad X.25: już w roku 1992 na rynku dostępne były interfejsy oferujące usługi IP poprzez szeregowy port synchroniczny 4 Mbps, podczas gdy w tym samym czasie najszybsza karta X.25 pozwalała na komunikację z szybkością 384 Kbps – ponad dziesięć razy wolniej! Mimo rychłego wprowadzenia przez operatorów telekomunikacyjnych protokołu Frame Relay (FR) - mutacji X.25 odciążonej od korekty błędów – dystans pomiędzy modelem ARPA i modelem ISO/OSI narastał nadal, prawdopodobnie umiejętnie moderowany przez gospodarczą strategię rządu USA.

W 2002 roku można zaryzykować opinię, że znaczna liczba problemów została już rozstrzygnięta. Aktualnie mamy na rynku kilka niezłych produktów – zarówno komercyjnych, jak i darmowych, w których nieźle rozwiązano problem heterogeniczności protokołów.

Implementacja

Pierwsza w Polsce szersza, publiczna prezentacja on-line wyszukiwań według standardu Z39.50 ver. 2 miała miejsce w 1994 r. w Gdańsku, podczas zorganizowanej pod auspicjami KBN konferencji polskich bibliotek naukowych. Szczegóły można znaleźć w opublikowanych materiałach konferencyjnych (Czermiński [1996]). Dla potrzeb ówczesnej prezentacji przetestowane zostały wówczas dwa pakiety klienta instalowanego w środowisku DOS/Windows: jeden komercyjny (VTLS) wersja 1.0 i wersja Alpha Test 2.0 oraz jeden klasy Public Domain (PD), opracowany na zlecenie Biblioteki Narodowej Kanady. Testowanych było kilkanaście niekomercyjnych amerykańskich serwerów i jeden holenderski (PICA - niekomercyjna baza testowa). Można było zaobserwować niepełną implementację zarówno w klasach produktu komercyjnego, jak i PD. Dotyczyło to zarówno klienta, jak i serwera, ale zwłaszcza serwera. Znaczna liczba serwerów udostępniała tylko testowe bazy, znacznie mniej - bazy eksploatacyjne (produkcyjne). Niektóre serwery udostępniały tylko rekordy uproszczone i to w wersji nie-MARCowskiej. Odnotowano znaczne rozbieżności co do implementacji poszczególnych atrybutów USE. Tak na przykład próba wyszukiwania w Bibliotece Kongresu książek jakiegokolwiek autora poprzez wybranie atrybutu "Author name" skończyła się fiaskiem. Serwer zwracał komunikat "Diagnostic Error 114. Unsupported USE attribute". Analogiczne wyszukiwanie w innych bibliotekach kończyło się sukcesem [75]. Do wyszukiwania tego typu w Bibliotece Kongresu należało posłużyć się atrybutem "Personal name". Testowane pakiety klienta miały poważne usterki, wśród których należy wymienić brak funkcjonowania szeregu zadeklarowanych w okienkach funkcji, takich jak SAVE, PRINT, NEW. Pakiet Z-klienta VTLSa był wyraźnie lepszy od testowanej wcześniej starej wersji 1.0, ale ciągle pozostawiał wiele do życzenia. Najmocniejszą stroną kanadyjskiego, darmowego produktu jest dostępność jego wersji źródłowej.

Testowany był wyłącznie dostęp przez Internet. Liczba rozłączonych lub przerwanych sesji była zdecydowanie wyższa, niż przy innych usługach internetowych (telnet, ftp, WWW). Ze względu na ubogą diagnostykę trudno było ocenić, czy przyczyn tego faktu należało doszukiwać się we wspomnianej wyżej niejednorodności trybu transmisji (połączeniowa - bezpołączeniowa), czy też w niepełnej implementacji standardu po stronie serwera (cel powinien być całkowicie odporny na każde pytanie zadane przez źródło). Użyte oprogramowanie kanadyjskie implementowało Wersję 2 standardu (1992) i było dostępne z anonimowego konta serwera FTP ftp.nlc-bnc.ca ( 142.78.40.4) lub serwera owl.nstn.ns.ca. Pliki celu umieszczone są w katalogu pub/irtool/target, zaś pliki źródła w katalogu pub/irtool/origin. Komplet plików źródła dla MS-Windows nazywa się CanSearch. System został zrobiony przez Software Kinetics Limited (Stittsville, Ontario, Canada) i sfinansowany przez Bibliotekę Narodową Kanady (NLC). System wymagał przynajmniej procesora 386 plus 4 MB RAM a jego dostęp do sieci realizował pakiet WINSOCK.

Obecnie znacznie bardziej popularne jest oprogramowanie implementujące ostatnią wersję protokołu Z39.50. Wymienimy tu przykładowe pakiety darmowe: ZedKit, Z-klienta ICONE dla Linuxa na procesorach Intela oraz dla MS Windows (Crossnet), ZNavigator Ver. 1, oraz Z39.50/PRISE (minimalna para klient-serwer Z39.50-1995 v.3 na UNIX Solaris, klient dla GUI wykonany w języku skryptów Tcl/Tk) - patrz U.S. Department of Commerce Technology Administration, National Institute of Standards and Technology (NIST).http://www-nlpir.nist.gov/works/papers/zp2/zp2.html . Propozycje komercyjne w większości przypadków zmierzają do rozwiązań typu „kombajn”, na które oprócz pary klient – serwer składają się narzędzia programistyczne, demony proxy, bramki do środowiska WWW, roboty wyszukiwawcze plików internetowych, applety Javy do wprowadzania meta-danych, narzędzia do tworzenia lokalnych baz danych.

Spośród dostępnych wersji przetestowany został Z-klient ICONE w wersji 32-bitowej na MS Windows NT oraz ZNavigator. Jest rzeczą ciekawą, że podobnie jak to miało miejsce z Z-klientami wersji 2, testowanymi pięć lat wcześniej, testy wykazały mizerę opisu bibliograficznego testowanych serwerów. Nadal typowe Z-serwery udostępniają bazy testowe, a nie produkcyjne. Z obydwu przetestowanych klientów bezdyskusyjnie lepszy był ZNavigator. On też został wybrany w charakterze pakietu pokazującego pewne fragmenty otwierania Z-asocjacji i realizacji pewnych usług. Testowym Z-serwerem był HLC.ACTX.EDU administrowany przez Harrington Library Consortium z danymi zarządzanymi przez system bardzo popularnej i oferującej wielki wybór usług (łącznie ze współbieżnym przeszukiwaniem wielu baz i serwerów) bazy MARION. Przytoczone zrzuty ekranu ilustrują kolejne fazy zawężania odpowiedzi Z-serwera, zmierzające do lokalizacji Nędzników V. Hugo w bibliograficznej bazie danych. Okienko klienta związane z tworzeniem kolejnych zapytań pozwala śledzić rozrastanie się struktury drzewiastej odpowiadającej liniowej składni Odwrotnej Notacji Polskiej. Ten spektakularny chwyt projektanta interfejsu graficznego testowanego Z-klienta znakomicie ułatwia zrozumienie funkcjonowania genialnego pomysłu naszego wielkiego rodaka.

ZNavigator pozwala grupować Z-serwery w grupy zasobów. Pakiet dostarczany jest z utworzonymi trzema grupami o nazwach: Geo, Samples oraz Ztargets oraz możliwościami utworzenia nowej grupy, lub jej usunięcia. W każdej z grup oprogramowanie to pozwala dodać nowy Z-serwer, edytować istniejący, usunąć niepożądany lub ustalić wybrany jako domyślny. Na Rysunku 39 podano przykładowy wybór celu (inaczej mówiąc Z-serwera) w grupie zasobów oznaczonej ZTargets.

Rysunek 39. Wybór celu (Z-serwera) w danej grupie zasobów.

Configure Z39.50 Resources
Resource Groups

New Group




Targets in Group






 

Funkcja edycji parametrów Z-serwera pozwala zmieniać siedem opcji: opis zasobu, nazwę hostu, numer portu TCP/IP, nazwę bazy danych, składnię rekordu, nazwę konta oraz hasło. Na Rysunku 40 podana jest przykładowa edycja parametrów dla serwera Harrington Library Consortium.

Rysunek 40. Edycja parametrów serwera Z39.50.


Edit Target Resource
Resource Info

             Name
  Description
Z39.50 Target

       Host Name
      TCP/IP Port
          Database    
Record Syntax
            Account
         Password


Rysunek 41. Kreator Zapytań.



Query Builder
Add What?
a new Term    
a previous Result Set    
How to Add?

Operator: 
Term Qualifiers (Bib-1 Attributes)

      Used in (1)         Structure (4)
Truncation (5)                              Relation (2)
Query Tree

Rysunek 42. Wynik wyszukiwania prostego (hasło osobowe).

  Caselib ZNavigator - [Harrington]

Session

Query

Folders

Edit

View

Window

Help

Harrington Library Consortium

Status