Jeszcze 1 minuta czytania

Jarosław Lipszyc

INFOHOLIK:
Cyfryzacja: ilość nie jest sama w sobie jakością

Jarosław Lipszyc

Jarosław Lipszyc

W ciągu ostatniej dekady praktycznie zrezygnowaliśmy z mediów analogowych. Najdłużej walczy papier, ale i on się już faktycznie poddał – sprzedaż cyfrowa największej księgarni na świecie Amazon ostatecznie pokonała sprzedaż fizycznych przedmiotów. Z tej drogi nie ma już powrotu.

Miło jest myśleć, że żyjemy w czasach bezprecedensowych, ale nie ma nic bez precedensów. W pierwszych wiekach naszej ery również mieliśmy do czynienia z całkowitą wymianą jednego medium na inne. Zwój, przez całe tysiąclecia będący podstawowym nośnikiem informacji, został wyparty przez kodeks, czyli zestaw kartek zszytych z jednej strony i oprawionych w okładki.

Wejście kodeksu jako dominującej formy nośnika informacji nie obyło się bez kosztów. W pierwszych wiekach naszej ery straciliśmy większość spuścizny kulturowej, gdyż tylko niewielka liczba zwojów została przez ówczesnych przepisana w nowej formie. To, co wtedy nie wydawało się istotne, zostało bezpowrotnie utracone.

Teraz to kodeks odchodzi do lamusa historii, a jego miejsce zajmują materiały w formie elektronicznej. Już samo to jest niebagatelnym problemem. Informacja w formie analogowej nie wymaga żadnych narzędzi, by mogła zostać odczytana. A dziś? Konia z rzędem temu, kto potrafi odczytać pliki tekstowe zapisane na komputerze 20 lat temu. Samo znalezienie działającej stacji dyskietek 5.25” graniczy z cudem. Dlatego tak istotne jest np. określenie standardów formatów danych. Bez działających specyfikacji i programów komputerowych już za kilkadziesiąt lat możemy mieć z odczytaniem dzisiejszych plików problem taki sam, jak z odczytaniem pisma klinowego. Digitalizacji musi towarzyszyć równoległe tworzenie cyfrowych „kamieni z Rosetty”, bo inaczej cały nasz trud pójdzie na marne.

Ogrom informacji wymagającej pilnej cyfryzacji sam w sobie jest pewną pułapką. Dzisiejsze programy digitalizacyjne są nastawione na masową digitalizację, zgodnie z zasadą „im więcej, tym lepiej”. Jeśli spojrzymy w kryteria ewaluacji konkursów grantowych na działania digitalizacyjne, to zobaczymy, że podstawowym i dominującym wskaźnikiem jest liczba wykonanych skanów. Jedynym kryterium uzupełniającym jest liczba użytkowników repozytorium czy cyfrowej biblioteki. Czy coś nam tutaj nie umyka?

Umyka nam kwestia jakości cyfryzacji. Liczba zeskanowanych stron jest oczywiście istotna, ale nijak nie określa ona przydatności zcyfryzowanych dzieł dla ich czytelników. Czy tekst da się przeszukiwać? Jak wiele błędów jest w zdigitalizowanym materiale? Jakie dodatkowe funkcjonalności zaimplementowano w oprogramowaniu? Jaki jest zakres metadanych wprowadzonych do systemu? Czy użytkownik ma możliwość eksportu do wybranego przez siebie formatu? Czy materiały da się wykorzystywać na urządzeniach mobilnych? Czy materiały zostały opatrzone przypisami, tagami i komentarzami ułatwiającymi nawigację i wyszukiwanie? Czy są udostępnione w formie umożliwiającej ich wykorzystanie przez osoby niepełnosprawne?

Jeśli dodamy do tego problemy prawne związane z brakiem możliwości legalnego udostępniania treści chronionych prawem autorskim, to zobaczymy, że zaczyna nam rosnąć poważny problem. Takie kryteria w programach finansowania cyfryzacji – poza słusznym skądinąd zabiegiem Narodowego Instytutu Audiowizualnego, który wymaga od grantobiorców, by digitalizowali zasoby z domeny publicznej lub kupowali prawa – w ogóle się nie pojawiają. A przecież to jakość zdigitalizowanego materiału ma fundamentalne znaczenie dla odbiorców, bo odróżnia zasoby, z których się w praktyce korzysta, od tych, którymi można się pochwalić w sprawozdaniu.

Można oczywiście przyjąć, że na dziś się kwestią jakości digitalizacji w ogóle nie zajmujemy. Zostawiamy to sobie na potem. Zgodnie z powiedzeniem Stalina, że „ilość jest sama w sobie jakością”, możemy założyć, że potrzebujemy maksymalnie wiele informacji w surowej, nieobrobionej formie, a kwestią jej opracowania i udostępniania zajmiemy się później. Ale w świecie szybkiego postępu technicznego to nie zadziała. Jeżeli będziemy prowadzić digitalizację niskiej jakości, bez inwestowania w narzędzia i procesy do jej obróbki i wykorzystania, to wypadniemy z gry o przyszłość. Nawet pobieżne porównanie użyteczności Europeany i Google Books pokazuje, jak wielki dystans dzieli nas od liderów postępu w dziedzinie cyfryzacji.

Wypracowanie form oceny jakości i innowacyjności procesów digitalizacyjnych nie będzie proste, ale tego wysiłku nie da się uniknąć. Bo bez odpowiednich kryteriów i narzędzi będziemy tylko produkować kolejne skany, interesujące tylko dla tych, którzy nie mają wyboru.