Biblioteka Narodowa używa na swojej stronie plików cookies. Brak zmiany ustawień przeglądarki oznacza zgodę na ich użycie. [zamknij]

Archiwizacja danych naukowych i ich udostępnianie w modelu open access

Autor: Alina Nowińska,

Kategorie: Wykorzystanie informacji i socjologia informacji, Źródła informacji, Opracowanie informacji, Dostęp do publikacji

Tagi: , , , , , , , ,

Zostaw komentarz

W artykule przedstawiono krótko międzynarodowe inicjatywy związane z archiwizacją danych i ich upublicznianiem w otwartym dostępie, umożliwiającym równoczesne, ponowne wykorzystywanie tych zasobów wielu użytkownikom (ang. data curation). Omówiono 3 raporty z projektów europejskich, które zdaniem autora, dobrze wprowadzają w tematykę archiwizacji, przetwarzania i ekstrakcji danych oraz główne referaty dotyczące tej tematyki wygłoszone w 2012 roku na konferencji w Bielefeld i na Generalnej Konferencji IFLA w Helsinkach.

Za istotne raporty autor uznaje:

1) „Osiodłać falę. Jak Europa może wykorzystać narastającą falę danych naukowych” (Riding the wave. How Europe can gain from the rising tide of scientific data). Projekt opracowany na zlecenie Komisji Europejskiej zrealizowany został przez międzynarodową grupę ekspertów w 2010 r. . We wnioskach stwierdza się m.in. że wspólne korzystanie z tych samych zasobów danych naukowych pozwoli na lepsze rozwiązywanie narastających problemów społecznych, a naukowcy, rządy i społeczeństwa do 2030 r. zrozumieją znaczenie inicjatywy data curation;

2) „Analiza strukturalna. Spojrzenie z wewnątrz. Problemy zapewnienia stałego dostępu do wyników europejskich badań naukowych” (PARSE. Insight: INSIGHT into issues of permanent Access to the records of science in Europe). Projekt zrealizowano w latach 2009-2010 pod kierunkiem Toma Kuipersa i Jeffreya van der Hoevena z Królewskiej Biblioteki Holandii. Badano opinie użytkowników nt. gromadzenia i stałego dostępu do wyników badań naukowych. Sondażem objęto 3 grupy użytkowników: uczonych z różnych dyscyplin (1389 osób), specjalistów zarządzających danymi w instytucjach i organizacjach (273) i wydawców (178), głównie z państw UE (44%) i ze Stanów Zjednoczonych (33%). Specjaliści reprezentowali przede wszystkim biblioteki (63% — naukowe, 9% — narodowe). Pytano o cele inicjatywy data curation, przeszkody w realizacji tej idei, celowość tworzenia międzynarodowej infrastruktury oraz bieżącą praktykę archiwizacji informacji (objętość własnej produkcji, rodzaje gromadzonych danych, stosunek do publicznego udostępniania swoich wyników, miejsce ich przechowywania itp.) Za główny cel gromadzenia danych uznano możliwość ich ponownego wykorzystania (91% uczonych), za przeszkody – brak właściwego oprogramowania, sprzętu i infrastruktury. Tylko 25% uczonych oferowało swoje wyniki w otwartym dostępie; wskazywano przy tym na przeszkody prawne i niebezpieczeństwo plagiatów. Wydawcy (88% dużych i 75% średnich) zwrócili uwagę na konieczność archiwizacji i stałego o dostępu do artykułów naukowych, obawiali się utraty danych w razie upadku firmy wydawniczej, proponowali, aby dane pierwotne były dołączane do artykułów w elektronicznej formie aneksu;

3) „Jak osiodłać falę. Problem działań czterech państw w zakresie problematyki dotyczącej danych naukowych” (A surfboard for riding the wave towards a four country action programme on research data). Raport z realizacji projektu ukończonego w 2011 r. opracowany przez ekspertów z W. Brytanii, Holandii, Niemiec i Danii, w którym skoncentrowano się na motywacji uczonych dążących do wspólnego wykorzystywania i archiwizacji danych oraz ustaleniu strategicznych celów tego systemu. Przybliżono tez treść referatów nt. data curation wygłoszonych w 2012 roku w na konferencji bibliotek naukowych w Bielefeld oraz na generalnej konferencji IFLA (Helsinki 2012). Na tej ostatniej skupiono się na roli bibliotek w gromadzeniu, przetwarzaniu, archiwizacji i udostępnianiu danych naukowych.

W podsumowaniu artykułu, w osobistym komentarzu końcowym autor wyraża swój sceptycyzm wobec inicjatywy data curation. Uważa, że masywy surowych danych bez wcześniejszego ustalenia konfiguracji eksperymentu, jego metodyki i celów nie mają i nigdy nie będą mieć większego znaczenia. W warunkach szybko zmieniającej się technologii wątpliwe, czy zebrane dane zostaną kiedykolwiek przez kogokolwiek wykorzystane – prościej jest zebrać nowe. Dane podstawowe (surowe) powinny być w formie cyfrowego aneksu dołączane do artykułu, a tworzenie dodatkowego systemu metadanych w celu ich opisu wydaje się być stratą sił, czasu i pieniędzy. 3-4 lata temu biblioteki podkreślały, że użytkownicy korzystają głównie z aktualnych materiałów. Archiwizacja wielkich zbiorów mało wykorzystywanych danych prowadzi do nadmiarowości informacji, być może w znacznej mierze zbędnej.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>