Biblioteka Narodowa używa na swojej stronie plików cookies. Brak zmiany ustawień przeglądarki oznacza zgodę na ich użycie. [zamknij]

Graf Wiedzy a „semantyzacja” w cyberprzestrzeni: badanie współczesnych indeksów

Autor: Małgorzata Waleszko,

Kategorie: Opracowanie informacji, Technologia informacyjna i bibliotekarska

Tagi: , , , ,

Zostaw komentarz

Knowledge Graph (KG), czyli Graf Wiedzy to nowe narzędzie firmy Google udostępnione pod koniec 2012 r. [w wersji polskiej – w roku 2013] i mające umożliwić wyszukiwarce Google „rozumienie” zjawisk oraz relacji i zależności między obiektami, a użytkownikom – uzyskanie w wynikach wyszukiwania nie tylko linków, ale też dodatkowych informacji na konkretny temat. Na blogu korporacji, KG opisywane jest jako olbrzymia mapa wiedzy nt. elementów realnego świata i ich wzajemnych powiązań, dzięki której możliwie jest osadzanie informacji w odpowiednim kontekście. Autorki postanowiły przeanalizować, co kryje się za KG, jakie są mechanizmy jego działania i procesy interpretacji znaczeń oraz ich analogie do semiotyki Charlesa Peirce’a. W szczególności interesowało ich zrozumienie środowiska, w jakim działa algorytm KG, w tym odniesień między informacją a terminami wyszukiwawczymi oraz procesów „semantyzacji” rozumianej jako procesy semantycznego indeksowania przez Google z wykorzystaniem technologii inteligentnych agentów i technologii sieci pragmatycznej (sieci 4.0), a także przedyskutowanie elementów znaczeń pojawiających w wynikach wyszukiwania w cyberprzestrzeni.

Aby umiejscowić tę analizę w odpowiednim kontekście, w artykule omówiono ewolucję kluczowych technologii sieciowych – od początków powstania Internetu, przez sieć 2.0, mającą zapewnić platformę do kontaktów, interakcji i i współpracy, sieć 3.0 (rozwój technologii metadanych, społecznego ruchu na rzecz otwartych danych i nowej generacji sztucznej inteligencji), po sieć 4.0 (pojawienie się cyfrowej semiotyki i komunikujących się ze sobą inteligentnych aplikacji we wszechobecnej, społecznej sieci). Założono, że zrozumienie procesu tworzenia znaczeń w cyberprzestrzeni wymaga przeformułowania sposobu ujmowania sieci społecznych, semantycznych i pragmatycznych, w kierunku metasieci. Innowację Google’a wybrano jako obiekt badań, gdyż realizuje część postulatów dotyczących możliwości interpretacji znaczeń przez maszyny, a by rozpoznać strukturę i zasady funkcjonowania jego algorytmów, przeprowadzono analizę dokumentów w KG z zakresu technologii i nauk ścisłych, na postawie strony wyników wyszukiwania (SERP) Google oraz DBPedii i Freebase. Uznano, że proces „semantyzacji” zachodzi przez konwergencję technologii tworzenia znaczeń wykorzystywanych przez KG: autosugestii, tagów semantycznych, kolekcji jednostek (eksploracja powiązanych tematów) i geolokalizacji (eksploracja tematów lokalizacji), tematycznych linków (odsyłaczy do zewnętrznych stron www) i źródeł informacji, oraz rejestracji kwerend badaczy i ekstrakcji logów ich wyszukiwań. Bardziej złożone znaczenia są więc uzyskiwane dzięki logicznej analizie danych (sieć semantyczna) i ludzkiej perspektywie (sieć pragmatyczna), czyli hybrydyzacji człowieka i maszyny.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>