Humanistyka Cyfrowa

Naukowy Portal Archiwalny ArchNet prowadzi współpracę z Instytutem Józefa Piłsudskiego, na którego stronie publikowany jest Blog archiwistów i bibliotekarzy. Nowa pozycja portalu zatytułowana: „Humanistyka cyfrowa”, będzie starała się przedstawić takie aspekty rewolucji cyfrowej, które mają znaczenie dla archiwów, bibliotek, dla osób i instytucji, których zadaniem jest wprowadzanie technologii w środowisku humanistów. Nasi użytkownicy dowiedzą się między innymi dlaczego tak ważne są metadane i co jest na odwrotnej stronie zdjęcia cyfrowego, co mają do siebie Iza, Sezam i Atom i jak radzić sobie z niesfornym komputerem przy pomocy herbaty. Nowy dział dostarczy także innych informacji i nowinek przydatnych w rozszerzaniu horyzontów wiedzy.

Blog za oceanem, jak i nowy dział  Archnetu prowadzi dr Marek Zieliński, wiceprezes Instytutu Józefa Piłsudskiego w Ameryce. Autor jest prezesem i właścicielem firmy Zevax inc. oferującej usługi komputerowe, konsulting w zakresie oprogramowania, baz danych i integracji systemów komputerowych.  Autor od 1981 r. związany jest z nowojorskim prestiżowym instytutem polonijnym, od 2002 r. jest jego wiceprezesem. Mieszka i pracuje w Nowym Jorku.

Wiki-konferencja USA 2014

Rola wikipedii w cztereach typach bibliotek
Panel "Rola wikipedii w cztereach typach bibliotek". Wiki-konferencja USA 2014. Foto Piotr Puchalski

W dniach 30 maja do 1 czerwca 2014 odbyła się w w New York Law School na Manhattanie konferencja “Wikiconference USA 2014”. Konferencja zgromadziła wikipedystów z USA, którzy przedstawiali i dyskutowali gorące obecnie tematy dotyczące Wikipedii a także jej siostrzanych organizacji skupionych w Wikimedia Foundation. Oprócz problemów technicznych, szkoleń i dnia poświęconego nieformalnemu spotkaniu  (“Unconference”), wiele sesji poświęconych było tematom, które bliskie są instytucjom GLAM i organizacjom edukacyjnym, takim jak wykorzystanie Wikipedii w kursach akademickich, prawa autorskie, wikiprojekty i inne formy współpracy. Poniżej kilka refleksji z sesji w którch braliśmy udział, dzieląc się uczestnictwem w równoległych sesjach.

Dzień pierwszy konferencji zaowocował wieloma pomysłami na rozwój projektu GLAM Instytutu Piłsudskiego. Podczas sesji, na której cztery różne instytucje przedstawiały swój sposób na wykorzystanie Wikipedii, Natalie Milbrodt z Queens Library podzieliła się innowacyjnym pomysłem na "Edytaton". "Edytaton" to zebranie osób zainteresowanych daną dziedziną, podczas którego, na podstawie dokumentów danej instytucji, osoby te piszą artykuły do Wikipedii, nauczywszy się najpierw podstaw edytowania.

Poprawiony (poniedziałek, 02 czerwca 2014 20:07)

Więcej…

 

Linked Data cz. 2: gdzie są dane?

linked-data280
Fragment diagramu Linked Data z portalu LinkedData.org

Linked Data jest stosunkowo nowym zjawiskiem w sieci WWW, ideą dostępu do danych strukturalnych. Co to są dane strukturalne? WWW jest uniwersalnym nośnikiem informacji czytelnej dla człowieka - wszystkie strony internetowe, artykuły, aplikacje dają nam informacje, które możemy odczytać i zinterpretować, na przykład pytanie: "kiedy przyjedzie następny tramwaj?” i odpowiedź; “za 10 minut". Takie pytanie i odpowiedź nie są jednak łatwe do odczytania przez komputery, które potrzebują informacji w ścisłej strukturze: (“Numer przystanku: 4398, linia tramwajowa: 11, odległość od przystanku: 0.8 km, itp.)

Informacja jest zwykle zapisana w bazach danych, które po wielu latach udoskonalania są bardzo wydajne w przechowywaniu i wyszukiwaniu danych, ale fatalne w wymianie informacji. Każda baza danych zawiera wiele kolumn, nazywanych raczej dowolnie i tylko lokalny system komputerowy umie z niej wyciągnąć dane. Nowy koncept, Linked Data, przybywa tutaj z pomocą. Schemat metadanych Linked Data, o nazwie  RDF (Resource Description Framework, struktura opisu zasobów), wymaga, aby dane nie były prezentowane w trudnych do odcyfrowania tabelach, ale w prostych zdaniach, składający się z podmiotu, orzeczenia i dopełnienia. Zamiast wymyślonych nazw kolumn używamy nazw standardowych, a zamiast nazwy podmiotu używamy jego identyfikator URI (Universal Resource Identifier, uniwersalny identyfikator zasobu). Przykładowo, trywialna dla człowieka informacja o tytule tego blogu (przecież możemy przeczytać go powyżej, prawda?) zamienia się w zdanie albo “trójkę” w slangu RDF [1) www.archiwa.net/index.php?option=com_content&view=article&id=593&catid=95:blog&Itemid=42, 2)  dc:title, 3) "Linked Data cz. 2: gdzie są dane?"]. Pierwsza część to adres URI jednoznacznie wskazujący na ten artykuł, druga to "tytuł” w konkretnym standardzie metadanych (Dublin Core), a trzecia część to tekst tytułu.

Poprawiony (czwartek, 15 maja 2014 12:47)

Więcej…

 

Hakerzy i archiwiści z NASA przywracają do świetności zagubione zdjęcia księżyca.

wschod-ziemi-280
Wschód ziemi. W dolnej części odzyskane zdjęcie wysokiej jakości.

NASA opublikowało niedawno nowo odzyskane zdjęcia z sond księżycowych, wysyłanych  w latach 1966-67 w ramach programu "Lunar Orbiter". Różnica jakości pomiędzy starymi, opublikowanymi zdjęciami i nowym materiałem jest uderzająca. Historia uratowania materiału i odtworzenia wysokiej jakości obrazów jest pouczająca, a zaczyna się od roku 1986, kiedy to archiwistka Jet Propulsion Laboratory (JPL) Nancy Evans zdecydowała, że nie może, w dobrej wierze, zwyczajnie wyrzucić starego materiału.

Sondy wyposażone były kamery wysokiej jakości, z podwójnymi obiektywami, i wykonywały duże ilości zdjęć na taśmie 70 mm. Taśmy były potem wywoływane na pokładzie sondy, zdjęcia były skanowane i wysyłane na ziemię. Modulowany sygnał z sondy, był zapisywany na taśmę magnetyczną, wraz z komentarzami operatorów. Następnie cała sonda (z oryginałami zdjęć) była bezceremonialnie rozbijana o powierzchnię księżyca. Taśmy magnetyczne były wykorzystane do wydrukowania dużych obrazów na papierze (wynajmowano stare kościoły aby rozwiesić ogromne arkusze), które używano do zidentyfikowania potencjalnych miejsc lądowania na księżycu. Następnie taśmy były załadowane do pudeł i zapomniane.

Poprawiony (poniedziałek, 28 kwietnia 2014 13:14)

Więcej…

 

Unikalne identyfikatory w archiwach i bibliotekach

W zamierzchłych czasach, kiedy żyliśmy w wioskach, kontekst wystarczał do rozwikłania niejednoznaczności w języku, a w szczególności homonimów. Słowa takie jak zamek, bałwan, para, bal albo rakieta muszą być użyte w kontekscie aby były zrozumiałe (jaki obiekt przychodzi Ci na myśl, kiedy głośno wypowiesz słowo “zamek”?). Globalizacja informacji, szczególnie po powstaniu Internetu, wymaga szczególnej staranności w definiowaniu kontekstu. W powieści “Tajemniczy ogród” Frances Hodgson Burnett, występuje ptaszek, “robin”, albo po polsku rudzik. W USA “robin”, to zupełnie inny ptak, drozd wędrowny i wszyscy czytelnicy tej książki w Stanach Zjednoczonych są wprowadzeni w błąd. Użycie słowa “football” na określenie zupełnie różnych sportów w różnych częsciach świata prowadzić może tylko do śmiesznych nieporozumień, użycie słowa bilion, które czasem znaczy tysiąc milionów, a czasem milion milionów (zależnie do miejsca i czasu) może prowadzić do poważnych już konsekwencji, szczególnie finansowych.

W języku naturalnym niejednoznaczność jest przyprawą, smakiem - bez niej nie było by insynuacji, niedopowiedzeń, podtekstów, poezji. Ale w naukach, zarówno ścisłych jak i humanistycznych, niejednoznaczność jest trucizną wiedzy, i musi być bardzo starannie unikana. W roku 1735 Karol Linneusz opublikował “Systema Naturae”, pierwszą sytematyczną próbę wprowadzenia jednolitego nazewnictwa w biologii. W roku 1782 Louis-Bernard Guyton de Morveau opublikował rekomendacje jednolitego nazewnictwa chemicznego. Obie te publikacje były tylko początkiem bardzo złożonych (i ciągle ulepszanych), działajacych obecnie systemów nazewnictwa w biologii i w chemii. Podstawowym językiem - lingua franca - tych systemów jest łacina w przypadku klasyfikacji biologicznej i angielski w chemii, a nazwy w innych językach sa tylko (mniej lub bardziej jednoznacznymi) tłumaczeniami.

Poprawiony (poniedziałek, 28 kwietnia 2014 19:20)

Więcej…

 

Dlaczego cyfrowo?

Dlaczego ważne są technologie cyfrowe, skanowanie i digitalizacja dokumentów i książek i innych obiektów? Jakie jest uzasadnienie ogromnego wysiłku przekształcania spuścizny kulturowej w postać cyfrową? Często słyszę takie pytania - od historyków, którzy preferują zapach i dotyk oryginalnych dokumentów lub archiwistów, którzy twierdzą, że mikrofilmy są wystarczająco dobre. Czy cyfryzacja to tylko moda, która wkrótce przejdzie, czy też ma to głębsze uzasadnienie?

“Cyfrowe” jest ważne - dla archiwów, bibliotek, muzeów (GLAM) oraz dla wszystkich producentów i konsumentów dóbr kultury. Omówimy tu trzy powody przechodzenia do cyfrowego przetwarzania informacji: Zabezpieczanie, Znajdywalność (discoverablity) i Dostęp.

Zabezpieczanie

Układ cyfrowy jest tylko jedną z wielu implementacji dyskretnych systemów przechowywania i obróbki informacji. Większość sygnałów, które docierają do naszych zmysłów, np. widok tęczy, symfonia lub zapach róży, można uznać za analogowe. Sygnał analogowy może przyjąć dowolną wartość, na przykład dźwięku lub koloru. Zakres jest zazwyczaj ograniczony jedynie możliwościami naszych zmysłów - nie widzimy podczerwieni, ani słyszymy ultradźwięków itp. Ale sygnał optyczny, po tym jak wpadnie do naszego oka lub kamery cyfrowej, nie jest dalej przetwarzany jako sygnał ciągły. Czujniki światła w siatkówce (czopki i pręciki) działają na zasadzie “wszystko albo nic”, podobnie dzieje się w kamerze gdzie każdy element czujnika rozkłada światło na ograniczoną liczbę poziomów.  Sygnał zostaje zmieniony w informację - wkraczamy tu w sferę dyskretności. W układzie dyskretnym tylko ograniczona, przeliczalna liczba stanów jest dozwolona, nie ma nic pomiędzy. W nowoczesnych komputerach cyfrowych podstawową jednostką informacyjną jest bit, który może posiąść tylko dwa stany (zwyczajowo zwane 0 i 1). Matematyczna teoria informacji, po raz pierwszy zaproponowana przez Claude E. Shannona, również używa jako jednostki binarnego bitu, z implikacją, że informacja w naturze swojej jest dyskretna. W komputerach, pojedyncze bity są zazwyczaj ułożone w grupy: 8 bitów w określonej kolejności nazywa się bajtem. W celu utrzymania ogólnego charakteru dyskusji, najmniejsza jednostkę systemu dyskretnego będziemy dalej nazywać znakiem, a ciąg znaków słowem.

Poprawiony (piątek, 04 kwietnia 2014 02:41)

Więcej…

 

Wikipedia w Instytucie Piłsudskiego

Wikipedyści w Instytucie Piłsudskiego
Wikipedysta - Rezydent Piotr Puchalski na szkoleniu w Instytucie Piłsudskiego prowadzonym przez Dorothy Howard (po prawej), wikipedystkę z Metropolitan Library Council.

Wikipedia jest dziś największym źródłem wiedzy o charakterze encyklopedycznym, dostępnym w sposób otwarty dla każdego. Od naukowców do uczniów w szkole, wszyscy posługują się Wikipedią. Wikipedia ma miliony odsłon dziennie, ponad 250 wersji językowych i zawiera ponad 20 milionów artykułów. Polska Wikipedia ma ponad milion artykułów i jest jedną z największych Wikipedii, obecnie na imponującym 9 miejscu na świecie.

Synergia pomiędzy Wikipedią a Instytutem Piłsudskiego nie podlega wątpliwości. Zadaniem Wikipedii jest rozpowszechnianie wiedzy; Instytut, z racji swoich zasobów, archiwalnych, muzealnych, bibliotecznych i innych, stanowi bezcenne tej wiedzy zródło, ktore chce udostępnić jak najszerzej. Niedawno pisałem o GLAM i znaczeniu instytucji w tym sektorze dla udostępniania wiedzy. Dziś więcej  o inicjatywach Instytutu związanych z Wikipedią.

Czym jest Wikipedia?

Jest to otwarta encyklopedia dostępna elektronicznie, którą tworzą i edytują wolontariusze na całym świecie. Każdy może wziąć udział w tworzeniu artykułów, nie potrzeba do tego żadnego zezwolenia ani przynależności do jakiejś organizacji (wskazane, ale niekonieczne jest zalogowanie się). Wikipedia powstała w 2001 i niedługo będzie obchodzić 15 lecie. Jest jedną z rosnącej grupy inicjatyw jej macierzystej instytucji - Wikipedia Foundation. Działanie Wikipedii opiera się na trzech podstawowych zasadach:

Poprawiony (poniedziałek, 24 marca 2014 20:48)

Więcej…

 

Iza, Zosia i Atom odwiedzają archiwa

zosia-atomSeminarium pod tytułem “ZoSIA vs. AtoM. Dwa systemy do zarządzania zasobem archiwalnym” które odbyło się w Warszawie w dniach 23 i 24 stycznia 2013 jest ciekawym dla obserwatora z zewnątrz spojrzeniem na ewolucyjną drogę, jaka idą archiwa w komputeryzacji katalogów zasobów archiwalnych. W odróżnieniu od biblioteki, która posługuje się standardowymi narzędziami komputerowymi od ponad 40 lat, archiwum dopiero względnie niedawno weszło na drogę standaryzacji. Potrzeba zmusiła organizacje archiwalne do tworzenia narzędzi, wczesne ich użycie pozwoliło na szybką komputeryzacje procesu inwentaryzacji zasobów, a szerokie użycie utrudnia do dziś zmiany i ewolucje. Tak powstały programy SEZAM i IZA które z dużym powodzeniem służyły archiwstom. Nie oparte na standardach wymiany danych (takich jak EAD) i oparte na przestarzałą juz dziś technologie, spełniły jednak bardzo ważna funkcję wprowadzenia dość jednolitego systemu do polskiej archiwistyki (i przez przedłużenie do tych archiwów polonijnych które zdecydowały sie na komputeryzację).

Poprawiony (poniedziałek, 17 marca 2014 13:40)

Więcej…

 
Więcej artykułów…
Instytut Józefa Piłsudskiego


Instytut
Józefa Piłsudskiego
w Ameryce

Dawne pismo


Archiwum Narodowe
w Krakowie

Ogłoszenia




NOMA
Norma opisu materiałów archiwalnych
w archiwach państwowych
dostepna na stronie NDAP

SEJM RP

23 września 2015 r.
ogłosił jednolity tekst ustawy
o narodowym zasobie
archiwalnym i archiwach

(Dz.U. z 2016 poz.352)

Słowniki archiwalne

A Glossary

of
Archival and Records
Terminology

SAA
Online Glossary

Online-Lexikon „Terminologie der Archivwissenschaft“
Terminologie der Archivwissenschaft
Online-Lexikon


Portail International Archivistique Francophone

Portail International
Archivistique Francophone
On-Line Glossaire


ICA
Multilingual
Archival Terminology