Subskrybuj newsletter o cyfrowej humanistyce i innowacjach w sektorze kultury

Metody i narzędzia cyfrowej humanistyki

Wybierz interesujący Cię temat albo odkryj coś nowego. Skorzystaj z gotowych narzędzi, spróbuj podstaw programowania 😎.

Humanistyka

Budujemy agenta AI z ChatGPT

Próbujemy zautomatyzować opisywanie obrazów ze zbiorów instytucji kultury i zauważamy duże niedoskonałości wybranej metody 😔

Eksplorujemy historię witryn internetowych z Wayback Machine

Szukamy archiwalnych wersji witryn polskich instytucji kultury i uczymy się korzystać z największego archiwum internetu.

Budujemy muzealnego bota na Bluesky 🤖

Wysyłamy posty za pomocą pakietu bskyr i automatyzujemy wykonywanie skryptu w Cron. Możemy publikować wpisy choćby co 5 minut 😉

Czytamy posty muzeów na Bluesky z wykorzystaniem R

Po autoryzacji za pomocą pakietu bskyr mamy dostęp do wszystkich publicznych treści na platformie.

Automatyczne wykrywanie twarzy na fotografiach historycznych z użyciem OpenCV

Pracujemy w R z fotografiami z Narodowego Archiwum Cyfrowego.

Rozpoznajemy trendy dotyczące muzeów z wykorzystaniem Google Trends

Sprawdzamy bez programowania, jaką wiedzę da się zbudować na relatywnych danych o popularności fraz wyszukiwania w Google.

Wyodrębniamy nazwy geograficzne z biogramów wybitnych Polek XIX wieku (część II)

Wykorzystujemy ChatGPT do pracy z danymi geograficznymi w formacie JSON i generowania map Leaflet/OpenStreetMap.

Wyodrębniamy nazwy geograficzne z biogramów wybitnych Polek XIX wieku (część I)

Praktykujemy rozpoznawanie jednostek nazwanych (Named Entity Recognition, NER) z wykorzystaniem narzędzia Geolocation (CLARIN-PL)

Pobieramy i analizujemy recenzje ECS publikowane na Mapach Google

Robimy to bez programowania, korzystając ze scrapera Apify oraz narzędzi konsorcjum CLARIN-PL.

Wykorzystujemy Google NotebookLM do analizy opracowań na temat muzeów w pandemii

Retrieval Augmented Generation (RAG) to technika, w której duży model językowy generuje lepsze odpowiedzi, korzystając z zewnętrznych dokumentów.

O czym opowiada Muzeum Historii Polski na YouTube? Pobieramy i analizujemy dane (część II)

Lematyzujemy teksty i przygotowujemy chmurę słów kluczowych, która jednak nie daje nam żadnej wiedzy, więc szukamy alternatywnego rozwiązania.

O czym opowiada Muzeum Historii Polski na YouTube? Pobieramy i analizujemy dane (część I)

Bez programowania ściągamy listy filmów, ich opisy i statystyki obejrzeń. Korzystamy z Google Sheets do przetworzenia danych.

Analizujemy maszynowo hasła Wikipedii poświęcone muzeom (część II)

Połączymy pobieranie danych z API z kwerendami XPath, żeby policzyć materiały wizualne w treści haseł.

Analizujemy maszynowo hasła Wikipedii poświęcone muzeom (część I)

Korzystamy z API Wikipedii za pomocą pakietu WikipediR.

Budujemy scraper w R i pozyskujemy dane z internetowej bazy filmu polskiego

Przygotujemy kwerendę XPath i napiszemy funkcję, która pozwoli pobrać dane z portalu FilmPolski.pl

Pobieramy z Facebooka posty Muzeum Narodowego w Warszawie

Użyjemy Apify, usługi umożliwiającej uruchamianie własnych scraperów do mediów społecznościowych.

Budujemy stronę konferencji w Publii (część II)

Nauczmy się dodawać i edytować motywy do Publii, zarządzać wyglądem naszej witryny i publikować ją online.

Budujemy stronę konferencji w Publii (część I)

Publii ma wszystkie cechy generatorów stron statycznych, rozbudowany CMS i nie wymaga programowania. To dobra alternatywa do WordPressa.

Badamy sieć rekomendacji książek wydawnictwa Czarne (część II)

Dopracowujemy wizualizację, wyznaczamy klastry, analizujemy wybrane relacje.

Badamy sieć rekomendacji książek wydawnictwa Czarne (część I)

Analiza sieciowa w Gephi pozwala wskazać najbardziej istotne osoby w systemie rekomendacji książek wydawnictwa Czarne.

Wspólna praca nad tekstem w Etherpadzie

Etherpad to łatwy dostęp do tekstu roboczego, błyskawiczne wprowadzanie zmian oraz ich śledzenie, system oznaczania autorstwa i chat.

Wizualizujemy w R parlamentarną dyskusję o digitalizacji (II)

Czyścimy dane językowe i generujemy chmury słów kluczowych z pakietami tm i wordcloud.

Wizualizujemy w R parlamentarną dyskusję o digitalizacji (I)

Poznajemy Korpus Dyskursu Parlamentarnego i metody tworzenia wykresów w ggplot2 i plotly.

Publikujemy raport w R z pakietem bookdown (część II)

Tworzymy publikacje w różnych stylach i dodajemy interaktywne tabele i wykresy.

Publikujemy raport w R z pakietem bookdown (część I)

Wygenerujemy raport z działalności muzeum cyfrowego w formacie mobilnym, pliku PDF i przeszukiwalnej strony internetowej.

Jak się pisze o archiwach społecznych? Analizujemy korpus (część II)

Analizujemy i wizualizujemy kolokacje, próbując czytania zdystansowanego.

Jak się pisze o archiwach społecznych? Analizujemy korpus!

Budujemy listy frekwencyjne i konkordancje.

Jak się pisze o archiwach społecznych? Budujemy korpus!

Sketch Engine to program do budowy i analizy korpusów tekstowych.

Georeferencja skanu mapy historycznej w serwisie Map Warper

Georeferencja to rejestracja w układzie współrzędnych. Spróbujmy wykonać ją na skanie planu granic Sopotu i Gdańska z 1936 roku.

Rekonstruujemy w Leaflet linie kolejowe na gdańskiej Wyspie Spichrzów

Przygotujemy cyfrową mapę historyczną na podstawie planu miasta z 1920 roku i dodamy na niej polilinie. Będziemy pracować w CodePen.

Wizualizujemy na mapie dane o wydarzeniach Nocy Muzeów w Warszawie

Efektem naszej pracy będzie mapa cyfrowa z niestandardową warstwą, zawierająca zestaw markerów uporządkowanych w klastry.

Budujemy mapę cyfrową w R z wykorzystaniem pakietu Leaflet

Wygenerowanie podstawowej mapy w R to tylko kilka linijek kodu. Do tego możemy łatwo zaimportować dane punktów z formatu JSON.

Budujemy mapę zabytków lat 90. z wykorzystaniem OpenStreetMap i Leaflet

Pracujemy w CodePen, co pozwala na łatwe eksperymentowanie i natychmiastowy podgląd efektów zmian w kodzie.

Badamy problem "żółtej Mleczarki" z wykorzystaniem R i colordistance (część II)

Porównujemy histogramy kolorów z reprodukcji Vermeera za pomocą miary earth mover’s distance (EMD) i wizualizujemy relacje między reprodukcjami.

Badamy problem "żółtej Mleczarki" z wykorzystaniem R i colordistance (część I)

Poznajemy podstawy analizy kolorów i generujemy histogramy palet dla cyfrowych reprodukcji słynnego obrazu Vermeera.

Budujemy muzealną grę tekstową z Twine i zbiorami Muzeum Emigracji (część III)

Uproszczone języki znaczników takie jak Markdown ułatwiają i przyspieszają pracę z HTML. Twine wykorzystuje własne języki tego typu.

Budujemy muzealną grę tekstową z Twine i zbiorami Muzeum Emigracji (część II)

Gra nie musi być odbiciem świata, ale odbiciem pewnych doświadczeń, które można oddać nawet w prostej mechanice rozgrywki.

Budujemy muzealną grę tekstową z Twine i zbiorami Muzeum Emigracji (część I)

Twine pozwala na tworzenie interaktywnych hipertekstowych narracji angażujących czytelnika i czytelniczkę we współtworzenie fabuły.

ngramr - szybkie wykresy trendów językowych z wykorzystaniem danych Google Ngram Viewer

Instalujemy pakiet, pobieramy dane i generujemy wykresy. Przy okazji dowiadujemy się, na czym polega gramatyka grafiki w wizualizacji danych.

Google Ngram Viewer: jak bezpiecznie przeglądać miliony książek?

Łatwo dostępne dane nie muszą być łatwe w interpretacji.

Opracujemy chmurę słów kluczowych dla obiektów widocznych na obrazach z kolekcji Muzeum Narodowego w Warszawie

Skorzystamy z Wikidanych i platformy Lexos. Będziemy uważać na ograniczenia tej metody wizualizacji.

Podstawy R w pracach ze zbiorami cyfrowymi: korzystamy z API Wellcome Collection (część II)

Piszemy własne funkcje w R, żeby pozyskiwać dane i ściągać pliki z muzeum cyfrowego.

Podstawy R w pracach ze zbiorami cyfrowymi: korzystamy z API Wellcome Collection (część I)

Nauczymy się pracować z API za pomocą języka R, który - podobnie jak Python - jest powszechnie używany w pracy z danymi.

Domena publiczna w praktyce: pobieramy reprodukcje Dürera z pomocą języka XPAth i programu Wget

Masowe pobranie skanów z domeny publicznej bez pytania o pozwolenie 😎

Podstawy pozyskiwania danych z API na przykładzie zbiorów Met Museum

API to metoda dostępu do zasobów niektórych witryn, alternatywna wobec klasycznego klikania w linki i przechodzenia ze strony na stronę.

Podstawy web scrapingu - praca z katalogiem NUKAT

Niemal każdą stronę WWW możemy potraktować jako źródło ustrukturyzowanych danych, jeśli tylko nauczymy się podstaw języka XPath.

Informacje o obiektach z Muzeum Narodowego w Warszawie z wykorzystaniem Wikidanych

ChatGPT / Ecosia pomaga nam budować zapytania SPARQL do Wikidanych, dzięki którym otrzymujemy dane na temat zbiorów Muzeum Narodowego w Warszawie.

GLAM-Wiki i wprowadzenie do narzędzi statystycznych Wikipedii

Nauczymy się sprawdzać popularność zbiorów instytucji kultury i dziedzictwa w przestrzeni Wikipedii.

Zamień metadane na opowieść z wykorzystaniem ChatGPT

ChatGPT pozwala bardzo szybko przetworzyć schematyczny opis metadanych w podstawy interesującej narracji.