Wybierz interesujący Cię temat albo odkryj coś nowego. Skorzystaj z gotowych narzędzi, spróbuj podstaw programowania 😎.
Próbujemy zautomatyzować opisywanie obrazów ze zbiorów instytucji kultury i zauważamy duże niedoskonałości wybranej metody 😔
Szukamy archiwalnych wersji witryn polskich instytucji kultury i uczymy się korzystać z największego archiwum internetu.
Wysyłamy posty za pomocą pakietu bskyr i automatyzujemy wykonywanie skryptu w Cron. Możemy publikować wpisy choćby co 5 minut 😉
Po autoryzacji za pomocą pakietu bskyr mamy dostęp do wszystkich publicznych treści na platformie.
Pracujemy w R z fotografiami z Narodowego Archiwum Cyfrowego.
Sprawdzamy bez programowania, jaką wiedzę da się zbudować na relatywnych danych o popularności fraz wyszukiwania w Google.
Wykorzystujemy ChatGPT do pracy z danymi geograficznymi w formacie JSON i generowania map Leaflet/OpenStreetMap.
Praktykujemy rozpoznawanie jednostek nazwanych (Named Entity Recognition, NER) z wykorzystaniem narzędzia Geolocation (CLARIN-PL)
Robimy to bez programowania, korzystając ze scrapera Apify oraz narzędzi konsorcjum CLARIN-PL.
Retrieval Augmented Generation (RAG) to technika, w której duży model językowy generuje lepsze odpowiedzi, korzystając z zewnętrznych dokumentów.
Lematyzujemy teksty i przygotowujemy chmurę słów kluczowych, która jednak nie daje nam żadnej wiedzy, więc szukamy alternatywnego rozwiązania.
Bez programowania ściągamy listy filmów, ich opisy i statystyki obejrzeń. Korzystamy z Google Sheets do przetworzenia danych.
Połączymy pobieranie danych z API z kwerendami XPath, żeby policzyć materiały wizualne w treści haseł.
Korzystamy z API Wikipedii za pomocą pakietu WikipediR.
Przygotujemy kwerendę XPath i napiszemy funkcję, która pozwoli pobrać dane z portalu FilmPolski.pl
Użyjemy Apify, usługi umożliwiającej uruchamianie własnych scraperów do mediów społecznościowych.
Nauczmy się dodawać i edytować motywy do Publii, zarządzać wyglądem naszej witryny i publikować ją online.
Publii ma wszystkie cechy generatorów stron statycznych, rozbudowany CMS i nie wymaga programowania. To dobra alternatywa do WordPressa.
Dopracowujemy wizualizację, wyznaczamy klastry, analizujemy wybrane relacje.
Analiza sieciowa w Gephi pozwala wskazać najbardziej istotne osoby w systemie rekomendacji książek wydawnictwa Czarne.
Etherpad to łatwy dostęp do tekstu roboczego, błyskawiczne wprowadzanie zmian oraz ich śledzenie, system oznaczania autorstwa i chat.
Czyścimy dane językowe i generujemy chmury słów kluczowych z pakietami tm i wordcloud.
Poznajemy Korpus Dyskursu Parlamentarnego i metody tworzenia wykresów w ggplot2 i plotly.
Tworzymy publikacje w różnych stylach i dodajemy interaktywne tabele i wykresy.
Wygenerujemy raport z działalności muzeum cyfrowego w formacie mobilnym, pliku PDF i przeszukiwalnej strony internetowej.
Analizujemy i wizualizujemy kolokacje, próbując czytania zdystansowanego.
Budujemy listy frekwencyjne i konkordancje.
Sketch Engine to program do budowy i analizy korpusów tekstowych.
Georeferencja to rejestracja w układzie współrzędnych. Spróbujmy wykonać ją na skanie planu granic Sopotu i Gdańska z 1936 roku.
Przygotujemy cyfrową mapę historyczną na podstawie planu miasta z 1920 roku i dodamy na niej polilinie. Będziemy pracować w CodePen.
Efektem naszej pracy będzie mapa cyfrowa z niestandardową warstwą, zawierająca zestaw markerów uporządkowanych w klastry.
Wygenerowanie podstawowej mapy w R to tylko kilka linijek kodu. Do tego możemy łatwo zaimportować dane punktów z formatu JSON.
Pracujemy w CodePen, co pozwala na łatwe eksperymentowanie i natychmiastowy podgląd efektów zmian w kodzie.
Porównujemy histogramy kolorów z reprodukcji Vermeera za pomocą miary earth mover’s distance (EMD) i wizualizujemy relacje między reprodukcjami.
Poznajemy podstawy analizy kolorów i generujemy histogramy palet dla cyfrowych reprodukcji słynnego obrazu Vermeera.
Uproszczone języki znaczników takie jak Markdown ułatwiają i przyspieszają pracę z HTML. Twine wykorzystuje własne języki tego typu.
Gra nie musi być odbiciem świata, ale odbiciem pewnych doświadczeń, które można oddać nawet w prostej mechanice rozgrywki.
Twine pozwala na tworzenie interaktywnych hipertekstowych narracji angażujących czytelnika i czytelniczkę we współtworzenie fabuły.
Instalujemy pakiet, pobieramy dane i generujemy wykresy. Przy okazji dowiadujemy się, na czym polega gramatyka grafiki w wizualizacji danych.
Łatwo dostępne dane nie muszą być łatwe w interpretacji.
Skorzystamy z Wikidanych i platformy Lexos. Będziemy uważać na ograniczenia tej metody wizualizacji.
Piszemy własne funkcje w R, żeby pozyskiwać dane i ściągać pliki z muzeum cyfrowego.
Nauczymy się pracować z API za pomocą języka R, który - podobnie jak Python - jest powszechnie używany w pracy z danymi.
Masowe pobranie skanów z domeny publicznej bez pytania o pozwolenie 😎
API to metoda dostępu do zasobów niektórych witryn, alternatywna wobec klasycznego klikania w linki i przechodzenia ze strony na stronę.
Niemal każdą stronę WWW możemy potraktować jako źródło ustrukturyzowanych danych, jeśli tylko nauczymy się podstaw języka XPath.
ChatGPT / Ecosia pomaga nam budować zapytania SPARQL do Wikidanych, dzięki którym otrzymujemy dane na temat zbiorów Muzeum Narodowego w Warszawie.
Nauczymy się sprawdzać popularność zbiorów instytucji kultury i dziedzictwa w przestrzeni Wikipedii.
ChatGPT pozwala bardzo szybko przetworzyć schematyczny opis metadanych w podstawy interesującej narracji.