Tytuł/nazwa warsztatu | Big data „w pigułce”. Korzystanie z darmowych narzędzi analitycznych (poziom zaawansowany) |
Preferowana data i godzina | 17.11.2024 w godzinach 10:00-18:00 |
Preferowana forma spotkania | Online |
Osoba prowadząca warsztat(y) | Piotr Luczys – socjolog; certyfikowany inżynier wymagań IREB®, starszy analityk biznesowo-systemowy w Centrum Rozwoju Szkół Wyższych Merito Sp. z o.o. (od 2021) i wykładowca na Wydziale Historii UAM (od 2020). Pracował także jako specjalista ds. wdrażania technologii badawczych i analitycznych (2018-2022), specjalista ds. badań sieciowych (2017-2018) w Public Profits Sp. z o.o. oraz jako starszy technik w Instytucie Socjologii UAM (obecnie: Wydział Socjologii UAM), w latach 2014-2016. Absolwent studiów doktoranckich w Zakładzie Badań Kultury Wizualnej i Materialnej Instytutu Socjologii UAM (2009-2015) oraz studiów podyplomowych Zarządzanie Projektami IT (2019-2020) i Analityk biznesowy (2023-2024) na Uniwersytecie WSB Merito Poznań. Realizator wielu grantów finansowanych przez KBN, NCN, NCBiR, MKiDN oraz jednostki samorządowe. Więcej informacji: www.linkedin.com/in/piotr-luczys. |
Krótki opis warsztatu | Uczestnicy warsztatu zostaną zaznajomieni z podstawami wykorzystywania algorytmów uczenia maszynowego i sztucznej inteligencji w analizowania dużych zbiorów danych – zarówno ilościowych, jak i jakościowych. W jego trakcie zaprezentowany zostanie cały proces postępowania ze zbiorami big data (giga danych), począwszy od ich wyszukiwania, eksplorowania i czyszczenia, a na działaniach analitycznych skończywszy. Wszystkie elementy procesu zostaną omówione na przykładach, z wykorzystaniem darmowego, powszechnie dostępnego w internecie oprogramowania i zbiorów danych, dzięki czemu uczestnicy będą mogli w łatwy sposób kontynuować zgłębianie tematyki analizowania dużych zbiorów danych już po zakończeniu warsztatu, na własną rękę. |
Ramowy program warsztatu | Big data – podstawowe definicje;Darmowe narzędzia analityczne – podstawowe cechy;Wyszukiwanie i eksplorowanie big data w zasobach sieciowych;Importowanie i przeglądanie zbiorów danych;Czyszczenie i jakościowa waloryzacja danych;Rodzaje uczenia maszynowego – problemy, metody i algorytmy ich rozwiązywania;Nienadzorowane uczenie maszynowe (przykład klasteryzacji);Nadzorowane uczenie maszynowe (przykład klasyfikacji i regresji);Sztuczna inteligencja (AI) – neurony, sieci i to, co ukryte;Uczenie maszynowe ze wzmocnieniem (dane treningowe, automatyzacja i uproszczone sieci neuronowe);Perceptron wielowarstwowy i klasyczne sieci neuronowe;Rozpoznawanie obrazów i uczenie głębokie;Problemy analityki big data (przetrenowanie, charakter analizowanych zbiorów, interpretacja, data storytelling);Rozwijanie prezentowanych metod i algorytmów;„Co dalej…?”, czyli co czytać, gdzie szukać i jak rozwijać swoje kompetencje. |
Cele szczegółowe warsztatu | BDP_W01 – definiuje i rozróżnia podstawowe etapy analizowania giga danych (big data); BDP_W02 – zna podstawowe funkcje oprogramowania do analizowania dużych zbiorów danych; BDP_W03 – rozróżnia podstawowe elementy algorytmizacji rozwiązań z zakresu uczenia maszynowego; BDP_U01 – potrafi przeprowadzić analizę eksploracyjną w zbiorach giga danych (big data); BDP_U02 – potrafi korzystać z algorytmów ML i AI do analizowania różnorodnych zbiorów danych; BDP_U03 – potrafi zaplanować dobór algorytmów ML i AI do odpowiedniej klasy problemów; BDP_U04 – jest w stanie stworzyć model wizualnej interpretacji giga danych (big data); BDP_K01 – jest zorientowany na stałe optymalizowanie procesów analizy dużych zbiorów danych; BDP_K02 – kreatywnie łączy kompetencje związane ze stosowaniem algorytmów ML/AI z interpretatywnym podejściem do analizowania efektów ich działania. |
Adresaci warsztatu | Warsztat jest adresowany do osób, które nie miały do tej pory styczności z analizowaniem giga danych (big data) lub miały go wyłącznie w warstwie teoretycznej (bez zastosowania stosownego oprogramowania, analizowania działania algorytmów, projektowania procesu itd.). Wymagana jest: znajomość podstawowych terminów z zakresu statystyki opisowej (zwłaszcza w zakresie miar tendencji centralnej);umiejętność posługiwania się komputerem z systemem Windows z dostępem do internetu (instalowanie oprogramowania, korzystanie z wyszukiwarki Google i funkcji Eksploratora Windows itp.);znajomość języka angielskiego w stopniu średniozaawansowanym (język domyślny omawianego oprogramowania). Udział w warsztacie nie wymaga dodatkowego przygotowania matematycznego i/lub programistycznego, ani doświadczenia w zakresie zaawansowanej analizy danych. Warsztat prowadzony jest w języku polskim. |
Materiały dla uczestników i literatura do zapoznania się przed warsztatem | Uczestnicy nie są zobligowani do zapoznania z jakimikolwiek materiałami i/lub literaturą przed rozpoczęciem warsztatu. Osoby szczególnie zainteresowane tematem, mogą zapoznać się z następującymi pozycjami: D. Stephenson, Big data, nauka o danych i AI bez tajemnic. Podejmuj lepsze decyzje i rozwijaj swój biznes!, Wyd. Helion S.A., Gliwice 2019;J. Krohn, G. Beyleveld, A. Bassens, Uczenie głębokie i sztuczna inteligencja. Interaktywny przewodnik ilustrowany, Wyd. Helion S.A., Gliwice 2022. |
Materiały po warsztacie | Uczestnicy warsztatu otrzymają (po zakończeniu spotkania) prezentację, zawierającą opis (krok po kroku) wszystkich elementów warsztatowych: praktycznych i problemowych. Ten sam materiał będzie wykorzystywany w trakcie trwania warsztatu (z niezbędnymi skrótami, z uwagi na czas trwania warsztatu). |
Inne, ważne informacje dla uczestników | Każdy uczestnik warsztatu powinien mieć do swojej dyspozycji: komputer z systemem Windows 10 (64-bit) i uprawieniami administratora/właściciela (aby możliwe było instalowanie na nim oprogramowania);ok. 10-12GB miejsca wolnego na dysku twardym (partycji systemowej), celem instalowania wskazanego oprogramowania;szybkie połączenie z internetem (z uwagi na konieczność pobierania zbiorów danych w trakcie trwania warsztatu + możliwość uczestniczenia w połączeniu wideokonferencyjnym). |