Przejdź do treści
Logo Polsko-Japońskij Akademii Technik

Informacje ogólne

Ważne wydarzenia

Opis studiów

W pierwszych dwóch dekadach XXI wieku dał się zaobserwować gwałtowny wzrost zapotrzebowania na analizę dużych zbiorów danych. Rozwój technologii internetowych oraz informacyjnych i komunikacyjnych w połączeniu z jakościową zmianą zachodzącą w technice, naukach ścisłych, przyrodniczych, ekonomicznych, społecznych, a także w medycynie – spowodował możliwość kolekcjonowania danych rzędu terabajtów lub nawet petabajtów na potrzeby studium pojedynczych przypadków. Takie ilości danych nie są możliwe do przeanalizowania metodami klasycznymi.


Z drugiej strony reguły oraz informacje, które mogą być w nich zawarte – gdy odpowiednio wykorzystane – w sposób istotny mogą przyczynić się do poprawy jakości życia jednostki, jednostki jako pacjenta, społeczeństwa, organizacji korporacyjnej, mogą wreszcie być kluczowe przy odkrywaniu nowych praw przyrody i struktury materii zarówno w skali mikro jak i makroświata. Wraz ze wzrostem objętości zgromadzonych danych obserwujemy rozwój nowej nauki określanej jako Data Science, a wraz z rozwojem technologicznym tworzą się możliwości ich analizy z wykorzystaniem niekonwencjonalnych metod inżynierii dużych zbiorów danych zwanych Big Data.


Dowiedz się więcej!


Dlaczego warto wybrać nasze studia?

Kompleksowe podejście do analizy dużych zbiorów danych

Program łączy inżynierię danych, Data Science, analizę danych oraz Big Data, pokazując pełny proces pracy z danymi – od ich przetwarzania, przez analizę, aż po praktyczne wykorzystanie wyników.

Realne technologie wykorzystywane w biznesie i nauce

Studia obejmują pracę z ekosystemem Apache (Hadoop, Spark, HBase, Cassandra, MLlib, Mahout) oraz rozwiązaniami Open Source i komercyjnymi (Microsoft Azure, Google Cloud, SAS), co przekłada się na realne kompetencje rynkowe.

Big Data w praktyce – lokalnie i w chmurze

Słuchacze uczą się przetwarzania danych zarówno na komputerach lokalnych, klastrach, jak i w środowiskach chmurowych, poznając różnice, ograniczenia i zalety każdego podejścia.

Silne powiązanie Big Data z uczeniem maszynowym

Program pokazuje, jak Big Data współpracuje z machine learning i deep learning – od klasycznych algorytmów, przez biblioteki ML, po implementację własnych rozwiązań analitycznych.

Nauka Python i R w kontekście analizy danych

Studia obejmują podstawy programowania w Pythonie i R, wizualizację danych, pracę z bibliotekami NumPy, SciPy, Matplotlib, Scikit-learn oraz narzędziami analitycznymi wykorzystywanymi w Data Science.

Samodzielna praca nad realnym problemem analitycznym

Zwieńczeniem studiów jest wybór problemu, przygotowanie środowiska, implementacja rozwiązania oraz analiza wyników – dokładnie tak, jak wygląda praca inżyniera Big Data w praktyce.


Do kogo skierowane są studia Big Data – inżynieria dużych zbiorów danych?

Do osób, które chcą rozwijać się w obszarze analizy dużych zbiorów danych
Studia są skierowane do kandydatów, którzy chcą zdobyć praktyczne kompetencje w analizie i przetwarzaniu Big Data na potrzeby biznesu, nauki, medycyny oraz wsparcia procesów decyzyjnych.

Do absolwentów kierunków technicznych, informatycznych i ścisłych
Program jest dedykowany osobom po studiach I lub II stopnia m.in. z informatyki, kierunków technicznych, ekonomicznych oraz pokrewnych, które chcą poszerzyć swoje kompetencje o Data Science i inżynierię danych.

Do informatyków i programistów chcących wejść w świat Big Data
Studia będą dobrym wyborem dla specjalistów IT, którzy chcą pracować z technologiami Apache (Spark, Hadoop, Cassandra, HBase), chmurą obliczeniową oraz algorytmami uczenia maszynowego.

Do specjalistów z innych branż wykorzystujących dane w pracy zawodowej
Program jest odpowiedni również dla analityków, inżynierów, ekonomistów i specjalistów z innych dziedzin, którzy chcą wykorzystywać analizę danych i narzędzia Big Data w codziennej pracy.

Do osób posiadających podstawy programowania i analizy danych
Od kandydatów oczekiwana jest podstawowa znajomość programowania (np. Python, Java, C++), relacyjnych baz danych, systemów UNIX oraz języka angielskiego na poziomie umożliwiającym pracę z dokumentacją techniczną.


  • Studia podyplomowe kierowane są do osób pragnących zdobyć kompetencje w analizie i przetwarzaniu dużych ilości danych na potrzeby biznesu, nauki, medycyny oraz w innych przestrzeniach aktywności z przeznaczeniem do wykorzystania w roli narzędzi wsparcia podejmowanych decyzji.
  • Kandydaci na studia podyplomowe powinni być absolwentami studiów I lub II stopnia kierunków informatycznych lub pokrewnych, ekonomicznych, technicznych. Rekomendowana jest podstawowa znajomość: dowolnego języka programowania (np. Python, Java, C++), użytkowania systemów klasy UNIX (np. Linux, Solaris, MacOS), teorii relacyjnych baz danych, metod statystycznych. Wymagana znajomość języka angielskiego przynajmniej na poziomie B2.
  • Studia są przeznaczone zarówno dla informatyków, jak i dla specjalistów z innych dziedzin, którzy chcą stosować rozwiązania szeroko rozumianej Data Science wspomagające ich codzienną pracę zawodową w szczególności przy podejmowaniu decyzji.

Godziny otwarcia

Poniedziałek 8.00–17.00
Wtorek 8.00–17.00
Środa 8.00–17.00
Czwartek 8.00–17.00
Piątek 8.00–16.00

Centrum Kształcenia Podyplomowego

Obsługa kandydatek i kandydatów na studia w PJATK odbywa się stacjonarnie, telefonicznie i mailowo.

Dokumenty można dostarczać drogą elektroniczną – wgrywając skany na swoim indywidualnym koncie rekrutacyjnym.

Informacja o przetwarzaniu danych osobowych osób rekrutujących się na studia w PJATK


Kontakt

Biuro Centrum Kształcenia Podyplomowego
pokój nr 13 w budynku B
tel. (+48) 512 497 506
tel. (+48) 504 640 530
tel. (+48) 22 58 44 596
tel. (+48) 22 58 44 597

e-mail: podyplomowe@pja.edu.pl
ul. Koszykowa 86
02-008 Warszawa

Kierownik studiów

prof. dr hab. Grzegorz Marcin Wójcik

specjalizuje się w neuroinformatyce obliczeniowej oraz ilościowej elektroencefalografii (EEG). Uzyskał stopień doktora nauk fizycznych (2004), habilitację w dziedzinie biocybernetyki i inżynierii biomedycznej (2013) oraz tytuł profesora w dyscyplinie informatyki technicznej i telekomunikacji (2024). Obecnie kieruje Katedrą Systemów Inteligentnych i Data Science w Polsko-Japońskiej Akademii Technik Komputerowych w Warszawie.
Prof. Wójcik prowadził liczne badania nad zastosowaniem sztucznej inteligencji (AI) i obliczeń neuronowych w modelowaniu układu wzrokowego ssaków, wykorzystując zaawansowane techniki analizy danych i modelowania systemów biologicznych. Przez wiele lat zajmował się również analizą sygnałów EEG z zastosowaniem metod uczenia maszynowego, zaawansowanej statystyki oraz konwolucyjnych sieci neuronowych, koncentrując się na rozpoznawaniu chorób i zaburzeń psychicznych, analizie procesów związanych z oceną wiarygodności źródeł oraz podejmowaniem decyzji w warunkach stresu i obciążenia psychicznego.
Jego dorobek naukowy obejmuje publikacje z zakresu obliczeń neuronalnych (w tym neuromorficznych), uczenia maszynowego oraz symulacji wielkoskalowych układów neuronów biologicznych. Szczególne miejsce zajmuje w nich analiza EEG procesów kognitywnych i wyższych funkcji psychicznych z wykorzystaniem metodologii data science. Prof. Wójcik współpracował z wieloma międzynarodowymi ośrodkami badawczymi, takimi jak Uniwersytet Oksfordzki, Uniwersytet w Edynburgu, Uniwersytet w Stirling, Uniwersytet Hebrajski w Jerozolimie oraz Uniwersytet Ben Guriona w Beer Szewie. Posiada również bogate doświadczenie w zarządzaniu złożonymi projektami badawczymi o wysokim stopniu zaawansowania technologicznego, zwłaszcza w obszarze systemów obliczeniowych i neuroinformatyki.

Kontakt: gmwojcik@pjwstk.edu.pl


Poznaj zespół Centrum Kształcenia Podyplomowego

Nikt nie opowie o studiach podyplomowych oferowanych przez Centrum Kształcenia Podyplomowego lepiej niż ich twórcy. Zapraszamy do wysłuchania paru słów dyrektora Centrum Kształcenia Podyplomowego, Pani Marty Godzisz, która opowie, dlaczego nasze studia podyplomowe są wyjątkowe.