fbpx

Fundament Databricks Dla Inżynierów Danych

To NIE JEST kolejny kurs jakich wiele. To praktyczny przewodnik, w którym doświadczony ekspert oprowadza Cię po kluczowym ekosystemie branży danych. Opanuj Databricks od podstaw i stań się specjalistą, którego szukają topowe firmy

2 students enrolled

Czego nauczy Cię ten kurs?

“Fundament Databricks” sprawi, że będziesz mieć pełną wiedzę potrzebną do wejścia w typowy, komercyjny projekt realizowany w Databricks. Poznasz ze zrozumieniem wszystkie kluczowe komponenty i to jak wykorzystywać je w optymalny sposób

Nauczysz się nie tylko “jak to kliknąć”, ale też “jak to działa pod spodem”. Między innymi po to, aby wiedzieć “ile to kosztuje i jak ten koszt można zmierzyć”.

Nie ryzykuj – zainwestuj w kurs, który na pewno przyswoisz!

“Fundament Databricks” to nie przypadkowy zlepek materiałów. To starannie dobrany program, dzięki któremu wiedza osiądzie w Twojej głowie. Całość to solidna, polska, rzemieślnicza robota wybitnego eksperta. Zrobiona według sprawdzonej formuły, dzięki której kurs jest podobny do pozostałych Kursów RDF.

Autorem jest Krzysiek Nojman – postać znana w branży m.in. z bloga “Cegła Danych”. Od 17 lat związany jest z branżą danych, zrealizował kilka bardzo tłustych projektów w Databricks, które dały mu ogromne doświadczenie. Co więcej – poza doświadczeniem technicznym, Krzysiek jest także wykładowcą AGH. To daje niezastępowalne umiejętności tłumaczenia trudnych tematów.

Zainwestuj na serio! Zdobądź umiejętności warte grubą kasę

Databricks to jeden z kluczowych ekosystemów branży danych. To sprawia, że każdy kto potrafi się nim posługiwać, otwiera sobie drogę do lepszych perspektyw – także tych finansowych.

Choć Databricks to ekosystem stosowany przez firmy różnej wielkości, zaufały mu wielkie, rozpoznawalne marki – takie jak m.in. Rolls-Royce, NASDAQ, LG, Nestle czy Shell.

Inwestycja w kurs to inwestycja w twój rozwój intelektualny, twój wpływ na otaczający nas świat i twój portfel.

Dzień 1

1
Zasoby
2
[Moduł 1] Databricks Workspace
02:51

Startujemy z kursem! Czas na wejście w środowisko. Zaczniemy gładko;-)

3
[Moduł 1] Repo
03:43

Jak dodać zewnetrzne repozytorium do Databricks? O tym na tej lekcji!

4
[Moduł 1] Workspace UI
14:25

Nadszedł czas, by zapoznać się z naszym nowym środowiskiem pracy;-)

Dzień 2

1
[Moduł 1] Wprowadzenie do notatnika
17:37

Notatnik to proste, ale potężne narzędzie. Będzie z nami do końca, więc czas, żebyście się poznali!

2
[Moduł 1] DB Utils
13:09

Poznaj system plików, który został stworzony specjalnie dla Databricks!

3
[Moduł 1] Widgets
06:17

Dzień 3

1
[Moduł 1] Workflows (notatnikowe)
06:02

Wchodzimy w bardziej zaawansowane programowanie w ramach notatników.

2
[Moduł 1] Praca z danymi
11:08

Jak pracować z danymi? Dziś ruszamy do kluczowego tematu fachu inżyniera danych!

3
[Moduł 1] Wizualizacje
08:11

Ruszamy do analizy danych na potrzeby naszej aktualnej pracy - tyle, że dziś nauczymy się wspomagać wizualnymi narzędziami, jakie oferuje Databricks

Dzień 4

1
Test rozwojowy po module 1
4 pytania
2
[Moduł 2] Lakehouse + Medallion
19:40

Czas na drugi moduł! W tej lekcji zajmiemy się Lakehousem i wzorcem Medallion.

3
[Moduł 2] Konfiguracja Unity
05:10

Unity Catalog to jedna z kluczowych koncepcji Databricks - skonfigurujmy ją!

Dzień 5

1
[Moduł 2] Bronze
17:38

Rozkręcamy się - nauczymy się ładować surowe dane do brązowej warstwy przy użyciu autoloader'a.

2
[Moduł 2] Silver
11:20

Skoro mamy już dane brązowe, czas zasiić warstwę srebrną. Powodzenia!

3
[Moduł 2] Gold
08:46

Czas na ostatni krok w ramach Medallionu. Zasilmy złotą warstwę!

Dzień 6

1
Test rozwojowy po module 2
5 pytań
2
[Moduł 3] Delta - wprowadzenie
08:39

Czas na 3 moduł! Zaczniemy od wiedzy dotycącej Delta Lake.

3
[Moduł 3] Delta - wersjonowanie
12:08

Poznajmy kolejne możliwości tabel Delta! Dzięki dzisiejszym informacjom możesz uniknąć kilka bardzo przykrych sytuacji.

Dzień 7

1
[Moduł 3] Zmiana schematu tabeli w delta
06:40

Zmiana schematu to jeden z istotniejszych problemów, z jakimi musimy zmagać się w pracy inżyniera danych. Dzięki tej lekcji dowiesz się, jak sobie z nim radzić!

2
[Moduł 3] Optymalizacja i czyszczenie kolumn
14:45

W tej lekcji zmierzymy się z dwoma bardzo przydatnymi funkcjami: optimize i vacuum.

Dzień 8

1
[Moduł 3] Deletion vectors
12:45

Dzisiaj radzimy sobie z problemem, gdy musimy zaktualizować istniejącą tabelę i pracować na danych, które już są.

2
[Moduł 3] Liquuid Clustering
12:50

Optymalizujemy naszą pracę - dziś o grupowaniu, clusteringu, a konkretnie - liquid clusteringu.

Dzień 9

1
Test rozwojowy po module 3
5 pytań
2
[Moduł 4] Databricks - platforma
16:43

Kolejny moduł i kolejne wyzwania! Przechodzimy z wersjii Free na prawdziwe, "dorosłe" Databricksy.

3
[Moduł 4] Tworzenie workspace w Microsoft Azure
06:18

Nauczmy się integracji Azure z Databricksem!

Dzień 10

1
[Moduł 4] Koszty Databricks
21:00

Poznanie gdzie mogą uciekać pieniądze to krytyczny element pracy z technologiami chmurowymi. Dzięki tej lekcji nie przepalisz całego swojego budżetu wakacyjnego!

2
[Moduł 4] Monitorowanie kosztów Azure
07:57

Koszty Databricks to jedno, koszty Azure - to drugie. Dziś zamujemy się właśnie monitoringiem Azure.

3
[Moduł 4] Workspace UI
18:12

Znasz już interfejs Databricks. Czas nauczyć się jak wygląda ten sam panel w "prawdziwych" Databricksach!

Dzień 11

1
[Moduł 4] Compute
18:02

Compute to punkt styku inżynierów operujących na kodzie i twardej infrastruktury. Przejdź przez tę lekcję z uwagą!

2
[Moduł 4] Tworzenie klastra
12:36

Tworzenie klastra potrafi być sztuką - zrób to dobrze, a twój kod będzie działał sprawnie, nie generując ogromnych kosztów!

3
[Moduł 4] Repozytorium - drugie starcie
04:24

Przypominamy jak podpiąć repozytorium, ale już w wersji Azurowej;-)

4
[Moduł 4] Tworzenie Storage Account
05:46

Odchodzimy na chwilę od Databricks, aby utworzyć Storage Account.

5
[Moduł 4] Połączenie ze Storage Account
14:53

Z tej lekcji nauczysz się, jak łączyć Databricks i Azure Storage Account - to otworzy nam drogę do pracy z danymi na zewnętrznych przestrzeniach

Dzień 12

1
Test rozwojowy po module 4
7 pytań
2
[Moduł 5] Unity Catalog
11:55

Otwieramy moduł 5! I od razu ruszamy do Unity Catalog

3
[Moduł 5] Metastore UI
06:57

Ruszamy do konfiguracji Unity Catalog, wykorzystamy tu oczywiście metastore i poznamy jego koncepcję w praktyce.

Dzień 13

1
[Moduł 5] Konfiguruj metastore
06;39

W tej lekcji kontynuujemy pracę z Unity Catalog i metastore

2
[Moduł 5] Stwórz external location
12:58

W Databricks mamy dwa rodzaje tabel. Tym razem zajmiemy się "External Table" - jak to zrobić i po co.

3
[Moduł 5] Volumes
05:12

Wiesz jak stworzyć katalog, schematy, tabele - czas zabrać się za ostatni istotny element, czyli volume. Przypominamy to co było już w darmowej wersji.

Dzień 14

1
Test rozwojowy po module 5
7 pytań
2
[Moduł 6] SQL Warehouse
11:04

Rozpoczynamy moduł 6 - a to oznacza, że jesteś już wyraźnie za połową kursu! Czas zmienić obszar zainteresowania - w tej lekcji ruszamy do SQL Warehouse

3
[Moduł 6] SQL Edytor
13:08

Poznaj miejsce, w którym bardzo efektywnie możesz komunikować się z danymi dzięki SQL.

4
[Moduł 6] SQL Edytor Params
05:53

Kontynuujemy temat edytora SQL. Wchodzimy wgłąb, żeby wycisnąć z niego nieco więcej.

Dzień 15

1
Test rozwojowy po module 6
5 pytań
2
[Moduł 7] DLT - podstawy
09:50

Witam w kolejnym module! Zabieramy się za wyjątkową funkcjonalność Databricksów.

3
[Moduł 7] DLT - notatniki
13:23

Ruszamy z DLT porównując do kodu, który napisaliśmy wcześniej!

Dzień 16

1
[Moduł 7] Pipeline DLT
16:03

Z tej lekcji dowiesz się w jaki sposób stworzyć pipeline DLT, wraz z rozeznaniem kwestii sprzętowych.

2
[Moduł 7] DLT - walidacja
04:51

Krótko i na temat: jak uruchamiać i debugować pojedynczy notatnik?

3
[Moduł 7] Lakeflow - Wprowadzenie
05:30

Nie ma DLT! Ale czy jest się czym przejmować? Czy wiedza którą zdobyliśmy jest bezużyteczna? Niekoniecznie - poznajmy Lakeflow, następcę DLT

4
[Moduł 7] Lakeflow - pipeline
17:30

W tej lekcji zabieramy się za uruchamianie naszych "starych" notatników w ramach "nowego" systemu Lakeflow.

Dzień 17

1
Test rozwojowy po module 7
6 pytań
2
[Moduł 8] Orkiestracja - tworzenie jobów
18:06

Gratulacje, za Tobą już 7 modułów i ogrom wiedzy! Czas to co już wiesz, zorkiestrować;-)

3
[Moduł 8] Orkiestracja - błędy jobów (errors)
08:42

Niestety, "nie zawsze" (;-)) wszystko idzie zgodnie z planem. Dziś zajmiemy się jobami, które się wykrzaczyły.

4
[Moduł 8] Orkiestracja - wykonanie joba
03:21

Jak uruchomić joba? O tym w tej krótkiej lekcji!

Dzień 18

1
Test rozwojowy po module 8
8 pytań
2
[Moduł 9] CLI - wprowadzenie
07:56

Dziś wchodzimy w nowy moduł i ruszamy do bardziej zaawansowanych tematów! Zaczynami od Databricks CLI

3
[Moduł 9] Bundle deployment
07:25

Mierzymy się dziś z deploymentem bundle.

4
[Moduł 9] Bundle - analiza
06:40

Po deploymencie czas na analizę tego co udało nam się zrobić!

5
[Moduł 9] Databricks Connect
08:30

W tej lekcji poznasz dodatkowe metody logowania.

Zakończenie

1
Rozmowa Rekrutacyjna
09:14

Za Tobą cały kurs! Czas na ostatnie starcie, bonusowe, w ramach którego przećwiczymy razem rozmowę rekrutacyjną

2
Egzamin kończący
17 pytań
Cały kurs za Tobą, wielkie gratulacje! Teraz zostało tylko jedno: zdać egzamin kończący całość. To jedyny test, który musisz zaliczyć w całym kursie. Nie martw się jednak - całą pewnością masz całą wiedzę, jaka jest potrzebna!
Pierwszy moduł kursu w całości operuje na w 100% darmowych rozwiązaniach. Potem , gdy przechodzimy na Azure, ryzyko rośnie, ale w kursie pokazane jest w jaki sposób ustawiać wszystko tak, aby zachować ścisłą kontrolę nad kosztami. Nie - nie wykosztujesz się;-)
Autor jest wykładowcą AGH i doskonałym ekspertem. Kurs jest w całości po polsku, przygotowany z najwyższa starannością. Z całą pewnością, zrozumiesz materiał który jest tu pokazany - nie jest on kierowany do doświadczonych!
Nie, wręcz przeciwnie - gdy coś się zmienia, w kursie będą pojawiać się aktualizacje, które sprawią, że nie zostaniesz w tyle. Jeśli zakupisz kurs, dostęp do aktualizacji będzie darmowy!
Kurs jest przygotowany po polsku, wedle sprawdzonej formuły. Jego autorem jest wyjątkowo doświadczony specjalista - Krzysiek Nojman - który dzieli się wiedzą dot. Databricks na swoim blogu. Co więcej - to wykładowca AGH, który latami szlifował swój dydaktyczny warsztat.
Oczywiście! Databricks to ekosystem, którego używają topowe firmy, płacące ogromne pieniądze swoim inżynierom. Poza tym jednak, używany jest także przez niezliczone firmy małe i średnie. Poznając Databricks, otwierasz przed sobą cały nowy, duży rynek.
Oczywiście - wystawia ją wydawca, Riotech Data Factory sp. z o.o.
Get course
Możesz obniżyć tę cenę, kupując kurs na Akademii Big Data

Includes

9:10
53 lectures
Layer 1