2023 (online)
Data Science Tech 2023 (online) to jedna z największych polskich konferencji, poświęcona danym i analityce danych. Wydarzenie odbywa się w dniu 5.12.2023 roku w formie transmisji online. Skierowane jest do specjalistów mid, senior, architekt, analityk w różnych specjalizacjach analizy danych. Konferencja zapewnia najwyższy poziom wykładów prowadzonych przez topowych prelegentów oraz przedstawicieli wiodących firm zajmujących się analityką danych w Polsce.
W dniu 5.12.2023 roku wygodnie ze swojego domu lub biura możesz w pełni bezpłatnie uczestniczyć w największym cyfrowym wydarzeniu poświęconym Data Science w Polsce.
Jesteśmy największą konferencją online stworzoną z myślą o data!
Nasza konferencja to przede wszystkim wysoki poziom merytoryczny.
Najwybitniejsi prelegenci z polskiej sceny analityki danych. Poznaj ich metody na sukces w IT!
Dołącz do nas w największych cyfrowym wydarzeniu o technologii użycia danych w Polsce! Bilet jest darmowy.
Jest to największe wydarzenie tego typu w Polsce. Ponad 3 ścieżki tematyczne jednego dnia!
Na największej konferencji online dotyczącej analizy danych nie mogło zabraknąć wspaniałych prelegentów.
Microsoft MVP
Microsoft MVP
Microsoft MVP
Jestem inżynierem uczenia maszynowego - czyli machine learning engineer. Każdego dnia zmagam się z modelami i bazami danych oraz aplikacjami analitycznymi okraszonymi ML. Robota pasjonująca i pełna wyzwań. Warto się jej przyjrzeć, bo mocno chcę aby było nas, inżynierów danych i ML, więcej. W trakcie sesji pokażę swój warsztat - zestaw narzędzi, których na co dzień używam w swojej pracy. Język R, czasami Python, nieśmiertelny SQL oraz Power BI. Opowiem jak to wszystko można pospinać aby uzyskać dobrze działające, efektowne i gotowe do wdrożenia (w chmurze czy bez chmury) rozwiązania dla analityków.
Na tym warsztacie poznasz role automatyzacji w świecie analizy danych, korzyści wynikające ze stosowania narzędzi low-code, oraz praktyczny przykład wykorzystania narzędzia do analizy danych (Power BI), a także przykład automatyzacji obsługi danych za pomocą Power Automate. Dowiesz się także czym jest Auzre Data Factory, Microsoft Fabric a także Azure Synapse Analytics. Low-Code to przyszłość i silnie rozwinięta gałąź IT. Ta sesja pozwoli Ci być na czasie ze zmianami w IT.
Modele językowe są jednym z najważniejszych trendów ostatnich miesięcy. Podczas zajęć dowiesz się poznać zestaw gotowych use case dla wykorzystania modeli językowych w usprawnianiu procesów. Zdobędziesz również wiedzę co do tego z jakich elementów można złożyć tego rodzaju rozwiązania i jakie są ich ograniczenia.
Wiele osób pracujących w IT słysząc zwrot "marka osobista" wyobraża sobie celebrytów znanych z tego, że są znani, internetowych guru od spraw wszelakich czy wyśmiewanych coachów wmawiających nam, że jesteśmy zwycięzcami. Pora to odczarować! Silna marka osobista analityka danych może służyć do powiększania wpływu na firmę/projekt, polepszania pozycji na rynku pracy czy zarabiania na swojej wiedzy. Pytanie tylko jak ją zbudować?
Model na produkcji, to model, który przeżyje. Niezależnie czy pracujemy jako freelancerzy, czy w dużym zespole w firmie produktowej, szybkie wdrożenie modelu statystycznego na produkcji ma bardzo dużo zalet. Większość systemów Data Science upada w momencie wdrożenia. Pojawiające się problemy infrastrukturalne i niespodziewane koszty doprowadzają do zamknięcia projektu. Dobrze więc zrezygnować z procesu ciągłego na rzecz równoległej pracy z usprawnianiem modelu i jednoczesnym budowaniem infrastruktury do jego serwowania. Nie jest to skomplikowane zadanie i na prezentacji pokażę sposoby na szybkie wdrożenie modeli napisanych w Pythonie na trzech platformach od różnych dostawców reprezentujących inne typy architektury: Droplet od DigitalOcean, AWS SageMaker i Google Cloud Functions.
Na sesji przedstawię podejście Snowflake Snowpark Python do Machine Learningu. Ta innowacyjna metoda umożliwia bezpośrednie wykorzystanie algorytmów ML na platformie hurtowni danych, bez konieczności korzystania z dodatkowego środowiska do przetwarzania i modelowania. Pokaże, jak wykorzystać język Python i dostępne biblioteki do budowy modeli ML oraz jak Snowflake Snowpark Python przyspiesza proces modelowania i wdrożenia algorytmów ML. Dowiesz się także, jak wykorzystanie Snowflake Snowpark Python wpływa na efektywność i oszczędność w zasoby procesu modelowania. Jeśli chcesz poznać najnowsze trendy w zakresie Machine Learningu i odkryć, jak Snowflake Snowpark Python może odmienić Twoje podejście do tego tematu, to ta sesja jest dla Ciebie!
Zapraszam na prelekcję poświęconą nowej platformie analitycznej Microsoft Fabric. Omówię komponenty platformy oraz pokażę sposób na zbudowanie rozwiązania analitycznego. W trakcie demonstracji pokażę zastosowanie koncepcji OneLake For Data oraz zbuduję Data Lakehouse.
BRAK.
Duże modele językowe zdominowały świat sztucznej inteligencji w ostatnim roku. Zaczynając od ChatGPT, poprzez później udostępnione modele GPT-4, Dolly i Alpaca. W ramach sesji przedstawimy te 3 najpopularniejsze modele z rodziny dużych modeli językowych, wskażemy różnice i przewagi. Częścią prezentacji będzie także demonstracja możliwości modeli z poziomu kodu w Pythonie, podkreślające podobieństwa i różnice między modelami.
W trakcie tegorocznej konferencji Build, Microsoft ogłosił rewolucyjne zmiany związane z wprowadzeniem nowego produktu całkowicie zmieniającego podejście do budowy rozwiązań analitycznych na tej platformie. Mowa oczywiście o Microsoft Fabric. Jednym z doświadczeń, które oferuje ten produkt, jest praca w środowisku umożliwiającym wykorzystywanie Sparka do przetwarzania danych. W trakcie sesji przybliżę elementy architektury Microsoft Fabric, które wspierają pracę z danymi z wykorzystaniem Pythona (PySpark).
Obliczenia kwantowe to jedno z najbardziej ekscytujących trendów zachodzących w dziedzinie informatyki obecnie. Wyobraź sobie, że masz komputer, który może wykonywać dwie obliczenia jednocześnie, ale nie tak jak procesor wielordzeniowy. Ten innowacyjny sposób obliczeń pozwoli nam pracować na większych zbiorach danych, osiągać lepszą jakość rezultatów i uzyskiwać wyniki szybciej. Czy taka technologia rzeczywiście już istnieje? Czy można już z niej korzystać? A może to tylko hype? Podczas sesji przedstawię Wam wprowadzenie do tej technologii. Dowiesz się, kiedy i gdzie można ją wykorzystywać w Twojej organizacji. Ponadto zobaczysz, jak możesz zacząć jej używać i jakie umiejętności są potrzebne do rozwoju Twojej pierwszej aplikacji kwantowej. Razem uruchomimy naszą pierwszą aplikację na prawdziwym komputerze kwantowym. W końcu postaramy się odpowiedzieć na główne pytanie - czy to przyszłość czy tylko hype?
Celem prelekcji jest przedstawienie przewidywanych zmian roli i kompetencji specjalistów Data Science w związku z coraz mocniejszymi dużymi modelami językowymi i innymi pretrenowanymi modelami. Zmiany zostaną pokazane na kilku przykładach z rzeczywistych zastosowań biznesowych, takich jak aplikacja do przeciwdziałania marnowaniu żywności oraz właściwej segregacji odpadów, opis produktów na podstawie segmentacji klientów czy transkrypcja wideo z wykrywaniem dźwięków w tle. W prezentacji zostaną również omówione najważniejsze zagrożenia bezpieczeństwa podczas wdrażania modeli uczenia maszynowego oraz sposoby, w jakie specjaliści Data Science mogą pomóc ich uniknąć.
Large Language Models (LLMs) like ChatGPT has inspired the world and started a new AI revolution. However, it seems that the latest trend is supplying ChatGPT with external information to increase its accuracy and give it the ability to answer questions where the answers are not present in public datasets. In this session, Tomaz will demonstrate how using a knowledge graph as a storage object for answers gives you explicit and complete control over the answers provided by the chatbot and helps avoid hallucinations.
Wiedza i inspiracja
Konferencje online to doskonałe miejsce do zdobywania nowej wiedzy i inspiracji. Będziesz miał możliwość wysłuchania prezentacji wybitnych ekspertów w dziedzinie danych, którzy podzielą się swoimi doświadczeniami i najlepszymi praktykami. To świetna okazja do nauki nowych technik, nar zędzi i podejść związanych z analityką danych, które mogą pomóc w rozwoju Twoich umiejętności programistycznych.
Oto marki medialne które są już z nami! Jeżeli chcesz dołączyć skontaktuj się z nami.
Copyright Data Science Tech© 2023 All Rights Reserved
Mentor, futurolog i pasjonat danych. Wraz z zespołem TIDK, gdzie pełni funkcję prezesa, realizuje projekty dotyczące zaawansowanej analityki i data science, w szczególności uczenia maszynowego i sztucznej inteligencji. Od 2010 nagradzany przez firmę Microsoft MVP w kategorii Data Platform. Od lipca 2018 roku jeden z 50 na świecie MVP w kategorii AI. Naukowo związany z Wydziałem Informatyki Politechniki Poznańskiej.
Jakub Wawrzyniak – CTO @TIDK, Microsoft MVP Data Platform, architekt rozwiązań, koordynuje i odpowiada za jakość projektów realizowanych w obszarze AI, BI, Big Data i zaawansowanej analityki. Specjalizuje się w projektowaniu wydajnych rozwiązań analitycznych w oparciu o chmurę publiczną. Jego doświadczenie i wiedza w zakresie optymalizacji doceniana jest przez największe polskie organizacje. Doktorant, naukowo związany z Zakładem Teorii Algorytmów i Systemów Programowania Instytutu Informatyki Politechniki Poznańskiej. W sektorze IT pracuje od ponad piętnastu lat. Projektant i twórca rozwiązań dla administracji publicznej, programista. Posiada doświadczenie w realizacji międzynarodowych projektów B+R, w tym z ramienia uczelni, dla podmiotów zewnętrznych. Jego zainteresowania naukowe obejmują takie zagadnienia jak projektowanie algorytmów, analiza złożoności obliczeniowej, uczenie maszynowe, optymalizacja kombinatoryczna, czy szeregowanie zadań. Członek Komitetów Organizacyjnych konferencji Game Industry Conference oraz Applied Data Science. Członek Polskiego Towarzystwa Badania Gier.`
Swoją przygodę z informatyką rozpoczynał 30 lat temu pisząc programy w języku BASIC na domowy komputer Commodore C64. Na stałe związał się jednak ze światem baz danych relacyjnych i wielowymiarowych, przechodząc stopniowo od dBase i Clipper poprzez ulubiony SQL Server aż do big data i NoSQL. Od lat dziewięćdziesiątych zeszłego stulecia zajmuje się fascynującym światem uczenia maszynowego i sztucznej inteligencji. Specjalizuje się w projektowaniu i wdrażaniu aplikacji analitycznych i raportowych szczególnie w obszarach planowania, budżetowania, controllingu oraz analiz finansowych. Jako konsultant z pasją pomaga dbać o wydajność serwerów oraz krótki czas wykonywania zapytań. Dzieli się swoją wiedzą i doświadczeniem na prowadzonych przez siebie szkoleniach i warsztatach. Aktywny prelegent na konferencjach SQL Day i innych spotkaniach branżowych. Można go często spotkać na spotkaniach Data Community Poland. W latach 2009 – 2021 nagradzany przez Microsoft tytułem Most Valuable Professional w obszarze SQL Server i Data Platform.
Współzałożyciel 10 Senses, firmy doradczej świadczącej usługi w z zakresu zaawansowanej analityki, w tym AI oraz Business Intelligence. Posiada tytuł doktora nauk ekonomicznych, obroniony w Szkole Głównej Handlowej oraz magistra socjologii o specjalności metod ilościowych, obroniony na Uniwersytecie Jagiellońskim. Przed założeniem 10 Senses pracował jako konsultant w EY Business Advisory. Łącznie posiada 15 lat doświadczenia w projektach data science oraz wykorzystujących dane w firmach konsultingowych oraz badań marketingowych. Jego zainteresowania obejmują biznesowe wykorzystanie danych, maszynowe uczenie oraz technologie czujnikowe.
Tomaz loves to work with graphs and write about various graph analytics approaches in his blog. Very excited about the intersection of ML and Graph technologies.
Marek Zieliński jest współzałożycielem firmy 10 Senses, która oferuje produkty i usługi z zakresu zaawansowanej analityki, w tym AI oraz Business Intelligence. Ma ponad 10 lat doświadczenia w pracy z problemami związanymi z danymi, czyli data science, maszynowym uczeniem, sztuczną inteligencją oraz process mining. Specjalizuje się w Data Engineeringu na potrzeby wizualizacji danych, ML/AI oraz analityki procesów. Zajmował się również wykorzystaniem GPU do wspomagania wydajności obliczeniowej. Swoją wiedzą i doświadczeniem chętnie dzieli się z rynkiem podczas konferencji, spotkań czy szkoleń. Z wykształcenia jest Fizykiem Ciała Stałego oraz specjalistą od Hurtowni Danych i BI, a z zamiłowania fizykiem statystycznym.
W branży IT działam od 2005 roku. Zawodowo zajmuję się rozwojem backendu aplikacji webowych i zarządzaniem działami IT. Dodatkowo prowadzę podcast „Porozmawiajmy o IT” i rozwijam portal z ofertami pracy IT SOLID.Jobs
Jestem doświadczonym Data Scientistem, a za sobą mam design i wdrożenie systemów opartych na uczeniu maszynowym i statystyce w takich branżach jak e-commerce, sektor kosmiczny, zdrowie publiczne, sport zawodowy, turystyka, logistyka i transport. Specjalizuję się w analizie i modelowaniu szeregów czasowych, danych przestrzennych, danych sekwencyjnych o zmiennej długości, analizach sieciowych. Lubię rozwiązywać problemy związane z uprodukcyjnianiem złożonych systemów opartych na statystyce. Uwielbiam tańczyć breakdance, a kiedy potrzebuję wyciszenia, to chętnie eksploruję mniej uczęszczane ścieżki z dala od miasta.
Snowflake Evangelist @ InfiniteDATA, Snowflake Data SuperHero. Michał specjalizuje się w projektowaniu i implementacji rozwiązań hurtowni danych i procesów ETL/ELT. Eksplorator i pasjonat rozwiązań chmurowych, prelegent na konferencjach poświęconych technologiom przetwarzania danych, trener. Zakochany w platformie Snowflake od pierwszego kliknięcia. Dzięki działaniom w społeczności Snowflake uzyskał tytuł Snowflake Community Data SuperHero. W wolnych chwilach uwielbia strojenie i optymalizację silników baz danych do granic możliwości. Prywatnie mąż i zabiegany ojciec dwójki gałganów.
Project Manager w Euvic. Od 18 lat zajmuje się projektowaniem, tworzeniem i wdrażaniem aplikacji wykorzystujących platformy: .NET, SQL Server oraz Oracle. Jest także trenerem, programistą, administratorem baz danych, twórcą dokumentacji oraz analitykiem biznesowym. Jest współautorem książki “Serwer SQL 2008. Administracja i programowanie”. Speaker na wielu konferencjach branżowych. Posiada certyfikaty firmy Microsoft: MCT, MCITP-DBA, MCITP-DD, MCSD.NET, od 2009 roku nieprzerwanie tytułem tytuł MVP w kategorii SQL Server (obecnie Data Platform).
Big Data & AI Solutions Architect w TIDK, gdzie w świetnym towarzystwie zajmujemy się wdrażaniem rozwiązań opartych na sztucznej inteligencji. Aktualnie jestem w trakcie doktoratu wdrożeniowego na Politechnice Poznańskiej, gdzie skupiam się na modelach prognozowania szeregów czasowych oraz detekcji anomalii. W pracy korzystam z rozwiązań chmurowych, w których kompetencje potwierdzają zdobyte przeze mnie certyfikaty zarówno z obszaru MS Azure jak i GCP. Fan piłki nożnej oraz sportu w każdej postaci.
Michał to doświadczony architekt, projektant, lider zespołu, trener oraz pasjonat technologii, odznaczony tytułem MVP Microsoft w kategorii Azure oraz Development Technologies. Swoją przygodę z programowaniem rozpoczął na początku lat 90., korzystając z języków Basic i Assembler na komputerach 8-bitowych. W swojej karierze zawodowej głównie tworzył aplikacje na platformę .NET dla czołowych firm na świecie. Specjalizuje się w rozwoju aplikacji internetowych, zwłaszcza na platformie Azure. Aktualnie Michał skupia się na wdrażaniu innowacyjnych technologii w organizacjach, takich jak informatyka kwantowa czy low-code. W wolnych chwilach, gdy nie oddaje się świecie kodowania, Michał z zamiłowaniem podróżuje, fotografuje oraz dzieli się swoją wiedzą na swoim technicznym blogu oraz podczas spotkań entuzjastów technologii.
Od prawie 10 lat zawodowo zajmuje się analityką danych jako data scientist, lider zespołu i kierownik projektu. Brał udział w wielu projektach z obszaru zaawansowanej analityki danych, takich jak monitorowanie linii produkcyjnych, analiza opinii, detekcja fraudów i prognozowanie cen. Jego główne doświadczenie i zainteresowania dotyczą branży farmaceutycznej i ochrony zdrowia, ale brał udział w projektach z różnych obszarów, takich jak finanse, handel detaliczny, energetyka i rolnictwo. Obecnie odpowiada za projektowanie i wdrażanie rozwiązań danych, głównie z zakresu uczenia maszynowego i sztucznej inteligencji. Swoją wiedzą dzieli się jako trener data science, wykładowca i prelegent na konferencjach. Współautor prac naukowych, głównie z zakresu medycyny i statystyki, publikowanych m.in. w czasopismach z listy filadelfijskiej.