Informatyka
Stosowana
Wydział Fizyki, Astronomii i Informatyki Stosowanej,
Uniwersytet Jagielloński w Krakowie
Rok
akademicki
2013/2014
(zawieszony)
W 2009 roku, w laboratorium CERN,
Europejskiej Organizacji Badan Jądrowych,
rozpoczął
funkcjonowanie akcelerator (Large Hadron Collider) zderzający wiązki
proton-proton o bezprecendesowej energii w środku
masy, 14 TeV, oraz planowanej
nominalnej swietlności
wiązki
10^34/ cm^2 s^1.
Jest to największy
"instrument naukowy" zbudowany dotychczas dla potrzeb
fizyki wysokich energii.
W trakcie swojego działania,
będzie
produkował
kolo 15 Petabytes (15 10^6 GB) danych rocznie,
które
będą zapamiętywane,
magazynowane/procesowane i dostępne
do analizy przez kilka tysięcy
fizyków
z całego
świata.
W trakcie wykładu omówię
zagadnienia związane z
przygotowaniem infrastruktury komputerowej
dla tego przesięwzięcia: zbieranie informacji
z detektora, rekonstrukcja informacji zbieranych w
detektorze
i ich modelowanie, organizacja analizy danych, składowania, transmisji do
innych laboratoriów,
organizacja
dostępu do CPU.
W trakcie ćwiczeń
realizować będziemy
projekty (do wyboru) związane z klasyfikowaniem
obiektów metoda analizy
wielowymiarowej, odzyskiwaniem informacji prawdziwej
(tzw. unfolding)
korzystając
z wielkości
mierzonych oraz fitowania rozkładów
wielowymiarowych.
Ćwiczenia
będą realizowane z wykorzystaniem
biblotek ROOT: TMVA, RooUnfold,
RooFit.
10.10. 2013 - Introduction
to
LHC, its experiments and computing challenges
17.10. 2013 -
14.11. 2013 -
21.11. 2013 -
28.11. 2013 -
5.12. 2013 -
Część II (3 tygodnie) (prowadzący dr. M. Pałka)
3.10.2013 -
24.10.2013 -
7.11.2013 -
Część III (5 tygodni) (prowadzący dr hab. P. Staszel)
Oprogramowanie używane w eksperymentach fizyki wysokich energii musi być dostosowane do kilku aspektów.
Bardzo duża ilość danych wejściowych mających zamkniętą strukturę tzw. zdarzeń (event-ów)
Hierarchiczność danych, która jest powiązana z poszczególnymi etapami rekonstrukcji. Dane wejściowe które, zawierają informacje o wartościach (i ogólnie cechach) mierzonych w eksperymencie sygnałów elektrycznych są przekształcane na coraz to wyższy poziom, aż do postaci zrekonstruowanych cząstek elementarnych, które powstają w badanych reakcjach (najczęściej jąder atomowych). Oprogramowanie powinno umożliwiać rozdzielenie poszczególnych etapów rekonstrukcji, tak aby struktury danych powstające na poszczególnych etapach rekonstrukcji mogły być zapisane na dysku i użyte jako dane wejściowe w następnych etapach.
Modularyzacja pozioma – chodzi o to aby poszczególne moduły oprogramowania miały ściśle określone zadania związane z danym detektorem (w eksperymentach wysokich energii stosuje się często duże systemy detekcyjne złożone z wielu niezależnych układów detekcyjnych).
Modularyzacja pionowa – moduły oprogramowania powinny być odpowiedzialne za poszczególne, dobrze zdefiniowane etapy rekonstrukcji. Moduły niskiego poziomu działają na danych niskiego poziomu. Moduły z wyższych poziomów działają na danych produkowanych na niższym poziomie. Każdy następny etap w kierunku pionowym prowadzi do wytworzenia bardziej złożonej struktury danych (dane wyższego poziomu), aż do wytworzenia obiektów reprezentujących zrekonstruowane cząstki.
Podczas wykładu zostanie szczegółowo omówione oprogramowanie eksperymentu BRAHMS (Broad RAnge Hadronic Spectrometers) działającego w Brookhaven National Laboratory w Stanach Zjednoczonych. Oprogramowanie zostało napisane w języku C++ wykorzystując tzw. Elementy Oprogramowania Obiektowego Wielokrotnego Użytku. Wykład rozpocznie się od krótkiego omówienia układu detekcyjnego BRAHMS-sa, po którym nastąpi opis struktur danych, zastosowanej modularyzacji algorytmów. Podany zostanie również sposób tworzenia różnorodnych programów wykonywalnych, wykorzystujący klasy modułów i ich bardziej złożonych struktur. Wykład będzie również nawiązywał do metod programowania obiektowego poprzez omówienie zastosowanych Wzorców Projektowych.
19.12. 2013 -
9.01. 2014 -
16.01. 2014 -
23.01. 2014 -
Ostatnia modyfikacja: 18 wrzesień 2013