Otwórz schowek Brak ulubionych odcinków
Superkomputer Kraken - mocarz w służbie nauki | dr inż. Piotr Orzechowski, mgr inż. Monika Pacek, mgr Bogusław Śmiech

Superkomputer Kraken – mocarz w służbie nauki | dr inż. Piotr Orzechowski, mgr inż. Monika Pacek, mgr Bogusław Śmiech

Nr 196
Pobierz Dodaj do ulubionych

Udostępnij odcinek

Nr 196
Pobierz Dodaj do ulubionych

Udostępnij odcinek

Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Zobacz notatnik z odcinka
dr inż. Piotr Orzechowski

dr inż. Piotr Orzechowski

Kierownik Działu Usług Chmurowych w Centrum Kompetencji STOS na Politechnice Gdańskiej, zastępca dyrektora ds. rozwoju w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej. Specjalizuje się w klastrach obliczeniowych i usługach chmurowych.

mgr inż. Monika Pacek

mgr inż. Monika Pacek

Administratorka systemów informatycznych w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej. Absolwentka informatyki, specjalistka od baz danych.

mgr Bogusław Śmiech

mgr Bogusław Śmiech

Pracuje w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej.

Docelowa moc obliczeniowa: 13 petaflopsów. To tyle co ponad 200 000 przeciętnych laptopów. Już od roku można na nim przeprowadzać skomplikowane obliczenia i modelowanie, jest dostępny za darmo dla polskich naukowców, a jego nazwa dobrze odzwierciedla skalę i to, jak poszczególne części współpracują ze sobą. Superkomputer Kraken pracuje w Centrum Informatycznym TASK na Politechnice Gdańskiej, opowiadają mi o nim dr inż. Piotr Orzechowski, mgr inż. Monika Pacek i mgr Bogusław Śmiech.

– Flops to jedna operacja zmiennoprzecinkowa na sekundę; peta znaczy 10 do piętnastej potęgi – wyjaśnia Monika Pacek, co pokazuje skalę szybkości Krakena. Co to takiego ten superkomputer? To klaster, czyli układ wielu komputerów połączonych superszybką, wydajną siecią. Co ważne, poszczególne części komunikują się ze sobą, więc niektóre procesy obliczeniowe można przyspieszyć, rozdzielając je na mniejsze zadania, realizowane przez poszczególne węzły. Korzysta z niego wielu użytkowników naraz. – Nie ma takiego programu, który mógłby z pełną mocą obliczeniową wykorzystać wszystkie węzły – opowiada Bogusław Śmiech. A co właściwie ma robić taki superkomputer? – Zapewnić środowisko obliczeniowe do prowadzenia badań dla naukowców – tłumaczy dr inż. Orzechowski.

 

Działa to tak: naukowiec loguje się na specjalny serwer dostępowy i zleca zadanie obliczeniowe dla Krakena. Komendy trzeba wpisać w wierszu poleceń, nie ma mowy o klikaniu w okienka. – To wygląda dokładnie jak na filmach o hakerach – śmieje się dr inż. Orzechowski. System szacuje, ile węzłów Krakena jest potrzebnych do wykonania danego obliczenia, po czym uruchamia zadanie, kiedy zwolni się tych węzłów odpowiednio dużo. Z pomocy superkomputerów korzystają naukowcy z przeróżnych dziedzin. Kraken przeprowadzał już obliczenia związane z modelowaniem cząsteczek w badaniach nad lekami, zanieczyszczeniem Bałtyku azotanami czy reakcją różnych kształtów przydrożnych barierek na zderzenie z autobusem. Popularny model prognozy pogody z IMGW to też jego sprawka!

W odcinku usłyszycie też, czy na superkomputerze można puścić Dooma, czym się gasi pożary w serwerowni, dlaczego archiwizacja danych na taśmach magnetycznych to świetny pomysł i dlaczego kilka scentralizowanych superkomputerów to lepsze rozwiązanie niż klaster na każdym wydziale.

 

Odcinek powstał we współpracy z Politechniką Gdańską. Polecam poprzednie i już zapowiadamy ostatni z serii: o smart cities.

 

TRANSKRYPCJA

Karolina Głowacka: Radio Naukowe w podróży. Jestem na Politechnice Gdańskiej, a dokładnie w budynku Centrum Informatycznego TASK – Trójmiejskiej Akademickiej Sieci Komputerowej. A ze mną troje przedstawicieli tej instytucji – doktor inżynier Piotr Orzechowski. Dzień dobry.

Piotr Orzechowski: Dzień dobry.

K.G.: Magister inżynier Monika Pacek, dzień dobry.

Monika Pacek: Dzień dobry.

K.G.: I magister Bogusław Śmiech, dzień dobry.

Bogusław Śmiech: Dzień dobry.

K.G.: Zaczynamy nagrywać tę rozmowę po wycieczce po wnętrzu Krakena – nie potwora, chociaż rozumiem, że trochę były takie inspiracje, żeby ten superkomputer nazwać w ten sposób, pokazując jego potęgę. Kraken, superkomputer – czy jest już w pełni ukończony? Jaki jest cel powstania takiego urządzenia na Politechnice Gdańskiej?

P.O.: Superkomputer jest już na ukończeniu. To znaczy, sama infrastruktura, która ma tworzyć całość Krakena, jest już u nas w serwerowni, mamy ją zainstalowaną, wdrożoną i jesteśmy w trakcie przygotowywania aplikacji i środowiska pracy dla użytkowników, tak żeby mogli korzystać z tego, co dla nich przygotowaliśmy.

K.G.: Jak się mają zapowiedzi do realizacji? Bo miało być trzynaście i sześć dziesiątych petaflopsów mocy obliczeniowej, cokolwiek to znaczy. 

P.O.: Jesteśmy nawet ciut powyżej tych wartości. Udało się zrealizować zakup infrastruktury na tym poziomie, który był planowany, w związku z czym wszystkie zapowiedzi są spełnione i taka moc będzie już niedługo dostępna dla naszych użytkowników. 

K.G.: Jaka to jest moc? Co to znaczy?

M.P.: Moc obliczeniową superkomputerów podajemy w jednostkach zwanych flopsami. Flops to jest jedna operacja zmiennoprzecinkowa na sekundę. Wyobraźmy sobie, że mamy jakieś dwie wielkie liczby i chcemy je dodać. Jeżeli komputer potrzebowałby całej sekundy, żeby wystawić nam wynik, to miałby prędkość jednego flopsa. Nasz superkomputer Kraken ma prędkość obliczeniową zbliżoną do piętnastu petaflopsów. Co to jest to „peta”? Wszyscy znamy przedrostki – „kilo” to jest tysiąc itd. To „peta” to jest dziesięć do potęgi piętnastej. Jest to niewyobrażalna liczba.

K.G.: Czyli jeden i piętnaście zer.

M.P.: Tak. Jeszcze razy piętnaście w tych piętnastu petaflopsach. Jakby przeliczyć to na sekundy, to taka liczba sekund daje nam czterysta czterdzieści cztery miliony lat. Więc dalej jest to coś niewyobrażalnego, ale spróbujemy sobie to jakoś zbliżyć do wartości, które nam coś mówią.

P.O.: Możemy też postąpić w drugą stronę – wziąć przeciętnego laptopa, którego kupujemy w sklepie. Jeżeli chcielibyśmy to przeliczyć na liczbę takich laptopów, to średnio jeden petaflops to jest około piętnastu tysięcy laptopów. Więc w przypadku całości tego superkomputera te zapowiadane trzynaście petaflopsów to jest w okolicach dwustu tysięcy laptopów.

M.P.: Jeszcze się wtrącę z tą listą top pięćset. Prowadzony jest od wielu lat ranking takich superkomputerów. Wyniki są przedstawiane dwa razy do roku. Obecnie najszybszym komputerem na świecie jest superkomputer amerykański o mocy obliczeniowej jeden przecinek dwa eksaflopa.

K.G.: Czyli jeszcze poziom wyżej.

M.P.: „Peta” od „eksa” to jest przemnożone przez tysiąc. 

K.G.: Kraken się mieści na tej liście top pięćset?

M.P.: Tak. W tej chwili Kraken nie jest zgłoszony na tę listę, bo nie jest ukończony. Z mocą obliczeniową, którą planujemy, plasujemy się około sześćdziesiątego miejsca.

K.G.: No to nie jest źle w skali światowej. Co to znaczy, że komputer jest „super”? Czy to jest tak, że on jest jakoś inaczej zbudowany? Czy to faktycznie można sobie wyobrażać tak, że tyle tysięcy tych laptopów, może ogołoconych z pewnych elementów, które nie są potrzebne dla pracy takiego superkomputera, są po prostu ze sobą połączone i wspólnie pracują? Co to znaczy, że to jest superkomputer?

B.Ś.: Jak nazwa wskazuje, superkomputer musi być czymś super w porównaniu do zwykłych komputerów. W tej chwili możemy mówić o tym, że wszystkie superkomputery są klastrami, czyli jest to taki układ połączonych ze sobą komputerów bardzo szybką, bardzo wydajną siecią. Te komputery w zasadzie mogą pracować niezależnie. Natomiast całą tą wartością dodaną jest możliwość komunikacji pomiędzy poszczególnymi serwerami, nodami, węzłami – jakkolwiek to nazwiemy – w obrębie tego superkomputera. W związku z tym pojawia się takie pojęcie równoległości. To wszystko robimy głównie dla środowiska naukowego w Polsce i nie tylko. Taki naukowiec, który chce sobie modelować jakieś zjawiska i procesy, jest w stanie robić to na wielu nie tyle procesorach, bo te serwery jeszcze są z reguły wieloprocesorowe, ale na wielu serwerach dzięki temu, że te serwery, procesory są w stanie się ze sobą komunikować. Tak jak pewnie państwo wiecie, rozwój komputerów, w zasadzie procesorów polegał kiedyś na tym, że się zwiększało częstotliwość taktowania, więc pojedynczy procesor stawał się szybszy. W tej chwili osiągnęliśmy jakieś granice fizyczne tego wszystkiego i dodaje się po prostu liczbę rdzeni. Tutaj tak samo – w przypadku klastra dodajemy po prostu węzły. I na tym polega to zwiększenie mocy obliczeniowej. To wszystko to jest tak naprawdę moc teoretyczna, bo nie ma chyba takiego programu, który mógłby z pełną mocą wykorzystać wszystkie węzły. 

K.G.: Czyli ten superkomputer jest złożony z serwerów, które w gruncie rzeczy są dość, jak rozumiem, prostymi urządzeniami, np. jak taki laptop pozbawiony karty graficznej?

P.O.: Dokładnie. W przypadku obliczeń na procesorach CPU ta karta graficzna nie jest nam do niczego potrzebna, a stanowi dodatkowy koszt, obciążenie i potencjalny element, który może ulec awarii. Czyli jest to taki uproszczony komputer, bo dodatkowo nie ma jeszcze twardego dysku. 

B.Ś.: Oczywiście w zależności od zastosowania danego superkomputera, danego typu serwerów mogą być one różnorako zbudowane. Są serwery, które są wyposażone w większą ilość pamięci RAM do obliczeń jakichś dużych macierzy, przy symulacjach. Są takie, które mają tej pamięci mniej, ale są doposażone w trochę mocniejsze procesory, a są też takie, które mają dodaną kartę graficzną. Jest to akcelerator GPU, który nie służy nam w tym wypadku do wyświetlania obrazu, natomiast jest on dedykowany i pełni funkcję specjalnego akceleratora, który pozwala w pewnych obliczeniach jeszcze lepiej zrównoleglić i przyspieszyć przeprowadzania pewnych obliczeń czy symulacji. Stąd też mamy różne typy serwerów. Ciężko powiedzieć, żeby superkomputer był pewną homogeniczną instalacją składającą się z tego samego typu serwerów. W zależności od tego, do jakich zastosowań będziemy używali tych urządzeń, musimy wykorzystać różne urządzenia. Możemy tutaj płynnie przejść do tego, po co ten superkomputer istnieje, jaki jest cel. Ten superkomputer nie jest dla nas samych w sobie. Jest on po to, żeby zapewnić środowisko obliczeniowe, do prowadzenia badań dla naukowców w naszym regionie, ale również w całej Polsce, oraz dla użytkowników również z zagranicy, którzy prowadzą badania najróżniejszego typu. I w zależności od tego, co robią, potrzebują innych zasobów.

K.G.: Mówicie, że to nie dla was, bo wiecie, o co wszyscy pytają, jak się rzuca hasło „superkomputer” – czy da się uruchomić np. jakąś grę. Przychodzi ktoś ze swoim monitorem i odpala zaawansowane albo mniej zaawansowane gry? [śmiech]

B.Ś.: Nie. Są pewne możliwości, gdzie różnego typu serwisy, usługi można postawić, natomiast nie, te karty graficzne nawet nie mają wejść, do których można by było podłączyć monitor, więc zdecydowanie nie jest to to zastosowanie, jak np. właśnie gry, serwery gier i tego typu rzeczy. Należy również nadmienić, że nie liczymy tutaj kryptowalut i nie są to te zastosowania.

K.G.: Miałam to pytanie zakopane na później, ale to jest bardzo ciekawe, bo muszę przyznać, że jakoś tak sobie wyobrażałam, że po to się robi takie superkomputery, żeby można było wykorzystać w całości ich moc obliczeniową do obliczenia, powiedzmy, jednego modelu czy coś takiego. A mówicie, że to tak nie działa, że wykorzystuje się go po kawałkach, tak? 

M.P.: Tak, mamy wielu użytkowników jednocześnie, którzy współdzielą tę moc obliczeniową. Mamy dedykowane szafy dla konkretnych użytkowników, ale mamy też zdefiniowane kolejki – tak się to u nas nazywa. Użytkownik wrzuca swoje zadanie do naszej kolejki i w momencie, kiedy odpowiednia liczba węzłów wymagana dla danego zadania będzie dostępna, to zadanie jest liczone, użytkownik dostaje informację zwrotną, że wyniki już na niego czekają. Nie jest to dostęp online.

B.Ś.: Monika poruszyła tutaj dwa aspekty. Jeden to jest to, że mamy różne zasoby dedykowane pod różnych użytkowników – należy tu zaznaczyć: dla różnych typów użytkowników. Staramy się, żeby to środowisko obliczeniowe było dostępne dla wszystkich na równych zasadach, w związku z czym staramy się równoważyć ten dostęp dla każdego typu użytkownika, dla każdej dziedziny czy środowiska, z którego pochodzą. To jest jeden aspekt. A drugi to to, o co pytałaś, czyli czy nie da się wykorzystać całego superkomputera. Ogólnie da się. Technologicznie jesteśmy w stanie spiąć cały superkomputer jako jedność. Natomiast ograniczeniem są po pierwsze komunikacja, a po drugie same możliwości prowadzenia obliczeń przez program, aplikację. To może być ograniczeniem, bo po prostu części obliczeń nie da się przeskalować na całość superkomputera. Kolejna rzecz to to, że on jest taki duży po to, żeby zapewnić moc obliczeniową dla jak największej liczby użytkowników, tak żeby ktoś nie miał go na wyłączność. 

M.P.: Może jeszcze rozwinę to słowo „równoległość”, bo używamy takiego określenia, że te zadania trzeba zrównoleglić. To znaczy, że to duże zadanie musimy podzielić na jakieś mniejsze i te mniejsze mogą się wykonywać w tym samym czasie. I każde z tych mniejszych zadań trafia do innego procesora czy innego rdzenia. Ale tak jak w zwykłym życiu, jak nam życie pokazuje, nie wszystko da się zrównoleglić. Wyobraźmy sobie, że mamy jakąś ekipę, która ma wybudować dziesięć kilometrów drogi. Jeżeli mamy tych ekip dziesięć, to każda może budować po kilometrze, i oczywiście jest szybciej, niż jakbyśmy mieli taką jedną ekipę. Natomiast jakbyśmy mieli postawić wieżowiec, to wiadomo, najpierw trzeba zrobić fundamenty, potem parter itd. Pewne rzeczy są możliwe do wykonania dopiero po osiągnięciu wyników poprzednich. I tutaj tak samo w tym zrównolegleniu – to nie jest tak, że każde zadanie, które wykonuje się przez X czasu na laptopie, będzie tyle razy szybciej wykonane na superkomputerze. Bo są zadania, których tylko część można zrównoleglić, ale często te procesy czekają na wyniki od innych procesów i tworzą się takie wąskie gardła czy tam szyjki butelek.

K.G.: Ciekawa jestem, jak patrzycie na postępy w tej dziedzinie. Bo byliście tak mili i pokazaliście mi już istniejące obiekty przyszłego minimuzeum, które tutaj będzie. No i te moce obliczeniowe pierwszych superkomputerów, czy światowych, czy tego, co tutaj było w TASK-u na samym początku w porównaniu z tym, co jest teraz, to można się tylko za głowę złapać. Jaka to jest skala postępu?

M.P.: W informatyce jest takie określenie jak prawo Moore’a. Jest to pomysł jednego z założycieli Intela mówiący o szybkości tego postępu technologicznego – że liczba tranzystorów w układach elektronicznych podwaja się mniej więcej co dwa lata. To jest taki przyrost. Komputer, który miał prędkość jednej operacji, i to nawet nie zmiennoprzecinkowej na sekundę, powstał w tysiąc dziewięćset trzydziestym ósmym roku. W tej chwili najszybszy komputer na liście top pięćset to jest jeden przecinek dwa eksaflopa, więc to jest jeden przecinek dwa razy dziesięć do osiemnastej potęgi. To są niewyobrażalne liczby.

B.Ś.: Dla zobrazowania możemy powiedzieć, że pierwsze instalacje, które tutaj w TASK-u były, to instalacje, które zajmowały kilkudziesięciometrowe pomieszczenie, a porównując do przeciętnego smartfona, który każdy z nas nosi w kieszeni, wykonywały zdecydowanie mniej operacji, nie miały tyle pamięci i na niewielu z dysków, które w tamtym czasie funkcjonowały, można było zapisać jedno dobrej jakości zdjęcie robione telefonem. Więc to jest coś, co się wydarzyło na przestrzeni trzydziestu, trzydziestu pięciu lat. 

K.G.: Bo pierwszy superkomputer w TASK-u to połowa lat dziewięćdziesiątych, tak?

B.Ś.: Tak. Pierwszy superkomputer powstał zaraz po założeniu TASK-u i został wdrożony w tysiąc dziewięćset dziewięćdziesiątym czwartym roku. 

M.P.: Miał cztery gigaflopsy.

K.G.: Po co to jest? Po co ta maszyna, ten potwór, ten Kraken, te superkomputery są budowane? Co one dają nauce?

P.O.: No właśnie nie wiem. [śmiech] Bo nie da się na tym odpalić gry, dostęp jest dosyć problematyczny dla przeciętnego użytkownika, bo te komputery pracują pod kontrolą systemu Linux. A tak zupełnie poważnie, to robimy to wszystko oczywiście dla naszych naukowców, dla naszych użytkowników, których mamy obecnie kilkuset. W każdej minucie na tym superkomputerze zalogowanych jest przynajmniej kilkudziesięciu użytkowników. Może wyjaśnię, jak wygląda dostęp do takiego superkomputera, bo to jest dosyć ważne i może ciekawe dla słuchaczy. Musimy postarać się zapewnić demokratyczny dostęp do tych zasobów. Więc to wszystko działa pod kontrolą, dostęp do tych wszystkich poszczególnych serwerów działa pod kontrolą takiego systemu kolejkowego, który dba o to, żeby zadania, które wkładają do tego systemu nasi użytkownicy, były równomiernie puszczane na nodach, węzłach tego superkomputera. I żeby puścić takie zadanie, nasz użytkownik musi się najpierw zalogować na osobny serwer, który jest takim serwerem dostępowym do tego superkomputera, i to wszystko się dzieje w takiej czarnej konsoli, czarnym terminalu. Jeżeli ktoś używa Linuxa, to ma domyślnie taki program. Jeżeli nie, to pod Windowsem też są takie programy, które pozwalają na zalogowanie się do sieci przez protokół SSH. No i jak on się zaloguje na swoje konto, to wklepuje w tę konsolę różnego rodzaju komendy. Wygląda to dokładnie tak jak na wszelkiego rodzaju filmach o hakerach. [śmiech] Staramy się, żeby było to dla naszych użytkowników w miarę łatwe do zrobienia, bo mamy świadomość, że jednak spora część z nich nie jest zaznajomiona z takim rodzajem pracy. Jest zaznajomiona raczej z Windowsem, z tym, że może sobie coś wyklikać itd. Tak że to wszystko jest dla użytkowników, dla naukowców, którzy liczą najróżniejsze rzeczy. Tak jak mówiłem, jest ich bardzo dużo, zajmują się bardzo różnymi dziedzinami nauki.

K.G.: Jakimi na przykład?

P.O.: Jest to np. chemia, biochemia, czyli to, co wszystkich nas interesuje, poszukiwania świętego Graala, którym jest lek na raka. Muszą sobie np. wymodelować cząsteczki, to, jak one wyglądają, jak się układa ich struktura. Dzięki temu będą wiedzieli, czy są one potencjalnie aktywne, czy będą miały jakieś zastosowania itd. To jest dziedzina, która wspomaga te badania laboratoryjne, bo jest wielokrotnie tańsza. Te wszystkie symulacje są o wiele tańsze.

K.G.: Najpierw zrobić symulację, a potem np. sprawdzić w laboratorium, a nie dłubać ręcznie. Ale ta zmiana to są ostatnie lata, prawda? Ta możliwość modelowania 3D.

P.O.: Nie, to są w zasadzie początki superkomputerów. To byli naukowcy wywodzący się z mojej dziedziny nauki, czyli z chemii, z fizyki. To są tacy użytkownicy, którzy sami piszą np. programy, rozwijają swoje własne programy, które pozwalają im modelować te cząsteczki. Są to dosyć świadomi użytkownicy. I oni zawsze potrzebowali bardzo dużo mocy obliczeniowej, bo żeby osiągnąć jakieś wiarygodne wyniki, potrzeba naprawdę dużo mocy, którą nasi użytkownicy są w stanie zawsze skonsumować. Jakkolwiek byśmy się nie rozbudowali, jakkolwiek byśmy nie dołożyli do tych serwerowni kolejnych szaf, to oni po jakimś czasie zawsze zapchają ten system kolejkowy i trzeba troszeczkę czekać na to zadanie. 

B.Ś.: Może warto trochę bardziej zobrazować ten aspekt, jeżeli chodzi o symulacje. Cząsteczki mogą się wydawać dla niektórych abstrakcyjne, natomiast nie tylko fizyka, nie tylko chemia. Mamy użytkowników, którzy pochodzą z dziedzin z inżynierii materiałowych, z oceanografii, z oceanologii. Naprawdę różne typy modeli są u nas liczone. Warto by było np. wspomnieć, co może jakoś bardziej pokazać te symulacje, które są u nas przeprowadzane, o symulacji materiałów i kształtów, np. barierek energochłonnych, które są przy każdej z dróg. Można je skonstruować w różny sposób, one mogą mieć różny kształt, mogą być wykonane z różnego materiału. No i żeby sprawdzić, jak taka barierka się zachowuje w momencie uderzenia, trzeba przeprowadzić symulację na żywo. Moglibyśmy kupić jakiś autobus, wyprodukować tę barierkę i przy odpowiedniej prędkości przeprowadzić testy zderzeniowe. Oczywiście gdzieś na końcu, jeżeli coś takiego jest produkowane, takie testy na pewno są przeprowadzane. Natomiast, żeby zasymulować, jak różne kształty takiej barierki mogłyby się zachować, jak różny materiał, z którego zostanie ona zbudowana, różny sposób zastosowanych mocowań…

K.G.: W efekcie rozbijemy trochę mniej autobusów. 

B.Ś.: Wręcz przeciwnie, rozbijemy ich więcej, ale nie tych fizycznych. Dziennie jesteśmy w stanie tych autobusów zderzyć dziesiątki, jak nie setki. Użytkownicy są w stanie wykorzystać całą moc obliczeniową, którą dostarczymy. Oni liczą podobne rzeczy, są w stanie przetestować więcej kombinacji, sprawdzić więcej możliwości, zwiększyć jakość swoich badań, dzięki czemu na końcu mamy lepsze produkty, dokładniejsze wyniki prowadzonych badań.

P.O.: Na pewno można wspomnieć o modelowaniu pogody. 

M.P.: No właśnie, coś, z czym się spotykamy na co dzień, to są prognozy pogody. One w tej chwili też są wyliczane właśnie na takich superkomputerach. Mamy też naukowców z Instytutu Oceanologii Polskiej Akademii Nauk z Sopotu.

K.G.: I co oni liczą?

M.P.: Zanieczyszczenia Bałtyku, temperaturę, zasolenie i wpływ tych czynników na to, co dzieje się dalej. 

P.O.: Tak, oni mają mnóstwo danych, bo pobierają próbki z cieków wodnych, mają Oceanię – statek, którym pływają po morzach i zbierają próbki. Więc mają dużo danych, które potem trzeba jakoś wykorzystać, i budują modele, które pozwalają im właśnie mierzyć poziom zasolenia, jakieś falowanie Morza Bałtyckiego, poziom zanieczyszczeń, azotany, które są wypłukiwane z gleby. Czyli mogą określić, czy w jakimś obszarze rolnicy troszeczkę przesadzają albo mogą jeszcze sobie na coś pozwolić, jeżeli chodzi o nawożenie itd.

B.Ś.: Jeden z modeli pogodowych, które są udostępniane przez Instytut IMGW, jest liczony właśnie u nas na superkomputerze. 

K.G.: A przychodzą do was artyści? Jeśli np. trzeba zrobić nowe efekty, filmy animowane. Dałoby się to obliczyć na Krakenie?

P.O.: Dałoby się. Mamy zainstalowaną dosyć znaną, popularną w środowisku 3D aplikację, która nazywa się Blender. Ona jest opensource’owa i co ciekawe, jest to taka aplikacja, która bardzo dobrze się zrównolegla. Wiemy, jak wygląda animacja, to są klatki następujące po sobie, więc jak ktoś buduje taką animację, może każdą klatkę liczyć na osobnym węźle. Nie ma tam żadnych spowolnień, które by wynikały z tego, że te serwery muszą się ze sobą komunikować, bo są niezależne. Poza tym klatkę też można podzielić sobie na części i każdą część renderować osobno. Jeżeli chcemy zrobić jakąś dużą, wymagającą grafikę, to też ją można policzyć praktycznie bez strat. Więc to akurat się bardzo fajnie zrównolegla. Całą siłę pokazują GPU, akceleratory graficzne, bo one jednak są… Wiadomo, karty graficzne powstawały po to, żeby pokazywać obrazy, więc też go renderują. 

K.G.: Jak byłam tam na dole, to bardzo wiało. Przy szafach totalnie wiało chłodne powietrze. Opowiedzmy, proszę, trochę – na tyle, na ile możecie, bo wiem, że są różne tajemnice związane z Krakenem i wszystkiego opowiadać nie wolno – ale jednak jakie są takie wyzwania związane np. z konserwacją tego urządzenia? Bo rozumiem, że to całe wianie to był taki duży wiatraczek komputerowy, tak? Trzeba to wszystko chłodzić.

P.O.: W bardzo dużym uproszczeniu tak, natomiast, żeby ten superkomputer działał, sama jego budowa i administracja to jest gros osób, które muszą wkładać w to swoją pracę. Na zapleczu mamy zespół osób i tzw. infrastrukturę pomocniczą, która zapewnia odpowiednie parametry i warunki do pracy dla tego superkomputera. To, co wiało, to jest układ chłodzenia powietrzem, który jest w naszym centrum oparty o wodę lodową i agregaty chłodnicze umieszczone na budynku. Do tego musimy zapewnić odpowiednie zasilanie. To nie są pojedyncze kilowaty, które moglibyśmy pobrać z gniazdka w domu. Mamy w swoim centrum oddzielne stacje zasilania średniego napięcia. Mamy własne generatory, które zapewniają nam ciągłość pracy. Jeżeli są zaniki w zasilaniu, to jesteśmy w stanie zapewnić ciągłość pracy tego superkomputera. Z jednej strony dlatego, że te obliczenia trwają. To nie są zadania, które dzieją się w ciągu sekund, minut. Te modele są tworzone przez ileś czasu.

K.G.: Ale ile? Dni, tygodnie?

P.O.: To zależy od zadania. Są zadania, które potrafią trwać po kilka dni lub nawet tygodni. Jeżeli program nie jest do tego odpowiednio przystosowany, nie zapisuje jakichś pośrednich wartości w wyliczeniach, wyłączenie prądu, wyłączenie serwerów wiązałoby się z utratą całej tej energii, która została włożona w przeprowadzenie obliczeń, w związku z czym mamy zapewnione podtrzymanie zasilania dla całości superkomputera. Całość tego nowego centrum danych, Centrum Kompetencji STOS została otwarta w tamtym roku. Została zbudowana i zaplanowana, zaprojektowana z myślą o zapewnieniu jak najlepszych warunków technologicznych po to, żeby te superkomputery, które tutaj mamy, pracowały. W związku z tym budynek spełnia normy TR3. To jest amerykańska norma, która mówi o jakości i funkcjonalności, którą zapewnia serwerownia. Mamy dwa źródła zasilania z sieci energetycznej, całość infrastruktury pomocniczej jest zbudowana redundantnie, czyli mamy dwa agregaty, dwie stacje średniego napięcia, dwa tory zasilania. 

K.G.: Redundantnie, czyli są dwa niezależne zabezpieczenia, źródła?

P.O.: Tak. Są dwa niezależne źródła zasilania, które dochodzą z dwóch stron. Czyli staramy się, żeby każde urządzenie, które jest u nas zamontowane, było zasilane z dwóch niezależnych grup. Tak samo instalacja chłodnicza jest zrealizowana w taki sposób, żebyśmy mogli zachować ciągłość działania. W momencie, kiedy musimy np. serwisować jakiś fragment układu chłodzenia, możemy go wyciąć. Chłodzenie jest realizowane w taki sposób, jak wcześniej, ale drugą drogą, i możemy konserwować element, który tego wymaga.

B.Ś.: Ja jeszcze uzupełnię, bo Piotr wspomniał o czymś takim jak Centrum Kompetencji STOS. Żeby to się nie pomyliło – my jesteśmy Centrum Informatyczne TASK, a Centrum Kompetencji STOS to jest ten nowy budynek, oddany w zeszłym roku, do którego się wprowadziliśmy z tą całą infrastrukturą.

K.G.: Czyli STOS jest jeszcze szerszy niż TASK, tak?

B.Ś.: To jest projekt, który był realizowany i w ramach którego została stworzona infrastruktura w postaci tego budynku i serwerowni, w której teraz instalujemy kolejne zespoły superkomputerowe. Z założenia Centrum Kompetencji STOS miało za zadanie, oprócz dostarczenia tej infrastruktury, stworzenie takiej przestrzeni na tworzenie zespołów interdyscyplinarnych. Znowu wracamy do tych naszych naukowców – rozwój nauki cały czas powoduje, że trzeba być dobrym specjalistą w swojej dziedzinie. Natomiast, żeby realizować badania, tak jak już wcześniej mówiliśmy, potrzebujemy mocy obliczeniowej superkomputera. I niekoniecznie specjalista, naukowiec zajmujący się chemią, fizyką czy inżynierią materiałową musi znać rozwiązania IT, wiedzieć, jak czegoś użyć. No i tutaj pojawia się właśnie Centrum Informatyczne TASK, którego misją jest to, żeby dostarczyć tę moc obliczeniową, dostarczając usługi aplikacji, oprogramowania, która jest w stanie wesprzeć i przyspieszyć ich obliczenia, zwiększyć ich jakość. Z drugiej strony jesteśmy otwarci na to, żeby wspólnie realizować projekty, gdzie specjaliści z domeny IT będą w stanie wesprzeć, zaproponować, pomóc w rozwiązaniu jakiegoś problemu dziedzinowego, dzięki czemu ci specjaliści skupiają się na tym, co jest ich domeną. Nie muszą się zajmować innymi aspektami. I to jest to, do czego dąży teraz świat. Interdyscyplinarność zespołów przynosi zupełnie nowe korzyści, nawet jeżeli wychodzimy poza IT – fizycy zaczynają współpracować z chemikami, z matematykami i nagle okazuje się, że w sumie to przecież te problemy są rozwiązane w matematyce, więc można to tak przeliczyć i w ogóle wchodzimy na inny poziom badań. Stąd też z naszej strony chcemy dla całego środowiska dostarczyć jak najwyższej jakości usługi i jednocześnie pomóc im, jeżeli są takie oczekiwania, we wsparciu ich badań i podsunięciu rozwiązań.

K.G.: Ale też takim wsparciu informatycznym? No bo nie każdy musi umieć programować. Wiem, że bardzo wielu naukowców to teraz robi w różnych dziedzinach, ale oferujecie takie wsparcie?

P.O.: Jeżeli chodzi o wsparcie naszych użytkowników, to mamy dosyć rozbudowany poradnik użytkownika, który powstawał przez lata, opublikowany na naszej stronie. Mam nadzieję, że jest w miarę przejrzysty i jasny. Staramy się tam wyjaśnić wszelkie aspekty dostępu do superkomputera. Użytkownicy, którzy chcą programować, kompilować własne programy, to są już bardziej doświadczeni użytkownicy, którzy sobie w miarę dobrze poradzą, natomiast taki użytkownik, który chce tylko uruchomić obliczenia, de facto nie programuje, tylko chce używać jakiegoś programu. On potrafi go używać, bo jest z tej dziedziny, z której jest, używał go pewnie na swoim pececie albo w swojej katedrze na jakimś komputerze, więc on po prostu musi umieć się odnaleźć w tym systemie dostępu zdalnego i puszczania zadań przez system kolejkowy. To jest system, który dba o tę demokrację. 

K.G.: Trzeba po prostu odczekać swoje w kolejce?

P.O.: To zależy. Jeżeli ktoś potrzebuje większych zasobów i zadeklaruje w swoim zadaniu, że te zasoby są duże, to z bardzo dużym prawdopodobieństwem będzie czekał dłużej. Bo jeżeli on chce użyć np. równocześnie do zadania dwunastu nodów, to system kolejkowy czeka tak długo, aż te dwanaście nodów będzie wolnych, i dopiero wtedy mu je przydzieli. Ale jeżeli ktoś używa tylko jednego noda, to prawdopodobnie jego zadanie policzy się dużo, dużo szybciej. Jeszcze tylko uzupełnię tę kwestię zakresu badań, w jakim poruszają się nasi użytkownicy. Tego jest naprawdę dużo i trudno powiedzieć o wszystkich. Można wejść na naszą stronę internetową task.gda.pl. Tam w zakładce „Zasoby Superkomputer” jest taka podstrona „Zastosowania”. Na tej stronie mamy wylistowane wszystkie aktywne projekty, granty obliczeniowe, aktywne obecnie u nas w centrum, w tzw. KDM-ach. KDM to jest skrót od komputerów dużej mocy. Jest ich tam w tej chwili chyba około dwustu. Każdy może sobie zajrzeć i zobaczyć, co ciekawego liczą nasi użytkownicy. 

M.P.: Jest tam też opublikowana lista oprogramowania, które jest u nas dostępne. Bo część oprogramowania jest kupowana z budżetowych zasobów i użytkownikom jest udostępniana licencja. Kupujemy np. dwadzieścia licencji, czyli w danym momencie z danego oprogramowania może korzystać dwudziestu użytkowników. Jak skończą, to kolejni mogą to wykorzystać. I naszym zadaniem jest też instalacja tego oprogramowania na tym konkretnym sprzęcie, który jest u nas. Nie jest to tak proste, jak przyzwyczailiśmy się w zastosowaniach domowych, że klikamy „instaluj” i wszystko dzieje się samo. To oprogramowanie często wymaga kompilacji już u nas, co wiąże się z tym, że parametry techniczne czy budowa tego komputera jest wprost przypisana do tego, jak dobrze może ten program w tym miejscu działać. On będzie działał szybciej na tym naszym sprzęcie, a na innym inaczej. 

K.G.: Radia Naukowego słucha bardzo wielu naukowców i pewnie część się zastanawia, czy można by się podpiąć pod takiego Krakena. Trzeba przyjechać do Trójmiasta czy można to robić z dowolnego miejsca na świecie? Kto może korzystać z Krakena?

B.Ś.: Naszą misją jest wspieranie środowiska naukowego w Polsce. Geograficznie z takiego historycznego spojrzenia są to głównie użytkownicy, którzy są w okolicach regionu pomorskiego, natomiast mamy użytkowników z całej Polski. Naukowcy pracujący w instytucji naukowej, na uczelniach mogą nieodpłatnie korzystać z zasobów obliczeniowych naszego superkomputera. 

K.G.: Za Krakena się nie płaci?

B.Ś.: Nie. Za dostęp do obliczeń naukowych się nie płaci, jeżeli realizuje się obliczenia naukowe. Z przeznaczeniem naukowym można korzystać nieodpłatnie. Zasady są opisane na naszych stronach – zapraszamy.

M.P.: Co roku zbieramy takie sprawozdania od naszych użytkowników, co zostało wyliczone, gdzie robili publikacje, jakie osiągnęli efekty tych obliczeń. Prosimy też, żeby zawsze w tych publikacjach było wymienione, że było to obliczane właśnie na naszym sprzęcie, naszej infrastrukturze. 

B.Ś.: Chciałbym też wrócić do tego wątku wsparcia programistycznego. Oczywiście zdarzają się przypadki, kiedy użytkownicy nas o to pytają. O ile są to jakieś drobne rzeczy związane z konfiguracją aplikacji, ze wsparciem związanym ze środowiskiem, to taka pomoc w ograniczonym zakresie jest udzielana. W ograniczonym, bo zazwyczaj to się nie kończy na jakimś prostym rozwiązaniu problemu, to nie jest taka czy inna odpowiedź, której jesteśmy w stanie szybko udzielić. Zazwyczaj te problemy są bardziej złożone. Myślę, że dobrym przykładem jest wsparcie zespołu chemików, które jest w ostatnim czasie realizowane w ramach jednego z projektów, gdzie nasi pracownicy modyfikują narzędzie, oprogramowanie, które zostało przygotowane przez chemików, które działało na standardowych rozwiązaniach, procesorach CPU. Modyfikują je w taki sposób, żeby przyspieszyć te obliczenia, przyspieszyć modelowanie i poszczególne komponenty, moduły są przepisywane w taki sposób, żeby działały na kartach graficznych. Dzięki bardzo dużej skali udało się przyspieszyć te obliczenia. To jest właśnie dobry przykład tej interdyscyplinarności oraz współpracy pomiędzy nami a użytkownikami. Natomiast dzieje się to w oddzielnym wątku, grancie, projekcie, gdzie mamy zasoby na to, żeby przeznaczyć je na wsparcie.

K.G.: A co jakby wybuchł pożar? Popatrzyliście po sobie nieco zaniepokojeni, ale jakieś procedury chyba są. [śmiech]

M.P.: Tak, jest to nowy budynek, od razu z założenia budowany jako data center, więc oczywiście system przeciwpożarowy musimy tutaj mieć. Mamy takie rozwiązanie, nie powiem, że niestandardowe, ale rzadziej spotykane. Mianowicie przeważnie w takich data center systemy gaszenia oparte są o gazy techniczne, które w przypadku wystąpienia pożaru do komór ze sprzętem wtłaczają gaz. Daje to tyle, że obniża się poziom tlenu. Jak wiemy, żeby pożar mógł zaistnieć, niezbędny jest tlen. No ale niestety po pierwsze jest to bardzo drogie rozwiązanie, a może nawet po pierwsze jest to rozwiązanie niebezpieczne dla ludzi. Jeżeli byłby tam człowiek, to bez tlenu jest tak samo zagrożony. My tutaj mamy wdrożone takie rozwiązanie oparte o system mgły wodnej. Można sobie pomyśleć – no jak to, woda, sprzęt elektroniczny? Ale zauważmy, że czysta woda, destylowana, demineralizowana nie jest przewodnikiem, nie ma tam co nosić jonów, więc jest de facto izolatorem. Na takim pomyśle oparte jest to rozwiązanie. W przypadku wystąpienia pożaru pierwsze co musi wystąpić, to jest detekcja dymu. Wtedy wypełnia się nasz system instalacji przeznaczony do gaszenia. Po drugie wysoka temperatura. Dopiero te dwa czynniki uwalniają tę mgłę wodną z ampułek, które są rozmieszczone w całej serwerowni. To działa, mamy zaprzyjaźniony ośrodek, w którym system mgły wodnej zadziałał, i faktycznie wszystko wyschło. Powycierali, włączyli i działało dalej.

B.Ś.: Należy tutaj też wspomnieć, że w przypadku wystąpienia ewentualnego pożaru system detekcji pozwala na gaszenie nie tylko danej sekcji. Nawet nie całej komory, w której znajduje się superkomputer, tylko poszczególnej sekcji. W związku z tym ryzyko uszkodzenia sprzętu jest ograniczone do minimum.

K.G.: A jeśli ktoś złośliwy chciałby was zhakować? Skoro jest podpięcie do sieci, to rozumiem, że jest jakieś ryzyko.

P.O.: Ryzyko zawsze jest. Niestety, ale nie ma systemów w stu procentach bezpiecznych. Jeżeli chodzi o zapewnienie bezpieczeństwa, to zarówno od strony sieciowej, jak i samych usług, które są udostępniane użytkownikom, mamy zespoły osób, które pracują, przygotowując te usługi. Pracują, z tyłu głowy mając to, że ten system ma być bezpieczny, w związku z czym odpowiednie procedury, konfiguracje, odpowiednie oprogramowanie jest używane do tego, żeby jak najbardziej zabezpieczyć te systemy przed niepożądanym dostępem. 

K.G.: Ale stresik chyba jest, nie? Uśmiechacie się. [śmiech]

P.O.: Oczywiście, że tak. Naukowcom, którzy gromadzą dane i prowadzą obliczenia, zależy na tym, żeby te dane były bezpieczne, żeby ich nie stracić. Mamy systemy magazynu danych, superszybkie, superwydajne pamięci pod obliczenia, tak żeby ten superkomputer nie był blokowany przez dostęp do danych. Mamy możliwość tworzenia kopii bezpieczeństwa tych danych, mamy możliwość ich archiwizacji na systemach taśmowych, więc zapewniamy bezpieczeństwo danych pod kątem ich fizycznej, przypadkowej utraty przez użytkownika. Zależy nam też na tym, żeby te dane były bezpieczne, żeby zespół naukowców, którzy gromadzą te dane, wiedział o tym, że są one bezpieczne, że inni nie mogą się do nich dostać. Każdy prowadzi jakieś badania, każdy ma swoje tajemnice, ale chce też pochwalić się tym za chwilę w jakiejś publikacji. Mamy teraz trend open research data, w którym naukowcy swoje publikacje podpierają danymi, pokazują je światu, tak żeby trzynaście zespołów na całym świecie nie gromadziło tych samych danych, tylko żeby mogli pracować na jednym data secie, na jednym zbiorze danych. I może wyjdą zupełnie inne wyniki, ale ten etap publikacji danych jest już później. Jeżeli ktoś gromadzi dane, chce opracować na tym jakąś publikację, chce dojść do czegoś, to jest to jego dorobek. Dbamy o to, żeby użytkownicy czuli, że te dane są ich, a opublikują je wtedy, kiedy będą chcieli. 

K.G.: To bardzo ciekawe. Mówiąc o tym archiwizowaniu, pokazaliście mi – i bardzo mnie to zaskoczyło – że archiwizuje się na taśmach magnetycznych, czyli na starym stylu magazynowania. Dlaczego?

M.P.: Tak, nadal się stosuje do archiwizacji coś, co jest nazywane biblioteką taśmową. Są to taśmy magnetyczne podobne do taśm, które może jeszcze niektórzy słuchacze pamiętają – taśm magnetofonowych. Dlaczego? Ponieważ koszt przechowania jednej jednostki danych jest najniższy ze wszystkich możliwych, jakie mamy dostępne na rynku. Jakbyśmy mieli to przechowywać na dyskach twardych, byłoby to zdecydowanie droższe. Są one też dużo, dużo trwalsze. Trwałość takiej kasety definiuje się w tej chwili na jakieś dwadzieścia lat. Dyski twarde – myślę, że wielu słuchaczy spotkało się niestety z ich awarią, wiemy, że ten sprzęt jest mocno awaryjny. Jeszcze energia – przechowywanie na taśmach nie wymaga stałego podtrzymywania napięcia. No i jeszcze taka ciekawostka – takie systemy przechowywania danych oparte na dyskach konstruuje się w taki sposób, by były bezpieczne, by awaria części dysków nie wpływała na utratę danych. Te uszkodzone dyski możemy też wymieniać na gorąco na zdrowe, nieuszkodzone i system automatycznie się odtwarza. Jest to praktycznie niewidoczne dla użytkowników. 

K.G.: Jakie znaczenie mają superkomputery dla nauki na świecie? No bo jest ich dużo. Czy to są takie urządzenia, które są tak mocno wrośnięte w tkankę naukową, że one po prostu muszą być? Czy to jest bajer, czy to jest podstawa? 

B.Ś.: Myślę, że wraz z rozwojem nauki zdecydowanie to już nie jest bajer. Możemy mówić o jakimś wyścigu na liście top pięćset, gdzie ktoś chce się pochwalić, że ma szybszy komputer i okej, natomiast z naszego punktu widzenia tego, jakie jest zapotrzebowanie na zasoby obliczeniowe, mówimy tutaj o realnej potrzebie naukowców tego, żeby wykorzystać moc, którą możemy dzięki technologii im dostarczyć, żeby mogli z tego skorzystać w swoich badaniach. Troszeczkę mija już ten trend, w którym zespoły naukowe kupowały serwery, zasoby obliczeniowe i gdzieś na uczelniach były instalowane takie małe instalacje, i każdy chciał mieć coś swojego. Oczywiście mamy swoje ograniczenia w postaci systemu kolejkowego, jednak coraz więcej osób zaczyna sobie zdawać sprawę z tego, że utrzymanie własnego małego klastra, superkomputera to są duże koszty zarówno energetyczne, jak i samego zakupu. A potem jednak potrzeba jakiejś osoby lub grupy osób, które będą to utrzymywać, przygotowywać, dbać o to, żeby to oprogramowanie, które ma tam działać, było odpowiednio skonfigurowane, aktualizować je. Więc taka, powiedzmy, centralizacja tych zasobów obliczeniowych w takich centrach jak nasze ma służyć właśnie temu, żeby te kompetencje związane z utrzymaniem oraz samo stworzenie odpowiedniego miejsca do tego, żeby taki superkomputer zainstalować, odbywało się tańszym kosztem w kilku miejscach na wysokim poziomie, zapewniając wysoką jakość i żeby nie było takiego rozdrobnienia. 

K.G.: Czyli może to robić wrażenie, a nawet nie wrażenie, tylko to jest duża inwestycja, ale ostatecznie w skali nauki polskiej jest to oszczędność – tak należy o tym myśleć. 

B.Ś.: Tak, myślę, że powinniśmy w ten sposób do tego podejść. 

P.O.: Jesteśmy w stanie, kupując sprzęt, mieć pewnie niższe ceny, bo kupujemy go dużo. Mało który zespół jest w stanie zbudować serwerownię tak wydajną, jak nasza. 

M.P.: Nie chodzi tu tylko o infrastrukturę i o sprzęt, ale też właśnie o to oprogramowanie, o którym wspomniałam – to też są olbrzymie pieniądze.

B.Ś.: Co więcej, to, że mamy użytkowników z różnych dziedzin, staramy się, aby zarówno ta infrastruktura, którą kupujemy, jak i oprogramowanie, które jest instalowane, było dostarczane pod różne zastosowania. W zależności od tego, z jakiej dziedziny przyjdzie użytkownik, z dużą dozą pewności jestem w stanie powiedzieć, że na pewno znalazłby coś dla siebie. Oczywiście nie mamy wszystkiego. Pojawia się nowe oprogramowanie, które dopiero za jakiś czas będzie może również u nas, jeżeli będzie takie zapotrzebowanie. Natomiast nie jesteśmy zorientowani tylko na jedną grupę. Staramy się, żeby zarówno zasoby, jak i oprogramowanie, które jest przygotowywane dla użytkowników, były różnorodne. 

K.G.: Czy opłaca się stawiać takie maszyny? W tym sensie, że ta technologia się rozwija. Kiedy Kraken może się zestarzeć? Czy się nie zestarzeje, bo zawsze można do niego dołożyć?

M.P.: Oczywiście, że technologia się rozwija, ale to jest coś, z czym żyjemy na co dzień, nie tylko technologia w branży IT. Kraken się zestarzeje, jak najbardziej. Przestanie być opłacalny, np. jego zasilanie. Przy tych samych kosztach prądu za kilka lat będziemy mogli mieć kilkukrotnie większą moc obliczeniową. To, co stracilibyśmy na Krakenie na prądzie, możemy zainwestować w nowe, szybsze, lepsze maszyny.

K.G.: Czyli ile Kraken podziała? Trudne pytanie.

P.O.: Nie do końca. Powiedzmy, że na bazie tych trzydziestu lat doświadczeń mniej więcej co cztery, pięć lat następuje ten krok technologiczny, ten etap zmiany. Natomiast jest on też powiązany z różnymi aspektami formalno-finansowymi – kwestie projektów, grantów na pozyskanie nowych środków na zakup takiego superkomputera. Ale nie znaczy to, że po czterech czy pięciu latach ten superkomputer jest bezużyteczny.

K.G.: Bo Kraken jest tylko Politechniki czy jest całego trójmiejskiego konsorcjum uczelni?

P.O.: Jeżeli chodzi o użytkowanie, jest on dla całego środowiska, natomiast Kraken to jest zespół superkomputerów, który jest tworzony przez kilka instalacji, które są wdrażane i które były kupione z różnych funduszy, z różnych projektów realizowanych przez nas w konsorcjach z innymi centrami superkomputerowymi w Polsce. Więc o Krakenie mówimy jako o zespole superkomputerów, natomiast każdy z nich ma swoją własną historię. Wszystkie te elementy były zakupione przez Centrum Informatyczne TASK w ramach realizacji projektów.

K.G.: A jak się ma branża superkomputerów do sztucznej inteligencji? Czy wszystko się na tych superkomputerach oblicza? Czy to w ogóle zupełnie nie ta dziedzina?

P.O.: Jest to ta dziedzina o tyle, że infrastruktura, którą dostarcza superkomputer, może być wykorzystana do uczenia maszynowego. Sztuczna inteligencja to jest ogromny worek, więc możemy mówić o różnych typach modeli, sieciach, jest gros aspektów, które moglibyśmy tutaj rozwinąć. Natomiast nasza infrastruktura pozwala na przeprowadzanie obliczeń, trenowanie modeli i dostarczanie usług opartych o sztuczną inteligencję. 

K.G.: A jak się tak przechadzacie wśród tych szaf wypełnionych sprzętem, to macie wrażenie, że kto jest ważniejszy? Ta maszyna czy wy, ludzie?

P.O.: Ja mam większy kontakt z użytkownikami, więc cały czas na bieżąco widzę ich problemy, które spływają do nas zgłaszane pocztą czy przez system ticketowy. Pomagam je rozwiązywać i mam taki bezpośredni feedback od nich, więc wiem, że człowiek jednak się przydaje. Natomiast nie każdy ma taki kontakt, trzeba by każdego indywidualnie zapytać. Ja zdecydowanie widzę, że to ma sens, bo widzę ten sens na co dzień, w kontakcie głównie mailowym z naszymi użytkownikami. 

K.G.: To jest takie szersze pytanie o to, czy maszyny nas zastąpią itd., na ile rozwój maszyn powoduje konieczność rozwoju kompetencji konkretnych ludzi. Stąd to moje pytanie.

B.Ś.: Maszyny na pewno nas zastąpią, bo cały czas nas zastępują. 

K.G.: Dobrych, inteligentnych, błyskotliwych podcasterek nie zastąpią, takiej naturalności nie da się zaprogramować. [śmiech]

B.Ś.: To jest ta gałąź, która prawdopodobnie wytrzyma najdłużej. [śmiech]

K.G.: Mam nadzieję. [śmiech]

P.O.: Zahaczyłaś tu trochę o kreatywność. Ja się zgodzę, że maszyny nas zastąpią, ale one nas zastąpią, przynajmniej na chwilę obecną, w takich powtarzalnych pracach, które możemy zautomatyzować.

K.G.: Nudnych?

P.O.: Poniekąd tak. Ostatnio właśnie czytałem, że mówi się o skróceniu dnia pracy, że kiedyś było dwanaście godzin, później obniżono do ośmiu. Okazało się, że produktywność jest większa, a później maszyny zastępowały w pewnych procesach ludzi. Dochodzimy do takiego momentu, kiedy ta nasza praca jest coraz bardziej kreatywna i niekoniecznie tak efektywna przez te osiem godzin. W związku z tym w tym, w czym jesteśmy w stanie być zastąpieni, starajmy się to robić. Sztuczna inteligencja nie jest kreatywna, jest powtarzalna, próbuje nas naśladować na wyuczonych schematach. To nie jest na razie to samo co ludzki mózg i myślę, że jeszcze trochę poczekamy. Może kiedyś nas zastąpią, natomiast ta kreatywność dalej zostaje po naszej stronie.

M.P.: Maszyny nadal są tylko narzędziami. Superkomputer jest fantastycznie szybki, natomiast bez człowieka jest niczym.

K.G.: To na koniec powiedzcie mi, kto wymyślił nazwę Kraken?

M.P.: Był rozpisany konkurs na jednym z trójmiejskich portali. Pojawiały się tam propozycje i potem było głosowanie. 

K.G.: To jest dobra nazwa. 

P.O.: Co ciekawe, wpisuje się w historyczne nazwy superkomputerów, które mamy. Ponieważ jesteśmy nad morzem, od lat nasze superkomputery były związane z morzem. Były to typy statków, okrętów. Mieliśmy Galeon, Karawelę, Galerę, Holka. 

K.G.: A teraz macie potwora, który zjada te statki. 

P.O.: Ale jeszcze wcześniej mieliśmy Trytona, który był bogiem morza, a teraz mamy Krakena, który swoimi mackami łapie te różne superkomputery, więc mamy kilka superkomputerów, które razem tworzą jeden zespół nazwany Krakenem.

K.G.: Bardzo dziękuję. Doktor inżynier Piotr Orzechowski. Dziękuję serdecznie.

P.O.: Dziękuję bardzo.

K.G.: Magister inżynier Monika Pacek. Dziękuję bardzo.

M.P.: Dziękuję.

K.G.: Magister Bogusław Śmiech. Dziękuję bardzo.

B.Ś.: Dziękuję bardzo.

K.G.: I dziękuję wam bardzo za wycieczkę po Krakenie. A zainteresowanych słuchaczy odsyłam na radionaukowe.pl, gdzie można zobaczyć kilka zdjęć z tej wycieczki.

  

 

Dodane:

Udostępnij:

Notatki do odcinka

Zajrzyjcie na stronę Centrum Kompetencji STOS: https://stos.gda.pl/

Na tym filmie możecie szybko zwiedzić budynek STOS i zobaczyć krakenowe szafy

dr inż. Piotr Orzechowski

dr inż. Piotr Orzechowski

Kierownik Działu Usług Chmurowych w Centrum Kompetencji STOS na Politechnice Gdańskiej, zastępca dyrektora ds. rozwoju w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej. Specjalizuje się w klastrach obliczeniowych i usługach chmurowych.

mgr inż. Monika Pacek

mgr inż. Monika Pacek

Administratorka systemów informatycznych w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej. Absolwentka informatyki, specjalistka od baz danych.

mgr Bogusław Śmiech

mgr Bogusław Śmiech

Pracuje w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej na Politechnice Gdańskiej.

Obserwuj Radio Naukowe

Ulubione

Skip to content