Menu

Pokaż wiadomości

Ta sekcja pozwala Ci zobaczyć wszystkie wiadomości wysłane przez tego użytkownika. Zwróć uwagę, że możesz widzieć tylko wiadomości wysłane w działach do których masz aktualnie dostęp.

Pokaż wiadomości Menu

Wiadomości - Sebastian M. Bobrecki

#81
Archiwum / 10 lat liczenia
20 Luty 2015, 21:43
Cytat: Tobas w 20 Luty 2015, 19:38
Za chwilę 42-gie.
ŁaŁ. Napisz może kilka słów czemu tak ostro akurat w tym projekcie?
Główne powody są dwa i są dość ogólne, ale składa się na nie wiele mniejszych części. Jest ich za dużo bym mógł sobie je wszystkie tak na szybko uzmysłowić i wypisać, ale kilka z nich to;
1). Tematyka projektu:
- zainteresowanie astrofizyką, zwłaszcza radioastronomią, choć nie tylko,
- solidne zaplecze naukowe zarówno jeśli chodzi o kadrę jak i zaangażowanie różnych uczelni, instytutów itp.,
- solidne zaplecze techniczne w postaci różnych zaawansowanych instrumentów badawczych (radioteleskopy, satelity, no i oczywiście interferometry grawitacyjne) oraz infrastruktura informatyczna,
- plany ulepszania i budowy nowych instrumentów które mogą być źródłem danych dla projektu,
- fakt że przez niedobór mocy obliczeniowej jesteśmy wstanie tylko w bardzo ograniczonym zakresie dokonać analizy danych z już istniejących urządzeń, i to mimo że większość z nich prowadzi obserwacje tylko sporadycznie,
- no i oczywiście możliwość dokonania odkryć nowych pulsarów i jakże wyczekiwanej detekcji fali grawitacyjnej,
- wyniki naszej pracy są publikowane,
- projekt jest w zasadzie mocno międzynarodowy,
- projekt wydaje się mieć przyszłość,  w tym sensie że wraz z rozwojem instrumentów i mocy obliczeniowej istnieją duże szanse na odkrycia kolejnych obiektów, a po udanej detekcji fal grawitacyjnych zaczną się ich dokładne pomiary w celu lepszego zbadania ich źródeł, itd.,
...
2). Samo prowadzenie projektu od strony BOINC-a:
- projekt jest stabilny, bardzo rzadko zdarza się że coś nie działa,
- działa na praktycznie każdym sprzęcie, starszym, nowszym, CPU, GPU, Nvidia, AMD/Ati, Intel, komórki, itd.,
- personel dba o to żeby unikać sytuacji że projekt nie ma zadań,
- mało tego starają się by dostępne były zadania dla każdej obsługiwanej platformy sprzętowej,
- jest dobra komunikacja z personelem,
- na forum jest sporo ciekawych treści stworzonych przez osoby zarówno z personelu jak i z poza niego, które tłumaczą różne zagadnienia związane z projektem, działaniem aplikacji, podstawy teoretyczne, itp., jak choćby legendarna już chyba seria wątków wyjaśniająca od podstaw FFT,http://einstein.phys.uwm.edu/forum_thread.php?id=8651
...
#82
Archiwum / 10 lat liczenia
20 Luty 2015, 18:25
Właśnie mija 10 lat od momentu mojego przyłączenia się do Einstein@home:Einstein@Home member since 20 Feb 2005Na dzień dzisiejszy uzbierałem trochę ponad 190M punktów, zajmuję pierwsze miejsce w zespole, pierwsze miejsce w kraju i czterdzieste trzecie na świecie :boing:
#83
Krzyszp a ty używasz do stwierdzenia kiedy robić checkpoint tylko liczbę iteracji czy też tych boinc-owych api:
int boinc_time_to_checkpoint();
void boinc_checkpoint_completed();

i ewentualnie;
boinc_set_min_checkpoint_period(int nsecs);?
#84
http://universeathometest.info/universe/result.php?resultid=5958700
#85
Na sam koniec, jak już było 100%, dostałem błąd :(
#86
 Ale to nie jest jakiś problem z CR-LF?
#87
Kiedy ją wypuścisz?
#88
Cytat: tito w 10 Luty 2015, 21:08
To czemu nie wrzuciłeś tego na główną? Przecież wystarczy ctrl-c ctrl-v i piękny news. Jeśli Ty tego nie zrobisz to ja wkleję.
Edit: wkleiłem dosłownie z adnotacją od kogo pochodzi info.
Ja raczej nie mam do tego uprawnień.
#89
https://esbek.iv.net.pl/b0b3r/apps/enigma_0.76_i7.tgz
#90
Dzięki wzrostowi mocy obliczeniowej, wcześniej niż zakładano, wystartuje dokładniejsza re-analiza archiwalnych danych z PMPS. Poprzednio dane te były analizowane w podprojekcie BRP3 z dokładnością umożliwiającą wykrycie pulsarów do częstotliwości 150Hz. Znaleziono wtedy 24 wcześniej nie znane obiekty. Teraz czułość zostanie zwiększona tak by możliwe było wykrywanie obiektów do częstotliwości nawet 300Hz co wymaga dużo większej ilości obliczeń. Wymagania rosną z czynnikiem f^3. W związku z tym dostępna będzie aplikacja tylko na GPU, a obliczenia zajmą ponad 4 razy więcej czasu niż standardowe zadania BRP4G (Arecibo GPU). Obecnie emitowane są tylko krótkie serie testowe tych zadań z dużą startową replikacją, w celu przetestowania czy wszystko działa jak powinno. Więcej informacji można znaleźć w odpowiednich wątkach na forum projektu:
http://einstein.phys.uwm.edu/forum_thread.php?id=11161
http://einstein.phys.uwm.edu/forum_thread.php?id=9730&nowrap=true#138001
#91
Póki co wygląda na to że co prawda bardzo powoli ale odrabiamy stratę.
#92
Cytat: kva.pl w 09 Luty 2015, 01:37
Co tam bylo przed edycja?
Hmm... ogórki ;)
#93
Cytat: Gluciorek w 08 Luty 2015, 23:26
Podoba mi się ten Yafu - zwłaszcza, jeśli wejdziemy w podany powyżej link i klikniemy "Strona główna projektu YAFU" :P
No to grubo...
#94
Cytat: Aegis Maelstrom w 08 Luty 2015, 21:56Jak TJM zapatruje się na optymalizację i czy nie można jej wdrożyć masowo?
Tego nie wiem. Nie pytałem.
Cytat: Aegis Maelstrom w 08 Luty 2015, 21:56A na razie, gdzie można o taką kompilację prosić? :)
Ja zrobiłem wersje tylko do Linux x86_64 i na procki i7 i dziś też zrobiłem dla AMD opartych na architekturze Vishera. Ale ta na Visher-e działa raptem 4-5% szybciej. Jeśli ktoś jest zainteresowany to mogę je gdzieś wystawić do ściągnięcia.
#95
Cytat: stasieks80_PL w 31 Styczeń 2015, 12:53
Czy do Enigmy stosuje się nadal optymalizacje ? W naszym wątku o projekcie dostępne są np. dla procesorów z ss3.
Ja w ostatnich dniach dla testu zrobiłem sobie apkę zoptymalizowaną, na razie tylko na kompach z prockami intela (i7), i wyszło mi że jest o jakieś 20-30% szybsza od oryginalnej.
#97
Z racji że w lutym tego roku mija 10 lat mojego uczestnictwa w tym zacnym projekcie, obstawiam za Einstein@home.
#98
Z tego co widzę to sporo spamu się na forum Enigmy pojawiło. Do tego stopnia że już ludzie o tym piszą na liście mailingowej "boinc_projects" :( Profil zespołu też jest tam w nie najlepszej formie. Przydało by się żeby ktoś władny i kompetentny się tym zajął.
#99
Cytat: krzyszp w 30 Styczeń 2015, 15:26
Faktycznie, shmem jest na 100, ale po powiększeniu się cuda działy na serwerze, feeder query jest na 200.
No bo do tego też trzeba zwiększyć ilość shm w systemie kernel.shmall i kernel.shmmax.
#100
Mi chodziło o <shmem_work_items>N</shmem_work_items> i <feeder_query_size>N</feeder_query_size>. Bo może tu jest zbyt mało. <shmem_work_items> domyślnie to raptem 100. Z tego co kojarzę z mersenne to ta wartość okazała się śmiesznie mała.
#101
Znowu podobnie. 6 wolnych rdzeni a dostaje 1 zadanie:pią, 30 sty 2015, 13:48:27 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 13:48:27 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 13:48:27 | Universe@Home | [sched_op] CPU work request: 3830169.72 seconds; 6.00 devices
pią, 30 sty 2015, 13:48:29 | Universe@Home | Scheduler request completed: got 1 new tasks
pią, 30 sty 2015, 13:48:29 | Universe@Home | [sched_op] Server version 705
pią, 30 sty 2015, 13:48:29 | Universe@Home | Project requested delay of 182 seconds
pią, 30 sty 2015, 13:48:29 | Universe@Home | [sched_op] estimated total CPU task duration: 4546 seconds
pią, 30 sty 2015, 13:48:29 | Universe@Home | [sched_op] Deferring communication for 00:03:01
pią, 30 sty 2015, 13:48:29 | Universe@Home | [sched_op] Reason: requested by project
pią, 30 sty 2015, 13:48:29 |  | [work_fetch] Request work fetch: RPC complete


-
A jak duży bufor jest ustawiony w feederze?
#102
Cytat: krzyszp w 30 Styczeń 2015, 13:34
Tak też może być.
Na wszystkich kompach masz 0.06?
Tak.

No niestety reset projektu i restart klienta nie pomógł. Włączę debug i może dowiem się czegoś sensownego.

-
Wygląda na to że klient się zachowuje w porządku:pią, 30 sty 2015, 13:45:21 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 13:45:21 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 13:45:21 | Universe@Home | [sched_op] CPU work request: 3837646.04 seconds; 9.00 devices
pią, 30 sty 2015, 13:45:23 | Universe@Home | Scheduler request completed: got 3 new tasks
pią, 30 sty 2015, 13:45:23 | Universe@Home | [sched_op] Server version 705
pią, 30 sty 2015, 13:45:23 | Universe@Home | Project requested delay of 182 seconds
pią, 30 sty 2015, 13:45:23 | Universe@Home | [sched_op] estimated total CPU task duration: 13636 seconds
pią, 30 sty 2015, 13:45:23 | Universe@Home | [sched_op] Deferring communication for 00:03:01
pią, 30 sty 2015, 13:45:23 | Universe@Home | [sched_op] Reason: requested by project
pią, 30 sty 2015, 13:45:23 |  | [work_fetch] Request work fetch: RPC complete
#103
No u mnie to wygląda j.w. dla systemów z 16 i 32 wątkami. W tym momencie zablokowałem pobieranie nowych danych. Poczekam aż się resztki policzą i zresetuję projekt. Może to tylko kwestia tego że klient zgłupiał po zmianie wersji aplikacji albo tak po prostu sam z siebie.
#104
Jednak nic się nie zmieniło:pią, 30 sty 2015, 11:04:10 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 11:04:10 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:04:13 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:04:13 | Universe@Home | No tasks sent
pią, 30 sty 2015, 11:18:24 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 11:18:24 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:18:27 | Universe@Home | Scheduler request completed: got 1 new tasks
...
pią, 30 sty 2015, 11:21:33 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 11:21:33 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:21:36 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:21:36 | Universe@Home | No tasks sent
...
pią, 30 sty 2015, 11:29:13 | Universe@Home | Sending scheduler request: To report completed tasks.
pią, 30 sty 2015, 11:29:13 | Universe@Home | Reporting 1 completed tasks
pią, 30 sty 2015, 11:29:13 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:29:17 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:29:17 | Universe@Home | No tasks sent
...
pią, 30 sty 2015, 11:32:23 | Universe@Home | Sending scheduler request: To report completed tasks.
pią, 30 sty 2015, 11:32:23 | Universe@Home | Reporting 2 completed tasks
pią, 30 sty 2015, 11:32:23 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:32:26 | Universe@Home | Scheduler request completed: got 1 new tasks
...
pią, 30 sty 2015, 11:35:31 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 11:35:31 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:35:33 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:35:33 | Universe@Home | No tasks sent
...
pią, 30 sty 2015, 11:47:50 | Universe@Home | Sending scheduler request: To report completed tasks.
pią, 30 sty 2015, 11:47:50 | Universe@Home | Reporting 1 completed tasks
pią, 30 sty 2015, 11:47:50 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:47:52 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:47:52 | Universe@Home | No tasks sent
pią, 30 sty 2015, 11:50:58 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 11:50:58 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 11:51:00 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 11:51:00 | Universe@Home | No tasks sent
...
pią, 30 sty 2015, 12:00:38 | Universe@Home | Sending scheduler request: To report completed tasks.
pią, 30 sty 2015, 12:00:38 | Universe@Home | Reporting 1 completed tasks
pią, 30 sty 2015, 12:00:38 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 12:00:41 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 12:00:41 | Universe@Home | No tasks sent

#105
No poważnie:pią, 30 sty 2015, 06:45:06 | Universe@Home | Sending scheduler request: To report completed tasks.
pią, 30 sty 2015, 06:45:06 | Universe@Home | Reporting 2 completed tasks
pią, 30 sty 2015, 06:45:06 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 06:45:09 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 06:45:09 | Universe@Home | No tasks sent
pią, 30 sty 2015, 06:48:15 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 06:48:15 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 06:48:18 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 06:48:18 | Universe@Home | No tasks sent
pią, 30 sty 2015, 06:55:25 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 06:55:25 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 06:55:28 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 06:55:28 | Universe@Home | No tasks sent


A jak już po jakimś czasie coś wpadnie to raczej niewiele:pią, 30 sty 2015, 09:06:16 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 09:06:19 | Universe@Home | Scheduler request completed: got 0 new tasks
pią, 30 sty 2015, 09:06:19 | Universe@Home | No tasks sent
pią, 30 sty 2015, 09:18:29 | Universe@Home | Sending scheduler request: To fetch work.
pią, 30 sty 2015, 09:18:29 | Universe@Home | Requesting new tasks for CPU
pią, 30 sty 2015, 09:18:32 | Universe@Home | Scheduler request completed: got 1 new tasks


Z tego co dziś zaobserwowałem to średnio dostaję zadań tak że obciążone jest jakieś  30-40% wątków. Choć teraz widzę że znowu coś tam poszło może się ustabilizuje. Zobaczę jak sprawa będzie wyglądać za jakąś godzinę i dam znać.
#106
I jak tam prace? Widzę że obecnie niby zadań dużo ale coś się nie chcą wysyłać. Ciągle dostaję "got 0 new tasks" :(
#107
Cytat: krzyszp w 29 Styczeń 2015, 14:37
I bardzo możliwe, że tak właśnie będzie - nie wykluczam takiej opcji.

Natomiast za wydłużeniem także podstawowych WU przemawia zwiększona dokładność dłuższych WU. Po prostu czas wykonywania zależy od liczby wykonywanych symulacji, która obecnie wynosi 4000, zaś najbardziej optymalną ilością dla tych zadań jest 20'000 (być może to się zmieni, trwają prace nad nową aplikacją, która trochę inaczej będzie liczyła - mniej symulacji, za to dokładniejszych).
5 razy dłuższe czyli jakieś ~4h:10m na twoim referencyjnym kompie. Jak dla mnie może być bo to i tak raczej jest po tej krótszej stronie mocy. Choć już przy takim czasie liczenia checkpointy by się przydały.
#108
Ale to zawsze jest kwestia jakiegoś kompromisu. Takie krótkie ok. 1h są bardzo fajne. Można je szybko odesłać, traci się mniej w przypadku błędu itp. ale to też większa ilość rekordów w bazie danych i więcej pobrań/odesłań z serwera itp. Wydaje mi się że najlepiej będzie jeśli te krótkie i te długie będą po prostu jako osobne aplikacje do wyboru. Nawet jeśli w rzeczywistości to będzie ta sama binarka. Tak jest np. w Einstein-ie z BRP4G i BRP5:
0493758b144f76223f204c5f62eb4f0d  einsteinbinary_BRP4G_1.39_x86_64-pc-linux-gnu__BRP4G-cuda32-nv270
0493758b144f76223f204c5f62eb4f0d  einsteinbinary_BRP5_1.39_x86_64-pc-linux-gnu__BRP5-cuda32-nv270
#109
Cytat: ryszard.korczyk w 28 Styczeń 2015, 22:32
Nie ma też co przeginać z wyścigami, aby nie było efektu PG, gdzie ilością wyścigów i długością zniechęcili wielu w tym mnie.
Raczej maksimum dwa w miesiącu. Odpowiednio jeden dla PM CPU i jeden dla PM GPU. I tylko wtedy jeśli da się na nie znaleźć sensowne okienka czasowe. Może być też tak że już ktoś inny organizuje wyścig w projekcie który my wybierzemy na PM. Wtedy nie powielamy tylko się dołączamy. Zresztą my się chyba dołączmy do każdego z automatu.
#110
Cytat: Troll81 w 28 Styczeń 2015, 17:11
:respect: fajny pomysł. A może by tak organizować wyścig w każdym naszym PM??
To jest bardzo dobry pomysł. Też o tym myślałem.
#111
wto, 27 sty 2015, 14:56:19 | Universe@Home | Wiadomość z serwera: universe2 needs 55435.54MB more disk space.  You currently have 10100.46 MB available and it needs 65536.00 MB.  :(
#112
Ok. Jakby co to wal śmiało.
#113
Cieszę się że serwer dał radę :) Tyle że teraz nie ma czego liczyć ;)

P.S. krzyszp jak byś może potrzebował jakiejś pomocy przy optymalizacji serwera to daj znać.
#114
Koledzy z PNT organizują wyścig w Constellation:
http://boincstats.com/en/stats/challenge/team/chat/647
#116
Oczywiście zdaję sobie sprawę że quorum wynosi 2.

A ile będzie tych zadań? Pytam bo dziś wieczorem będę chciał oddelegować do liczenia do końca wyścigu jakieś 440 wątków. Przy średnim czasie liczenia poniżej 30 minut. Powinienem być w stanie robić ponad 20k zadań na dobę i jestem ciekaw czy ich wystarczy.

Wzywam też wszystkich kamratów do pełnego wsparcia może uda się odbić pierwsze miejsce. W końcu jeszcze zostało ponad 2,5 doby.
#117
Wyścig w E@h dobiega już końca więc przepinam się tutaj. Tyle że strasznie słabo walidują mi się zadania. Ponad 6000 zadań w Validation pending i rośnie. Może co dziesiąte dostaje punkty na bieżąco. W związku z tym nie wiem czy to przyniesie jakieś sensowne punkty przed końcem wyścigu.
#118
Cytat: AL w 18 Styczeń 2015, 23:54
...
Binary Radio Pulsar Search (Arecibo) liczone na intel gpu też się liczy do punktacji wyścigowej?
Wszytko się liczy :)
#119
Po bez mała dwóch dobach w pierwszym w tym roku wyścigu w Einstein@home idzie nam całkiem nieźle, bo zajmujemy obecnie czwartą pozycję. Mogło by być natomiast lepiej, ponieważ strata do poprzedzającej nas drużyny i zarazem miejsca na podium jest relatywnie niewielka, a i drugie miejsce wydaje się być w zasięgu jeśli by się brać kamracka wzięła ostro do wioseł, zwłaszcza że czasu jeszcze sporo. Apeluję więc o pełną mobilizację, żeby z hukiem zainaugurować nowy rok, poprzez wywalczenie wysokiej pozycji w wyścigu w tym jakże zacnym projekcie jakim jest Einstein@home.  :attack:
#120
Liczy się to co dostanie punkty w tym okresie, więc można.