Najlepiej punktujące projekty (druga kolumna to średni stosunek punktowania danego projektu do wszystkich pozostałych projektów)
TSP 9,694786047 APS@Home 4,334906977 RieselSieve 4,287002326 Cosmology@Home 3,332125581 |
średnio punktujące projekty
MilkyWay@home 1,913372093 yoyo@home 1,78244186 Einstein@Home 1,757160465 Docking@Home 1,723097674 Cels@Home 1,67892093 MindModeling@Home 1,621695349 QMC@Home 1,599346512 Sudoku project 1,487576744 BOINC Alpha Test 1,356893023 SIMAP 1,227290698 POEM@HOME 1,158102326 SHA-1 Collision Search Graz 1,044725581 PrimeGrid 1,032474419 Orbit@Home 1,018381395 |
Kiepsko punktujące projekty
The Lattice Project 0,945462791 Malaria Control 0,929760465 3x+1@home 0,929486047 Hydrogen@Home 0,923374419 NQueens Project 0,908990698 Tanpaku 0,901016279 SETI@Home 0,897816279 Artificial Intelligence 0,879193023 Superlink@Technion 0,874937209 Proteins@home 0,856574419 UCT Malaria 0,846195349 Predictor@Home 0,814523256 ABC@home 0,811604651 uFluids 0,801481395 VTU@Home 0,788709302 Spinhenge@home 0,778597674 BURP 0,766886047 SETI@Home Beta 0,765023256 BRaTS@Home 0,762893023 World Community Grid 0,718993023 Pirates@Home 0,708597674 Leiden Classical 0,70115814 WEP-M+2 Project 0,667351163 Rosetta@Home 0,656716279 Climate Prediction 0,568616279 RALPH@Home 0,558772093 |
hmm, a co to jest? skąd takie punkciki wziąłeś?
stąd (http://pl.boincstats.com/stats/project_cpcs.php)
większość użytkowników prawdopodobnie w seti nie używa zoptymalizowanych aplikacji więc SETI stoi pewnie wyżej, myślę że należałoby ten projekt przenieść co najmniej do średnio punktujących jak nie do czołówki.
Miałem trochę czasu więc porównałem
ja w seti z optymalkami na jeden rdzeń za 4 000s dostaję około 64 punkty
Pigu w cosmology na rdzeń za 4 300s dostaje niecałe 20 punktów
Procki takie same, jego pracuje na 2.7 GHz mój na niecałe 3 GHz (wtedy)
Wniosek jest taki że SETI@home zoptymalizowane należałoby przesunąć na drugie miejsce tuż po TSP.
Mam pytanie co to za projekt ten TSP?
Traveling Salesman Problem
A jak wycenić SETI jeśli ciężko ocenić jak tam nowe optymalki działają?? Policzę jeszcze z miesiąc na nowych optymalkach i zobaczę co i jak. MOże awansuje. Poza tym lista ta nie jest jakimś tam wyznacznikiem. Np o niebo lepiej ot tych projektów liczy PS3Grid ale to projekt skierowany do jednej platformy. Nie jest też powiedziane że TSP będzie dobrze punktować w linuksach powiedzmy. A i nie wiadomo jak SETI będzie punktować na makówkach na ten przykład. Wiele zależy więc od proca i systemu operacyjnego. Ta list ma jedynie charakter poglądowy.
Heh... dokładność do dziewiątego miejsca po przecinku :P
Cytat: Troll81 w 23 Maj 2008, 00:15
A jak wycenić SETI jeśli ciężko ocenić jak tam nowe optymalki działają??
ja już porównałem, nie ma wątpliwości, działają wspaniale, niezłe turbo doładowanie
martwi mnie tylko czy przypadkiem centrala nie wpadnie na pomysł by zmniejszyć punktację bo tak ładnie liczą
dlatego teraz liczę całą mocą jaką tylko dysponuję
Cytat: Horpah w 22 Maj 2008, 23:14
Pigu w cosmology na rdzeń za 4 300s dostaje niecałe 20 punktów
eee? http://www.cosmologyathome.org/results.php?userid=7155&offset=40
raczej na rdzeń za ok 3000s dostaję 50pkt
a TSP zdaje się nie rozsyła wu?
w SETI@HOME potwierdzam, że za CPU time ok.2700-3000s dostaje sie ok.50pkt.
TSP nie rozsyła, a link do wyników bez logowania nie ujrzymy ....
W RieselSieve za 2700-2800 dostaje 54pkt, czyli podobnie jak SETI.
Z podsumowania wzrostu punktów total i oczekujących wychodzi (w SETI) że 4jajowiec podkrecony tylko na 3.2GHz wyciaga dziennie ok.6000pkt.
Nawet mnie nie irytuj bo po ostatniej wymianie bebechów kompa mnie szlag trafia. Jakbym wiedział że q6600 można już za 400 złotych znaleźć to bym się nie ładował w dwujajowego AMD. No ale kto mógł przewidzieć że dolar tak na pysk poleci i że intel tak będzie kichał nowymi 4jajowcami. Ponoć zresztą mają się pojawić 3 jajowe intele (odpady z quadów z jednym rdzeniem uwalonym), ponoć też niektóre 2 jajowce to też odpady z quadów :D
Faktycznie w cosmology chociaż klient żąda niskiego kredytu to dostaje się 50 za każdą jednostkę, pewnie ustawił na stałe.
W takim wypadku seti jest tylko nieco lepszy od cosmology.
czyli panowie postanowione - dokulam cosmo do 150k i wracam na setha
btw: tak - cosmo daje stałem 50pkt - wiecie jakie były jaja, jak zaraz po zmianie aplikacji liczącej dawał jeszcze 100pkt (zbilansowane doa starej aplikacji) - fafnaście k na dobę szło :P
Już wiem. Zrobie projekt boinc i dopnę go do boincstats. Ale zapisać się będą mogli tylko członkowie B@P i bedę punktówał 1k kredytków na sekundę :D
Ale ze mnie sprytna bestia co ?? :D
wątpię czy na takich warunkach Willy dołączyłby go do BOINCstatsa ;D
Ale wykazałem się sprytem, prawda? :D
heh..można tak powiedzieć ;P
Lepszy pomysł i tak mieli Belgowie...
"Zróbmy projekt, w którym inni będą liczyć dla nas!"
Czy ktoś wie jaka jest moc obliczeniowa drużyny Boinc@Poland?. W teraflopach?
Korzystając z bardzo uproszczonego wzoru TeraFLOPS = RAC/100,000 to wychodzi obecnie 5-6 TeraFLOPS.
hm... ciekawe czy przebijamy najsilniejszy w polsce superkomputer Galera ?? :D
Przykro mi:
http://www.itpartner.pl/news/146447.html
Galera ma 50 teraflopów...
dlatego pojde na ETI :D
chcesz podpiąć galerą do Boinca?? :D
tak sobie myślę, że lista dojności niekoniecznie została dobrze przemyślana - klasyfikacja jest dla najmocniejszych maszyn, ale jakie projekty należałoby dobrać dla średniaków by wykrzesać z nich jak najwięcej? np cosmo dający 50pkt za wu niezależnie od tego ile tygodni się młóciła niekoniecznie jest najlepszym wyborem dla p4
dlatego powiedziałem że lista ta ma charakter fakultatywny. W niektórych projektach często występują crashe próbek i choćbyś nie wiem ile liczył to jak masz błąd to nie dostajesz punktów. NIektórzy np preferują krótkie jednostki bo włączają kompa na 3 godziny dziennie. Itp itd.
A jeszcze inni mają np Solaris jako OS i im zupełnie inaczej punktują projekty.
Dla niedzielnych BOINCowiczów polecam:
- macie słabe kompy? - bierzcie projekty matematyczne np. RCN czy SHA-1
- rzadko używacie kompa? - bierzcie SETI, on daje gigantyczne deadline'y w porównaniu z innymi projektami
- nie wchodzicie w żadną z powyższych grup? - liczta co chceta :)
Trollu przydałaby się aktualizacja ;)
musze znalezc czas zeby to opanować :D
Cytat: Horpah w 23 Maj 2008, 00:30
Cytat: Troll81 w 23 Maj 2008, 00:15
A jak wycenić SETI jeśli ciężko ocenić jak tam nowe optymalki działają??
ja już porównałem, nie ma wątpliwości, działają wspaniale, niezłe turbo doładowanie
martwi mnie tylko czy przypadkiem centrala nie wpadnie na pomysł by zmniejszyć punktację bo tak ładnie liczą
dlatego teraz liczę całą mocą jaką tylko dysponuję
masz na mysli te optymalki:
Windows optimized S@H Enhanced application by Alex Kan
Version info: SSE3 (AMD/Intel, Core 2-optimized v8-nographics) V5.13 by Alex Kan
SSE3 Win32 Build 41 , Ported by : Jason G, Raistmer, JDWhale
to jest najnowsza ?? czy jest cos lepszego ??
tak, jak na razie to jest najnowsza
Czy mozecie zaaktualizowac ta liste?
Aktualne dane są tu: http://pl.boincstats.com/stats/project_cpcs.php
tylko nieco mnie czytelne.
spokojnie. już pomalutku pracuję nad updatem
Najlepiej punktujące projekty (druga kolumna to średni stosunek punktowania danego projektu do wszystkich pozostałych projektów)
FreeHAL 11.52613469
GPUGRID 10.18842449
MilkyWay@home 2.297202
Cosmology@Home 2.00094
średnio punktujące projekty
3x+1@home 1.79302
Cels@Home 1.589470833
DistrRTgen 1.587867347
AQUA@home 1.533646
SETI@Home Beta 1.52519
yoyo@home 1.523622
SETI@Home 1.397314
QMC@Home 1.355958
MindModeling@Home 1.321734
Artificial Intelligence 1.310146
Virtual Prairie 1.238022449
POEM@HOME 1.227206
PrimeGrid 1.21825
SIMAP 1.13894
Einstein@Home 1.117164
Sudoku project 1.102676
SHA-1 Collision Search Graz 1.094682
Enigma@Home 1.088462
Seasonal Attribution 1.06861
słabo punktujące projekty
Magnetism@home 0.99065
Superlink@Technion 0.920118
Genetic Life 0.900016
NQueens Project 0.89335
The Lattice Project 0.886528
BOINC Alpha Test 0.875376
Proteins@home 0.839768
Hydrogen@Home 0.839152
Malaria Control 0.836494
IBERCIVIS 0.833457143
Orbit@Home 0.831752
RALPH@Home 0.825386
uFluids 0.805806122
LHC@Home 0.804388
Spinhenge@home 0.80308
ABC@home 0.794012
Reversi 0.793069388
BRaTS@Home 0.789220408
AlmereGrid Boinc Grid 0.778633333
BURP 0.776826
Docking@Home 0.771614286
Rosetta@Home 0.765378
World Community Grid 0.741326
WEP-M+2 Project 0.741102128
Leiden Classical 0.74102
Climate Prediction 0.668856
VTU@Home 0.66087
Pirates@Home 0.66024
Teraz krótka informacja "jak to czytać" Np freehal gorzej punktuje od GPUGrida ale średnio w stosunku do pozostałych projektów punktuje lepiej niż GPUGrid. Kolejna wązna rzecz. punktowania projektów są zbierane w jakimś czasie i np milkyway mocno obciął ostatnio punktowanie co niekoniecznie jest już odzwierciedlone w tabelce (podobnie freehal).. Kolejna wazna rzecz to to że mamy do czynienia z punktowaniem średnim. Np primegrid będzie świetnie punktował na maszynach 64bit a słabiej na 32bit ale w tabelce widać "średnie punktowanie" a na świecie jest wiecej hostów 32 bit więc prime wypada słabo. Podobnie ma się sprawa z projektami które "lepiej punktują pod linuxem" itp itd.
tzn jak liczysz tę kolumnę? co to jest średni stosunek punktowania danego projektu do wszystkich pozostałych projektów?
tez tego nie połapałem...
[spam mode on]
chiba Trollik sam się zagubił w tym co tłumaczył XD
[spam mode off]
najbardziej naukowo wartościowe projekty: WCG, Climate, Rosetta najsłabiej punktują
To znaczy że gdyby policzyć stosunek punktowania freehala do rosetty a potem policzyć stosunek punktowania freehala do WCg i tak do wszystkich projektów po kolei a potem wyciągnąć z tego średnią to tak by to wyglądało.
ale co to jest kurczeflak punktowanie rosetty by z tego stosunki liczyć? jak liczysz punktowanie rosetty?
punktowanie rosetty to średnia ilość credits na godzinę na wszystkich podpiętych hostach.
(rac/24)/ilość hostów? ??? rosi jako stary projekt ma pewnie dużo nieaktywnych mocno zakłócających taki pomiar, seti liczony bez optymalek, grid zupełnie nieporównywalny... kipska sprawa, nie lepiej byłoby liczyć to z jakiś bardziej wysmakowany sposób? np wysortować dany typ hosta (q6600?) i by obciąć skrajności wybrać np hosty od 50 do 100 (sort po rac) i z takiego przedziału średnią?
Nieaktywne hosty nie są brane pod uwagę. Co do podziału na hosty to pisz doi chłopaków z boincstats :D
patrzac na ta liste projektow wg. dojnosci to troche sie u mnie to niezgadza,,
Licze-ylem nast. projekty (linux)
Milkyway ( optymalka na sse 4.1 64bit) - za 812 sek (probka zrobiona) mam 27 granted cr. : 30sek pracy 1 kredyt
Climate - 492.000 sek. - granted 6800 : : 72 sek pracy 1 kredyt (tutaj kredyt przyznany niedkonczonej probki)
Rosetta 10000 sek- 70-80 granted cr. : czyli na : 133 sek - 1ckedyt
Einstein (bez optymalki) 10400-12000 sek. - 135-155 granted cr. : 80sek 1 kredyt
Spinge 2.200 sek - granted 13 : 169sek 1 kredyt
Simap 1350 sek granted 29 cr. : 45sek 1 kredyt
Wychodzi z tego ze Milky SIMAP i Climate sa najbardziej punktowane "u mnie".
Na liscie znalazlem climateprediction najnizej w liscie a wychodzi na to ze daje punty i to nawet sporo.
Milky jest najbardziej oplacalna z optymalkami ale u mnie : -> http://img13.imageshack.us/my.php?image=95158566.png jakos sie nie sprawdza ( polowa kredytow nie przyznawana , 3% - 5% probek konczy sie bledami ).
Czy ktos takze mniej wiecej porownywal w ten sposob ?
Przyłączam się do uwagi Pigulca. Sumując wszystkie kredyty i dzieląc przez liczbę godzin tracisz info, jakie komputery biorą udział w projekcie.
Lepiej jest dla jasności podawać info pod konkretnego hosta.
Poza tym, z moich obserwacji - ranking projektów może się różnić na nawet dość podobnych maszynach. Np. na dwóch Pentium IV, jednym z D, drugim bez, na tym z D PrimeGrid mi przyspiesza o jakieś 20+%. Idąc dalej, na maszynie z P IV D aplikacje SIMAP i HMMER (ta druga daje o 50+% punktów więcej) liczą się właściwie tyle samo; na Pentium M ta druga liczy się dłużej (choć wciąż HMMER teraz opłaca się bardziej, choć pamiętam, że w zeszłym roku miałem odwrotnie). Co dalej ciekawe, na Pentium M i P IV D SIMAP zajmuje mi tyle samo czasu (~ 1h 20'), ale już PrimeGrid PSP spada z niecałych 2h (P M) do 1h 20' (P IV D)!
Warto chyba zrobić takie tips&tricks na jakich hostach (procesor, pamięć itp.) i systemach (Win XP/VISTA/2000/2003/Linuksy) które projekty mają przewagę komparatywną, albo sensownie rozłożyć obciążenie. Np. goście z PrimeGrid opowiadają, że procesory Intela lepiej sieją, a AMDki lepiej testują pierwszeństwo (LLRing).
Dalej, gdyby ktoś się bawił w benchmarki - trzeba pamiętać, że o ile w większości projektów wyznacznikiem mocy obliczeniowej jest skończenie jednostki (najczęściej jednostki są dość równe obliczeniowo, więc łatwo porównywać komputery), to np. w Rosetcie względnie stały jest czas przeliczania, a komputery różnią się ilością wygenerowanych rezultatów.
W Rosie kontraktujesz (ustawiasz sobie) oczekiwaną długość jednego WU (było standardowo 3h, miało być zwiększone do 6h) i liczysz tyle modeli, ile uda się przeliczyć w danym czasie (a to już zależy od rodzaju zadania (użyte białko i metoda zwijania) i trochę od szczęścia (AFAIK część parametrów w trakcie jest losowana - metoda Monte Carlo). Następnie odsyłasz model, a Rosetka przyznaje Ci punkty z taryfikatora: istnieje estymacja na podstawie jakiejś średniej ile powinno zająć wygenerowanie jednego modelu w tym konkretnym rodzaju WU i są za to punkty, a liczydłowy dostaje swoje [cena modelu] * [liczba modeli].
Dlatego nie zdziwcie się, że przechodząc na szybszy sprzęt jednostki w Rosetce liczą się Wam tyle samo albo i dłużej, bo im więcej modeli tym mniejsza bryłowatość i szczelniej wypełniają limit czasowy. :D
Nalezaloby teraz odpalic sobie z 20 roznych projektow przetestowac kazdy osobno i zobaczyc ktory dla kogo bylby najbardziej oplacalny i na jaka maszynke.. Bo widac z tego ze nie ma sensu bazowac na statystykach innych i znalezionych w sieci rankingach :).. No ale to tylko dla tych ktorzy chca miec wiecej punktow.
Btw. przydaloby sie zrobic jakas tabele czy rozpiske na jakich konkretnie procesorach, systemach + aplikacjach (z optymalkami i bez ) mamy dane czasy i kredyty na dany projekt , tak z ciekawosci :)
Cytat: MarcinG. w 06 Marzec 2009, 18:25
Nalezaloby teraz odpalic sobie z 20 roznych projektow przetestowac kazdy osobno i zobaczyc ktory dla kogo bylby najbardziej oplacalny i na jaka maszynke.. Bo widac z tego ze nie ma sensu bazowac na statystykach innych i znalezionych w sieci rankingach :).. No ale to tylko dla tych ktorzy chca miec wiecej punktow.
Hmm, to nawet nie jest kwestia chcenia "więcej punktów" - inaczej nie babrałbym sie z Rosettą (i jej kaprysami), RALPHem (tak samo), Docking, Spinhenge czy moim królem sknerstwa na Pentium M - uFluids (na "większych" maszynach jest nieco lepiej). Chodzi o lepsze rozłożenie projektów na własne maszyny (jeśli jest ich więcej niż 1), dobór sprzętu przy np. zakupie (sprzęt nowy/używany) czy lepsze dogadanie się z kolegami z zespołu (ja ciągnę X bo u mnie
stosunkowo dobrze liczy, a Ty bierzesz Y). Zauważ, że dzięki takiej optymalizacji zyskują same projekty, bo WU są liczone przez najodpowiedniejsze do tego komputery.
No to zachęcam do testów :) wiecie ile czasu takie coś zajmie?? tak żeby mieć powiedzmy z 10 rożnych hostów i na każdym postawić ze 3 lub 4 systemy operacyjne (win32 win64 lin32 i lin64) Dla każdego z nich pomielić każdy projekt tak z 10 dni co najmniej (przy założeniu że będą jednostki) i to jeszcze najlepiej raz z optymalkami a raz bez :D (ponadto aplikacje projektu się zmieniają tak jak i optymalki). Do tego trzeba by jeszcze wziąć pod uwagę możliwość liczenia na GPU.
No to wszystkich chętnych, gorąco zachęcam do wykonania takiego testu :D
Na dzień dobry wystarczyłoby "wyrównanie poziomu wiedzy". Gdyby każdy z tu obecnych spisał co i na czym jak mu żarło, to zebrałaby się całkiem niezła baza doświadczeń.
Prawie wszyscy mają za sobą wiele projektów, a i większość miała więcej niż jedną maszynę lub OS... Jasne, że projekty zmieniają aplikacje, WU a nawet systemy punktowania - ale drastyczne zmiany z dnia na dzień są jednak rzadkie.
Poza tym, jeśli bardzo chce się twardych danych liczbowych, pewnie wieele można zebrać botem ze stron projektów.
to jak ..?? trzeba bedzie zalozyc jakis osobny topic , moderowany czy nie ? jakies pomysly ? jak cos to zacznij i poleci dalej :)
Model procesora (np. Q6600), taktowanie normalne - krecone (np. 2.8@3.6 ) , system Win/Linux i ilu bitowy (np. Windows 64bit), rodzaj projektu (np. Rosetta), jaki klient (dokladnie mozna wstawic nazwe calego pliku lacznie z rozszerzeniem w przypadku Windowsa ) np. milkyway_0.18_SSE4.1_x86_64-pc-linux-gnu , srednie czasy liczenia probki i ilosc kredytow.
Mysle ze wystarczylo by jak narazie..
Weź pod uwagę że jeden q6600 mieli tylko boinca i wyświetlanie pulpitu a drugi w tym czasie np Boinca i user młóci na nim w crysis, w tle ripuje dvd dla kumpla i mułem ssie filmy z netu. i już masz dwie maszyny o identycznej konfiguracji z zupełnie innym wynikiem, i to nie z powodu punktowania projektu. A jeszcze inny user podkręci swojego q6600 na wodnym chłodzeniu, a inny nie podkręci wcale. A jeszcze inny będzie miał niestabilnie podkręconego i wysypuje mu się 40% próbek. Tak można do oporu. Zamierzasz skryptem sprawdzać co u kogo na maszynie pracuje w tle??
Cytat: Troll81 w 06 Marzec 2009, 21:45
Weź pod uwagę że jeden q6600 mieli tylko boinca i wyświetlanie pulpitu a drugi w tym czasie np Boinca i user młóci na nim w crysis, w tle ripuje dvd dla kumpla i mułem ssie filmy z netu. i już masz dwie maszyny o identycznej konfiguracji z zupełnie innym wynikiem, i to nie z powodu punktowania projektu. A jeszcze inny user podkręci swojego q6600 na wodnym chłodzeniu, a inny nie podkręci wcale. A jeszcze inny będzie miał niestabilnie podkręconego i wysypuje mu się 40% próbek. Tak można do oporu. Zamierzasz skryptem sprawdzać co u kogo na maszynie pracuje w tle??
1. Wyniki probek tylko i wylacznie z kompa ktory nie przelicza nic a nic, wystarczy mi jedna probka . Poprostu ktos nie zuywa kompa jakis czas moze to byc 1h 5h po tym czasie wraca patrzy ktore probki byly ostatnio odeslane i spisze czas policzenia tej probki. Chodzi mi tylko o te najszybsze czasy.
2. Podkrecanie -> napisalem ze tzreba bedzie napisac aktualny zegar w postaci xGhz a jesli podkrecony to xGhz@yGHz i bedzie wiadomo kto jaki ma i na ile podkrecony.
3. Probki wysypane mnie nie interesuja..Chodzi tylko o najlepsze czasy ktore mozna wycisnac z danej konfiguracji ( dokladnie jeden czas danego projektu uzywajac danej aplikacji i danej konfiguracji , a czas taki bedzie caly czas ten sam. )
Cytat: Troll81 w 06 Marzec 2009, 21:45
Weź pod uwagę że jeden q6600 mieli tylko boinca i wyświetlanie pulpitu a drugi w tym czasie np Boinca i user młóci na nim w crysis, w tle ripuje dvd dla kumpla i mułem ssie filmy z netu. i już masz dwie maszyny o identycznej konfiguracji z zupełnie innym wynikiem, i to nie z powodu punktowania projektu. A jeszcze inny user podkręci swojego q6600 na wodnym chłodzeniu, a inny nie podkręci wcale. A jeszcze inny będzie miał niestabilnie podkręconego i wysypuje mu się 40% próbek. Tak można do oporu. Zamierzasz skryptem sprawdzać co u kogo na maszynie pracuje w tle??
Tak jakby Twoja metoda była na te zakłócenia odporna. :P
Co do szukania botem dla dość konkretnej konfiguracji - fakt faktem, mamy mniejszą liczbę obserwacji więc wariancja wynikła z podanych przez Ciebie błędów rośnie - z drugiej jednak strony odpada nam np. błąd zróżnicowania komputerów między projektami.
Zaś w sytuacji raportowania przez nas, to w ogóle nie ma problemu. Możemy podać sporo, bardzo często łącznie z rodzajem pamięci, obciążeniem pracą pozaBOINCową oraz fazą księżyca. XD
Wczoraj zobaczylem ze PrimeGrid wyszedl u mnie najlepiej ze wszystkich jakie juz probowalem..Naprawde system 64bit + odpowiednie probki i mozna natluc punktow. Oby wygral w PM.
Postanowiłem zawrzeć głosa w sprawie wydajności ;)
Więc tak - w Boinc'u uczestniczę od niedawna więc moje wrażenia mogą być spaczone delikatnie ale:
Zacząłem liczyć na początku lutego od SETI (sentyment, SETI@home classic workunits 1,713; SETI@home classic CPU time 7,894 hours). Wydawało mi się że punktuję przyzwoicie, P4 2.4 niestety nie pozwala na szaleństwo ale byłem względnie zadowolony zwłaszcza że trafiłem na PM i jakoś tak miło sie dołączyło do nowej rodziny (BOINC, w tym @Poland :*). Od 19 lutego zacząłem eksperymentować z Milką bo tematyka względnie podobna i szykowało się że może być PM marca. Najpierw tyci tyci a potem na maxa ;) Moim największym zaskoczeniem jest że na Milce nabijam 2 razy tyle punktów (albo i więcej) co na SETI choć z teoretycznych tabel miodności to by nie wynikało (SETI ok. 400 na 24h, Milka ok 900). Jeśli bylibyscie zainteresowani głębszą analizą wydajności na tak przestarzałym sprzęcie to mogę poanalizować dokładnie co i jak ale jeśli w grę nie wchodzą przesłanki ideologiczne to dla P4 (chwilowo 2.4, za dni kilka będzie 3.2 HT to sprawdzę) Milka jest zdecydowanie lepsza niż SETI a co z tego wynika jest jednym z miodniejszych projektów. Oczywiście takie zjawisko zaobserwowałem u siebie i nie wiem czy jest powtarzalne :)
P.S. Prima na chwilkę włączyłem ale jak dostałem WU na 155h i rosło dałem sobie luzu (wiem - kupa możliwości ustawień, wyborów pod kompa itp. ale to jak bedzie PM będę kombinował) ;] No i FreeHAL jako bunusik jak uda się coś wyrwać :attack:
Generalnie, to wszystkie czytane przeze mnie statystyki punktowe nijak się mają do mojego kompa. Na dodatek część projektów fałszuje czasy przetwarzania. A dane FH to kompletna lipa. Dlatego postanowiłem stworzyć własny ranking, oparty na własnym pomiarze czasu. Trwa to długo, bo jak wdepnę w jakąś większą próbkę, to dzień z głowy. Dostępne optymalizacje zastosowane.
AMD Athlon 64 3000+ SSE3, 1 GB, Win XP Prof, BM 6.6.37 - suma punktów za cały dzień liczenia...
991 Milkyway
425 Seti enh (wciąż pending)
219 Enigma
205 Seti beta enh (wciąż pending)
164 FreeHAL (prawie gratis)
??? Cosmology - od 20h zagubiony w kosmosie XD
Milka króluje :parrrty:
witam dzis sie zarejestrowalem, narazie jestem w projekcie docking sprzet mam sredni procesor intel dual core ,pamiec 3 giga ,karta graf.zintegrowana, ale dosc szybkie lacze
http://www.1klik.pl/sklep/Notebook_HP_Compaq_CQ60_140EW_Dual_Core_T3400_3GB_250GB_15_4_WinVista_HomeBasic/p2847340/?PHPSESSID=777921365ef70063f22efa8dbbb5f10e
program wlaczam w weekend plus wieczorem w tygodniu na jakis czas, jaki projekt interesuje mnie cos zwiazanego ze sztuczna inteligencja/szukaniem lekarstw na dane choroby itd,.byscie polecali na taki sprzet?zeby jakos optymalnie go wykorzystac, jak ustawie za wysokie parametry to sie grzeje, mam na 10% ustawione ,czytalem faq z ustawieniami ale srednio to kumam jeszcze;)chcialem sie przylaczyc do world community grid ale za slaby sprzet mam chyba lub moze do jakiejs polskiej grupy sie przylacze :)
Temat rzeka. Polecam po prostu lekturę tego forum. Ca do "grzania" - im cieplej tym więcej policzone. - lapki średnio nadają się do tego, ale sam liczę na trzech. Wszystkie na 100% non stop.
Ze sztuczną inteligencją Aqua mi się jakoś najbardziej kojarzy,
Leki... Hmm. WCG, rosetta... Ogólnie to wszystko oprócz matematycznych, chociaż matematyka ze wszystkim jest powiązana.
Proponuję dołączyć do nas i uczestniczyć w projektach miesiąca.
Pozdrawiam i zapraszam do Team'u
zawsze można obniżyć napięcie procesora i wtedy temperatura spada
zobaczymy ,musze troche poczytac o tym programie ale gdzie zmienic napiecie procesora to niewiem jesli w boinc jest taka opcja, chyba ze jakims innym programem :)
To raczej nie jest ten wątek :P ale postaram się odpowiedzieć.
Po kolei:
Ad tematyka:
szukanie lekarstw na konkretne choroby - jeśli interesują Cię badania najbliższe zastosowaniu, o ile wiem najbliżej tego są niektóre podprojekty World Community Grid:
- FightAIDS@Home : szukanie przy pomocy Autodock białek najbardziej obiecujących co do zdolności łączenia się z wirusem (np. niestety nieudany eksperyment nr 22 - poszukiwanie inhibitorów proteazy), a także wyjaśnień jak dokładnie przebiegają mutacje i np. skąd nadzwyczajna odporność na wirusa HIV u niewielkiego odsetka populacji ludzkiej.
- Help Fight Childhood Cancer - ponownie szukanie potencjalnych białek AutoDockiem, tym razem przeciw neuroblastomie (częsty u małych dzieci rodzaj guza).
- Discovering Dengue Drugs - Together (w przygotowaniu faza II; chodziło o potencjalne leki na Dengę, ale też na WZW typu C, wirus zachodniego Nilu, żółtą febrę i inne podobne wirusy).
- Influenza Antiviral Drug Search - zebrano kandydatów do testów w "mokrym laboratorium", aktualnie czekamy na fazę II.
Wiele z tych badań to mieszanka badań dość podstawowych (np. nad naturą samej choroby) i potencjalnych leków. Tak jest na moje oko z Help Cure Muscular Dystrophy.
Inne aktywne projekty mają głównie charakter badań podstawowych. Help Conquer Cancer z WCG zajmuje się poprawą metod krystalografii rentgenowskiej białek - czyli podstawowej techniki badania struktury 3D naszych kochanych białeczek. Obiekt badań jest bardzo podstawowy, niemniej też bardzo ważny dla współczesnej biologii molekularnej i medycyny, nie tylko w kwestiach onkologicznych.
Kolejne projekty zajmują się rozwojem programów do symulacji komputerowych i przeprowadzania koniecznych przy tym testów, które weryfikują kolejne pomysły naukowców (np. na strategie inteligentnego zgadywania konstrukcji białek, łączenia białek, funkcje ewaluacyjne energii itd.)
Badania są robione na jak najbardziej konkretnych białkach i cząsteczkach chemicznych.
Do tej grupy trzeba zaliczyć:
* Wspomniany Docking@Home - łączenie się białek, mieli chyba pracować też nad jakimś lekiem
* POEM@Home - zgadywanie struktury 3D białek na podstawie funkcji energii; opracowanie skutecznych metod pozwoliłoby na tańsze i szybsze znajdywanie leków
* Rosetta@Home - zasadniczo to samo + cały wachlarz metod zgadywania i prace nad łączeniem cząstek. Jeden z najbardziej znanych projektów na BOINC.
* QMC@Home - wbrew pozorom projekt istotnie zbliżony do powyższych. Służy rozwojowi metod symulujących cząsteczki na bardzo niskim poziomie, odwzorowując dobrze badane aspekty wiązań niekowalentnych (podobnoż tu odniesiono istotne sukcesy) jak i prostych - kowalentnych (głównie nad tym będziemy teraz pracować). Jak pisze główny autor, na razie te metody zyskały duże uznanie w fizyce, a oni chcieliby je udanie wdrożyć w (bio)chemii. Zapewne długa droga przed nami, choćby z uwagi na złożoność obliczeniową, ale dla mnie to bardzo ciekawe. :)
Jest jeszcze np. GPUGrid badający białka - który jest zależny od karty graficznej.
Na koniec - istnieje projekt o nazwie DrugDiscovery - niestety, autor twierdzi, że nikt za nim nie stoi, ani on też nie ma pomysłu na wdrożenie pozyskanej wiedzy. IMVHO to jest pomyłka i zawracanie głowy.
Sztuczna inteligencja - było parę nieudanych projektów, działa FreeHAL zajmujący się sieciami semantycznymi. Czytałem też o planach uruchomienia czystokomercyjnego projektu w tym kierunku.
Dalej:
- AQUA@Home bezpośrednio nie ma nic wspólnego ze sztuczną inteligencją. Oficjalnie chodzi o pomoc w wykazaniu działania tzw. "komputera kwantowego", a dokładnie potwierdzenia tradycyjnymi metodami wyników jego obliczeń. Dla mnie ta sprawa śmierdzi - bo bez sensu jest, gdy ta sama firma potwierdza własne wyniki - to nie ma żadnej wartości dowodowej.
- Wymagania - zapewniam Cię, że ten komputer jest więcej niż wystarczający do World Community Grid czy jakiegokolwiek innego projektu z wymienionych (poza GPUGrid, zależnym od karty graficznej).
Tyle na razie.
Pozdrawiam, powodzenia i Wesołych Świąt!!
a.m.
a propos Aqua to sprawa smierdzi podwojnie :P bo i google juz tam macza lapy
http://www.boincatpoland.org/smf/boinc/google-i-komputer-kwantowy/
W tym miejscu będę podawał
ile sekund potrzeba na wypracowanie jednego punktu w poszczególnych projektach liczonych przeze mnie. W wątku tym były już przedstawiane sposoby analizy dojności projektów:
porównanie z boincstats ale jak zauważyli już liczydłowi mają się one czasami nijak do prawdziwych wyników. Różne systemy operacyjne, różne procesory.
porównanie z różnymi userami pracochłonne.
Wyniki podawał będę dla następujących maszyn
1.AMD Phenom II 965 BE @3.4 – 4 jajka system Vista 64 bit
2.Intel Core(TM)2 Duo CPU E7500 @ 2.93 – 2 jajka system X P 32 bit.
3.Karta graficzna 4850 ATI
Wyniki pisane są na łączny czas efektywnej pracy procesora tzn jeżeli pracuje jedno jajko to na jedno jajko jeżeli aplikacja zajmuje 4 jajka (np AQUA) to oczywiście na 4 jajka. Czasami aplikacja zajmuje najpierw jedno a potem stopniowo dołącza pozostałe wtedy jest to łączny czas efektywnej pracy wszystkich jajek.
Dane będą oczywiście uśrednione (i nie dla każdej maszyny od razu) gdyż maszyny te nie tylko liczą Boinc ale także służą do pracy ale powinny dać jako takie pojęcie co się opłaca liczyć a co się liczy głównie dla idei.
Maszyna Phenom II zawsze liczy dodatkowo na grafie, maszyna E7500 takowej nie posiada (ale już niedługo)
Jeżeli będzie zainteresowanie tematem to mogę także podawać obliczenia dla Phenom II 810 @2,60 Vista 64 ale są one proporcjonalnie większe do zegara .
Co ciekawe dla prawidłowej pracy kompa musiałem podnieść napięcie na prockach AMD o 0.05V oraz wyłączyć w biosie funkcje AMD K8 COOL&Quiet control
| | Phenom II | Intel E7500 | GPU 4580 | GPU 5850 |
OS | | Vista 64 | X P 32 | | |
@ | | 3,4 | 2,93 | | |
Milka | | | | 1,08 | 0,53-0,59 |
Collatz | | | | 1,38-1,44 | 0,57-0,6 | |
ABC | | 77 – 80 | 109 |
AQUA | | 14,5 - 15 | |
AQUA I ver 1.10 | | 2,94 | |
AQUA I ver 1.12 | | 18,36 | |
AQUA F | | 37-38 | |
Einstein | | 88-95 | |
Enigma (opt) | | 128 | 127 |
NFS | | 68 -72 | 60 -65 |
Prim AP26 | | 42 | 74 | | 10,5-11 |
Prim PPSLLR | | 117 | 114 |
Prim PSPSIEWE | | 35-40 | 73 |
QMC | | 87-93 | |
Spinhenge | | 120 | 111-113 |
VTU | | 155 | |
YOYO ECM | | 31 -35 | 160 |
YOYO ECM próbka ecm_mp | | 13,5-14,5 | |
SIMAP | | 87-88 | 122-125 |
Dzięki Pigu ;D :respect:
Pomysł na tyle fajny, że pozwoliłem sobie w ramach uczytelnienia przeredagować :book:
| GPU | Phenom II | Intel E7500 |
Milka | 1,08 | | |
Collatz | 1,38 | | |
ABC | | 77 – 80 | |
AQUA | | 14,5 - 15 | |
AQUA I | | 2,94 | |
AQUA F | | 37-38 | |
Einstein | | 88-95 | |
Enigma (opt) | | 128 | 127 |
NFS | | 68 -72 | 60 -65 |
Prim AP26 | | 42 | |
Prim PPSLLR | | 117 | |
Prim PSPSIEWE | | 35-40 | |
QMC | | 87-93 | |
Spinhenge | | 120 | |
VTU | | 155 | |
YOYO ECM | | 31 -35 | |
[table]
[tr][td][/td][td]GPU [/td][td]Phenom II [/td][td]Intel E7500[/td][/tr]
[tr][td]Milka[/td][td]1,08[/td][td][/td][td][/td][/tr]
[tr][td]Collatz[/td][td]1,38[/td][td][/td][td][/td][/tr]
[tr][td]ABC[/td][td][/td][td]77 – 80[/td][td][/td][/tr]
[tr][td]AQUA[/td][td][/td][td]14,5 - 15[/td][td][/td][/tr]
[tr][td]AQUA I[/td][td][/td][td]2,94[/td][td][/td][/tr]
[tr][td]AQUA F[/td][td][/td][td]37-38[/td][td][/td][/tr]
[tr][td]Einstein[/td][td][/td][td]88-95[/td][td][/td][/tr]
[tr][td]Enigma (opt)[/td][td][/td][td]128[/td][td]127[/td][/tr]
[tr][td]NFS[/td][td][/td][td]68 -72[/td][td]60 -65[/td][/tr]
[tr][td]Prim AP26[/td][td][/td][td]42[/td][td][/td][/tr]
[tr][td]Prim PPSLLR[/td][td][/td][td]117[/td][td][/td][/tr]
[tr][td]Prim PSPSIEWE[/td][td][/td][td]35-40[/td][td][/td][/tr]
[tr][td]QMC[/td][td][/td][td]87-93[/td][td][/td][/tr]
[tr][td]Spinhenge[/td][td][/td][td]120[/td][td][/td][/tr]
[tr][td]VTU[/td][td][/td][td]155[/td][td][/td][/tr]
[tr][td]YOYO ECM[/td][td][/td][td]31 -35[/td][td][/td][/tr]
[/table]
hmm... można podrzucać wyniki z innych sprzętów? Jak tak to gdzie? Może by tak założyć osobny wątek coś ala wyniki z PM ?
w sumie, to nie widzę problemu byś sobie dodał kolejną kolumnę w tabeli opisz nazwę procka i takty
aaa Piotr - wyniki są na całego proca, czy na jajko?
Kamraci poszukuje kogoś kto pomoże mi uzupełnić moją tabelę o wyniki obliczeń dla procesorów
- Phenom II system 32 najlepiej @ 3,4 lub okolice
- Intel cztero jajeczny system 32 i 64
- Intel dwujajeczny system 64 najlepiej @ 2,96 lub okolice
Jeżeli są chętni to proszę zgłaszanie się, interesuje mnie bezpośredni kontakt i raczej dłuższa współpraca. Obliczenia dla próbek uśrednione i dla kilkudziesięciu WU, stały monitoring własnych obliczeń (wracanie co jakichś czas do projektów). Obliczenia próbek wykonane przez komp na którym aktualnie nie odbywają się inne obliczenia.
Chodzi o wyeliminowanie ewentualnych błędów wynikających z checkpointów i spowolnienia pracy procka przez inną aplikacje. Z tego względu nie chcę korzystać z podglądów czyjejś pracy na stronie projektów.
Jesli sie przyda moge dokladac swoje wyniki z AMD Athlon II X4 620, a jest to trochę nietypowa konfiguracja bo procek dziala w plycie (ASUS M2A-VM chipset AMD 690G)w ktorej oficjalnie niema na liscie obsługujących tego typu procki, i z tego powodu nawet bios nie rozpoznaje poprawnie procka.
te wyniki nie sa proporconalne do siebie.. bo wyniki aqua macie dla calego proca.. czy tam 2 -4 cory, dzieliles run time / czas i wyszlo ile sekund robisz na 1kredyt..
Ale na inne projekty masz wyniki na core, czyli jak masz PG 35-40 sek ok ale podziel to /4 i wtedy czasy beda proporcjonalne do tych wqynikow z aqua .
Cytat: [GPU Force] MarcinGorecki w 01 Luty 2010, 15:25
te wyniki nie sa proporconalne do siebie.. bo wyniki aqua macie dla calego proca.. czy tam 2 -4 cory, dzieliles run time / czas i wyszlo ile sekund robisz na 1kredyt..
Ale na inne projekty masz wyniki na core, czyli jak masz PG 35-40 sek ok ale podziel to /4 i wtedy czasy beda proporcjonalne do tych wqynikow z aqua .
sa proporcjonalne,
wyraźnie podal ze sa to wyniki efektywnego czasu procesora, a w AQ automatycznie jest przeliczne na 4 rdzenie
Chciałem sprawdzić tę słynną krowę mleczną i wyszło mi że u mnie w laptopie (C2D 2,2 GHz, Vista 32 bit) liczy raczej kiepsko.
Próbka liczy się ok 15 h i przynosi 210 punktów. Przez 15 h policzę na jednym rdzeniu 15 enigm i dostanę ponad 300 punktów.
Zdaje się ,że bez grafy ani rusz w Milce.
a optymalki wgrane?
Cytat: Pantarhei w 02 Luty 2010, 15:17
Zdaje się ,że bez grafy ani rusz w Milce.
HOWGH ! :) No niestety nie zarzadzisz na cpu tam. Wiec jak sa mozliwosci to zaopatrzec sie w karte i trzepac punkty
Możliwości kupna stacjonarnego z grafą nie ma żadnych a widoki na przyszłość są raczej nieciekawe, przynajmniej pod tym względem. Tak więc dalej będe filarem B@P trzepiąc 300 (słownie: trzysta) punktów dziennie. XD :attack: :attack: :attack:
Nawet nie zamierzałem robić kariery w tym projekcie, ciekawiło mnie po prostu jak też punktuje to bożyszcze GPU, ale żadnych optymalek nie wgrywałem. Fakt. XP
to zeby cie jeszcze "pognebic"
karta: 5870 czas pracy: 88s pkt: 213,76
karta: 4850 czas pracy: 230s pkt: 213,76
XP XP XP XP XP
wgraj optymalki do cpu - jeżeli nic się nie zmieniło od czasów kiedy liczyłem na cpu, to bardzo mocno się zdziwisz
Cytat: Pantarhei w 02 Luty 2010, 15:17
Chciałem sprawdzić tę słynną krowę mleczną i wyszło mi że u mnie w laptopie (C2D 2,2 GHz, Vista 32 bit) liczy raczej kiepsko.
Próbka liczy się ok 15 h i przynosi 210 punktów. Przez 15 h policzę na jednym rdzeniu 15 enigm i dostanę ponad 300 punktów.
Zdaje się ,że bez grafy ani rusz w Milce.
przy optymalkach na athlonie II 3.00 G liczy sie okolo 140 min
to daje 1 z lepiej punktowanych projektow na procek
A na Intelu bedzie jeszcze lepiej.
Wierzę Wam na słowo, ze tak jest, ale sprawdzał nie będę.
Juz i tak projekt w samej Polsce daje jakies 10 mln punktow dziennie. :) wystarczy mu.
Wydaje mi się teraz, że ta rekordowa dojność MIlki być może wcale nie była zamierzona przez twórców projektu. Jeśli przyjąć, że miał on, bez optymalek, dawać 213 punktów za 15 godzin pracy to jest to przeciętny wynik. To, że napisano beznadziejna aplikacje, którą można było tak dalece zoptymalizować (pomijając już późniejszą możliwość liczenia na GPU) jest kwestią wtórną, przez twórców nie przewidzianą.
Mam problem z przyłączeniem sie do cels@home, czy ten projekt działa czy jest wsytzymany ?
Chyba nie działa....
nie dziala od zawsze
cels działał bardzo krótko
Cytat: AiDec w 03 Luty 2010, 04:24
A na Intelu bedzie jeszcze lepiej.
To może do następnego biuletynu wrzucić coś więcej -zachęcającego- na temat optymalek. Nawet jeżeli działają tylko na windzie - warto podać linki. Jest nas 5-6 tysięcy- więc jeżeli tylko 1% kamratów temat łyknie , to tym 55 osobom RAC na stałe wzrośnie.
Po długim przestoju LHC znowu nadaje, można powonie liczyć LHC, po podłączeniu do projektu jest rozsyłana aplikacja o nazwie "sixtrack". Na razie są przydzielane "małe" zadania, które szybko się liczą. Ciekawe jak będzie dalej...
Odgrzeje trochę temat.
Liczenie WCG już mnie trochę nudzi :)
Co aktualnie jakoś sensownie punktuje na Linuxie 64bit? (poza PG)
Ostatnio (ze dwa lata temu) była to Aqua ale widzę że mi jakoś w między czasie projekt wyłączyli XD
http://pl.boincstats.com/forum/forum_thread.php?id=1774&nowrap=true#108043
Ogólnie masz tam co ma aplikację 64bitową na linuxa i czy jest ona szybsza od 32bitowej - może coś wybierzesz.