Aktualności:

Nowy polski projekt BOINC - Universe@Home

Menu główne

GPU w The Lattice Project

Zaczęty przez RAD-Poland, 20 Grudzień 2008, 16:58

RAD-Poland


Cytat:
Adam_at_Home - Project administrator, Project developer
Yes, we will be releasing a GPU-accelerated version of GARLI in the near future!

zapowiada się kolejny projekt, który wykorzysta moc drzemiącą w naszych kartach graficznych

   
WCG:
PG:         YOYO:

     

Troll81

uh.... szykuje sie że będę musiał zmienić karte graficzną :D

Szopler

Ja będę musiał zmienić kompa na takiego z PCI Express i zainwestować w 280'tki (albo najnowsze 290'tki) (jak Aidec) ;)

AiDec

#3
Cytat: Szopler w 20 Grudzień 2008, 23:10
Ja będę musiał zmienić kompa na takiego z PCI Express i zainwestować w 280'tki (albo najnowsze 290'tki) (jak Aidec) ;)

280 nie warto i juz nie bedzie warto. Albo 260 core 216, albo 295 czyli kanapka z 260 core 216. No chyba ze chcesz isc w Triple SLi to wtedy faktycznie dwie kanapki Cie nie zadowola (2+2=4 ;) ). Ale ja zdecydowanie odradzam Triple SLi. Triple SLi jest obslugiwane tylko przez Viste. Ta jak wiadomo zzera duzo zasobow. Efekt jest taki, ze na Viscie i Triple SLi mam dokladnie to samo co na XP z SLi  XD. Bo ta trzecia karta to akurat Vista ja sobie zabiera :P. No moze nie tyle zabiera, co po prostu wszystko pod Vista ma mniejsza wydajnosc. I ta trzecia karta co prawda daje bardzo duzo mocy (w koncu to 280-ka), ale Vista jest na tyle skopana ze kazda z tych trzech kart daje mniej mocy pod Vista niz pod XP`kiem.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

legis

Tylko WU niech zrobią małe a nie takie jak w GPUGRID

AiDec

Male = kiepsko platne :P. A co do GPUGrid, to male juz sa :)



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81

Ale wciąż potrzebują restartu kompa raz na dwa dni i zamulają jedno jajo. Jak będą na czysto korzystać z GPU a cpu doić tylko w powiedzmy 5% tak bym na dwujajowcu mógł przeliczać trzy zadania na raz to spox. Poza tym najbardziej zniechęcają mnie te restarty.

TJM

A nie wystarczy zamiast restartu kompa po prostu restart GPU ? Na kartach nvidii co prawda nie próbowałem, ale na moich starych kartach ATI wystarczyło w sterach kliknąć coś w rodzaju 'zrestartuj procesor graficzny', obraz znikał na chwilę i pojawiał się z powrotem po paru sekundach, efekt dla całego podsystemu graficznego był identyczny jak po restarcie kompa.

W razie jakiejś pilniejszej sprawy - jestem często dostępny na kanale IRC B@P, na forum czasami zapominam zajrzeć lub nie mam czasu.

AiDec

#8
Cytat: Troll81 w 23 Grudzień 2008, 12:20
Ale wciąż potrzebują restartu kompa raz na dwa dni i zamulają jedno jajo. Jak będą na czysto korzystać z GPU a cpu doić tylko w powiedzmy 5% tak bym na dwujajowcu mógł przeliczać trzy zadania na raz to spox. Poza tym najbardziej zniechęcają mnie te restarty.

Restarty obecnie sa konieczne tylko dla OS`ow x64. Dla XP32 juz nie. Trzeba tylko zainstalowac stery 180.84. Obciazenie rowniez jest bardzo niewielkie (5-10%, a 1-2% dla Linuxow). I jak najbardziej mozesz zapiac GPUGrid + 2 zadanka na dwujajowcu :P. Wiec nie narzekaj, tylko do roboty  :arrr:


Cytat: TJM w 23 Grudzień 2008, 13:12
A nie wystarczy zamiast restartu kompa po prostu restart GPU ? Na kartach nvidii co prawda nie próbowałem, ale na moich starych kartach ATI wystarczyło w sterach kliknąć coś w rodzaju 'zrestartuj procesor graficzny', obraz znikał na chwilę i pojawiał się z powrotem po paru sekundach, efekt dla całego podsystemu graficznego był identyczny jak po restarcie kompa.

Calkiem mozliwe ze by to wystarczylo.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81

tylko czy moje gt8600 się nie zjara na pasywnym chłodzeniu?? NO i te restarty. Akurat mam xp64 i wyjeżdżam na święta. Kompy zostawię włączone.

AiDec

To koniecznie zapnij stery 180.84 - da Ci to szanse ze bedzie dobrze :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81


AiDec

Zaryzykuj :). Moze Ci sie uda :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81

Jak wyjeżdżam na tydzień z chaty to ryzykowac nie zamierzam.

AiDec

1. Kto nie ryzykuje, ten nie wygrywa :P
2. Jak sie nie uda to co? Nic sie nie stanie. Przeliczy Ci tyle WU na ile starczy pamieci, a pozniej przestanie. I tak kilka WU Ci zaliczy, czyli i tak kilka tysiecy dostaniesz :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

emik

Cytat
March 18, 2009
Soon, hopefully this week, we'll be sending out a bunch of GARLI workunits to the entire population -- meaning, each host should get one copy of each workunit, whether you have a GPU or not. This is meant to be a sort of benchmarking, and also a test of the GPU version of GARLI.

więc na weekend możecie polować na pierwsze wu


lolek

W końcu coś sensownieiszego dla mojego gpu od seti

Troll81

A jakie wymagania ma projekt pod kątem GPU?? CUDA czy ATI? jeśli CUDA to na jakich kartach da się to sensownie liczyć? jeśli ATI to pod jakie modele?? Czy trzeba ściągnąć jakieś optymalki, alternatywne aplikacje liczące??

KrzychuP

To się podłączam do postów lolka i Trolla. Nie będę się powtarzał.

Troll81

Aplikacja powstała na CUDA :D Czyli nvidiowcy szykować się. Na razie nie ma możliwości separacji WU czyli o ile nie wstrzymacie Lattice to będzie wam pobierał WU na GPU.

KrzychuP

Hurrrra!  :arrr:

Projekt odblokowany. Czekam na pierwsze próbki.  :attack: :attack:

buri

Jak ktoś złapie próbke na GPU to niech się pochwali ile mu liczyło i na czym. Może dla mojego marnego gf8400gs też się coś znajdzie  :closedeyes:

KrzychuP

qrka, już rozdrapali  >:(

i do tego na 1241 WU tylko jedną próbkę ktoś na GPU pociągnął  >:( >:( >:(

Troll81


KrzychuP

#24
Ja przed chwilą dostałem 6 CUDA'ownych jednostek Lattice.
Czekam, aż skończy się WU Seti przeliczać (reszta wstrzymana) i wtedy zobaczymy.
Za to po nocce odkryłem dwie zwykłe (na CPU) zwieszone jednostki GARLI.
Zrestartowałem managera i jedna wywaliła się od razu  :(  (9h liczenia w plecy)
A druga wróciła do któregoś checkpointa ok. 30tego procenta, po czym doliczyła do 70% i znowu wróciła do 30%...
i tak jeszcze raz więc ją wy.......łem (kolejne 5h w plecy)

EDIT:
4 przeliczone - niby poprawnie
1 zakończona błędem
1 liczy, ale coś jest podejrzana, liczy już ponad 20 min. i od co najmniej kilkunastu zażera cały jeden rdzeń.

No i na GPU'owych nie działa pasek postępu, więc nie wiadomo, czy cokolwiek teraz liczy.

Czasy tych 4 przeliczonych niby na GPU (ale czasy korzystania z CPU) podobne jak dla jednostek liczonych normalnie na CPU

W ogóle te jednostki GARLI są jakieś dziwne. Na początku ładnie się liczyły, a teraz te zwiechy.  :(

legis

Jakie projekty Lattice liczy GPU tylko GARLI czy HMMPfam i MARXAN też?

KrzychuP

Na razie tylko GARLI.

Określiłbym obecną fazę przygotowania projektu do liczenia na GPU jako pre-pre-pre+4xpre-Alfa  XD

lolek

oj tak bardzo pre  XD
Patrząc jak to się liczy u mnie to mam watpliwości czy wogóle wykorzystuje gpu. Obciążenie procka 100% a temp. gpu o 20 stopni niższy niż podczas liczenia seti.

KrzychuP

Cytat: lolek w 24 Marzec 2009, 14:05
Obciążenie procka 100%

O widzisz, jeszcze o tym zapomniałem napisać  ::)

cezar

A mi nic na Cuda nie chce pobrać  :arrr:





lolek

Ja daje sobie na razie z tym spokój. Poczekam aż trochę się aplikacja ustabilizuje. Przeliczyłem cztery próbki czas realny na jedną jakieś 5 min. a na kompie nic nie dało się robić. Aplikacja jest uruchamiana z priorytetem normalnym a ja go co jedno wu (5 min)nie będę zmieniał na niski.

KrzychuP

z tego co zrozumiałem na forum projektu, jest tylko 6 (słownie SZEŚĆ) próbek na GPU przygotowanych. I krążą one między użytkownikami.

Musisz poczekać na swoją kolej.  ;)

Ja na razie nie zauważam różnicy w Lattice między GPU i CPU. Czasy od 8min. to kilkudziesięciu godzin (wg użytkowników forum - ba ja ciągle jeszcze liczę)  XD

Ja też odpuszczam na razie. Nie mam czasu na bycie testerem.

legis

Cytat: lolek w 24 Marzec 2009, 14:05
oj tak bardzo pre  XD
Patrząc jak to się liczy u mnie to mam watpliwości czy wogóle wykorzystuje gpu. Obciążenie procka 100% a temp. gpu o 20 stopni niższy niż podczas liczenia seti.
rozumiem przez to że jednostki pod GPU nie są opisane tak jak w seti (cuda)

KrzychuP

No właśnie niby są opisane!
GARLI-GPU (cuda)

legis

#34
Właśnie pobrałem jest 6 jednostek do liczenia nawet numery maja kolejne (3 ostatnie liczby)
każda jednostka liczy się dłużej pierwsze 4 jakoś przeleciały nawet nie wiem kiedy piąta 12min 50 sek
szósta się jeszcze liczy użycie proca 50% pasek postępu nie działa ale pokazuje czas pracy (nie to co seti) no i nie kłamie: Status Przetwarzany (1.00CPUs, 1CUDA)
9600GT AMD X2 3800+
i uruchamiają się jako niski priorytet

szósta się doliczyła 1godz 20min
Claimed credit: 0,12 0,46 0,18 2,50 15,70 jedna zakończona błędem
przy takiej punktacji nie wiem czy ktokolwiek to będzie liczył :attack:

Troll81

nazwa działu ma literówkę....
CytatThe Lattice Projet