Ile zajmuje Wam przeliczenie jednej jednostki na GPU? Mi na CPU zajmuje to około 8 godzin. I czy licząc na GPU komp zużywa więcej prądu niż na CPU? Czy w ogóle licząc na czymkolwiek w BOINC zauważyliście wzrost rachunków za prąd? %)
hehe
oczywiście ze wzrost jest :)
a co do cpu vs gpu to na pewno bardziej opłaca sie liczyć na gpu szczególnie tych mocnych, tańszy koszt jest każdego zdobytego punkcika
A dokłądniej mówiąc? Kiedyś czytałem, że na GPU przelicza się WU w 2,5-9 minut, to prawda?
Zależy od sprzętu i projektu. U mnie jest to 5 razy szybciej przy połowie zużytego prądu.
1:30s dla Milkyway na karcie ATI 5870
Eari twoje pytania sa zbyt ogolne zeby odpowiedziec. Nie sprecyzowales niczego, ani jakie CPU, ani jakie GPU ani nawet jaki projekt.
1 minuta 30 s na GPU? To mi wystarczy, chciałem się ogólnie dowiedzieć, jakie jest przyspieszenie względem CPU.
To dla topowej karty - zwykła 3850 to niecałe 10 minut. Ile więcej pobiera prądu niż w IDLE nie wiem - nigdy mnie to nie zainteresowało.
I pamiętaj, że jeśli masz zamiar jakąś kupić to szukaj ATI, u zielonych już tak różowo nie jest(ale i tak więcej pkt/w niż w przypadku procesorów)
a najlepiej sie spytaj i dyskutuj o planach zakupowych :)
Ale niestety więcej projektów liczy GeForce niż ATI.
Tylko że aplikacje na CUDA pod Einsteinem i PG są kiepskie (cpu jest wydajniejsze) w Seti też bez cudów. Tak na prawdę dobrze spisują się GPUGrid i CC. Nie wiem jak jest w dnetc. Pod ATI można liczyć milkię(na GF też, ale dużo niższa wydajność), CC i dntec, oraz AP26 ale tam podobnie jak na GF szaleństwa nie ma
@Eari: Tak zupelnie ogolnikowo, nie wdajac sie w szczegoly:
Roznica na korzysc GPU jest masakrujaca. Zuzycie pradu na przeliczenie jednej WU jest w przypadku CPU nie mniej niz dwukrotnie wieksze niz w przypadku GPU (a bywaja przewagi nawet 5-cio krotne).