Liczenie na GPU (lista projektow i kart)

Zaczęty przez Tomasz R. Gwiazda, 02 Luty 2010, 20:52

Hani



Troll81


Hani

Walczę właśnie z Colatzem. Niestety na linuxa nie zasysa sam app


Troll81

http://www.boincatpoland.org/wiki/Kategoria:Projekty_GPU_Nvidia

AiDec

Cytat: stachu @ fiddex w 23 Sierpień 2010, 07:58
Może ktoś mi podpowie jak zmusić teraz kartę (4850) aby liczyła po 2 próbki na raz jak to było onegdaj przy wykorzystaniu v20. Jakiś przykład na app_info ?

Linijka w app_info:

<count>x</count>

np. <count>1</count> lub <count>2</count>



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

toms83

Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?

goofyx

Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.

S6X

Cytat: goofyx w 28 Sierpień 2010, 16:54
Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.

Z tego co się orientuję to powinno być szybciej, piszesz że jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s  :attack: 5s to może wydawać się niewiele ale jak liczysz 24h/7dni to pewnie będzie różnica  ;)

goofyx

Cytat: S6X w 28 Sierpień 2010, 17:22
Cytat: goofyx w 28 Sierpień 2010, 16:54
Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.

Z tego co się orientuję to powinno być szybciej, piszesz że jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s  :attack: 5s to może wydawać się niewiele ale jak liczysz 24h/7dni to pewnie będzie różnica  ;)
Ja liczę 24h/d ale nie licząc testów nie bawię się w przerabianie wielu WU na jednym GPU <- 5sek w podliczenie na dobę to może wyjdzie ok.20k więcej <- nie jest to liczba dla której warto się zabijać <- to przynajmniej moje podejście.

Tomasz R. Gwiazda

procek moze sie nie wyrabiac przy liczeniu multigpu nie wiem czy i7 i 8watkow wystarczy czy przydaloby sie 12 watkow juz :)

AiDec

Cytat: S6X w 28 Sierpień 2010, 17:22
(...) jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s (...)

Rzecz w tym, ze zadna WU dla GPU nie startuje natychmiast. W przyblizeniu wyglada to tak (na przykladzie Milky): 4sek. zaladowanie danych do GPU, 95sek. obrobka na GPU, 1sek. odeslanie danych z GPU. Jesli liczysz z ustawieniem `count 2` to nie zdarza sie zeby jednoczesnie dwie WU byly ladowane do GPU. Nawet jesli jedna WU sie laduje, to druga juz wykorzystuje GPU (na max.) - nie masz zatem tych kilkusekundowych przestojow, wymaganych do zaladowania danych do GPU (zwroc uwage na dokladny wykres obciazenia GPU podczas pracy z Milka). Stad podczas liczenia z `count 2` sumaryczny czas przeliczania dwoch WU jest o kilka sekund krotszy.


Cytat: goofyx w 28 Sierpień 2010, 18:08
Ja liczę 24h/d ale nie licząc testów nie bawię się w przerabianie wielu WU na jednym GPU <- 5sek w podliczenie na dobę to może wyjdzie ok.20k więcej <- nie jest to liczba dla której warto się zabijać <- to przynajmniej moje podejście.

Wszystko zalezy od tego jak liczysz i na jakich grafach. W ramach przykladu u mnie te 5 sek. to byloby 6,1% czasu liczenia WU, a to juz daje ca. 60k dziennie (juz jest o co walczyc).


Cytat: Tomasz R. Gwiazda w 28 Sierpień 2010, 18:13
procek moze sie nie wyrabiac przy liczeniu multigpu nie wiem czy i7 i 8watkow wystarczy czy przydaloby sie 12 watkow juz :)

Zwykly quadzik wystarczy, aczkolwiek wskazane by bylo dla niego poswiecenie pelnej mocy na obsluge graf (wylaczenie projektow dla CPU).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

S6X

Cytat: AiDec w 29 Sierpień 2010, 11:29
Cytat: S6X w 28 Sierpień 2010, 17:22
(...) jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s (...)

Rzecz w tym, ze zadna WU dla GPU nie startuje natychmiast. W przyblizeniu wyglada to tak (na przykladzie Milky): 4sek. zaladowanie danych do GPU, 95sek. obrobka na GPU, 1sek. odeslanie danych z GPU. Jesli liczysz z ustawieniem `count 2` to nie zdarza sie zeby jednoczesnie dwie WU byly ladowane do GPU. Nawet jesli jedna WU sie laduje, to druga juz wykorzystuje GPU (na max.) - nie masz zatem tych kilkusekundowych przestojow, wymaganych do zaladowania danych do GPU (zwroc uwage na dokladny wykres obciazenia GPU podczas pracy z Milka). Stad podczas liczenia z `count 2` sumaryczny czas przeliczania dwoch WU jest o kilka sekund krotszy.

Dlatego osoby które liczą 24/7/365 powinny liczyc 2WU na gpu.  :attack:

Peciak

Pytanie dla znawców projekty na GPU zawsze obciażają procesor (wiem że mało ale jednak) mam teraz takie pytanie czy dwa wu odpalone na grafę jednocześnie:
- obciążają proc 2 x wiecej ?
- dodatkowo zakłócają pracę procesora ( wszak procesor nie pracuje cały czas tylko skokowo wtedy kiedy jest potrzebny w aplikacji) ?

,,Z szanowania wzajemnego wypływa moc wielka w chwilach trudnych."

Szopler

Możecie zapodać app_info.xml ? Dzięki!

AiDec

Cytat: Piotr R. (Peciak) w 29 Sierpień 2010, 14:13
Pytanie dla znawców projekty na GPU zawsze obciażają procesor (wiem że mało ale jednak) mam teraz takie pytanie czy dwa wu odpalone na grafę jednocześnie:
- obciążają proc 2 x wiecej ?
- dodatkowo zakłócają pracę procesora ( wszak procesor nie pracuje cały czas tylko skokowo wtedy kiedy jest potrzebny w aplikacji) ?

1. Zawsze. Mniej lub bardziej, ale zawsze `jakos` obciazaja. W niektorych projektach (Milky) user moze decydowac w jakim stopniu obciazyc CPU.
2. 2WU na raz moga, ale nie musza obciazac proca 2x wiecej (patrz rowniez pkt. 1).
3. Nie zaklocaja.


Cytat: Szopler w 29 Sierpień 2010, 14:15
Możecie zapodać app_info.xml ? Dzięki!


Moj app. Nie wiem czy przydatny bedzie. Przygotowany pod 4GPU Milky + AQUA.


<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
 <name>astronomy_0.23_ATI_x64.exe</name>
 <executable/>
</file_info>
<file_info>
 <name>brook64.dll</name>
 <executable/>
</file_info>

<app_version>
 <app_name>milkyway</app_name>
 <version_num>23</version_num>
 <plan_class>ati13ati</plan_class>
   <flops>1.0e11</flops>
   <avg_ncpus>0.12</avg_ncpus>
   <max_ncpus>1</max_ncpus>
   <coproc>
     <type>ATI</type>
     <count>1</count>
   </coproc>
   <cmdline>w0.0 p3</cmdline>
 <file_ref>
  <file_name>astronomy_0.23_ATI_x64.exe</file_name>
  <main_program/>
 </file_ref>
 <file_ref>
  <file_name>brook64.dll</file_name>
 </file_ref>
</app_version>

<app_version>
 <app_name>milkyway</app_name>
 <version_num>22</version_num>
   <flops>1.0e11</flops>
   <avg_ncpus>0.12</avg_ncpus>
   <max_ncpus>1</max_ncpus>
   <coproc>
     <type>ati13ati</type>
     <count>1</count>
   </coproc>
   <cmdline>w0.0 p3</cmdline>
 <file_ref>
  <file_name>astronomy_0.23_ATI_x64.exe</file_name>
  <main_program/>
 </file_ref>
 <file_ref>
  <file_name>brook64.dll</file_name>
 </file_ref>
</app_version>

</app_info>



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

uczenn

Mam Maca z kartą Ati Radeon HD4870. Czy na systemie operacyjnym Snow Leopard można wykorzystywać tę kartę graficzną do liczenia np. w projekcie Milkyway@home, bądź w Collatz'ie? Po dołączeniu się do projektu Milki w wiadomościach był taki komunikat: "No usable GPUs found" :(

pszyklejony

#96
Masz uaktualnienia? na przykład to http://support.apple.com/kb/DL1083?viewlocale=pl_PL
jeszcze to znalazłem http://forum.osx86.org.pl/topics9/jak-uruchomic-karte-ati-hd4850-4870-w-leopard-snow-v432-vt754.htm

uczenn

Mam wszystkie uaktualnienia - Snow Leopard 10.6.4 wraz z wszystkimi aktualizacjami.

Troll81

Na makówkach z MacOsem niewiele osób liczy :( słabo z popularnością tego u nas.....

andy101fah

#99
Odkopuję stary wątek aby nie zakładać nowego.

Proszę o podanie aktualnych projektów dla GPU:

Projekty dla AMD i Nvidia

Szczur

Tak jak kolega @andy101fah Co tam najlepiej teraz dla nvidii
RTX 3090 gotowy do działania  8)


tito

A co Cię interesuje?
PrimeGrid;
Collatz;
SR-base;
Einstein;
Moowrapper;

Z 3090 celowałbym w PG (bo GPUGrid jeszcze nie ma aplikacji dla tej generacji GPU), lub jeśli zależy na punkcikach to Collatz (miesiąc, 2 wystarczy).


SzaMoT

CytatRTX 3090 gotowy do działania

Jak gotowy do działania to może PrimeGrid, trwa obecnie Tour de Primes, podprojekt GFN-16 najłatwiej coś trafić.
Jeszcze nikt nic nie trafił z Naszego zespołu, może będziesz pierwszy mając szybką kartę, pamiętaj, że zapas zadań nie jest wskazany przy podwójnym sprawdzaniu zadań 

kva.pl


chr80♂°🛰�

Kamraci  :ahoy: MLC@Home nikt nie liczy  :attack: ?

tito

Ooo - nie byłem świadom, że MLC ma aplikację dla GPU. Już zaktualizowałem stronę główną.

andy101fah


pszyklejony

Na wszelki wypadek zajrzałem do lodówki  :attack: :wth:

chr80♂°🛰�

 :ahoy:
Minecraft@Home jest na GPU, a nie ma go na liście!

tito


chr80♂°🛰�


Dezajner

Hejka :)

Czy ktoś wie czy GPUGrid obsłuży RTX 3080 lub RTX 4080 .. ? Kiedyś pamiętam że miałem problem jak się przesiadłem z 980 na 2060 i coś tam było wersjami CUDA że nie obsługiwali nowszej (to było dziwne bo przecież jest koplatybilne w dół...) i nie pobierało jednostek. Ktoś ma, liczy i wie że pobiera i liczy próbki? Nie chciałbym wtopić kasy na próżno... :)

Dzięki z góry za podpowiedź.
https://boincstats.com/signature/-5/user/15232186825/sig.png

Grzegorz R. Granowski

moim zdaniem "na pewno" ... to dobry projekt, który zawsze aktualizuje ... nowe wersje GPU ...  :p_arr:

pozdrowienia, Grzegorz Roman Granowski

dla pewności zapytaj na forum ... jednak ...

tito

https://www.gpugrid.net/top_hosts.php
Wychodzi na to, że tak. Przynajmniej seria 3000.

pszyklejony

GPUGrid jest wrażliwe, ostatnio wywalało mi, zmieniłem sterownik i jest dobrze.