Jak liczyć na 3 GPU?

Zaczęty przez Dandysz, 28 Maj 2009, 17:32

Dandysz

Witam,
zwracam się z prośba o pomoc. W jaki sposób skonfigurować klienta BOINC aby była możliwość wykorzystania trzech kart graficznych do przeliczania WU?
Nadmienię iż wszystkie karty to produkty firmy Nvida. Sterowniki 185.85, klient BOINC 6.6.20. Z wykorzystaniem 2 GPU nie mam problemów.

Tomasz R. Gwiazda

karty sa jako TripleSLI ?

Dandysz

Dokładnie, w opcjach sterownika wyłączam TriSLI tak aby akceleratory pracowały niezależnie. Niestety 3 karta pozostaje bezczynna przy liczeniu.

Tomasz R. Gwiazda

a liczysz w jakich projektach? GPUGrid czy Seti ?
Wczoraj troche siedzialem na forum GPUGrida ale nie widzialem podobnego watku, ale kojarze ze gdzies na naszym forum tez ktos poruszal ten problem.

Niestety sam niezbyt jestem zorientowany gdzie moze tkwic problem

AiDec

Jestem byc moze zorientowany, ale porzebuje dodatkowych informacji:

1. Jaki OS?
2. Jakie grafy?
3. Jaki projekt?



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Dandysz

Odp.
1.Vista PL 64bit+SP1
2. 3xGTX 285 na OC
3. GPUGrid oraz SETI

Miałem możliwość złożenia takiego potworka na i7 920 prawie bezkosztowo (dla mnie) - komp chodzi 24/7 tylko dla naszego team`u. Niestety 3 karta na razie zupełnie nie wykorzystana. WU w SETI przelicza na GPU w 2,5 - 9 min - czyli są konkretne straty punktowe.
Zawyję więc skromnie Help! Help!

AiDec

#6
Ok, odpowiadam:

1. Albo liczysz SETI na GPU, albo GPUGrida. Nigdy nie zapinaj obu projektow na raz na kompie - bedzie sie wysypywal. SETI jest wciaz bardzo niedopracowane i gryzie sie z GPUGridem okropnie. Zapnij sobie SETI na miesiac, a pozniej na miesiac GPUGrida jesli obydwa projekty sa dla Ciebie wazne, ale nigdy obydwa na raz.

2. Zmien klienta (BOINC Managera na wersje 6.5.0) - zalecam. Wersje 6.6.x maja bardzo duzo dodatkowych opcji (czesciowo nie dzialajacych, badz dzialajacych niepoprawnie). Jest tam wiele opcji ktore wplywaja na liczenie (miedzy innymi na liczenie na GPU) - cos kliknales, cos `odkliknales` i teraz bedziesz pol roku szukal co `sie przestawilo` ze nie dziala to jak powinno. Wszystkich szczegolow nowych klientow nie znam, wiec nie bede w stanie Ci w TEJ KWESTII pomoc, bo generalnie skopanego softu nie tykam.

3. zVista jak i jej nastepca Windows zjeben maja bardzo duzy klopot z obsluga kilku kart graficznych na raz. Z tego co pamietam (a temat byl poruszany dobre pol roku temu) to trzeba bylo stosowac jakies niezle tricki pod Vista, zeby uruchomic liczenie na kilku GPU.

Podsumowujac: Odinstaluj 6.6.x, wyczysc system z pozostalych smieci, zainstaluj 6.5.0 - pierwszy krok masz z glowy. Drugi krok - wejdz na gpugrid.net, a dokladniej na forum i poszukaj w starszych watkach informacji jak odpalic pod zVista kilka graf. To bylo tak dawno temu przerabiane, ze po prostu nie pamietam co i jak. Poza tym ja nie uzywam zVisty i uzywal nie bede, wiec nie pozostalo mi to w glowie zbyt dlugo. Ale pamietam doskonale ze ten temat byl tam rozgryziony. Zatem wiesz juz gdzie i czego szukac (jak znajdziesz odpowiedni watek, to sam poprosze o linka - chetnie odswieze pamiec). Przykro mi ze sam Ci nie poszukam odpowiedniego watku, ale mam obecnie bardzo powazne ograniczenia czasowe.

Powodzenia.



PS. W projekcie SETI nie moge sprawdzic co sie dzieje z Twoimi grafami, bo korzystasz z opcji `Komputery - ukryte`. Projekt GPUGrid podaje informacje, ze Twoj komputer zawiera tylko jedna 285-ke. Zatem musze Cie jeszcze prosic o jedna informacje. Jak odpalasz BM (BOINC Managera), to jaka masz informacje o grafach w zakladce `Wiadomosci`? Ile graf Ci wykrywa?


PS2:

Cytat: Dandysz w 28 Maj 2009, 17:32
Witam,
zwracam się z prośba o pomoc. W jaki sposób skonfigurować klienta BOINC aby była możliwość wykorzystania trzech kart graficznych do przeliczania WU?
Nadmienię iż wszystkie karty to produkty firmy Nvida. Sterowniki 185.85, klient BOINC 6.6.20. Z wykorzystaniem 2 GPU nie mam problemów.


Info od:

GPUGrid

ExtraTerrestrial Apes
(najbardziej zaangazowany liczydlowy GPUGrida)
Forum moderator
Volunteer tester


CytatHi folks,

seriously, I don't know why 6.6.20 became a recommended version. It has serious issues with work fetching, scheduling and debt handling. We expected problems due to this, but as it turns out another of 6.6.20s flaws is hitting us hard:

There are massive complains about WUs taking forever. This is a bug introduced a few versions prior to 6.6.20 and (supposedly) fixed in 6.6.23. So if you want to run a 6.6-series client, upgrade at least to 6.6.23! UPDATE: 6.6.28 is officially recommended by UCB now.

This version still has issues, so if you don't like these I recommend 6.5.0, which doesn't have any of them. The only issue I know of is that it doesn't differentiate between cpu and gpu projects regarding the ressource share, so be sure to put in some balanced numbers. For 4 cpu cores and one gpu give GPU-Grid about 20% ressource share, otherwise your cache will be messed up.

You could also use 6.4.7 (the old recommended version), but this may require using a cc_config.xml to use all cpu cores.. so why bother.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

AiDec

Cytat: stn w 30 Maj 2009, 08:58
A co jeżeli on ma np. 3 różne karty? Wtedy zaczna mu sie probki sypac bo BOINC wybiera chyba GPU "na farta".

PS. Wybaczcie ale pomylilem temat bo AiDec dodał nowego posta : p Ale on i tak bedzie wiedzial o ocb.

Wiem ocb :). Mozna miec trzy rozne karty i przynajmniej teoretycznie (a rowniez praktycznie, jedynie z nielicznymi wyjatkami) GPUGrid bedzie liczony prawidlowo.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Dandysz

#8
Dzięki AiDec za info,
dzisiaj spróbuję powalczyć z konfiguracją softwarową według Twoich wskazówek.
Napiszę o wynikach.  :)

W BM w zakładce Wiadomości znajduje mi tylko 2 Cuda. Na trzeci`m` będę mógł liczyć dopiero po walce konfiguracyjnej.

Dandysz

Po dłuuugich bojach z wersjami sterowników graficznych, wersją klienta BOINC, modyfikacjami cc_config.xml ... 3 GPU nie zadziałało >:(
Rozwiązanie przyszło "niespodziewanie z zaskoczenia", jakże przerażająco skuteczne w swej prostocie. Mianowicie wetknięcie kabla sygnałowego od drugiego monitora w 1 gniazdo DVI trzeciego GPU uaktywniło trzecie CUDA. Fakt ten miał miejsce przy następującej konfiguracji:
   - Stery NV 186.18
   - klient BOINC 6.6.36
   - wpis w cc_config.xml w sekcji options <use_all_gpus>1</use_all_gpus>
   - podłączone 2 monitory do portów nr. 1 we wszystkich 3 kartach (1 monitor na 2 wejściach: DVI oraz D-Sub na przejściówce DVI)
Sprawdziłem na starszych sterach NV 185.85 i wersji klienta 6.6.28 też zadziałało. Widocznie sterownik nvidii uaktywnia gpu dla CUD`ów tylko jeśli wykryje podłączony monitor. No cóż rozwiązanie było banalne, a napociłem się niemało, nerwów też trochę było.

AiDec

Rozwiazanie jest jeszcze prostsze i inne od Twojego, ale za cholere nie moge sobie przypomniec szczegolow (jak juz pisalem nie mam zVisty ale X P, wiec nie mam takich problemow i nigdy sie glebiej nie interesowalem problemami dot. zVisty). Chodzilo o jakies polaczenia monitorow, czy rozszerzenia pulpitu w Viscie... Na pewno chlopaki obchodzili to jakos bez podpinania 8 monitorow do kompa ze zVista i czterema 295GTX  ;D.



Anyway dzieki za info - Twoje rozwiazanie moze sie tez przydac komus innemu :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

S6X

Bardzo dobry filmik pokazujący jak należy ustawić 3-sli itp by liczyc Folding@home na wszystkich rdzeniach.
http://www.youtube.com/watch?v=mtbfXg193do&eurl=http%3A%2F%2Fwww.youtube.com%2Fuser%2Ftrubritar&feature=player_profilepage
Na sterownikach nvidia 190.38 podobno nie trzeba robić takich sztuczek i można liczyć w trybie sli.

Troll81

NIestety F@H nie jest projektem platformy BOINC....

S6X

Platforma może nie ta sama ale problem podobny  ;)

regis

#14
Mały off-top: oto jak liczyć na 7 grafach:

http://www.youtube.com/watch?v=71_G7NTb3XM

... to się nazywa wydajność  :attack:

Raptor77

taa a wystarczy zwodować dwie sztuki 5970 puścić je na 950MHz i mamy podobną wydajność (ok. 12TFlopów) albo 3x 5970 at stock  i mamy prawie 14TFlopów XP
i7|GTX570|SSD|27" | ATV2|XMBC|3TB NAS|40"|5.1

sesef

Cytat: Raptor77 w 15 Grudzień 2009, 20:08
taa a wystarczy zwodować dwie sztuki 5970 puścić je na 950MHz i mamy podobną wydajność (ok. 12TFlopów) albo 3x 5970 at stock  i mamy prawie 14TFlopów XP

Jedna dobrze ocnięta 5970 wciąga całego tego kompa w double precision (7x 295 robi 1043 gflopsy).

Wystarczy 815 mhz (1043,2 glopsa), żeby 5970 miała taką samą wydajność jak te 7 kart NV. Przy 950-1000 mamy odpowiednio 1216-1280 gflops.

Kryniek

#17
A tutaj link do akrtykułu o tej maszynie :)

http://www.pcworld.pl/news/353790/7/7.GeForce.ow.zmodyfikowane.jadro.Linuksa.akademicki.superkomputer.biurkowy.html

Pekcy

A co by się stało w sytuacji, gdyby jakiś użytkownik kupił tyle komputerów z najlepszymi kartami graficznymi, że w ciągu kilku dni zakończyłby wszystkie projekty?  %)

lolek

Cytat: Pekcy w 12 Marzec 2010, 16:33
A co by się stało w sytuacji, gdyby jakiś użytkownik kupił tyle komputerów z najlepszymi kartami graficznymi, że w ciągu kilku dni zakończyłby wszystkie projekty?  %)

Nierealne  :no: Po pierwsze mało projektów wykorzystuje GPU. Po drugie ciężko jest policzyć np. CC do końca (chyba że wiesz jaka jest najwiękrza liczba  %) ) Po trzecie jakoś nie sądzę, że ktoś był by w stanie odpalić powiedzmy 100k graf  :fright: A do tego serwery projektów mają ograniczoną przepustowość.