Optymalki GPU, CPU pod milke

Zaczęty przez OxyOne, 08 Luty 2009, 14:52

Pigu

u mnie kisi się milka z innymi proj. na jednym managerze - są problemy kiedy któryś projekt wpada na wys. priorytet

AiDec

Cytat: Pigu w 01 Maj 2009, 12:37
u mnie kisi się milka z innymi proj. na jednym managerze - są problemy kiedy któryś projekt wpada na wys. priorytet

U mnie akurat nie. Zero problemow - Milka z Enigma ida w parze. Tylko zarzadzanie przez BAM w takiej sytuacji nie jest idealne. Musze to jakos powiazac z klientem HAL`owym. Ale na razie jeszcze nie czas na to. Thx za info.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Pigu

to tak, ale np wu od wyścigu w prime wciskają się na HI nawet jeżeli jest ich z 6-8 :fright: oczywiście w takim wypadku można o milce.... no właśnie

planuję postawić halowca i na nim reszta na 3 jaja, a na głównym kliencie milka z opcją nie liczenia kiedy komp in use (nie wiem jak u ciebie, ale u mnie muli - nie da się filmu obejrzeć, i ff poużywać, o graniu nie mówiąc, więc włączam milkę na noc i kiedy wychodzę do roboty)

AiDec

#123
Cytat: Pigu w 01 Maj 2009, 15:33
planuję postawić halowca i na nim reszta na 3 jaja, a na głównym kliencie milka z opcją nie liczenia kiedy komp in use (nie wiem jak u ciebie, ale u mnie muli - nie da się filmu obejrzeć, i ff poużywać, o graniu nie mówiąc, więc włączam milkę na noc i kiedy wychodzę do roboty)

IMHO z tym HALowcem to najlepsza opcja. Tylko pamietaj ze HALowiec to 5.10.45, wiec nie dziala `w systemach wieloprocesorowych uzywaj nie wiecej niz X rdzeni`. Trzeba to innym sposobem zrobic (sadze, choz nie jestem jeszcze pewien, ze ncpu3 zalatwiloby sprawe).

Ale fakt ze Milka muli jak cholera. Niezaleznie od tego ile WU licze i ile kart zapietych. Muli bardziej nawet niz SETI - moze kiedys dopracuja app/stery zeby to chodzilo jak GPUGrid (mam nadzieje).

Pigu, sprobuj jeszcze jednego rozwiazania (sam bym sprobowal, ale czasu mi na razie brakuje). Ustaw przetwarzanie na 3 jaja (jesli to na kładzie kombinujesz), w app Milky n2 czy tez n4 i dopisz w cc_config non_cpu_intensive dla Milky :D.


@sesef:

Stery 9.1 nie dzialaly jak nalezy. Podczas instalacji instalowaly sie stery dla 3 graf, podczas instalki sterow dla 4-tego rdzenia zawsze restart. Instalowalem recznie stery dla czwartego jajaj i to pomagalo. Niestety WU liczyly sie tak, jakby w ogole nie bylo graf tudziez GPU app. Tempo liczenia bylo jak w przypadku CPU.

Stery 9.2-9.4 wala caly czas bledami. Nie licza junitow poprawnie.

Dotychczas przetestowalem na konfiguracji 2x 4870x2 +mostek:
9.1
9.1+ccc
9.2
9.2+ccc
9.3
9.3+ccc
9.4+ccc

Obecnie zastosowalem inna metode na 9.1:
Wyjalem jedna grafe z kompa. Zainstalowalem 9.1 dla jednej grafy (dwa jaja) - instalka bez problemow, wszystko gra, junity licza sie poprawnie i osiagnalem to:

Cytat<core_client_version>6.5.0</core_client_version>
<![CDATA[
<stderr_txt>
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 4 concurrent WUs per GPU
setting minimum kernel frequency to 0 Hz
scaling the wait times with 0
CPU: Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz (4 cores/threads) 3.41998 GHz (501ms)

CAL Runtime: 1.3.158
Found 2 CAL devices

Device 0: ATI Radeon HD 4800 (RV770) 1024 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 507 MHz, memory clock: 500 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

Device 1: ATI Radeon HD 4800 (RV770) 1024 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 507 MHz, memory clock: 500 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

1 WUs already running on GPU 0
0 WUs already running on GPU 1
Starting WU on GPU 1

main integral, 160 iterations
predicted runtime per iteration is 215 ms (1.#INF ms are allowed)
borders of the domains at 0 1600
Calculated about 3.70012e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 67.6406 seconds.
Calculated about 1.58808e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 13.3906 seconds,  GPU time: 67.6406 seconds,  wall clock time: 104.802 seconds,  CPU frequency: 3.42 GHz

</stderr_txt>
]]>

Plan nastepny: wpiac druga grafe i zobaczyc czy to cos da (taka metoda instalacji sterow dla czterech graf) :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

AiDec

#124
Cytat: AiDec w 01 Maj 2009, 15:49
Plan nastepny: wpiac druga grafe i zobaczyc czy to cos da (taka metoda instalacji sterow dla czterech graf) :).

Nie zadzialalo. Po wpieciu drugiej grafy zainstalowaly sie stery tylko dla 3-ciego jaja. I niezaleznie czy byly trzy, czy dorzucilem stery dla czwartego jaja junity sie sypaly. Chyba musze czekac na NetMonitoring zeby napisal co z tym zrobic. Na chwile obecna licze na jednej dwurdzeniowej grafie.

Co ciekawe parametr `n` w app nie dziala jak nalezy. Moge ustawic n20 albo n1, ale i tak jak bede mial 4-jajowca, to bedzie liczylo tyle WU na raz, ile mam jaj. Zatem na razie ustawilem n4 (co nie ma znaczenia) i ncpu7. Liczy mi sie 3-5WU Milky na raz + 4-2 WU Enigmy, co daje mi dosc dobre przetwarzanie Milky (w stosunku do dostepnosci junitow) i przeliczanie Enigmy jak junitow nie ma (ustawienia procentowe projektow w takich okolicznosciach to oczywiscie 1000% Milky i 1% Enigma). Takie ustawienia daja mi przez 90% czasu (jak sa junity Milky) 4M+3E czyli ideal. Trace jedynie deczko na wydajnosci jak WU Milky nie ma, bo wtedy komp liczy na raz 7 WU Enigmy, ale przynajmniej nie stoi bezczynny :).

Spadam do pracy. Wroce jutro.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

RAD-Poland

#125
CytatIMHO z tym HALowcem to najlepsza opcja. Tylko pamietaj ze HALowiec to 5.10.45, wiec nie dziala `w systemach wieloprocesorowych uzywaj nie wiecej niz X rdzeni`. Trzeba to innym sposobem zrobic (sadze, choz nie jestem jeszcze pewien, ze ncpu3 zalatwiloby sprawe).

nie używałem nigdy Hal'owych(TJM'owych) klientów, ale gdy stosuję multi_boinc (wielokrotne uruchomienie niemodyfikowanych klientów) i zarządzam Managerem wersji 6.x.x klientami boinc serii 5.x.x  to aby móc regulować ilość rdzeni dla konkretnego klienta zmieniam ręcznie w pliku global_prefs.xml tego klienta parametr

Cytat: global_prefs.xml<max_cpus>2</max_cpus>

EDIT: ncpu o którym piszesz z pliku cc_config.xml dotyczy wirtualnych rdzeni/wątków

   
WCG:
PG:         YOYO:

     

3Rni

Cytat: AiDec w 01 Maj 2009, 15:49
...
Ale fakt ze Milka muli jak cholera. Niezaleznie od tego ile WU licze i ile kart zapietych. Muli bardziej nawet niz SETI - moze kiedys dopracuja app/stery zeby to chodzilo jak GPUGrid (mam nadzieje).

a bawiłeś się parametrem 'w'? odp dobrany-zwiększony  to twojej maszynki, niewiele zmieni się czas obl. ale komfort pracy jest idealny

AiDec

Cytat: RAD-Poland w 01 Maj 2009, 16:43
(...) gdy stosuję multi_boinc (wielokrotne uruchomienie niemodyfikowanych klientów) i zarządzam Managerem wersji 6.x.x klientami boinc serii 5.x.x  to aby móc regulować ilość rdzeni dla konkretnego klienta zmieniam ręcznie w pliku global_prefs.xml tego klienta parametr

Cytat: global_prefs.xml<max_cpus>2</max_cpus>

EDIT: ncpu o którym piszesz z pliku cc_config.xml dotyczy wirtualnych rdzeni/wątków

O, cenna uwaga. Zatem mam rozumiec ze <max_cpus>3</max_cpus> dla 4-jajowca zadziala tak jak chcialem? I czy moglbys nam wyjasnic jaka jest roznica miedzy tym rozwiazaniem, a ncpu3 (zwlaszcza jesli sadze ze z ncpu3 osiagnalbym to samo)?


Cytat: ERni w 01 Maj 2009, 18:40
a bawiłeś się parametrem 'w'? odp dobrany-zwiększony  to twojej maszynki, niewiele zmieni się czas obl. ale komfort pracy jest idealny

No masz racje. Kolejna cenna uwaga. Chociaz ja akurat nie zamierzam nic zmieniac - ten komp to tylko BOINC-farma.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

RAD-Poland

#128
prawdopodobnie przez zmianę ncpu również osiągniesz pożądany efekt

<max_cpus> używałem jak nie wiedziałem o istnieniu cc_config i ncpu, różnic jest kilka trzeba by się zapoznać z aktualnym źródłem klienta boinc, w każdym razie nowe Managery nie radzą sobie z tym przy zarządzaniu starszymi klientami, zwiększenie <max_cpus> powyżej fizycznej liczby rdzeni nie powoduje zwiększenia liczy wątków/przeliczanych próbek (jak to ma miejsce przy modyfikacji ncpu), ale na pewno ma wpływ na ilość ściąganych próbek do bufora (nie zawsze to działa, nie wiem od czego to zależy) właśnie wczoraj zapomniałem zmniejszyć  ;) i dla X2 (limit 30wu/core) ściągnęło się ok 400 próbek HMMER pełen bufor na 7dni, alternatywa to uruchomienie 7 Hal'owych klientów(7x2x30wu), konieczność przełączania klientów lub liczenia większej liczby wu niż rdzeni co wiązałoby się ze stratami mocy cpu i większym zużyciem pamięci.

Obecnie nie mam czasu na testowanie wszystkich parametrów klientów boinc (czas zabawy bezpowrotnie minął), ale co nieco jeszcze pamiętam. Oczywiście trzeba podchodzić z pewnym rozsądkiem by nie powodować specjalnie przeterminowania próbek, później trzeba kombinować jak przedłużyć ich deadline lub "pluć sobie w brodę miałem próbkę z AP27 i mi skisła"

   
WCG:
PG:         YOYO:

     

OxyOne

Cytat: RAD-Poland w 02 Maj 2009, 18:36
Oczywiście trzeba podchodzić z pewnym rozsądkiem by nie powodować specjalnie przeterminowania próbek, później trzeba kombinować jak przedłużyć ich deadline lub "pluć sobie w brodę miałem próbkę z AP27 i mi skisła"

To była próbka z AP25 :) nie AP27
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

AiDec

Ty tu gadu - gadu, a ja pomocy potrzebuje :P



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

TRZECIAK

AiDec i jak z punktami na GPU w milce ?
Dostajesz jakieś próbki do liczenia ?
O mnie chyba coś zapomnieli bo od 2 dni nawet 1 próbki na CPU nie dostałem mimo że mam przypominacza włączonego i to niezależnie czy licze przy tym prime czy milkę ustawie na 99% :/

Przy okazji może ktoś wie kiedy ruszy milka na GPU Nvidii ?


sesef

Cytat: AiDec w 03 Maj 2009, 08:57
Ty tu gadu - gadu, a ja pomocy potrzebuje :P

A w czym problem :)

OxyOne

Cytat: sesef w 04 Maj 2009, 18:07
Cytat: AiDec w 03 Maj 2009, 08:57
Ty tu gadu - gadu, a ja pomocy potrzebuje :P

A w czym problem :)

w tym ze aby liczyły 4 gpu trzeba zaznaczam trzeba włączyc crossowanie w ccc... nawet reczna instalacja dodtkowych gpu nie pomoze...
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

3Rni

#134
Cytat: TRZECIAK w 04 Maj 2009, 17:41
AiDec i jak z punktami na GPU w milce ?
Dostajesz jakieś próbki do liczenia ?
O mnie chyba coś zapomnieli bo od 2 dni nawet 1 próbki na CPU nie dostałem mimo że mam przypominacza włączonego i to niezależnie czy licze przy tym prime czy milkę ustawie na 99% :/

Przy okazji może ktoś wie kiedy ruszy milka na GPU Nvidii ?

wczoraj np. milka u mnie co troche wpadała pod radka i bujałem przeważnie 3 milki i 4 enigmy równolegle, dziś nie miałem czasu podgladać wiec nie wiem jak było....

ps. pisząc ten msg lekko mi zamulilo kompa i wpadlo 20 milek   :respect:

AiDec

#135
Cytat: TRZECIAK w 04 Maj 2009, 17:41
AiDec i jak z punktami na GPU w milce ?
Dostajesz jakieś próbki do liczenia ?

Punkty dobre. Na brak probek nie narzekam - jedynie na brak czasu zeby sie wszystkim zajac jak nalezy. Ale powoli sie w pracy uspokaja. Zrezygnowalem z szefowania i bede juz normalnym pracownikiem, wiec bedzie czas i bedzie OK :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

sesef

#136
Jakie poświęcenie.

Tak czytam to forum milky i po rozmowie z NetMonitoring dochodzę do wniosku że Nvidia coś chyba posmarowała gdzie trzeba.

AiDec

#137
Cytat: sesef w 05 Maj 2009, 13:57
Jakie poświęcenie.

Zadne :). Bedzie swiety spokoj i wiecej czasu :).


Cytat: sesef w 05 Maj 2009, 13:57
(...) dochodzę do wniosku że Nvidia coś chyba posmarowała gdzie trzeba.

Po prostu daje bardzo dobry support. ATI nie daje go prawie wcale (moze kwestia kasy...). Z reszta niedlugo pogadamy o tym supporcie Nvidii (ja, Ty i TJM) i o EnigmieGPU ;) .



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

sesef

#138
Cytat: AiDec w 05 Maj 2009, 14:17Po prostu daje bardzo dobry support. ATI nie daje go prawie wcale (moze kwestia kasy...). Z reszta niedlugo pogadamy o tym supporcie Nvidii (ja, Ty i TJM) i o EnigmieGPU ;) .

Tu nie chodzi o support, bo pod ATI pisze całkowicie inna osoba. Kod na cpu jest tego programu podobno od miesiąca i z tego co admini pisali jest on teraz przerabiany na CUDA, w momencie napisania kodu na cpu miał on zostać wydany żeby Gispel mógł zrobić appke pod ATI jednak nadal nie udostępniaja bo coś, bo tamto, bo sramto.

NV się boi ATI w tej części rynku bo jak na razie w pomiędzy tymi kartami jest przepaść.

GT280 ma wydajność około 80 GFlopsów w double precision 285 pewnie też bo to ta sama karta, 4870 ma wydajność 240 GFlopsów w double więc tu już widać przepaść. Teraz patrząc na ceny na polskim rynku (wybrałem 285 ze względu na ten sam proces technologiczny co ATI)

GT285 - ~1400 zł za 80 GFlops
4870 ~800 zł za 240 GFlops
4870x2 ~1800 zł za 480 GFlops

Jak widać karty, które są bezpośrednimi konkurentami czyli GT285 i 4870 to radeon nie dość że jest prawie o połowę tańszy to do tego 3x bardziej wydajny. Teraz AiDec powiedź mi co byś zrobił mając firmę gdzie od powodzenia projektu zależy dochód liczony w mln $ i teraz przychodzi inna firma i wypuszcza towar 3x lepszy i do tego o połowę tańszy. Możesz opracować nowy produkt jednak to zajmie rok czasu (biorąc pod uwagę że musisz pracować przez ten rok praktycznie podwójnie bo nie dość, że trzeba nadrobić braki do konkurencji to jeszcze trzeba pamiętać, że oni nie śpią i również pracują nad nowymi technologiami więc ty też musisz), czyli przez ten rok tracisz udziały w rynku na rzecz konkurencji, nie masz wyjścia zaczynasz prace badawcze, ale jednocześnie starasz się jak najbardziej minimalizować straty udoskonalając rzeczy które można masowo wymienić we wszystkich produktach (sterownik, bios), ale to i tak daje ułamek procenta, więc co robisz? zaczynasz kombinować.

I jak dla mnie NV zaczęła kombinować

AiDec

Udalo mi sie dzisiaj poprawnie odpalic 2x 4870x2 w Milky. Wielkie podziekowania za pomoc dla Netmonitoringa i Sesefa - dzieki chlopaki :).



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Pigu

jak mniemam zatem mój pościg za tobą dobiega końca? :wth:

AiDec

#141
Zdecydowanie tak, aczkolwiek wszystko zalezy od dostepnosci junitow :P. No i jeszcze Kosmosa musze skonczyc.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

AiDec

Cytat: RAD-Poland w 01 Maj 2009, 16:43
nie używałem nigdy Hal'owych(TJM'owych) klientów, ale gdy stosuję multi_boinc (wielokrotne uruchomienie niemodyfikowanych klientów) i zarządzam Managerem wersji 6.x.x klientami boinc serii 5.x.x  to aby móc regulować ilość rdzeni dla konkretnego klienta zmieniam ręcznie w pliku global_prefs.xml tego klienta parametr

Cytat: global_prefs.xml<max_cpus>2</max_cpus>

<max_cpus>2</max_cpus> wystepuje dwukrotnie w tym pliku. Mam zmienic obydwa?


Cytat<global_preferences>
    <source_project>http://aqua.dwavesys.com/</source_project>
    <source_scheduler>http://aqua.dwavesys.com/aqua_cgi/cgi</source_scheduler>
<mod_time>1229300365</mod_time>
<run_if_user_active/>
<idle_time_to_run>1</idle_time_to_run>
<suspend_if_no_recent_input>0</suspend_if_no_recent_input>
<leave_apps_in_memory/>
<cpu_scheduling_period_minutes>5</cpu_scheduling_period_minutes>
<work_buf_min_days>0</work_buf_min_days>
<work_buf_additional_days>10</work_buf_additional_days>
<max_cpus>16</max_cpus>
<max_ncpus_pct>100</max_ncpus_pct>
<cpu_usage_limit>100</cpu_usage_limit>
<disk_interval>60</disk_interval>
<disk_max_used_gb>10</disk_max_used_gb>
<disk_max_used_pct>50</disk_max_used_pct>
<disk_min_free_gb>1</disk_min_free_gb>
<vm_max_used_pct>50</vm_max_used_pct>
<ram_max_used_busy_pct>40</ram_max_used_busy_pct>
<ram_max_used_idle_pct>90</ram_max_used_idle_pct>
<max_bytes_sec_down>100000</max_bytes_sec_down>
<max_bytes_sec_up>10000</max_bytes_sec_up>
<venue name="home">
<run_if_user_active/>
<idle_time_to_run>1</idle_time_to_run>
<suspend_if_no_recent_input>0</suspend_if_no_recent_input>
<cpu_scheduling_period_minutes>5</cpu_scheduling_period_minutes>
<work_buf_min_days>0</work_buf_min_days>
<work_buf_additional_days>10</work_buf_additional_days>
<max_cpus>16</max_cpus>
<max_ncpus_pct>100</max_ncpus_pct>
<cpu_usage_limit>100</cpu_usage_limit>
<disk_interval>60</disk_interval>
<disk_max_used_gb>10</disk_max_used_gb>
<disk_max_used_pct>50</disk_max_used_pct>
<disk_min_free_gb>1</disk_min_free_gb>
<vm_max_used_pct>50</vm_max_used_pct>
<ram_max_used_busy_pct>50</ram_max_used_busy_pct>
<ram_max_used_idle_pct>90</ram_max_used_idle_pct>
<max_bytes_sec_down>100000</max_bytes_sec_down>
<max_bytes_sec_up>10000</max_bytes_sec_up>
</venue>
</global_preferences>



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

RAD-Poland

zmień oba
wygląda że masz tutaj dwa zestawy jeden global (standard) drugi home, jeśli host nie jest przypisany do konkretnego profilu do pobiera dane z global

   
WCG:
PG:         YOYO:

     

TRZECIAK

No to teraz tylko napiszcie jakiś poradnik jak to wszystko odpalić, bo może zamiast GTX295 kupie sobie 4870x2 :D

Jeśli miałbym wybrać 4870x2 to jaką firmę polecacie, żeby była maksymalnie jak najcichsza i najwydajniesza no i ofkors najtańsza :D, bo może potem dokupiłbym jeszcze drugą lub i 3 sztukę.


OxyOne

#145
Cytat: sesef w 05 Maj 2009, 14:44

Tu nie chodzi o support, bo pod ATI pisze całkowicie inna osoba. Kod na cpu jest tego programu podobno od miesiąca i z tego co admini pisali jest on teraz przerabiany na CUDA, w momencie napisania kodu na cpu miał on zostać wydany żeby Gispel mógł zrobić appke pod ATI jednak nadal nie udostępniaja bo coś, bo tamto, bo sramto.

NV się boi ATI w tej części rynku bo jak na razie w pomiędzy tymi kartami jest przepaść.

GT280 ma wydajność około 80 GFlopsów w double precision 285 pewnie też bo to ta sama karta, 4870 ma wydajność 240 GFlopsów w double więc tu już widać przepaść. Teraz patrząc na ceny na polskim rynku (wybrałem 285 ze względu na ten sam proces technologiczny co ATI)

GT285 - ~1400 zł za 80 GFlops
4870 ~800 zł za 240 GFlops
4870x2 ~1800 zł za 480 GFlops

Jak widać karty, które są bezpośrednimi konkurentami czyli GT285 i 4870 to radeon nie dość że jest prawie o połowę tańszy to do tego 3x bardziej wydajny. Teraz AiDec powiedź mi co byś zrobił mając firmę gdzie od powodzenia projektu zależy dochód liczony w mln $ i teraz przychodzi inna firma i wypuszcza towar 3x lepszy i do tego o połowę tańszy. Możesz opracować nowy produkt jednak to zajmie rok czasu (biorąc pod uwagę że musisz pracować przez ten rok praktycznie podwójnie bo nie dość, że trzeba nadrobić braki do konkurencji to jeszcze trzeba pamiętać, że oni nie śpią i również pracują nad nowymi technologiami więc ty też musisz), czyli przez ten rok tracisz udziały w rynku na rzecz konkurencji, nie masz wyjścia zaczynasz prace badawcze, ale jednocześnie starasz się jak najbardziej minimalizować straty udoskonalając rzeczy które można masowo wymienić we wszystkich produktach (sterownik, bios), ale to i tak daje ułamek procenta, więc co robisz? zaczynasz kombinować.

I jak dla mnie NV zaczęła kombinować

Dlatego wyłączyłem liczenie i czekam na decyzje z Berkeley. Dokladnie mnie interesuje co zrobia rączki tamtejszych władz... Bo jak narazie to NV baaardzo miesza dlatego nie ma jeszcze app pod ATI. Rozumiem "sponsoruja" wiec wymagaja. Mało tego duzy nacisk kładzie Berkeley na CUDA dlaczego?  Kazdy wie. Koledzy z Niemiec juz 4 tygodnie czekaja na zrodła aby zrobic appa pod ATI. Owszem po rozmowach z kolegami dowiaduje sie ze naciskaja na MW ze jadyne słuszne GPU to te które obsłuzy CUDA. Jezeli takie podejscie zaakceptuje i beda kazali wycofac ATI z liczenia dla mnie BOINC jest spalony. Oczywiscie bedzie app pod ATI ale nie oficjalne zrobione przez Gipsela albo Cluster Physik ale Travis sie ociąga ze zrodłami...

nie wiadomo o co chodzi, chodzi o miliony $ za bardzo NV traciła - dużo uzytkowników przerzucało sie na ATI - dobra punktacja oraz szybkie liczenie owocowało a innych bolało. Moze to mały odsetek finansowy dla zielonych, ale na podstawie MW zauwazyli ze bardzo duzo moga stracic tym bardziej ze to lukratywny rynek. Ludzie tez nie mysla jak napisza w "gazetach o grach" ze jest taka przewaga ATI nad NV ludzie poleca po czerwonego. Zobaczyc mozna co sie dzieje z Phenomami, nie moge dostac odpowiedniej revizji od tygodnia po tym jak pobijaja rekordy w OC na AMD.

Wracajac do tematu gdzie jest to "OPEN" w Berkeley Open Infrastructure for Network Computing (BOINC) (Otwarta Infrastruktura Przetwarzania Rozproszonego Berkeley) jak zauwazyłem powoli sie zatracila...

dlatego Ceterum censeo, Nvidiam delendam esse.

To sa moje spostrzezenia, moje mysli, moje wnioski i decyzje. Nie mowie o CPU lecz o GPU.
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

AiDec

#146
Cytat: RAD-Poland w 06 Maj 2009, 19:03
zmień oba
wygląda że masz tutaj dwa zestawy jeden global (standard) drugi home, jeśli host nie jest przypisany do konkretnego profilu do pobiera dane z global

Robilem to to na bazie TJM`owego klienta HAL`owego, wiec jakies `smieci` tam pozostawaly (nie wiem przeciez wszystkiego co tam TJM robil). Anyway, zmienilem obydwie wartosci i wszystko dziala jak nalezy (ale profilaktycznie dorzucilem ncpu :P).


Cytat: TRZECIAK w 06 Maj 2009, 19:08
No to teraz tylko napiszcie jakiś poradnik jak to wszystko odpalić, bo może zamiast GTX295 kupie sobie 4870x2 :D

Jeśli miałbym wybrać 4870x2 to jaką firmę polecacie, żeby była maksymalnie jak najcichsza i najwydajniesza no i ofkors najtańsza :D, bo może potem dokupiłbym jeszcze drugą lub i 3 sztukę.

Ciezka sprawa cos takiego napisac. Moze, moze kiedys znajde czas... Ale tak ogolnie rzecz biorac to do momentu kiedy masz dwa rdzenie graficzne (dwie grafy ATI, albo jedna podwojna - np. 4870x2) to wszystko jest proste. Problemy sie zaczynaja powyzej dwoch rdzeni. Jesli masz jeden lub dwa GPU to po prostu zainstaluj stery 9.1, wrzuc aplikacje ze strony zslip.com, przeczytaj README ze sciagnietego pliku (i zastosuj sie do zalecen) i czytaj uwaznie ten watek - jak do tej pory jest zaledwie szesc stron watku wiec nie za wiele czytania, a znajdziesz tutaj prawie wszystkie potrzebne informacje.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

sesef

@AiDec

Chyba jednak nie udało Ci się odpalić 2x 4879x2

CytatRunning Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 8 concurrent WUs per GPU
setting minimum kernel frequency to 0 Hz
scaling the wait times with 0
CPU: Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz (4 cores/threads) 3.41995 GHz (189ms)

CAL Runtime: 1.3.158
Found 2 CAL devices

Device 0: ATI Radeon HD 4800 (RV770) 1024 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 507 MHz, memory clock: 500 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

Device 1: ATI Radeon HD 4800 (RV770) 1024 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 507 MHz, memory clock: 500 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

2 WUs already running on GPU 0
4 WUs already running on GPU 1
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 215 ms (1.#INF ms are allowed)
borders of the domains at 0 1600
Calculated about 3.70012e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 69.0781 seconds.

cut number 0, 40 iterations
predicted runtime per iteration is 26 ms (1.#INF ms are allowed)
borders of the domains at 0 400
Calculated about 1.15629e+011 floatingpoint ops on GPU, 5.38792e+006 on FPU. Approximate GPU time 3.70313 seconds.

cut number 1, 40 iterations
predicted runtime per iteration is 26 ms (1.#INF ms are allowed)
borders of the domains at 0 400
Calculated about 1.15629e+011 floatingpoint ops on GPU, 5.38792e+006 on FPU. Approximate GPU time 1.25 seconds.
Calculated about 2.60682e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 43 seconds,  GPU time: 74.0313 seconds,  wall clock time: 289.475 seconds,  CPU frequency: 3.42 GHz

Powinny być 4 GPU

AiDec

Cytat: sesef w 06 Maj 2009, 22:39
Chyba jednak nie udało Ci się odpalić 2x 4879x2

No cholera masz racje :/. Co wiecej, nawet 2x 4870x2 nie udalo mi sie odpalic :P. Nie no fakt, po wszystkim zapomnialem sprawdzic ta informacje. Dzieki za zwrocenie uwagi. Juz sie tak cieszylem ze te dwa zlomy dzialaja... ze zapomnialem... eh... gad... jeszcze raz sprobuje, ostatni raz, a jak sie nie uda to wymieniam ta padline na Nvidie. Dluzej tego po prostu nie zniose. Normalnie walnac o sciane radkiem. A pozniej wytrzaskac tych matolokretynodrajveropisarzy od ATI. Grrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr Ide zjesc paczke Persenu i przespac 24 godziny - moze mi przejdzie.



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81

zanim rzucisz oba radki o ścianę to wyślij mi jednego :D

lolek

A mi drugiego, z dwoma rdzeniami nie powinno być problemu  ;D

sesef

Cytat: AiDec w 07 Maj 2009, 08:37
Cytat: sesef w 06 Maj 2009, 22:39
Chyba jednak nie udało Ci się odpalić 2x 4879x2

No cholera masz racje :/. Co wiecej, nawet 2x 4870x2 nie udalo mi sie odpalic :P. Nie no fakt, po wszystkim zapomnialem sprawdzic ta informacje. Dzieki za zwrocenie uwagi. Juz sie tak cieszylem ze te dwa zlomy dzialaja... ze zapomnialem... eh... gad... jeszcze raz sprobuje, ostatni raz, a jak sie nie uda to wymieniam ta padline na Nvidie. Dluzej tego po prostu nie zniose. Normalnie walnac o sciane radkiem. A pozniej wytrzaskac tych matolokretynodrajveropisarzy od ATI. Grrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr Ide zjesc paczke Persenu i przespac 24 godziny - moze mi przejdzie.

Włóż drugą kartę do innego kopa i po problemie. Włączyłeś corssfire w CCC? jesteś pewny że płyta obsługuje CF? I z takich spraw organizacyjnych wyłącz tryb 2D, albo wymuś żeby w niego nie przechodziło, a potem zjedź z taktowaniem ramu karty do momentu aż próbek nie zacznie sypać.

AiDec

Cytat: sesef w 07 Maj 2009, 09:27
Włóż drugą kartę do innego kopa i po problemie. Włączyłeś corssfire w CCC? jesteś pewny że płyta obsługuje CF? I z takich spraw organizacyjnych wyłącz tryb 2D, albo wymuś żeby w niego nie przechodziło, a potem zjedź z taktowaniem ramu karty do momentu aż próbek nie zacznie sypać.

Eh, nie w tym rzecz :(. Crossfire w CCC jest. Mostek zalozony jest. Stery poprawne sa. Mobo obsluguje CrossfireX. Nikt tego nie wymyslil. CrossfireX - Vista Only. Stery nie zadzialaja poprawnie. I app tez nie zadziala.



a niech ati zginie i nic wiecej k**** nie napisze   tych graf juz zwrocici nie moge chyba ze sie zepsuja - na to licze



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

Troll81

to ja się uśmiecham o tego radka zanim rzucisz nim o ścianę :D

lolek

bo po rzuceniu to już ne XD

OxyOne

Cytat: AiDec w 07 Maj 2009, 08:37
Cytat: sesef w 06 Maj 2009, 22:39
Chyba jednak nie udało Ci się odpalić 2x 4879x2

No cholera masz racje :/. Co wiecej, nawet 2x 4870x2 nie udalo mi sie odpalic :P. Nie no fakt, po wszystkim zapomnialem sprawdzic ta informacje. Dzieki za zwrocenie uwagi. Juz sie tak cieszylem ze te dwa zlomy dzialaja... ze zapomnialem... eh... gad... jeszcze raz sprobuje, ostatni raz, a jak sie nie uda to wymieniam ta padline na Nvidie. Dluzej tego po prostu nie zniose. Normalnie walnac o sciane radkiem. A pozniej wytrzaskac tych matolokretynodrajveropisarzy od ATI. Grrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr Ide zjesc paczke Persenu i przespac 24 godziny - moze mi przejdzie.

Heh ale wymysliles...
Wsadz 4 atolce po 1 gpu to ci zagadaja. Xp jest starym systemem i dla niego jest szok cos takiego jak QUAD GPU. Powiedz mi czy ta cudowna Twoim zdaniem nv ma cos takiego jak x2? nie ma (nie słyszalem i nie miałem do czynienia) wiec nie ma problemu pod xp. Jak powstawał czy juz powstał XP była wspópraca nv i intela (nie było ati i amd) wiec dlatego były dodatkowe stery do tych produktów (amd) i niedorobione pod ati. Od visty sie to troche zmieniło (współpracowały wszystkie firmy - powiedzmy)dlatego nie mam problemu z QUAD GPU. Takie sa realia...  Wiec bierz sie do roboty i instaluj viste/win7 czas sie rozwijac a nie tylko narzekac...
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

Troll81

a czy przypadkiem 275 285 i 295 nie są takimi podwónymi kanapkami?? Bo dwie takie karty tworzą quad SLI

OxyOne

Cytat: Troll81 w 07 Maj 2009, 12:15
a czy przypadkiem 275 285 i 295 nie są takimi podwónymi kanapkami?? Bo dwie takie karty tworzą quad SLI

jak sam napisałes "podwójnymi kanapkami" czyli ogólnie mowiac 2 grafy "połapane do kupy" czyli 2 osobno ale w jednym pudełku. Chodzi mi o 2 GPU na jednym pcb. Bo to co przedstawiła nv to nic innego ja 2xati tylko ze uzywa jednego pcie
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

Tomasz R. Gwiazda

niedlugo beda reedycje tych najnowszych kart wlasnie z 2gpu na 1 pcb

sesef

Cytat: AiDec w 07 Maj 2009, 09:55
Cytat: sesef w 07 Maj 2009, 09:27
Włóż drugą kartę do innego kopa i po problemie. Włączyłeś corssfire w CCC? jesteś pewny że płyta obsługuje CF? I z takich spraw organizacyjnych wyłącz tryb 2D, albo wymuś żeby w niego nie przechodziło, a potem zjedź z taktowaniem ramu karty do momentu aż próbek nie zacznie sypać.

Eh, nie w tym rzecz :(. Crossfire w CCC jest. Mostek zalozony jest. Stery poprawne sa. Mobo obsluguje CrossfireX. Nikt tego nie wymyslil. CrossfireX - Vista Only. Stery nie zadzialaja poprawnie. I app tez nie zadziala.

a niech ati zginie i nic wiecej k**** nie napisze   tych graf juz zwrocici nie moge chyba ze sie zepsuja - na to licze

Hmm to widać ta sama sytuacja co z TriSLI działa na vista na xp nie. Teraz można legalnie ściągnąć wersje RC win 7 (build 7100) pisałeś, że masz teraz więcej czasu ściągnij i zainstaluj nie spodoba się to wywalisz, nie podoba się areo można wyłączyć albo zainstalować kompozycje z 2000. Sam windows jest dużo przyjemniejszy niż vista, a co najważniejsze idzie 5 miesiąc użytkowania a tu "Liczba BSOD 0" mój xp tyle nie wytrzyma.