BOINC@Poland

BOINC => Liczenie na GPU => Wątek zaczęty przez: AiDec w 23 Grudzień 2008, 10:19

Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: AiDec w 23 Grudzień 2008, 10:19
Poradnik dla wlascicieli kart Nvidia dla projektu GPUGrid:



Zalecane karty graficzne: wszystkie powyzej 8800GT
Zalecana przeze mnie minimalna karta graficzna: 9600 GT


Wersja BM zalecana przeze mnie: 6.11.7
Wersje BM calkowicie odradzane: 6.6.1 - 6.6.20 (http://www.gpugrid.net/forum_thread.php?id=1045)
Wersje dodatkowo odradzane przeze mnie: 6.6.21 - 6.6.35

Stery zalecane (!!!) przeze mnie:
Stery zalecane dla Linuksa: 185.xx, a jesli nie zadzialaja, to mozna probowac wyzszych niz 185.xx, badz tez 180.44, 180.60, lub 173.1420.

OS zalecany przeze mnie do GPUGrid: Jesli macie jedna grafe w kompie - W7x64/ew. Vistax64, a jesli wiecej niz jedna - Xp (ze wskazaniem na XPx64). Najlepszym systemem do GPUGrid jest Linux64, choc wiem ze niestety nie dla kazdego jest to dobry wybor. Pamietajcie aby w przypadku liczenia na wiecej niz jednej grafie w kompie wylaczyc SLi (nie dotyczy sterownikow 190.38). Ja zalecam dodatkowo wylaczenie PhysX na czas liczenia projektow CUDA (PhysX jest oparta o technologie CUDA, a zatem byloby lepiej aby grafa nie obslugiwala dwoch CUDA-softow na raz).


Gdyby ktos mial klopot z pobieraniem WU dla GPU to stosowac sie do ponizszych zalecen (a jesli ponizsze info nie pomoze, to prosze pisac w watku GPUGrid - http://www.boincatpoland.org/smf/gpugrid/gpugrid/):

1. Zresetowac projekt.
2. Po resecie (po np. 3-5 min w zaleznosci od szybkosci lacza) zatrzymac wszystkie projekty poza GPUGrid. Nie zatrzymywac pobierania, tylko zatrzymac PROJEKTY - czyli przetwarzanie WU :).
3. Aktualizacja GPUGrid az do skutku - nie przejmowac sie dziwnymi komunikatami.

Uwaga, wprowadzone zostaly WU roznej dlugosci! Serwer ma eksperymentalne oprogramowanie ktore `bedzie sie uczylo` (choc to moze za duzo napisane ;) ) kto i ile moze przeliczyc. Nalezy zatem zaciagnac probke, przeliczyc niezaleznie od wszystkiego (nawet po przekroczeniu deadline!), odeslac i zaraportowac. Serwer ma sie uczyc ze np. probka byla za dluga i przyznac krotsza :). Osobom ktore maja troszke wolnego czasu (i niestety powolne grafy) zalecam na poczatku sprawdzanie czasu przeliczania probek. Jezeli z gory wiadomo (musi byc wiadomo na 100%!) ze WU nie zmiesci sie w deadline - mozna od razu ja anulowac i zaciagac nastepna. Patrzcie na nazwy probek (nie znam wszystkich) - mozna po nazwach dojsc ktore sa dluzsze, a ktore krotsze.


I drobne przypomnienie dla `nowych` w GPUGrid:

This is performance guide of nVidia graphic cards on GPUGrid:
1. GeForce 280GTX: 25000 sec/WU
2. GeForce 260GTX: 28000 sec/WU
3. GeForce 9800GTX+: 44000 sec/WU
4. GeForce 9800GTX: 47000 sec/WU
5. GeForce 8800GTS512: 50000 sec/WU
6. GeForce 8800GT: 58000 sec/WU
7. GeForce 9600GT: 70000 sec/WU
8. GeForce 8800GS: 74000 sec/WU
This is estimated time (+/-2000 seconds ) of what you should expected from this cards when they operate at normal values. This data was taken from statistic of users who crunch. Although this comparison is not 100% correct due to different CPU, and RAM clocks, but this give some lights on GeForce performance.


BOINC GPU - Porownanie kart graficznych w GFLOPS`ach

Ponizsze naleza do grupy Compute Capability 1.1:

Nie uzywac do GPUGrid - nie zmieszcza sie w deadline!
GeForce 8400 GS PCI 256MB, est. 4GFLOPS
GeForce 8400 GS PCIe 256MB, est. 5GFLOPS
GeForce 8500 GT 512MB, est. 5GFLOPS
Quadro NVS 290 256MB, est. 5GFLOPS
GeForce 8600M GS 256MB, est. 5GFLOPS
GeForce 8600M GS 512MB, est. 6GFLOPS
Geforce 8500 GT, 512MB PCIe, 6GFLOPS

Nie zalecane do GPUGrid, chyba ze pracuja 24/7
GeForce 9600M GT 512MB, est. 14GFLOPS
GeForce 8600 GT 256MB, est. 14GFLOPS
GeForce 8600 GT 512MB, est. 15GFLOPS
GeForce 9500 GT 512MB, est. 15GFLOPS
GeForce 8600 GTS 256MB, est. 18GFLOPS

Entry Performance cards for GPUGrid
GeForce 9600 GT 512MB, est. 34GFLOPS
GeForce 9600 GT 512MB, est. 37GFLOPS
GeForce 8800 GTS, 640MB, est. 41GFLOPS [CC 1.0]
Geforce 9600 GSO, 768MB (DDR2) 46GFLOPS
Geforce 9600 GSO, 384MB (DDR3) 48GFLOPS

Average Performance Cards for GPUGrid
GeForce 8800 GT 512MB, est. 60GFLOPS
GeForce 8800 GTX 768MB, est. 62GFLOPS [CC 1.0]
GeForce 9800 GT 1024MB, est. 60GFLOPS

Good Performance Cards for GPUGrid
GeForce 8800 GTS 512MB, est. 77GFLOPS
GeForce 9800 GTX 512MB, est. 77GFLOPS
GeForce 9800 GTX+ 512MB, est. 84GFLOPS
GeForce GTX 250 1024MB, est. 84GFLOPS

Compute Capability 1.3 [wiekszosc]:

High End Performance Cards for GPUGrid
GeForce GTX 260 896MB (192sp), est. 85GFLOPS (120)
Tesla C1060 1024MB, est. 93GFLOPS (131)
GeForce GTX 260 896MB, est. 100GFLOPS (141)
GeForce GTX 275 896MB, est. 123GFLOPS (173)
GeForce GTX 285 1024MB, est. 127GFLOPS (179)
GeForce GTX 280 1024MB, est. 130GFLOPS (183)
GeForce 9800 GX2 512MB, est. 138GFLOPS [CC 1.1]
GeForce GTX 295 896MB, est. 212GFLOPS (299)

CC=Compute Capability

Cyfry w nawiasach oznaczaja efektywnosc w GFLOPS, po uwzglednieniu 41% zwiekszonej efektywnosci wynikajacej z zastosowania zaawansowanych zestawow instrukcji CC 1.3, zaimplementowanych w GT200/GT200b (wykorzystywanych oczywiscie przez GPUGrid).




Jesli ktos chce wiedziec wiecej nt. specyfikacji kart graficznych Nvidia, to polecam linka: http://en.wikipedia.org/wiki/Comparison_of_Nvidia_Graphics_Processing_Units


Powyzszy poradnik dla GPUGrid powstal dzieki wspolpracy z najbardziej zaangazowanym liczydlowym GPUGrid`a (obecnie juz testerem i moderatorem) ETA, ktoremu jestem bardzo wdzieczny za wielki wklad w ogolnie pojety rozwoj GPUGrid.





Efektywne liczenie jednoczesnie GPUGrid na GPU i innych projektow na CPU - rowniez dla `Milkowcow`



Wprowadzenie:

Ten temat jest dosc trudny do napisania z uzyciem jedynie `czystych formulek`. Bede sie tutaj mocno posilkowal przykladami, a wiele kwestii wyjasnie wlasnym jezykiem. Z poczatku moze sie to wydawac dosc chaotyczne, jednak w miare wolnego czasu postaram sie dopieszczac tekst, aby byl jak najbardziej zrozumialy. Uwaga, jesli wyraznie nie zaznacze ze jest inaczej, to wszystkie przyklady odnosza sie do XP32ProEngSP3. Zaznaczam tez, ze ponizsze przyklady w ok. 85% sa podawane na podstawie efektow testow, a w 15% na podstawie obliczen osob godnych zaufania.

Przeczytanie tej czesci poradnika zalecam rowniez Milkowcom, ktorym dzieki zebranym tutaj informacjom latwiej bedzie zrozumiec znacznie bardziej skomplikowane zagadnienie efektywnego liczenia Milki.


Kilka faktow i wspomnienie historii:

Zacznijmy od tego ze projekty dla GPU wykorzystuja procesor. To nie jest tak, ze projekt dla GPU chodzi tylko i wylacznie na GPU. Zawsze proc jest w mniejszym, badz wiekszym stopniu wykorzystywany. Czasami moze to byc 1% bo proc jedyne co robi to przesyla dane do grafy, a czasami moze to byc 50% jednego rdzenia bardzo, bardzo szybkiego procesora, np. jesli projekt wciaz wykonuje czesc obliczen na CPU. Wiele zalezy od szybkosci proca, szybkosci grafy, uzytego systemu operacyjnego, jak i od samego projektu. GPUGrid nalezy do tych projektow, ktore w najmniejszym mozliwym stopniu wykorzystuja procesor. Musze tutaj napisac ze programisci odwalili w tej kwestii naprawde kawal niesamowitej roboty - zejsc z 40% w przeciagu trzech miesiecy do srednio 1,5%! I w tej chwili czesc z Was moglaby juz przestac czytac dalej - myslicie po co sie zajmowac tak niewielkim problemem? Poltora procenta i walczyc o taki drobiazg? Mam nadzieje ze po dalszej czesci tekstu nie bedziecie zalowac poswieconego czasu.


Od czego zalezy stopien obciazenia procesora:

Kazda jednostka GPUGrida przetwarzana na grafie wykorzystuje procesor. I w pierwszej kolejnosci to od procesora zalezy w jak duzym stopniu jest obciazony - od jego szybkosci i architektury. Dla 260GTX: Q6600@2.4GHz (stock) bedzie wykorzytywany w 3%, Q6600@3.42GHz w 2%, QX9770@4.2GHz w 1%, a dla odmiany C2D T5450@1.66 (stock) - 8%, AthlonXP 1700+ stock 25-35%. Gdyby to byl 280 GTX i to po mocnym OC, to wymagalby od proca o wiele wiecej danych w tym samym czasie, a zatem byloby to: Q6600 stock - 5%, Q6600@3.42GHz - 3%, QX9770@4.2GHz - 2%, C2D T5450 (stock) - 15%, AthlonXP 1700+ stock 40-70%. A teraz drobny prztyczek: ilu z Was majac niezbyt szybka grafe i niezbyt szybkiego jedno-dwujajowego proca, odpalalo GPUGrida + jeden-dwa projekty na CPU + korzystalo w tym samym czasie z kompa do codziennego uzytku... ilu z Was narzekalo ze nie moze zdazyc do deadline`u?

XP

Dobra, jedziemy dalej. Stopien wykorzystania procesora zalezy rowniez w duzej mierze od systemu operacyjnego. Jesli dla Q6600 stock + Win32 bedzie to 5% to dla Lin32 bedzie to 2%, a dla Lin64 1%. Roznica na korzysc Linuksa jest tym wieksza, im wolniejszy (gorszy technologicznie) jest procesor. Dla przykladowego A XP1700+ bedzie to XP32 - 40%, Lin64 - 6%. (Ubuntu8.10AMD64 i Suse64). Tutaj musze mocno zaznaczyc, ze pod wzgledem obciazania proca GPUGridem, Linuks zawsze masakrowal Xp (obecnie bardzo duza przewage maja rowniez wszystkie systemy 64-bitowe). Juz w starych czasach (prawie rok temu) gdy obciazenie pod Win32+Q6600@3.42+280GTX wynosilo 40%, pod Lin64 bylo to 3%. Pomiedzy XP32 a XPx64 na starszych sterownikach nie ma mierzalnej roznicy w obciazaniu proca, jednak na najnowszych roznica jest ogromna. W ramach przykladu; po przeliczeniu jednej jednostki wykorzystanie proca pod XP32 wynioslo 40minut, a pod XPx64 15minut. Dodatkowo jest ok. 10% roznica w czasie przetwarzania WU na korzysc XPx64 (Linux64 zyskuje w stosunku do XP32 10-40% w zaleznosci od jednostki).

Obciazenie procesora zalezy rowniez od czegos, na co nie mamy wiekszego wplywu - od konkretnych jednostek. Niektore WU moga obciazac proca w 1%, a inne w 5%. Obecnie moj komp (QX9770@4.2GHz+XP32) liczy mi dwie jednostki z serii GIANNI i jedna z serii IBUCH. Jedna jednostka GIANNI obciaza kompa 1-1.5%, a druga non-stop jedynie 0.5%. A IBUCH bierze 2-4% he he. Generalnie jednostki IBUCH zabieraja do pieciu razy wiecej proca niz np. KASHIF, czy GIANNI.


Dlaczego te informacje sa wazne:

Dlatego ze chcac efektywnie liczyc na GPU, musicie zostawic grafie kawalek proca. I byloby dobrze gdybyscie wiedzieli ile tego proca pozostawic. Jesli nie dacie troche oddechu prockowi zeby mogl obslugiwac grafe, to automatycznie ja przydlawicie. Grafa nie bedzie chodzila na 100% (a np. na 50-60%, czyli najczesciej spotykany przypadek), bo proc nie nadazy przesylac danych. Jesli zas pozostawicie za duzo, badz pozostawicie niepotrzebnie kawalek proca, to stracicie na tym (w szczegolnych przypadkach nie ma sensu pozostawianie wolnych mocy przerobowych proca specjalnie dla GPUGrida).


Jak wykorzystac nabyta wiedze w praktyce:

Na przykladzie mojego `Kosmosa` (QX9770@4.2GHz + 3x 280GTX). Proc czterordzeniowy, zatem ustawiam wykorzystanie 75% rdzeni. Dzieki temu licze 3 projekty na CPU + 3 na GPU (ktore mi biora w sumie 5%). W efekcie GPUGrid dostaje dane natychmiast i nie musi czekac w kolejce, co w idealnych warunkach (jakbym nie mial wakacji i nie gral na kompie tylko siedzial po 12-16h w pracy he he he) skutkowaloby mi 3.000 pkt. z CPU + 70.000+ pkt. z GPU na dobe. Owszem, trace niewykorzystujac 20% mocy przerobowych proca. Ale jakbym ustawil 4xCPU + 3XGPU to nie dosc ze zdlawilbym GPUGrida z powodow obecnie juz ogolnie zrozumialych, ale co wiecej - zmusilbym proca do ciaglego przelaczania sie miedzy zadaniami, co spowodowaloby jeszcze wieksza strate wydajnosci (czesc z Was zapewne wie jak bardzo spada wydajnosc proca jesli notorycznie i blyskawicznie musi sie przelaczac miedzy zadaniami, gdzie kolejnych rzadan od kolejnych zadan nie da sie przewidziec - instruction prefetch w takich sytuacjach daje strate zamiast zysku!). Majac 4xCPU + 3xGPU mialbym dzienny utarg 3.500 + 40.000. Nieekonomiczne. Przyznaje, ze sa sytuacje w ktorych korzystam z takiej konfiguracji. Na przyklad wczorajszy wyscig. W ramach aktywnego udzialu w 24-godzinnym wyscigu wlaczylem wszystkie cztery jajka na PrimeGrid. Niech strace te 10k z GPUGrid (i tak mam tam sporo), byleby zyskac te 500 ekstra do wyscigu. I jakby to byl wyscig tygodniowy, to tez bym tak zrobil. Ale nie zrobie tego np. dla Projektu miesiaca.

Sa tez sposoby wykorzystania wolnych mocy przerobowych kompa, nieprzeszkadzajace GPUGridowi. Mam tutaj na mysli projekty non_cpu_intensive. Projekty takie jak AlmereGrid czy FreeHAL w zaledwie minimalnym stopniu wykorzystuja procesor (np. 1-3%), a zatem mozna sobie dodatkowo policzyc jakiegos Almera czy FreeHALa wykorzystujac wolne moce przerobowe proca  i dopchac go deczko (pod warunkiem ze macie dosc pamieci i odpowiednio szybkie HDD na takie operacje). Idealnym dla mnie rozwiazaniem bylo zawsze 3xCPU + 3xGPU + 20xAlmere + 10xFreeHAL. Obciazenie rdzeni wynosilo wtedy 98% 97% 98% 97%. Ideal - przy takim obciazeniu proc jeszcze chodzi na luzie i nie spowalnia GPUGrida (do 98% wlacznie, prefetch jeszcze dziala zgodnie z zalozeniami). Zaznaczam, ze projekty te polecam tylko i wylacznie zaawansowanym uzytkownikom komputerow, majacym juz spora wiedze nt. BOINC`a.

W niektorych przypadkach nie warto odciazac proca specjalnie dla grafy i GPUGrida. Jesli na przyklad Wasza 8800 majac `luzno` chodzacego proca Q6600 liczy WU GPUGrida 3 dni, to zapchajcie proca do fulla. Zamiast 3 dni bedzie to 3 i pol dnia - i tak zdazycie przed deadlinem. A ile za to ten jeden dodatkowy rdzen nachapie punktow? W tej kwestii postepujcie z rozwaga, bo z kolei majac powolny procesor (powiedzmy Athlon64 3000+) nie oplaca sie zapychac proca zadaniami na CPU, bo on i tak wiele punktow nie narobi. To juz niech lepiej kreci na grafie tego GPUGrida, bo lepiej na tym wyjdziecie.

Btw, przy wykorzystaniu systemow 64-bitowych (a zwlaszcza Linuksa 64bit), wzrasta szybkosc przetwarzania WU. Wzrost ten jest zalezny od Work Unitow i dla kazdego WU moze byc inny. Nie mam aktualnych danych (do aktualnie dostepnych WU), ale dla starszych serii wydajnosc przetwarzania wzrastala o 10-40%.


May the GeForce be with you young padawan ;)




Poradnik dla wlascicieli kart ATI dla projektu Milkyway:  


Poradnik dostepny jest na PM u OxyOne.







Pytania i odpowiedzi:



1. Milke da się poustawiać tak, aby na kliencie 6.10.18 liczył na wgranych opto tak jak na domyślnej aplikacji? tzn 4+1?


a). Przede wszystkim, optymalizacja zawiera dokladnie ta sama aplikacje liczaca, co aplikacja domyslnie sciagana z projektu przez BM. Zatem nie jest to stricte optymalizacja.

b). `Optymalizacja` rozni sie tym (od zwyklej app) ze zawiera plik konfiguracyjny, umozliwiajacy zmiane ustawien aplikacji liczacej (zmiane sposobu liczenia/obciazenia grafy itp.). Domyslne ustawienie `optymalizacji` jest identyczne z domyslna aplikacja, a zatem samo wgranie optymalizacji nic nie zmienia w sposobie liczenia.

c). Jesli cos zmieniliscie w konfigu, wystarczy ponownie wgrac (nadpisac) optymalizacje, dzieki czemu zostana przywrocone domysle ustawienia liczenia Milky.

d1). Za obciazenie procesora odpowiada linia <avg_ncpus>0.05</avg_ncpus>. Wartosc okresla jaka czesc jednego rdzenia ma zabrac sobie grafa na potrzeby liczenia Milky. Moze to byc 0,05 co bedzie skutkowalo na czterordzeniowcu liczeniem 4CPU+1GPU, mozna tez wpisac 1 w wyniku czego bedzie liczone 3CPU+1GPU, a cale jedno jajo zostanie przeznaczone na potrzeby grafy.

d2). Jesli macie grafe dwurdzeniowa (np. 4870x2), to wpisanie 1 na czterojajowcu bedzie skutkowalo liczeniem 2CPU+2GPU.






Od Autora:

Staralem sie opisywac przygotowanie komputerow do uzytkowania projektow dla GPU w sposob rzetelny i dokladny, jednak w zwiazku z wypiciem zaledwie dwoch piwow przed rozpoczeciem `Poradnika` i jedynie trzech kolejnych podczas tej katorzniczej pracy, nie jestem w stanie zagwarantowac ze powyzsze opisy sa wolne od bledow. W razie watpliwosci zachecam do kontaktu poprzez PM, badz osobistego przekazywania piwnych datkow na rzecz rozwoju poradnika  :arrr:.


Zastrzegam sobie rowniez prawo do edycji powyzszego poradnika w zaleznosci od humoru, pogody, swieta panstwowego czy tez religijnego (dowolnej, wybranej przeze mnie na chybil trafil religii), fazy ksiezyca, badz stanu upojenia alkoholowego itp.  %)






Plany rozwoju poradnika: Efektywne liczenie jednoczesnie MilkyWay na GPU i innych projektow na CPU i wykorzystanie klientow HAL`owych do liczenia jednoczesnie z MilkyWay.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: matti_tm w 15 Lipiec 2009, 15:34
Mili państwo, a czy koleżanki/koledzy liczący już od jakiegoś czasu na GPU mogliby zrobić jakowyś poradnik, tak od podstaw, jak włączyć liczenie na GPU? Chętnie co nieco zaprzęgnę, ale nie mam czasu i siły, żeby od zera szukać info.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 15 Lipiec 2009, 15:43
Padaj jaką masz kartę graficzną :D to pomożemy.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: matti_tm w 17 Lipiec 2009, 12:44
Ja mam dość starą kartę: Ati Radeon X550
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 17 Lipiec 2009, 13:14
Cytat: matti_tm w 17 Lipiec 2009, 12:44
Ja mam dość starą kartę: Ati Radeon X550

Niestety ta karta się nie nadaje.

Tu jest spis wszystkich kart na których można liczyć

ATI: http://developer.amd.com/gpu/ATIStreamSDK/pages/ATIStreamSystemRequirements.aspx#cards i nie dodana jeszcze do listy karta 4730
NV: http://www.nvidia.com/object/cuda_learn_products.html

Do Collatz powinny nadawać się wszystkie, do milky tylko te które nie mają indeksu 2
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 17 Lipiec 2009, 14:01
Jakiegoś taniego radka dokup :D i styknie :D
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 17 Lipiec 2009, 17:31
Cytat: matti_tm w 15 Lipiec 2009, 15:34
Mili państwo, a czy koleżanki/koledzy liczący już od jakiegoś czasu na GPU mogliby zrobić jakowyś poradnik, tak od podstaw, jak włączyć liczenie na GPU? Chętnie co nieco zaprzęgnę, ale nie mam czasu i siły, żeby od zera szukać info.

Nie ma sposobu aby napisac taki typowy poradnik :(. Poradnik musialby uwzgledniac zbyt wiele kombinacji - wszystko zalezy od tego jaka karte graficzna masz, jakiego systemu operacyjnego uzywasz (i juz tutaj mamy mnogosc opcji...). A aktualizowanie takiego poradnika to juz by byla masakra (biorac pod uwage ze codziennie wychodza jakies nowe stery dla jakiegos systemu, ukazuja sie nowe aplikacje dla GPU...).

Ale gdybym chcial Ci najprosciej odpowiedziec, to napisalbym: `podepnij sie do projektu w ktorym Twoja grafa moze dzialac (ATI = MilkyWay, Nvidia = GPUGrid)`. I tyle :). Jak sie podepniesz i wszystko dziala ok, to super. A jesli sie podepniesz i cos nie dziala, to wtedy czytaj info w pierwszym poscie tego watku, poczytaj watki o przetwarzaniu na GPU (http://www.boincatpoland.org/smf/milkywayhome-113/optymalki-gpu-cpu-pod-milke/  i  http://www.boincatpoland.org/smf/gpugrid/ (http://www.boincatpoland.org/smf/gpugrid/)). Jesli mimo takiej wiedzy jaka w tych watkach zebralismy nie uda Ci sie rozwiazac problemu, to pisz i pytaj w odpowiednich watkach.

Jednak wracajac `czysto` do Twojej wypowiedzi `Chętnie co nieco zaprzęgnę, ale nie mam czasu i siły, żeby od zera szukać info.`, to niestety ale bez pracy nie ma kolaczy. Bez obrazy oczywiscie, ale chcac cokolwiek zrobic w jakimkolwiek temacie, to trzeba sie uczyc. Nikt nie wie tak naprawde jaka jest konfiguracja Twojego komputera, jakie stery masz zainstalowane, jaki soft tam siedzi... Sam wiesz to najlepiej.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 20 Lipiec 2009, 14:54
Cytat: AiDec w 23 Grudzień 2008, 10:19Compute capability 1.3:

GeForce GTX 260 896MB (192sp), est. 85GFLOPS
Tesla C1060 1024MB, est. 93GFLOPS (only)?
GeForce GTX 260 896MB, est. 100GFLOPS
GeForce GTX 260 896MB, est. 104GFLOPS (OC)?
GeForce GTX 260 896MB, est. 111GFLOPS (OC)?
GeForce GTX 275 896MB, est. 123GFLOPS
GeForce GTX 285 1024MB, est. 127GFLOPS
GeForce GTX 280 1024MB, est. 130GFLOPS
GeForce GTX 295 896MB, est. 106GFLOPS (X2=212)?

To są dane z forum GPUGRID-a? bo trochę mnie dziwią te dane, 280 lepszy niż 285.

Wzór na wydajność GFlopsach przy double dla GF GTX jest taki 2x30xsharder clock co dla
280 daje 2x30x1.29=77,4 GFlops
285 daje 2x30x1.47=88.2 GFlops

GPUGRID cześć operacji może robi na single precision dlatego wydajność jest te 100+ GFlops, ale wtedy 285 nie ma prawa zanotować takich strat, żeby była słabsza ni 280.

Brawa za poradnik :)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 20 Lipiec 2009, 14:56
może prosta pomyłka się im zdarzyła??
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 20 Lipiec 2009, 15:57
Czekam na poradnik o ATI :fright:
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 20 Lipiec 2009, 16:13
Może sam taki stwórz... :D
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 20 Lipiec 2009, 16:27
nie znam sie...
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 20 Lipiec 2009, 18:43
Cytat: OxyOne w 20 Lipiec 2009, 16:27
nie znam sie...

Ja tez nie.


Cytat: sesef w 20 Lipiec 2009, 14:54
To są dane z forum GPUGRID-a? bo trochę mnie dziwią te dane, 280 lepszy niż 285.

Tak, te dane sa z GPUGrida. I faktycznie 285 jest wolniejsza od 280. Wolniejsza w znaczeniu `mniej wydajna`. Sprawdzalem. W wielu sklepach nawet podniesiono ceny 280-ek, zwazywszy ze zaczyna to byc towar deficytowy wypychany przez wolniejsze, choc nowoczesniejsze 285-ki. 285 ma co prawda wyzsze standardowe zegary (280@600MHz 285@648MHz), jednak okazala sie mniej wydajna konstrukcja (za to o wiele chlodniejsza), a ma to szczegolnie duze znaczenie dla OC - obie grafy mozna podciagnac do ponad 700MHz, przy ktorych 280-ka jest o blisko 20% szybsza.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 21 Lipiec 2009, 19:59
Cytat: AiDec w 23 Grudzień 2008, 10:19
a) Zmodyfikowac wpis <flops>1.0e11</flops> tak, aby wartosc flops byla rowna GFlops`om double precision waszej grafy np:
dla 4870 <flops>1.2e11</flops>
dla 4870x2 <flops>2.4e11</flops>
dla dwoch 4870x2 <flops>4.8e11</flops>

Teraz dopiero zauważyłem pewną gafe powielaną już od jakiegoś czasu, 1.0e11 to jest 100 GFlops więc te liczby mają się nijak do działania, ba nawet nie wiem czy jakoś to jest używane ale jakbyśmy chcieli być dokładni to dla single precision powinno być:

dla 4870 <flops>1.2e12</flops>
dla 4870x2 <flops>2.4e12</flops>
dla dwoch 4870x2 <flops>4.8e12</flops>

dla double:

dla 4870 <flops>2.4e11</flops>
dla 4870x2 <flops>4.8e11</flops>
dla dwoch 4870x2 <flops>9.6e11</flops>

ale raczej wydajność powinna być tam podawana w single, dwa tzreaby sprawdzić czy zmiana tych liczb coś daje :)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 21 Lipiec 2009, 20:34
Tez to zauwazylem, podczas pisania poradnika - moje szczescie ze nie przepisywalem bezmyslnie, ale pisalem z glowy, wiec wlaczyl mi sie tryb myslenia :). Sam sie zaczalem zastanawiac po cholere taki wpis, skoro nijak sie ma do app. Mam ochote potestowac, ale nie dam rady tego zrobic w najblizszych tygodniach.

Dlatego pozostawilem to tak jak jest, skoro do tej pory dzialalo, to na chwile obecna (do czasu potwierdzenia ze jakiekolwiek inne rozwiazanie jest lepsze), zdecydowalem sie pozostac przy tym co jest. Jest i dziala.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: matti_tm w 21 Lipiec 2009, 21:53
Cytat: Troll81 w 17 Lipiec 2009, 14:01
Jakiegoś taniego radka dokup :D i styknie :D

Wstyd się przyznać, ale to firmowy sprzęt... tylko ćśśśśśś.....

A poradnik na samej górze - genialne... Gratuluję!
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 23 Lipiec 2009, 05:21
Zmodyfikowano w poradniku:


BOINC GPU - Porownanie kart graficznych w GFLOPS`ach

Ponizsze naleza do grupy Compute Capability 1.1:

Nie uzywac do GPUGrid - nie zmieszcza sie w deadline!
GeForce 8400 GS PCI 256MB, est. 4GFLOPS
GeForce 8400 GS PCIe 256MB, est. 5GFLOPS
GeForce 8500 GT 512MB, est. 5GFLOPS
Quadro NVS 290 256MB, est. 5GFLOPS
GeForce 8600M GS 256MB, est. 5GFLOPS
GeForce 8600M GS 512MB, est. 6GFLOPS
Geforce 8500 GT, 512MB PCIe, 6GFLOPS

Nie zalecane do GPUGrid, chyba ze pracuja 24/7
GeForce 9600M GT 512MB, est. 14GFLOPS
GeForce 8600 GT 256MB, est. 14GFLOPS
GeForce 8600 GT 512MB, est. 15GFLOPS
GeForce 9500 GT 512MB, est. 15GFLOPS
GeForce 8600 GTS 256MB, est. 18GFLOPS

Entry Performance cards for GPUGrid
GeForce 9600 GT 512MB, est. 34GFLOPS
GeForce 9600 GT 512MB, est. 37GFLOPS
GeForce 8800 GTS, 640MB, est. 41GFLOPS [CC 1.0]
Geforce 9600 GSO, 768MB (DDR2) 46GFLOPS
Geforce 9600 GSO, 384MB (DDR3) 48GFLOPS

Average Performance Cards for GPUGrid
GeForce 8800 GT 512MB, est. 60GFLOPS
GeForce 8800 GTX 768MB, est. 62GFLOPS [CC 1.0]
GeForce 9800 GT 1024MB, est. 60GFLOPS

Good Performance Cards for GPUGrid
GeForce 8800 GTS 512MB, est. 77GFLOPS
GeForce 9800 GTX 512MB, est. 77GFLOPS
GeForce 9800 GTX+ 512MB, est. 84GFLOPS
GeForce GTX 250 1024MB, est. 84GFLOPS

Compute Capability 1.3 [wiekszosc]:

High End Performance Cards for GPUGrid
GeForce GTX 260 896MB (192sp), est. 85GFLOPS (120)
Tesla C1060 1024MB, est. 93GFLOPS (131)
GeForce GTX 260 896MB, est. 100GFLOPS (141)
GeForce GTX 275 896MB, est. 123GFLOPS (173)
GeForce GTX 285 1024MB, est. 127GFLOPS (179)
GeForce GTX 280 1024MB, est. 130GFLOPS (183)
GeForce 9800 GX2 512MB, est. 138GFLOPS [CC 1.1]
GeForce GTX 295 896MB, est. 212GFLOPS (299)

CC=Compute Capability

Cyfry w nawiasach oznaczaja efektywnosc w GFLOPS, po uwzglednieniu 41% zwiekszonej efektywnosci wynikajacej z zastosowania zaawansowanych zestawow instrukcji CC 1.3, zaimplementowanych w GT200/GT200b (wykorzystywanych oczywiscie przez GPUGrid).
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 23 Lipiec 2009, 14:35
Poradnik zaktualizowano o:

Efektywne liczenie jednoczesnie GPUGrid na GPU i innych projektow na CPU
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 25 Lipiec 2009, 22:11
cena 4770 wróciła w miarę do normalnego poziomu. W esc.pl kosztuje 439-449 zł co już jest w miarę rozsądną ceną, mam nadzieje, że jak będę teraz przez tydzień na wakacjach to mi to nie podrożeje i będę mógł sobie kupić ją bez problemów za 2 tyg. Jest to w tej chwili najlepsza oferta dla mniej zamożnych i do tego nie trzeba jakiegoś super zasilacza bo karta ciągnie tylko 80W więc do kompów ze słabszym zasilaczem też się nada, markowa 400-450 powinna spokojnie starczyć.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 25 Lipiec 2009, 22:28
Jeden drobiazg: "Towar niedostępny / Termin dostawy nieznany"  XD

Polecam świetne narzędzie do porównywania kart graficznych:
http://www.benchmark.pl/zestawienie_gpu.html

4850 = 1000 GFlops = 343,44n = 34 grosze za GFlopsa
4770 = _960 GFlops = 359,84n = 37 grosze za GFlopsa

4850 najtańszą kartą!  :book:
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 25 Lipiec 2009, 23:13
Cytat: Zawecki w 25 Lipiec 2009, 22:28
Jeden drobiazg: "Towar niedostępny / Termin dostawy nieznany"  XD

Polecam świetne narzędzie do porównywania kart graficznych:
http://www.benchmark.pl/zestawienie_gpu.html

4850 = 1000 GFlops = 343,44n = 34 grosze za GFlopsa
4770 = _960 GFlops = 359,84n = 37 grosze za GFlopsa

4850 najtańszą kartą!  :book:

Policz sobie 4850 VAPOR-X (ta karta jest podobnie cicha jak ta 4770) bo referencyjny 4850 jest owszem troszeczkę tańszy, ale sporo głośniejszy i te 50W prądu więcej bierze niż 4770.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 26 Lipiec 2009, 00:04
1. Z tym hałasem to chyba tak nie do końca, bowiem benchmarki twierdzą, że ciszej jest póki nie ma większego obciążenia w 3D. Czy nasze obliczenia to "3D"?  :-\
http://www.benchmark.pl/testy_i_recenzje/W_duecie_czy_w_pojedynke._CrossFire_z_dwoch_Radeonow_4770-1918/strona/5283.html

2. Z porównaniem ceny 4770 jest pewien kłopot, bo wciąż jest to słabo dostępna karta, a różnice wykonania/ chłodzenia są znaczące. Z tego co zebrałem:
302,46 zł    0,338    R4730   896 GFlops
359,84 zł    0,375    R4770   960
343,44 zł    0,343    R4850  1000
441,80 zł    0,368    R4870  1200

3. Dzięki, że zwróciłeś uwagę na pobór W. Wg danych jakie znalazłem jest tak:
R4770  _960  _80W   12,0 MFlops/W
R4850  1000  110W   _9,1 MFlops/W !!!

Zatem do mojego nowego kompa wybieram teraz jednego R4770, a na gwiazdkę drugiego. To chyba najlepszy wybór?
2x80W= 160W da 1920 GFlopsów a 160W R4870 daje ledwie 1200!  :book:
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 26 Lipiec 2009, 00:23
Cytat: Zawecki w 26 Lipiec 2009, 00:04
1. Z tym hałasem to chyba tak nie do końca, bowiem benchmarki twierdzą, że ciszej jest póki nie ma większego obciążenia w 3D. Czy nasze obliczenia to "3D"?  :-\
http://www.benchmark.pl/testy_i_recenzje/W_duecie_czy_w_pojedynke._CrossFire_z_dwoch_Radeonow_4770-1918/strona/5283.html

U nas jest gorzej niż w "3D", bo chodzi 3D i to na 100% Projekty wykorzystują tylko jednostki SP i to praktycznie przez cały czas na 100% natomiast gry mają jeszcze do dyspozycji ROP i TMU więc to obciążenie się rozkłada no i gry z reguły nie potrzebują non stop 100%. W dużym przybliżeniu odpalenie projektu to jak odpalenie jakiegoś Crysiss-a czy STALKER-a tylko tak np przez pół dnia. Oxy liczy prawie 24/7 więc kompa wystawił na balkon bo te 2x 4870x2 nieźle potrafią pobeczeć. Miałem brać 4850 Vapor-x ze względu na cisze, ale obecnie wezmę 4770 bo i ciszej i pobór mniejszy a 40 nm to też źle się kręcić nie będzie. Podniosę leciutko takty i mam już wydajność referencyjnego 4850.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 26 Lipiec 2009, 01:47
No dobra, po ostatnim wyścigu i moich słabych wynikach, postanowiłem nabyć nowego kompa ściśle sprofilowanego do liczenia na konto naszego zespołu i uczestniczenia w wyścigach. Doradźcie, czy moja koncepcja konfiguracji jest słuszna. Chciałbym być gotów na następny wyścig i wejść do pierwszej 100 teamu!
:attack:

1. AMD Phenom Quad-Core 9650 2,3GHz/95W + RAM 4 GB

2a. ATI R4770 (960GFlp, 80W)
2b. na gwiazdkę druga taka sama lub ciut lepsza (spadek cen)

3. HD na 3 partycje/systemy:
a) Win XPH (32)- do pracy na dziś
b) Win 7 (64)- do pracy na przyszłość
c) "NEMO"

Jako Nemo widziałbym przygotowany przez guru teamu wariant jakiegoś systemu operacyjnego, który na czas wyścigu pozwoliłby uzyskać maksymalne rezultaty - pewnie byłaby to jakaś wersja Linuxa, ale w życiu żadnej nie widziałem, więc czekam na propozycje. Uważam, że taki teamowy pakiet systemowy mógłby być wykorzystywany do pracy "nocnej". Przykładowo, wychodzimy z biura do domu, to odpalamy tego NEMO, wyłączamy monitor i niech sobie liczy dla dobra ludzkości i naszego teamu. Rano robimy restart i znów wszystko jest jak dawniej, a punkciki przyzwoicie przyrosły.

Nie mam doświadczenia w BOINCu a na kartach graficznych nie znam się zupełnie, więc proszę, dajcie znać, czy ta konfiguracja będzie optymalnie naliczać? Do potrzeb własnych (Excel+WWW) potrzebuję jedno core, reszta (3 CPU+1 GPU) niech kręci dla "sprawy".
8)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 26 Lipiec 2009, 10:43
http://www.youtube.com/watch?v=14njUwJUg1I filmik proszę :D
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 07 Sierpień 2009, 10:49
Cytat: sesef w 20 Lipiec 2009, 14:54trochę mnie dziwią te dane, 280 lepszy niż 285
Ostatnio analizowałem ofertę NV i zwróciłem uwagę, że 280 ma pobór 236W a 285 "tylko" 204W i pewnie stąd jest ta różnica.

Niezależnie od tego, po analizie, "obraziłem" się na NV i pozostanę wierny ATI - ta firma bardziej dba o moją kieszeń i trzeba te starania odwzajemnić jej. W zakupie i eksploatacji 2xATI = 1xNV. W związku z tym wyrzucam wszystkie projekty wspomagające NV, a olewające ATI, czyli: GPUGrid, SETI i Lattice.
>:(
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 07 Sierpień 2009, 10:57
:D

Jak już zakończycie pisanie poradnika to wrzućcie go w formie arta na WIKI :D
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 07 Sierpień 2009, 11:13
Cytat: 7NBI_Zarecki Robert w 07 Sierpień 2009, 10:49
Cytat: sesef w 20 Lipiec 2009, 14:54trochę mnie dziwią te dane, 280 lepszy niż 285
Ostatnio analizowałem ofertę NV i zwróciłem uwagę, że 280 ma pobór 236W a 285 "tylko" 204W i pewnie stąd jest ta różnica.

280 65nm
285 55nm

Co do poradnika, do oficjalnych sterów zalecam dodanie wersji 9.7 liczy wyraźnie szybciej, tylko od razu na wstępie trzeba zmienić avg_cpu na jakieś wyższe przy standardowym 0.1 sterowniki się sypia. Stery 9.7 nadają się do pojedynczej karty oraz z tego co Raptor pisał działają na 2x4890. Do 2x4870x2 nie polecam bo jak na razie nie udało się wyciągnąć pełni mocy.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 07 Sierpień 2009, 11:21
No i 9.7 z R4770 w Win7u/64 też się wysypują - póki co zostaje 9.5.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 07 Sierpień 2009, 11:25
Cytat: 7NBI_Zarecki Robert w 07 Sierpień 2009, 11:21
No i 9.7 z R4770 w Win7u/64 też się wysypują - póki co zostaje 9.5.

Sprawdzałeś z wyższym avg_cpu? na 0.7 0.8 1.0? Mi na win7 x64 sterownik sypie się w 1 miejscu jak próbuje wejść do CCC, dlatego wywaliłem to w ciortu i używam RivaTuner. I oczywiście przed instalacja 9.7 trzeba odinstalować 9.5 + reset kompa bo nakładanie sterów często kończy się nie ciekawie.

Przy instalacji 9.7 koniecznie wywalić wpierw stare stery zrobić reset kompa i dopiero instalować 9.7

Jak stery są zainstalowane poprawnie to mamy coś takiego: CAL Runtime: 1.4.344
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 07 Sierpień 2009, 19:10
Cytat: Troll81 w 07 Sierpień 2009, 10:57
:D

Jak już zakończycie pisanie poradnika to wrzućcie go w formie arta na WIKI :D

Jak zakoncze, to moge dac Ci znac i mozesz wrzucac.

1. Ja tego nie zrobie bo sie na tym nie znam i nie zamierzam tracic czasu na nauke kolejnej technologii, skoro dotychczasowa sie sprawdza.
2. Poradnik nigdy sie nie skonczy - bedzie juz zawsze koniecznosc ciaglej aktualizacji danych i rozbudowy poradnika.


Cytat: sesef w 07 Sierpień 2009, 11:13
Co do poradnika, do oficjalnych sterów zalecam dodanie wersji 9.7 (...)

Dzieki za wartosciowe info :). Zrobie to tak szybko, jak tylko bede mial czas, obecnie goszcze u siebie rodzicow, brata i siostre z rodzina, a z niektorymi z Nich nie widzialem sie kilka lat. Prosze o cierpliwosc.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 07 Sierpień 2009, 19:21
Cytat: sesef w 07 Sierpień 2009, 11:25
Sprawdzałeś z wyższym avg_cpu? na 0.7 0.8 1.0? Mi na win7 x64 sterownik sypie się w 1 miejscu jak próbuje wejść do CCC, dlatego wywaliłem to w ciortu i używam RivaTuner. I oczywiście przed instalacja 9.7 trzeba odinstalować 9.5 + reset kompa bo nakładanie sterów często kończy się nie ciekawie.
Przy instalacji 9.7 koniecznie wywalić wpierw stare stery zrobić reset kompa i dopiero instalować 9.7
Jak stery są zainstalowane poprawnie to mamy coś takiego: CAL Runtime: 1.4.344
1. Sterów starych nie wywalałem, bo żadnych wcześniejszych nie miałem.

2. Podnosząc avg_cpu najpierw dochodzę do n=1, a później muszę zająć kolejne CPU...

Chwilowo Win7 nie uwiódł mnie, a aplikacje 64b są rzadkością. Dodatkowo dochodzą kłopoty ze współpracą z routerami, więc pewnie dziś spróbuję zainstalować pierwszego w życiu Linuksa. Oba systemu są dla mnie równie "nieprzyjazne", więc co za różnica. Jak i Linuks mnie nie przekona, to powrócę do wspaniałego WinXP i będzie spokój. Wszystko będzie chodzić i już.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 07 Sierpień 2009, 21:20
polecam XP64bit :D mam i chwalę sobie :D
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 07 Sierpień 2009, 23:43
Cytat: Troll81 w 07 Sierpień 2009, 21:20
polecam XP64bit :D mam i chwalę sobie :D

Broń Boże od tego systemu to już wole Viste, albo Server 2003/2005/2008.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 08 Sierpień 2009, 00:51
ja mam i nie narzekam :D wsio mi hula :D gry filmy net. nawet specjalnego problemu ze sterownikami nie miałem... W przeciwieństwie do wiśty...
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 08 Sierpień 2009, 01:21
Cytat: Troll81 w 08 Sierpień 2009, 00:51
ja mam i nie narzekam :D wsio mi hula :D gry filmy net. nawet specjalnego problemu ze sterownikami nie miałem... W przeciwieństwie do wiśty...

Ja tez potwierdzam ze wole XPx64 niz zViste czy Wzjeben. XPx64 byl po protu o wiele, wiele lepszy, stabilniejszy, mniej klopotliwy w obsludze. Szkoda ze nie jest wspierany jak nalezy. No ale skoro mamy producentow idiotow latwo poddajacych sie naciskom ze strony M$... Za duzo matolow na swiecie :(.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 11 Sierpień 2009, 22:09
Mam pytanie "poradnikowe" w sprawie kart ATI. Tutaj http://techreport.com/articles.x/16820/4 jest ciekawe porównanie wydajności kart NV i ATI. Dla singli zestawienie jest kompletne, ale dla double dane dotyczą tylko NV. Niestety wcześniej w tym wątku przytaczane dane nie obejmują "mojej" 4770.

W sumie nie do końca jestem przekonany czy podawać w app tę wydajność czy też nie, ale z biegiem czasu pewnie będzie do czegoś potrzebna. Po podstawieniu danych do przytoczonego wzoru (640/ 320) * (1+((750 - 668)/668)) uzyskuję... 2.25. Dla 4850 otrzymuję 2,34. Czy to oznacza, że w double 4850 ma 200 GFlopsów a 4770 192,3 GFlopsa? Czy tak mam to interpretować?
W efekcie zalecenia dotyczące flopsów różnią się o parę rzędów wielkości - ma tam być wydajność w singlach czy doublach? A nawet w singlach to byłoby chyba 1.0e9?

Proszę biegłych obliczeniowców o rozjaśnienie tych kwestii.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 12 Sierpień 2009, 00:28
Poradnik zaktualizowano o uwagi `OOSsf - spolka z nieograniczona nieodpowiedzialnoscia` XP, oraz przygotowanie sterow do Milky dla XPx64.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 12 Sierpień 2009, 01:47
Podaje nowe wiesci.

OOSsf - zrobili wałka (przez przypadek o ok 2 w nocy- zmeczenie materiału) na sterownikach. Przyspieszenie ładowania do GPU oraz samo liczenie - zwrost o ok 10%.

System Vista64bit, HD4870x2

Instalujemy albo zostawiamy stery 9.5 tylko wrzucamy do System32 i SysWOW64 pliki ati(amd)cal*.dll z serii 9.7
Tak proste i tak głupie ze nikt nie wpadł na taki pomysł...
http://www.speedyshare.com/538283471.html (http://www.speedyshare.com/538283471.html)  stery 9.7

co do ustawien app_info musicie poczekac albo sami dzialac, narazie testujemy...

Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 12 Sierpień 2009, 02:05
Właśnie przed chwilą patrzyłem na Twoje czasy przeliczania próbek i się zastanawiałem skąd jest ok 7 sek różnicy do momentu aż zlukałem CAL Runtime: 1.4.344 (stery 9,7).
Jutro i ja potestuję  :), bo przy ostatniej podmianie coś mi nie chciało to działać na BOINC 6.5.0 Crunch3ra.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Peciak w 12 Sierpień 2009, 15:36
Mam taki problem sprzęt który posiadam to AMD Phenom II 4 jądra oraz Radeon 4850 system Vista 64 menadżer Boinc 6.6.36. Po wielu próbach i czytaniu poradników mądrych ludzi z tego forum udało mi się skonfigurować prace stabilna na tej karcie graficznej Milki. I tu się pojawia problem gdy ustawione mam inne projekty 4 + Milka to karta tak szybko pomyka przerabia zadania (ok.90 sek) że włączają się inne projekty na procku (w czasie zasysania Mili) i karta w efekcie stoi do momentu aż zwolni się jedno jądro procka. Gdy ustawie tylko Milkę to w zasadzie nie pracuje procesor (1-3%). Próbowałem ustawić w menadżerze  szybkie przełączanie się pomiędzy projektami 5 minut -  niby działa ale to tylko półśrodek. Reasumując czy wie ktoś jak ustawić aplikację lub BAM aby ustawić stałe dzianie 1x milka (GPU) + 3x inne aplikacje(CPU) lub 2xMilka (GPU) + 2 x inne aplikacje (CPU)

Pytanie umieszczam w poradniku bo jezeli ktos zna odpowiedź i ja tu zasygnalizuje to siła rzeczy wiązać bedzie sie to z liczeniem na GPU
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 12 Sierpień 2009, 15:54
Nie uda Ci sie rozwiazac tego problemu standardowymi sposobami (takimi jakimi probowales). Jesli chcesz liczyc Milky efektywnie, to musisz miec w BM zapiete tylko Milky i nic innego. Jesli chcesz rowniez liczyc inne projekty na CPU, to musisz odpalic drugiego klienta rownolegle, ktory bedzie sie zajmowal tylko CPU. Poczytaj o projekcie FreeHAL i o klientach HAL`owych - tam znajdziesz odpowiedzi i rozwiazanie problemu.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 12 Sierpień 2009, 16:02
http://calbe.dw70.de/mb/viewtopic.php?f=3&t=113
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 12 Sierpień 2009, 18:06
Z powodzeniem można zastosować wersję BOINC Crunch3ra do której link podał Oxy.
Od kilku dni na tym działam i spokojnie liczę sobie jednocześnie Milkę i inne projekty na CPU i nieprzeskadzają one sobie wzajemnie.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 12 Sierpień 2009, 19:25
Cytat: OxyOne w 12 Sierpień 2009, 01:47
Podaje nowe wiesci.

OOSsf - zrobili wałka (przez przypadek o ok 2 w nocy- zmeczenie materiału) na sterownikach. Przyspieszenie ładowania do GPU oraz samo liczenie - zwrost o ok 10%.


No i operacja się udała (ślepej kiszce przywrócono wzrok). Po zainstalowaniu sterów 9.7 u mnie wzrost szybkości w Milce ok 5,5%. Niby nie dużo a cieszy  :).
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 15 Sierpień 2009, 02:57
Nowe stery Catalyst 9.8 (CAL Runtime: 1.4.368)

Z wstępnych testów brak przyspieszenia czasowego na moim kompie, u Oxy też ale tam się jakieś cuda dzieją :D teraz badam stabilność tych sterów jak i samego liczenia przy ocowanej karcie na 855 mhz.

Jakby ktoś chciał sobie pokombinować potrzebne pliki do podmiany jak przy 9.7 http://www.speedyshare.com/622729438.html (pamiętać żeby zrobić kopie starych)

AiDec przejrzałem jeszcze raz poradnik brakuje jednej dość ważnej rzeczy:

Przy podłączaniu wielu kart należy połączyć je mostkiem CrossFire oraz sprawdzić w Catalyst Control Center czy opcja CrossFire jest włączone (domyślnie powinna być włączona jak się zepnie karty mostkiem)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 15 Sierpień 2009, 03:06
Właśnie! I napiszcie jeszcze, gdzie można to CF nabyć, skoro w moich boxach kupowanych w esc.pl jakoś ich nie było.
:wth:
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 15 Sierpień 2009, 03:16
Cytat: 7NBI_Zarecki Robert w 15 Sierpień 2009, 03:06
Właśnie! I napiszcie jeszcze, gdzie można to CF nabyć, skoro w moich boxach kupowanych w esc.pl jakoś ich nie było.
:wth:

A z płyta nie dostałeś? Takie rzeczy głównie dają z płytami głównymi które mają więcej niż 1 PCIex, z grafami rzadko kiedy dają mostki a jak już dają to do droższych kart.

Mostek można nabyć chociażby tutaj: http://www.komputronik.pl/index.php/product/36996/Podzespoly-PC/Plyty-glowne/HiS_CrossFire_Bridge.html Popytaj w sklepach komputerowych u siebie w mieście możę będą mieli na zbyciu za free albo za grosze bo ten z kompuszrotnika to trochę drogi.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 15 Sierpień 2009, 03:30
Płyty też nie miały, choć obie mają po 2 PCI-E... pewnie dlatego, że są niezbyt wyszukane cenowo. Super dzięki za linka do Komputronika. Jeszcze jedno pytanie, abym nie walnął babola - dla dwóch kart potrzebuję jedno takie złącze, czy aż dwa?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 15 Sierpień 2009, 03:35
Cytat: 7NBI_Zarecki Robert w 15 Sierpień 2009, 03:30
Płyty też nie miały, choć obie mają po 2 PCI-E... pewnie dlatego, że są niezbyt wyszukane cenowo. Super dzięki za linka do Komputronika. Jeszcze jedno pytanie, abym nie walnął babola - dla dwóch kart potrzebuję jedno takie złącze, czy aż dwa?

Jeden starczy, niby ludzie nie raz montują po 2 ale w naszym wypadku wystarczy 1 karty między sobą nic nie będą przesyłać praktycznie. Co do płyt dziwne bo teraz w większości nawet tych tańszych modeli dają co najmniej 1 mostek.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 15 Sierpień 2009, 03:36
karta u mnie juz działa stabilnie znaczy działała tylko widnialo nadal 1.4.344 zamiast 1.4.368

Pliki jakie sa potrzebne do Visty64 to:

amdcalrt64.dll
amdcalcl64.dll
aticaldd64.dll
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: gielo w 15 Sierpień 2009, 12:16
takie pytanko. Posiadam Nvidia GT 9400GT 1GB chodzi to pod debianem

Czy aby liczyć w grid wystarczy wybrać ten projekt czy trzeba jeszcze coś doinstalowywać, zmieniać ?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Tomasz R. Gwiazda w 15 Sierpień 2009, 12:19
to jest NV to podpinasz i jedziesz bez kombinowania :)

Oczywiscie warto miec stery nowe dla karty i do CUDA
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: gielo w 15 Sierpień 2009, 12:35
Stery mam najnowsze a CUDA jak wyczytałem są pod linuxem w pakiecie ze sterownikami od nvidia więc chyba wsio powinno być oki. Dzięki za info.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 15 Sierpień 2009, 21:21
Cytat: sesef w 15 Sierpień 2009, 02:57
Nowe stery Catalyst 9.8 (CAL Runtime: 1.4.368)

Jakby ktoś chciał sobie pokombinować potrzebne pliki do podmiany jak przy 9.7 http://www.speedyshare.com/622729438.html (pamiętać żeby zrobić kopie starych)
Sesef, a dlaczego pliki w obu katalogach różnią się wielkością? To babol, czy tak teraz ma być?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 15 Sierpień 2009, 22:26
Cytat: 7NBI_Zarecki Robert w 15 Sierpień 2009, 21:21
Cytat: sesef w 15 Sierpień 2009, 02:57
Nowe stery Catalyst 9.8 (CAL Runtime: 1.4.368)

Jakby ktoś chciał sobie pokombinować potrzebne pliki do podmiany jak przy 9.7 http://www.speedyshare.com/622729438.html (pamiętać żeby zrobić kopie starych)
Sesef, a dlaczego pliki w obu katalogach różnią się wielkością? To babol, czy tak teraz ma być?

Tak ma być tylko w system32 musisz nazwy pozmieniać na takie jak podał OxyOne czyli amdcaldd64.dll trzeba zmienić na aticaldd64.dll i dopiero wrzucić. Zapomniałem dodać jest to wersja pod x64 Vista/7

U mnie jakby 9.8 poprawiły trochę stabilność gpu, bo przez pół meczu Polska-Słowacja gpu bez problemów chodziło na 900 mhz jak mecz się skończył zacząłem trochę grzebać w windzie i niestety padł sterownik widać areo i milka nie wytrzymały razem.

I ten Win7 build 7100 nie jest najlepszym wyborem bo to pomimo, że RC to dość mocno zbugowana wersja, między 7100 a 7264, którego ja używam można powiedzieć, że jest przepaść.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: X X X w 15 Sierpień 2009, 22:33
W uzupełnieniu Poradnika...

Zalecane do WinXP stery 8.12 nie rozpoznają karty ATI R4770. Z konieczności trzeba instalować nowsze stery.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: satanetv w 19 Sierpień 2009, 23:41
Cytat: AiDec w 23 Grudzień 2008, 10:19
Już poprawione. Chodzi oczywiście o Milkę.


Poradnik dla XP32 i sterow 8.12:

2. Wyszukac pliki atical* (beda to pliki: aticalrt.dll, aticalcl.dll i aticaldd.dll)
3. Skopiowac je np. na pulpit.
4. Zmienic trzy pierwsze litery w nazwach plikow z ati na amd (powstana zatem: amdcalrt.dll, amdcalcl.dll i amdcaldd.dll).
5. Zmienione pliki skopiowac z powrotem, do folderu w ktorym byly pliki atical*.dll.


Poradnik dla Vistax64 i W7x64, przy uzyciu sterow 9.5Vistax64:


2. Wyszukac pliki atical* - moze byc ich calkiem sporo, nas interesuja pliki: aticalrt.dll, aticalcl.dll, aticaldd.dll oraz pliki systemu x64: aticalrt64.dll, aticalcl64.dll, aticaldd64.dll.
3. Skopiowac je np. na pulpit.
4. Zmienic trzy pierwsze litery w nazwach plikow z ati na amd (powstana zatem: amdcalrt.dll, amdcalcl.dll, amdcaldd.dll, amdcalrt64.dll, amdcalcl64.dll, amdcaldd64.dll).
5. Wszystkie szesc plikow skopiowac do dwoch folderow: ~Windows/System32 i do ~Windows/SysWOW64 (domyslnie bedzie to C:/Windows/System32 i C:/Windows/SysWOW64).

Poradnik dla XPx64 i sterow 8.12:

Skoro juz wiecie jak `zadzialac` stery pod XP32 i wiecie tez jak to zrobic dla W7x64/Vistax64, to wystarczy ze polaczycie ta wiedze i wiecie jak to zrobic dla XPx64 Smiley. Dlatego ze sa to pliki z systemow x64, znajdujace sie w lokacji WinXP Smiley. Pliki znajduja sie (jak to w Xp-ku) w C:/ATI i jest to te szesc plikow z systemow x64 (3 pliki x32 i 3 pliki x64). Duplikacja plikow, zmiana nazw, restart i jedziemy Smiley.


Instalowałem kartę na X P 32 i X P 64 i ani w jednym przypadku ani w drugim nie robiłem tego i wszystko mi chodzi dobrze. A nazwy plików mam nie zmienione bo sprawdziłem. Więc czemu trzeba to zmieniać i robić zdublowane pliki z inną nazwą ??
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 19 Sierpień 2009, 23:44
Cytat: satanetv w 19 Sierpień 2009, 23:41
Cytat: AiDec w 23 Grudzień 2008, 10:19
Poradnik dla wlascicieli kart Nvidia dla projektu GPUGrid:


Poradnik dla XP32 i sterow 8.12:

2. Wyszukac pliki atical* (beda to pliki: aticalrt.dll, aticalcl.dll i aticaldd.dll)
3. Skopiowac je np. na pulpit.
4. Zmienic trzy pierwsze litery w nazwach plikow z ati na amd (powstana zatem: amdcalrt.dll, amdcalcl.dll i amdcaldd.dll).
5. Zmienione pliki skopiowac z powrotem, do folderu w ktorym byly pliki atical*.dll.


Poradnik dla Vistax64 i W7x64, przy uzyciu sterow 9.5Vistax64:


2. Wyszukac pliki atical* - moze byc ich calkiem sporo, nas interesuja pliki: aticalrt.dll, aticalcl.dll, aticaldd.dll oraz pliki systemu x64: aticalrt64.dll, aticalcl64.dll, aticaldd64.dll.
3. Skopiowac je np. na pulpit.
4. Zmienic trzy pierwsze litery w nazwach plikow z ati na amd (powstana zatem: amdcalrt.dll, amdcalcl.dll, amdcaldd.dll, amdcalrt64.dll, amdcalcl64.dll, amdcaldd64.dll).
5. Wszystkie szesc plikow skopiowac do dwoch folderow: ~Windows/System32 i do ~Windows/SysWOW64 (domyslnie bedzie to C:/Windows/System32 i C:/Windows/SysWOW64).

Poradnik dla XPx64 i sterow 8.12:

Skoro juz wiecie jak `zadzialac` stery pod XP32 i wiecie tez jak to zrobic dla W7x64/Vistax64, to wystarczy ze polaczycie ta wiedze i wiecie jak to zrobic dla XPx64 Smiley. Dlatego ze sa to pliki z systemow x64, znajdujace sie w lokacji WinXP Smiley. Pliki znajduja sie (jak to w Xp-ku) w C:/ATI i jest to te szesc plikow z systemow x64 (3 pliki x32 i 3 pliki x64). Duplikacja plikow, zmiana nazw, restart i jedziemy Smiley.


Instalowałem kartę na X P 32 i X P 64 i ani w jednym przypadku ani w drugim nie robiłem tego i wszystko mi chodzi dobrze. A nazwy plików mam nie zmienione bo sprawdziłem. Więc czemu trzeba to zmieniać i robić zdublowane pliki z inną nazwą ??


Bo to jest poradnik dla kart NV a opis do ATI
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: satanetv w 19 Sierpień 2009, 23:47
Źle skopiowałem. Chodzi mi oczywiście o milkę i ATI
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 20 Sierpień 2009, 00:14
Cytat: satanetv w 19 Sierpień 2009, 23:47
Źle skopiowałem. Chodzi mi oczywiście o milkę i ATI

stery 8.12?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: satanetv w 20 Sierpień 2009, 00:17
Tak 8.12 zarówno pod 32 jak i 64
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 20 Sierpień 2009, 00:19
Cytat: sesef w 20 Sierpień 2009, 00:14
Cytat: satanetv w 19 Sierpień 2009, 23:47
Źle skopiowałem. Chodzi mi oczywiście o milkę i ATI

stery 8.12?

No to są podobno te rekomendowane, ale ja ich nawet na oczy nie widziałem, a teraz na 9,7 śmigam i przy podkręceniu 4870x2 do 850MHz można z karty wycisnąć 200k na dobę  :).
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 20 Sierpień 2009, 00:36
Cytat: satanetv w 20 Sierpień 2009, 00:17
Tak 8.12 zarówno pod 32 jak i 64

Przy 8.12 nie trzeba nic zmieniać, dlatego działa :)

Cytat: TRZECIAK w 20 Sierpień 2009, 00:19
Cytat: sesef w 20 Sierpień 2009, 00:14
Cytat: satanetv w 19 Sierpień 2009, 23:47
Źle skopiowałem. Chodzi mi oczywiście o milkę i ATI

stery 8.12?

No to są podobno te rekomendowane, ale ja ich nawet na oczy nie widziałem, a teraz na 9,7 śmigam i przy podkręceniu 4870x2 do 850MHz można z karty wycisnąć 200k na dobę  :).

To widzę jakaś lepsiejsza sztuka u Oxy wyżej już sekcja zasilania siada, ty też lepiej poobserwuj tempy sekcji żebyś na dłuższa metę jej nie stopił.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 20 Sierpień 2009, 01:40
Cytat: sesef w 20 Sierpień 2009, 00:36
To widzę jakaś lepsiejsza sztuka u Oxy wyżej już sekcja zasilania siada, ty też lepiej poobserwuj tempy sekcji żebyś na dłuższa metę jej nie stopił.

Ja tą kartę mam zwodowaną więc pewnie dlatego. Temp max 73C na pamięciach i na zasilaniu, GPU kilka stopni niżej. Temp pewnie byłaby mniejsza gdyby nie to że CPU też liczy i też sporo podgrzewa wodę (myślę że conajmniej 8-10C mniej gdyby CPU nie liczył).
Niestety na wyścig Prime takty standardowe bo CPU za mocno wodę grzeje i zwis miałem.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: sesef w 20 Sierpień 2009, 01:44
Cytat: TRZECIAK w 20 Sierpień 2009, 01:40
Cytat: sesef w 20 Sierpień 2009, 00:36
To widzę jakaś lepsiejsza sztuka u Oxy wyżej już sekcja zasilania siada, ty też lepiej poobserwuj tempy sekcji żebyś na dłuższa metę jej nie stopił.

Ja tą kartę mam zwodowaną więc pewnie dlatego. Temp max 73C na pamięciach, GPU kilka stopni niżej. Temp pewnie byłaby mniejsza gdyby nie to że CPU też liczy i też sporo podgrzewa wodę (myślę że conajmniej 8-10C mniej gdyby CPU nie liczył).
Niestety na wyścig Prime takty standardowe bo CPU za mocno wodę grzeje i zwis miałem.

Posprawdzaj w GPU-Z czy rt z tego co Oxy mówił powinieneś mieć coś takiego jak Phase temp i to jest najważniejsze.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: TRZECIAK w 20 Sierpień 2009, 01:47
Dopisałem do poprzedniego posta. Tempy sekcji zasilania na poziomie temp pamięci.
Karta chodzi stabilnie (14h więcej nie testowałem i obniżyłem na 840 dla pewności że nie zwiśnie w nocy) na 850 na 860 wywala się sterownik po 2-3h.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 20 Sierpień 2009, 02:23
Cytat: TRZECIAK w 20 Sierpień 2009, 01:47
Dopisałem do poprzedniego posta. Tempy sekcji zasilania na poziomie temp pamięci.
Karta chodzi stabilnie (14h więcej nie testowałem i obniżyłem na 840 dla pewności że nie zwiśnie w nocy) na 850 na 860 wywala się sterownik po 2-3h.


To sekcja zasilania pada, grzeje sie i wstrzymuje a co za tym idzie - masz zwis, restart, niebieski blog Billa. Na wodzie jak jedziesz to sprawdzaj prze wszystkim fazy zasilania i zwieksz sobie papu z 1.25 na 1.35 - wiekszy stabilnosc i OC
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 20 Sierpień 2009, 08:00
Na 8.12 nic nie trzeba zmieniac, ale zostawilem jak jest - niech chlopaki cwicza XP.


Cytat: sesef w 20 Sierpień 2009, 00:36
To widzę jakaś lepsiejsza sztuka u Oxy wyżej już sekcja zasilania siada, ty też lepiej poobserwuj tempy sekcji żebyś na dłuższa metę jej nie stopił.

Moze niekoniecznie lepsza. Pamietaj ze Trzeciak ma jedna 4870x2, a OxyOne dwie i to moze byc cala roznica.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: gielo w 09 Wrzesień 2009, 19:29
Do dzisiaj miałem problem z cuda pod linuksem. Nie liczyło na GPU, pokazały się nowe aplikacje boinc wraz z plikiem sterownika cudart więc jeżeli ktoś miał taki sam problem powinien je zaktualizować mimo że pisze iż jest to niestabilna wersja. u mnie po aktualizacji raptem zaczęło liczyć na GPU  ::) Toż to istne cuda z tym CUDART
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Azgheros w 21 Grudzień 2009, 11:53
Zainstalowałem sobie Windows 7 64 bit, najnowszy manager Boinc (6.10.18 pod 64 bit), najnowsze stery Nvidii z dołączonym CUDA (195.62) i .... nie działa. Manager nie widzi GPU (podczas uruchamiania jest informacja no usable GPUs). Pod Vistą wszystko normalnie funkcjonowało, nie musiałem cudować (mam kartę 9600GT). Ma ktoś pomysł co mam zrobić, aby GPU funkcjonowało?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: OxyOne w 21 Grudzień 2009, 14:25
Sprawdz czy masz ustawione:

Zaawansowane - Preferencje lokalne - Użycie procesora

zaznacz:

kiedy komputer jest w uzyciu
używaj także procesora karty graficznej kiedy komputer jest w uzyciu

moze cos to pomoze


mozesz sie pokuscic o zainstalowanie sterów z visty... ale sie wczesniej spytaj AiDeca on jest od cudów na cudach.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 22 Grudzień 2009, 01:16
Juz nie :( - niestety z braku czasu sam nie jestem w temacie :(
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: S6X w 22 Grudzień 2009, 11:37
Może instalowałeś jakieś optymalizacje na cpu i przez to nie widzi gpu?
Pamiętaj że przy instalacji bonic należy odznaczyć "Protected application execution" żeby cuda działała.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Azgheros w 22 Grudzień 2009, 14:25
S6X - masz rację - szkoda, że zajrzałem tutaj dziś zanim napisałeś tą odpowiedź, niepotrzebnie straciłem sporo czasu, szukając rozwiązania - które wreszcie znalazłem i chciałem tutaj zapodać - ale mnie ubiegłeś. Więc jesli ktoś będzie miał ten sam problem czyli komunikat "no usable GPUs" pod windowsem nowszsym niż XP - to należy ponownie zainstalować managera ale po uprzednim odhaczeniu opcji "Protected application execution". Dzięki za pomoc.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Tomasz R. Gwiazda w 04 Styczeń 2010, 21:50
pytanko

karta HD5870 ma tam jakas wydajnosc
wsadzamy 2xhd5870 do kompa i mamy dwie mozliwosci, laczyc je przez crossfire lub nie

pytanie: czy jak nie sa polaczone to Boinc (+optymalka Milky, widzi 2xGPU) tak ?
pytanie2: jak sie polaczy je przez crossfire, to jest widziana jako 1xGPU ale o wydajnosci 2xGPU ?


ogolnie lepiej laczyc przez crossfire czy nie ? :) (w kontekscie dojnosci punktowej)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 05 Styczeń 2010, 09:59
Cytat: Tomasz R. Gwiazda w 04 Styczeń 2010, 21:50
pytanko

karta HD5870 ma tam jakas wydajnosc
wsadzamy 2xhd5870 do kompa i mamy dwie mozliwosci, laczyc je przez crossfire lub nie

pytanie: czy jak nie sa polaczone to Boinc (+optymalka Milky, widzi 2xGPU) tak ?
pytanie2: jak sie polaczy je przez crossfire, to jest widziana jako 1xGPU ale o wydajnosci 2xGPU ?


ogolnie lepiej laczyc przez crossfire czy nie ? :) (w kontekscie dojnosci punktowej)


Dopoki nie wypowie sie ktos znajacy sie lepiej na temacie, odpowiem `na szybko`:

`czy jak nie sa polaczone to Boinc (+optymalka Milky, widzi 2xGPU) tak ?` - chyba wtedy widzi tylko jedno GPU (to pierwsze), ale nie jestem calkowicie pewien.

`jak sie polaczy je przez crossfire, to jest widziana jako 1xGPU ale o wydajnosci 2xGPU ?` - nie, sa widziane 2 GPU.

`ogolnie lepiej laczyc przez crossfire czy nie ? :) (w kontekscie dojnosci punktowej)` - na podstawie powyzszych informacji, zdecydowanie lepiej laczyc.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: ksysju w 05 Styczeń 2010, 16:21
Hi

Mogę potwierdzić, że bez crossfire boinc widzi jedną kartę, choć wedle dokumentacji boinca powinien widzieć wszystkie (przy multi_gpu 1 w opcjach) . 
Z crossfire są widoczne obie (więcej nie mam jak sprawdzić, ale podobno 3 komuś też ruszyły).
Ważne by na wszystkich kartach było obciążenie monitorem (lub rezystorami zamiast niego :-) ), inaczej windows uznaje, że nie warto jej włączać.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Joe_Novack w 11 Maj 2010, 01:37
Mam karcioszkę HD4850 od AMD i chciałem trochę nią podgonić liczenie, jak sprawdzić czy GPU pomaga w liczeniu, sterowniki i GPU niby dobre pod to zadanie.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: pszyklejony w 11 Maj 2010, 03:21
Włączyłeś GPU w swoim koncie na stronie projektu i w menedżerze?
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Tomasz R. Gwiazda w 11 Maj 2010, 08:32
Joe_Novack: Normalnie :)

Klient Boinc, w miare aktualne sterowniki, i podlaczasz kompa do projektu ktory wykozysta karte ATI: Milkyway, Collatz, inne
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 11 Maj 2010, 10:10
Witamy na forum i zapraszamy do działu wizytówek...
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Joe_Novack w 11 Maj 2010, 17:07
Projekt w jakim pomagam liczyć to Milkyway więc mój Radeon raczej się do tego nadaje, ale jak sprawdzam jego temperaturę programem GPU-Z to nie rośnie po włączeniu BOINC'a. Gdzie to się włącza, mam najnowszego klienta BOINC i jestem w BAMie :D (sterowniki AMD 8.632.1.2000).
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Troll81 w 11 Maj 2010, 17:51
Sprawdź na stronie projektu. Zaloguj się tam na swoje konto i zobacz czy masz zaznaczone by używał GPU i wysyłał ci te zadania. Sprawdź w ustawieniach BOINC managera czy masz zaznaczone by używał gpu

i co najważniejsze sprawdź czy przy włączaniu BOINC wykrywa twoją kartę

w wiadomościach powinno się ukazać

Cytat2010-05-10 23:48:23      ATI GPU 0: ATI Radeon HD 4700/4800 (RV740/RV770) (CAL version 1.4.515, 512MB, 960 GFLOPS peak)
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Mori w 11 Maj 2010, 19:17
Sterowniki w wersji 8.6? To nie za stare? Zaktualizuj sobie to wszystko do 10.3/10.4.

No i sprawdź Zaawansowane -> Preferencje lokalne -- tam będzie, kiedy on będzie używał GPU. Spróbuj zaznaczyć, by używał GPU także, gdy komputer jest w użyciu i zobacz, czy wtedy temperatura karty się nie zmienia.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 12 Maj 2010, 08:41
Cytat: Joe_Novack w 11 Maj 2010, 17:07
(...)ale jak sprawdzam jego temperaturę programem GPU-Z to nie rośnie po włączeniu BOINC'a. (...)

Jesli nie jestes w stanie sprawdzic temperatury za pomoca GPU-Z, to skorzystaj z RivaTuner ( http://downloads.guru3d.com/RivaTuner-v2.09-download-163.html ), lub MSI AfterBurner ( http://downloads.guru3d.com/MSI-AfterBurner-download-2392.html ). Za pomocy obydwu, mozesz monitorowac temperature, GPU load, napiecia zasilania, jak rowniez podkrecac zegary, a MSI AfterBurner dodatkowo umozliwia zwiekszenie napiecia zasilajacego rdzen grafy.

Btw, na codzien korzystam z obu progsow, a za pomoca MSI A wykrecalem lepsze wyniki niz spece z portali testujacych sprzet.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: apohawk w 12 Maj 2010, 09:13
Cytat: Mori w 11 Maj 2010, 19:17
Sterowniki w wersji 8.6? To nie za stare? Zaktualizuj sobie to wszystko do 10.3/10.4.
Nie, nie, nie. On podał numerację windowsową 8.632.1.2000. Przekłada to się na catalysta ok. 10.1.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Joe_Novack w 14 Maj 2010, 11:38
Ok wszystko już smiga jak powinno, dzięki za pomoc, oczywiście dopisałem się do BOINC@Poland. Grafikę kręcę programem ATI Tray Tools.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: tantal w 06 Czerwiec 2010, 13:36
Witam wszystkich, to mój pierwszy post. Postanowiłem znowu się pobawić w BOINC po kilkuletniej przerwie.

Mam problem z liczeniem milkyway przez gpu. Obecnie przeliczanie trwa jakieś 7h. W wiadomościach mam informację "no usable gpu found".
Moja knofiguracja W7x64, catalyst 10.5 (na 10.4 też nie działało), hd4850, najnowszy boinc (6.10.56). Nie mam pojęcia jak włączyć tą grafę. Liczę na waszą pomoc :)
Dzięki.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Tomasz R. Gwiazda w 06 Czerwiec 2010, 13:39
po pierwsze jaki projekt chcesz liczyc ??
po drugie na stronie projektu wypadaloby zaznaczyc ze chcesz liczyc probki GPU

4850 jak najbardzie liczy MW, Colllatz, DNET  a czas 7h to raczej nie odnosi sie do obliczen GPU
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: tantal w 06 Czerwiec 2010, 14:16
Zaznaczyłem że chcę GPU, ale miałem też zaznaczone żeby liczyć za pomocą CPU (właśnie to odznaczyłem).
Czy to oznacza że pobrały mi się wu tylko dla cpu?

Aha, no i cały czas mam w wiadomościach info że nie wykrywa karty graficznej.
2010-06-06 14:11:32      No usable GPUs found

p.s.
na gpu liczę tylk milky way
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Can-D w 06 Czerwiec 2010, 14:22
Nie instaluj boinca jako usługi,to będzie działać.

Cytat: S6X w 22 Grudzień 2009, 11:37
Pamiętaj że przy instalacji bonic należy odznaczyć "Protected application execution" żeby...
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: apohawk w 06 Czerwiec 2010, 14:38
Dokładnie tak. Też to przerabiałem. boinc musi działać na koncie zalogowanego użytkownika, żeby widzieć GPU pod vistą i win7. Smutne, ale prawdziwe.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: tantal w 06 Czerwiec 2010, 14:55
Nie rozumiem. Przy instalacji nie ma żadnej opcji "Protected application execution".

Mam jedno konto widowsie, administratora. Wszystko robię z niego.

edit:
przeinstalowałem, rzeczywiście była tam ww opcja.
wykryło mi kartę
2010-06-06 16:37:25      ATI GPU 0: ATI Radeon HD 4700/4800 (RV740/RV770) (CAL version 1.4.636, 512MB, 1056 GFLOPS peak)
ale nadal jej nie używa
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: pszyklejony w 06 Czerwiec 2010, 17:00
BM, zaawansowane, preferencje lokalne, zaznaczyć - używaj także procesora karty. Na stronie projektu w koncie też.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: tantal w 06 Czerwiec 2010, 17:14
W boinc mam zaznaczone - używaj także procesora karty...

W ustawieniach projektu:
Use CPU
(enforced by 6.10+ clients)   no

Use ATI GPU if present
(enforced by 6.10+ clients)   yes
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: Can-D w 06 Czerwiec 2010, 17:25
Milka narazie nie ma żadnych wu - spróbuj Colla lub Denatki.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: tantal w 06 Czerwiec 2010, 18:38
Collatz działa, czyli wszystko ok. Widocznie te milki co pobrałem wcześniej były tylko cpu. Dzięki.
Tytuł: Odp: Poradnik
Wiadomość wysłana przez: AiDec w 21 Czerwiec 2010, 08:53
Jeden z naszych liczydlowych zadal mi na PM pytanie, na ktore odpowiem publicznie. Dla potomnych ;).


Cytat
Milke da się poustawiać tak, aby na kliencie 6.10.18 liczył na wgranych opto tak jak na domyślnej aplikacji? tzn 4+1?

a). Przede wszystkim, optymalizacja zawiera dokladnie ta sama aplikacje liczaca, co aplikacja domyslnie sciagana z projektu przez BM. Zatem nie jest to stricte optymalizacja.

b). `Optymalizacja` rozni sie tym (od zwyklej app) ze zawiera plik konfiguracyjny, umozliwiajacy zmiane ustawien aplikacji liczacej (zmiane sposobu liczenia/obciazenia grafy itp.). Domyslne ustawienie `optymalizacji` jest identyczne z domyslna aplikacja, a zatem samo wgranie optymalizacji nic nie zmienia w sposobie liczenia.

c). Jesli cos zmieniliscie w konfigu, wystarczy ponownie wgrac (nadpisac) optymalizacje, dzieki czemu zostana przywrocone domysle ustawienia liczenia Milky.

d1). Za obciazenie procesora odpowiada linia <avg_ncpus>0.05</avg_ncpus>. Wartosc okresla jaka czesc jednego rdzenia ma zabrac sobie grafa na potrzeby liczenia Milky. Moze to byc 0,05 co bedzie skutkowalo na czterordzeniowcu liczeniem 4CPU+1GPU, mozna tez wpisac 1 w wyniku czego bedzie liczone 3CPU+1GPU, a cale jedno jajo zostanie przeznaczone na potrzeby grafy.

d2). Jesli macie grafe dwurdzeniowa (np. 4870x2), to wpisanie 1 na czterojajowcu bedzie skutkowalo liczeniem 2CPU+2GPU.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 17 Listopad 2011, 11:14
Zaraz na wiki puszczę małe zestawienie wydajności kart ATI

skupiłem się na stosunku gflopy/waty by w ten sposób ocenić która karta jest najbardziej opłacalna. Efekt krótki. 5970 miażdży

http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_ATI_11.2011 (http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_ATI_11.2011)
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: migawron w 17 Listopad 2011, 17:59
Tak czytam i czytam i się zastanawiam jak mógłbym optymalnie wykorzystać Nvidię 555m w moim lapku tak żeby jej nie zajeździć a naciułać w miarę dużo punktów. Jakieś sugestie co do projektów, ustawień itd? Obecnie liczy głównie GPUGRID, czasem pojedyncze milki, żeby przeciwdziałać przegrzewaniu obniżyłem taktowania shederów, pamięci i rdzenia w programie MSI Afterburner. W GPUGRID na luzie mieści się w terminach. Co możecie mi powiedzieć?
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 17 Listopad 2011, 18:43
PrimeGrid
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 17 Listopad 2011, 18:48
DistrRTgen nabija dużo punktów. Podobnie jak wspomniany już primegrid. Milkyway raczej się nie opłaca liczyć na nv, jezeli porównać wyniki uzyskiwane na podobnych cenowo radeonach to nv wypada kilka razy gorzej. Wg mnie lepiej zostawić ten projekt radeonom. Gpugrid punktuje lepiej jeżeli ustawisz liczenie tylko długich próbek (long runs). Ale nie wiem czy nie masz za wolnej karty na te próbki. U mnie liczą się 10-20h na gtx 560, u Ciebie może być nawet 3-4 razy więcej. Możesz też liczyć einsteina ale punktuje kiepsko.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Tomasz R. Gwiazda w 17 Listopad 2011, 18:54
Distrgen jesli karta daje rade :)
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: migawron w 17 Listopad 2011, 20:02
long runy przeliczyłem ze 2 sztuki, za jednego z nich dostałem ponad 50k pkt, ale fakt, liczył się kilkadziesiąt godzin (ale w terminie się zmieściło) A co do żywotności laptopowej karty? nie będzie problemów przy długotrwałym obciążeniu (słabsze chłodzenie)
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 17 Listopad 2011, 20:13
Oczywiście, że będzie. W stacjonarkach też  :) Jaką masz temperaturę gpu ?
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Tomasz R. Gwiazda w 17 Listopad 2011, 20:14
trzeba czyscic, podkladke moze jakas podwyzszajaca dac
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: migawron w 17 Listopad 2011, 21:56
MSI Afterburner pokazuje 67st przy 98% obciążenia, bez obniżania taktowania (z obniżonym jest ok 58st przy 98% obciążenia) Jeśli chodzi o podkładkę to nie jestem ich zwolennikiem, jeszcze nie trafiłem na taką która faktycznie spełniałaby swoją rolę w miarę dobrze, natomiast komp jest naturalnie "podwyższony" - 9 komorowa bateria "wystaje".

Czyszczenie - regularne, się wie :)

DistrRTgen włączony, zobaczymy jak to śmiga
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Szopler w 17 Listopad 2011, 22:10
Czyżby Dell XPS ?
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 17 Listopad 2011, 23:36
Te temperatury wyglądają na bardzo ładne. Nie mogę wprawdzie znaleźć zalecanych przez nvidię ale w innych chipach jest to zwykle 99 stopni. Przynajmniej w stacjonarkach. Nie masz się raczej czego obawiać jeżeli chodzi o temperaturę.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: migawron w 18 Listopad 2011, 00:14
tak jest, dell XPS, z 555m oraz i7 na pokładzie. (dokładne staty w podpisie z CPU-Z) swoją drogą jestem z niego bardzo zadowolony, Battlefield 3 i MW 3 śmigają na ultra :)

Zamierzam w weekend przetestować do na dłuższym dystansie, tak ze trzy doby non stop 8 wątków cpu + 1 gpu, zobaczymy jak to wyjdzie.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Pigu w 20 Listopad 2011, 11:35
Cytat: Troll81 w 17 Listopad 2011, 11:14
Zaraz na wiki puszczę małe zestawienie wydajności kart ATI

skupiłem się na stosunku gflopy/waty by w ten sposób ocenić która karta jest najbardziej opłacalna. Efekt krótki. 5970 miażdży

http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_ATI_11.2011 (http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_ATI_11.2011)
:respect:
na kolumnę dp tak/nie możemy liczyć?
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 20 Listopad 2011, 12:32
jak mi podasz gdzie ATI udostępnia takie zestawienie to chętnie dołączę :D
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: RAD-Poland w 20 Listopad 2011, 12:42
jako dp rozumiem Double-precision

http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units

dla HD 5xxx
http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units#Evergreen_series
dla HD 6xxx
http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units#Northern_Islands_.28HD_6xxx.29_series

dla starszych wersji niekompletna
dane dla nowej serii HD 7xxx obiecujące o ile się potwierdzą zwłaszcza GFLOPS/W
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 20 Listopad 2011, 13:24
http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_NV_11.2011 (http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_NV_11.2011)

zestawienie dla kart NV
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 20 Listopad 2011, 14:58
Brakuje gtx 560 (bez Ti)  ;)
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 20 Listopad 2011, 16:43
Bo miało dziwne dane w porównywarce GPU co uznałem za mozliwy błąd

560 - 269 GFlops - 150W
560Ti - 1263 GFlops - 170W

serio ta 560 jest taka marna? 6x mniejsze osiągi a aż takie zużycie prądu??
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 20 Listopad 2011, 17:57
ma 1088 gflops wg wiki. na pewno nie jest aż tak marna bo bym zauważył  ;) gtx 560 to 7/8 gtx'a 560 Ti
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: MarcinB w 20 Listopad 2011, 18:05
Cytat: Troll81 w 20 Listopad 2011, 13:24
http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_NV_11.2011 (http://www.boincatpoland.org/wiki/Zestawienie_wydajno%C5%9Bci_kart_NV_11.2011)

zestawienie dla kart NV
Można gdzieś wyciągnąć te zestawienia żeby był do nich łatwy dostęp? Przykleić w osobnym poście albo dać link na główną na przykład.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 20 Listopad 2011, 18:14
MOżna stworzyć newsa. Ale chciałbym aby ktoś zweryfikował te wyniki.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: simonic w 20 Listopad 2011, 21:13
Cytat: Troll81 w 20 Listopad 2011, 18:14
MOżna stworzyć newsa. Ale chciałbym aby ktoś zweryfikował te wyniki.

Dla GTS 450 manager BOINC wskazuje 472 Gfolps a nie tak jak pokazano w tym zestawieniu 601 :(.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: lolek w 20 Listopad 2011, 21:29
Jak miałem NV to menedżer też pokazywał zaniżone wyniki, na ATI wyświetlają się poprawnie.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 20 Listopad 2011, 22:36
W większości pokrywają się z danymi z
http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units
Porównywałem dość wybiórczo, tylko od gtx 2xx w górę. Jedyna róznica jaką zauważyłem jest w gtx 260 core 216
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 21 Listopad 2011, 10:00
Dane brałem z Benchmark.pl
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Bober w 23 Listopad 2011, 21:17
Tak przy okazji newslettera popatrzymałem sobie na obie tabelki i powiedzcie mi jedną rzecz - rzeczywiście jest aż taka przepaść w parametrze Gflops/Watt między NV a Ati? Najlepsza Ati w zestawieniu jest aż o tyle lepsza od najlepszej NV z zestawienia NV, czy tam po prostu jakieś się nie znalazły?
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: phobos w 23 Listopad 2011, 21:34
Tak, rzeczywiście jest taka przepaść. Inna architektura. W generowaniu grafiki nvidia nawet jest trochę do przodu w topowej karcie, ale teoretyczną wydajnosć obliczeniową mają niższą.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Troll81 w 23 Listopad 2011, 21:54
NV nie ma tego supportu co ATI. Pamiętajmy że ATI to również AMD. A tu doświadczenie robi swoje.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: michaou w 05 Kwiecień 2012, 17:22
testował ktoś które sterowniki do radeona 4850 najlepiej się nadają? Milka twierdzi, że moje obecne "nie są OK" i nie chce pobierać próbek na GPU.
Pytam bo nie chcę przesadzić i zainstalować "zbyt nowych" które nie zadziałają.
Aha, PrimeGrid po kilku sekundach działania kończy liczenie błędem. Ale nie wiem jakim.... wyskakuje "błąd" a w logach nie widze opisu
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: MajkPascal w 10 Kwiecień 2012, 15:34
Cytat: michaou w 05 Kwiecień 2012, 17:22
Aha, PrimeGrid po kilku sekundach działania kończy liczenie błędem. Ale nie wiem jakim.... wyskakuje "błąd" a w logach nie widze opisu

A dotyczy to wszystkich podprojektów czy tylko Genefer? Bo gdzieś czytałem że ten projekt jest strasznie czuły na wersje sterowników oraz overclocking i kiedy mu coś nie spasuje wyrzuca błędy.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: AL w 11 Kwiecień 2012, 00:15
A jaką masz wersję sterowników do grafiki?
"Overclocking GPUs is strongly discouraged. Nvidia Windows drivers 295.xx and 296.xx should not be used."
Znalazłem tylkoinfo o nie działających wersjach sterów nvidii - o ati nic nie znalazłem które dobre, które złe.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: michaou w 11 Kwiecień 2012, 16:19
a nie wiem jakich podprojektów na stronie z wynikami znalazłem takie coś http://www.primegrid.com/result.php?resultid=368214046

wersja sterowników obecnie jest 8.892.0.0   (data 2011-09-08)
Karty nie podkręcałem i na razie nie zamierzam.

Milky way działa, po załadowaniu optymalizacji prawidłowego pliku app_info
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: MajkPascal w 11 Kwiecień 2012, 19:45
Z tego co widzę jest to wynik z projektu który nie korzysta z GPU więc przyczyny należy doszukiwać się chyba gdzie indziej.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: michaou w 11 Kwiecień 2012, 21:22
prawdopodobnie brakuje OpenCL, szukam i szukam na sieci i nie mogę znaleźć pakietu do zainstalowania, bo wygląda na to, że to jest dla Linuxa, Windows Vista i 7. A dla XP nie ma
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: pszyklejony w 11 Kwiecień 2012, 21:58
2.3 i niżej

http://developer.amd.com/sdks/AMDAPPSDK/downloads/pages/AMDAPPSDKDownloadArchive.aspx
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: michaou w 11 Kwiecień 2012, 22:16
o dzięki, widzęże potrzeba SP3  %)
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: pszyklejony w 11 Kwiecień 2012, 23:05
Ciesz się, że nie nowego systemu, niektórych programów nie uruchomisz.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: wWyFyiX w 29 Grudzień 2012, 09:51
Czołem!
Dwie sprawy, mam nadzieję, że mogę podpiąć się w tym wątku jako, że kwestia wybitnie dotyczy liczenia na GPU.

1. Macie może rozwiązanie, Panie i Panowie na tak postawiony problem:
otóż w systemie z dwoma kartami graficznymi (quadro fx1800) chciałbym, aby jedna z nich liczyła non-stop, druga natomiast od chwili gdy komputer nie jest używany przez 1minutę (bądź 3, bądź cokolwiek).
Znam sposób na działanie tylko na jednej grafice, tylko na dwóch grafikach (oraz tych konfiguracji przy nieużywaniu komputera przez x-minut) - wszystko w takich zestawieniach działa poprawnie.
Czy jest jednak sposób aby to połączyć i stworzyć np. plik cc_config, który zarządziłby:
FX1800(0) - licz non-stop
FX1800(1) - licz gdy komputer jest nieużywany przez min. 1minutę

2. Jaką kartę grafiki polecacie na PCIe x4, najchętniej od NV? oczywiście ze względu na szeroko pojęte "liczenie" ;)
//i rzecz jasna czy nie będzie kłopotów ze skonfigurowaniem systemu pod liczenie na dwóch różnych parach kart graficznych (2x Quadro FX1800 i 2x Polecone_karty_na_PCIex4)

Z góry serdeczne dzięki za wsparcie, ew. zainteresowanie się moim problemem.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: tito w 28 Luty 2013, 01:37
No ja nie mogę. Nikt nie odpowiedział?
To ja po 3 miesiącach dam odpowiedź.
Trzeba by:
Uruchomić dwie instancje BOINC;
W jednej przy użyciu pliku cc dać liczenie na jednej karcie (GPU 0 ) a w ustawieniach BM dać wykorzystanie non stop
w drugiej przy użyciu pliku cc dać liczenie na drugiej karcie (GPU 1 ) a w ustawieniach BM dać wykorzystanie GPU po czasie x.
Dawno po terminie, może gdzieś Ci już odpowiedziano, ale wstyd, aby pytanie zostało bez odpowiedzi.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: stiven w 18 Marzec 2013, 22:26
Pytanie za 100 pkt: czy ktoś z Was testował softmoda GeForca do Quadro w BOINCU? Czy "Quadrowe" sterowniki dają w liczeniu jakiegoś kopa?

Takie coś wygrzebałem jakiś czas temu:
http://www.techarp.com/showarticle.aspx?artno=539&pgno=2
Nawet bym sprawdził u siebie ale chwilowo nie mam żadnej karty na podorędziu (gt 430 poszła do KrzychaP) a 640 jest w drodze.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: pszyklejony w 19 Marzec 2013, 08:26
Próbowałem z 8600, system widział Quadro, ale jakichś różnic w wydajności Boinc nie było.
Tytuł: [Pomysł] Poradnik - Efektywne liczenie na GPU
Wiadomość wysłana przez: Tomislaw w 17 Sierpień 2018, 13:51
Hmm.. Klikam w tutejszy link odnośnie efektywnego liczenia  na GPU i wyświetla mi się coś takiego https://prnt.sc/kjqx8i (https://prnt.sc/kjqx8i)
Podobnie z drugą zakładką dotyczącą liczenia na GPU - Liczenie na GPU (lista projektow i kart)