Jako ze temat sie ciagle przewija na forum to proponuje aby ten temat przypiąć na stale i uzupełniać danymi (ja to mogę zrobić jak będą dane)
Proponuje umieszczanie informacji na temat jakie karty jaki projekt wspierają (co na której pójdzie)
DNETC@HOME
ATI serii HD2k i nowsze
NV wszystkie karty od serii GT8000 i nowsze
Milkyway@home
Projekt wymaga GPU wspierającego Double Precision arithmetic.
NVIDIA:
Geforce GTX 295
Geforce GTX 285
Geforce GTX 280
Geforce GTX 275
Geforce GTX 260
Tesla S1070
Tesla C1060
Quadro Plex 2200 D2
Quadro FX 5800
Quadro FX 4800
(Based on GT200 GPU)
ATI:
ATI HD Radeon 5970
ATI HD Radeon 5870
ATI HD Radeon 5850
ATI HD Radeon 4890
ATI HD Radeon 4870
ATI HD Radeon 4850
ATI HD Radeon 4770
ATI HD Radeon 4830
ATI HD Radeon 38x0
ATI Firestream 9270
ATI Firestream 9250
ATI Firestream 9170
Collatz Conjecture (do uzupelnienia)
# Catalyst 8.12 or later drivers for ATI GPU processing and a CAL 1.3 capable GPU
# nVidia 190.38 or later drivers for nVida/CUDA GPU processing and a CUDA capable GPU
Właściwie większość kart ATI
Seti@home
CUDA-capable GPU czyli karty NVidia
Jeśli karta jest na liście: http://www.nvidia.com/object/cuda_learn_products.html
i ma 256MB RAM jest zdolna do obliczeń
GPUGrid
Karty desktopowe:
(http://koschmider.de/pics/desktop_chips.png)
Karty laptopowe:
(http://koschmider.de/pics/mobile_chips.png)
Inne:
(http://koschmider.de/pics/other_chips.png)
źródło: http://www.gpugrid.net/forum_thread.php?id=867&nowrap=true#7753 (jest tam tez legenda)
PrimeGrid
aplikacja AP26 1.0 cuda23 działa na każdej karcie obsługującej CUDA (czasami to się zmienia wraz z rozwojem aplikacji), prędkość rozsądna nawet na najgorszych, ale punktacja okrutnie kuleje.
Einstein
CUDA, wystarczają nawet słabowite karty, ale zysk prędkości i punktów nie jest jakiś szczególnie duży.
aplikacja Einsteina wciąga też jedno całe jajo CPU.
Stąd właśnie moje uwagi do punktacji. Po prostu niezależnie od użytego GPU, wydaje się ona niezbyt wysokich lotów biorąc pod uwagę, że korzysta z proca i grafy.
PicEvolvr
Jeśli macie jakieś listy (ze stron projektow i/lub forum) proszę o PM albo umieszczanie linka/info w wątku a ja wrzucę do 1 posta
UWAGA!!!
Jeżeli ktokolwiek pragnie wykorzystać informacje zawarte w tym wątku na swojej stronie/forum proszę o podanie źródła w postaci:
Źródło: Boinc@Poland - http://www.boincatpoland.org
Czy ATI 5770 i 5670 nie wspierajacego Double Precision arithmetic??
bo właśnie sie zastanawiam nad wymiana starej karty ale az 5800 to mi nie potrzebna, najchętniej to bym 5670 kupił i to z pasywnym chłodzeniem lub z cichym wentylatorem,a przy okazji mogla by z czasu do czasu cos policzyc ;)
Google twierdzi, że nie. http://www.geeks3d.com/20091014/radeon-hd-5770-has-no-double-precision-floating-point-support/
5750 i niżej tyz nie
ale collatza na single policzysz
Collatz chodzi na laptopowym HD4200...
Collatz chodzi praktycznie na wszystkim.....
Każda NV z CUDAmi i każdy ATI z CAlem :D
Swietnie, ze ten post umiesciliscie... o 3 dni za pozno. Tydzien temu kupilem 5770 :/
tak to jest :> jak sie cos zrobi to i zawsze skrytykuja, ze za pozno, ze nie ma wszystkich informacji ect.
A tak, poza tym, po to forum zeby sie pytac.
Ale Collatza spokojnie policzysz
Jest jeszcze Primegrid AP26.
Einstein - CPU + GPU.
GPUGrid - praktycznie każda karta wspierająca CUDA, ale w przypadku kart poniżej tak na oko GF9600 - jedynie przy pracy 24/7 WU zmieści się w deadline. Żeby liczyło z sensowną prędkoscią i bezstresowo mieściło się w deadline, to chyba tylko karty wymienione na stronie głównej projektu.
Cytat: Sobek w 04 Luty 2010, 17:45
Swietnie, ze ten post umiesciliscie... o 3 dni za pozno. Tydzien temu kupilem 5770 :/
o ile dobrze pamiętam masz 10 dni na to by oddać zakupiony towar bez podawania przyczyn, wiec jest jeszcze czas na zamianę :D
Cytat: TJM w 04 Luty 2010, 18:04
Jest jeszcze Primegrid AP26.
Einstein - CPU + GPU.
wiecej konkretow ? ATI, NV? jakie modele ?
PG AP26 1.0 cuda23 działa na każdej karcie obsługującej CUDA (czasami to się zmienia wraz z rozwojem aplikacji), prędkość rozsądna nawet na najgorszych, ale punktacja okrutnie kuleje.
Einstein - CUDA, wystarczają nawet słabowite karty, ale zysk prędkości i punktów nie jest jakiś szczególnie duży.
aktualka :)
Czy moge prosic jakiegos moda o przypiecie tego watku na stale ?? Tak zeby w tym dziale zawsze byl na gorze?
Zrobione
A gdzie kupowałeś kartę? Idź do sklepu i poproś o wymianę. mogą się zgodzić :D
Dopisz wyżej, że aplikacja Einsteina wciąga też jedno całe jajo CPU.
Stąd właśnie moje uwagi do punktacji. Po prostu niezależnie od użytego GPU, wydaje się ona niezbyt wysokich lotów biorąc pod uwagę, że korzysta z proca i grafy.
Jestem wściekły
Na moim lapie (hd4200 mobile, 7 64bit) prawie wszystkie próbki się wywalają (CC)...
Na boincstats zadyma...
Stery 10.2...
Ma ktoś jakieś pojecie o co chodzi???
Chyba wyłączę ten projekt...
Do tej pory liczyłem na 10.1, bo sapphire nie udostępniał 10.2. Widzę, że udostępnili 19. lutego, więc właśnie ściągam, ale z wgraniem prawdopodobnie poczekam do wymiany płyty głównej i procesora, czyli do jutra.
A laptopy, no cóż, to zło :P
Krzyszp: polecalbym Ci stery 10.1 do wyprobowania. Tylko pamietaj zeby bardzo dokladnie odinstalowac stare stery (Driver Sweeper, lub cos podobnego - wiesz o co mi chodzi?).
Wiem, ale raczej nie będę z tym kompem eksperymentował - służy do pracy i nie mogę sobie pozwolić na przestój. A pracy teraz sporo... :(
Mam małe pytanko: Czy dwuslotowa karta ATI X800 może sie przydać do Collatz'a?
Chyba nie....
http://developer.amd.com/gpu/ATIStreamSDK/ATIStreamSDKv1.4Beta/pages/ATIStreamSystemRequirements.aspx
Dzięki :respect:, a szkoda bo w systemie widać ją jako podwóją grafę.
Mam pytanie do Starszyzny
Jeżeli np. pada Collacja , a karta nie obsługuje double precision, to na co przerzucić taki zestaw?
Tomek podaje wyżej kilka nazw, których nie znam. Jak znam życie XD - zaraz po podjęciu decyzji, okaże się, że-no-może-być... ale dla Zespołu to byłoby lepiej ...
Zależy czy ATI czy Nvidia.
Na Nvidię jest trochę więcej projektów, ale nie wiem czy single-precision czy double, bo nvidii nie śledzę.
Na ATI jest Collatz (single), MilkyWay (double), dnetc (chyba single, dopytać Sesefa lub doczytać) oraz aplikacja Sesefa do AP26 w PrimeGridzie do ręcznego wgrania poprzez app_info.xml, trzeba by Sesefa dopytać/doczytać/eksperymentować.
wlasnie musimy przycisnc Sesefa o zabranie glosu tutaj w sprawach Dnetc i AP26
Karty - głownie ATI i jedna nVidia. Z AP 26 , to mogę mieć kłopot , ponieważ liczę PrimeGrid jezeli nie ma EinSteina. W ustawieniach ogólnych wyłączyłem pracę Kart aby pozostawić przemiał dla Milky i Collacji.
Może GPU Grid?
W zestawieniu Tomka GT9800 są za słabe, ale na razie chodzi mi o rezerwę - na wypadek wywrotki servera Collacji
Dnet ruszy chyba na każdej karcie nv wspierającej CUDA. W każdym razie na kartach z serii 8xxx działa i to nawet z rozsądną prędkością. Serwer wysyła zadania o długości zależnej od szybkości karty.
Serdeczne dzięki :respect: i będę od razu w pierszej ćwiartce liczydłowych BP !
Cytat: TJM w 12 Kwiecień 2010, 20:23
Dnet ruszy chyba na każdej karcie nv wspierającej CUDA. W każdym razie na kartach z serii 8xxx działa i to nawet z rozsądną prędkością. Serwer wysyła zadania o długości zależnej od szybkości karty.
NVIDIA GPU 0: GeForce 8500 GT (driver version 19713, CUDA version 3000, compute capability 1.1, 242MB, 58 GFLOPS peak)
DNETC@HOME Message from server: Your NVIDIA GPU has insufficient memory (need 384MB)
U mnie nie policzy :(
Może projekt żąda min 512 Mb pamięci w karcie?
dnetc raczej tyle nie wymaga. Z tego co widziałem zabiera na karcie chyba paręnaście MB, ale jeszcze zobaczę.
Możesz spróbować odpalić standalone wersję i zweryfikować, czy działa ?
Wystarczy wejść na distributed.net, zassać klienta dla GPU/NV i uruchomić.
Cytat: G w 12 Kwiecień 2010, 22:22
Może projekt żąda min 512 Mb pamięci w karcie?
To akurat wina schedulera głupie ustawienie bo akurat app SETI tyle ramu wymaga i jest domyślnie tyle ustawione. Przy najbliższej okazji to zmienię.
Co myślicie o nowym dziecku nVidii czyli GTX 480 <- warto stawiać coś takiego do liczenia?
Czy lepiej np.: HD 5870 / HD 5970
W GPU gridzie w TOP 40 (więcej mi się nie chciało przeglądać) Fermi nie występuje.
Jeśli chcesz kupić nowy sprzęt pod BOINCa to tylko ATI
aha, ok.
czyli HD5870 lub HD5970
jak najbardziej i w kazdych ilosciach :D
A jak juz będzie F@H w BOINC to tym bardziej :D
niestety ATI w F@H to porażka, liczyłem kilka dni na 5970 i gorzej niz przeciętny CPU wychodzi
aplikacja jest wyraźnie na NV nastawiona bo te karty kosza aż miło :-[
mnie tam nie za koniecznie o punkty chodzi....
Mnie też pkt aż tak nie interesują.
Ale jak już będę miął jakąś fajną graficzną to czemu nie.
Cytat: 3Rni w 09 Czerwiec 2010, 22:37
niestety ATI w F@H to porażka, liczyłem kilka dni na 5970 i gorzej niz przeciętny CPU wychodzi
aplikacja jest wyraźnie na NV nastawiona bo te karty kosza aż miło :-[
Witam
Obecna aplikacja F@H nie obsługuje nowych kart serii HD5xxx ,co prawda można ją odpalić na tych kartach ,ale z parametrem dla kart ati na rdzeniu rv700 co powoduje wykorzystywanie około 25% mocy kart serii 5xxx
dla porównania 10m liczona na moim hd5870 ,czas około 4 godzin , próbka o takiej samej wadze liczona na gtx260 którego używam do fizyki 1-1,5 godziny. XD
Cytat: syrian w 04 Luty 2010, 18:12
Cytat: Sobek w 04 Luty 2010, 17:45
Swietnie, ze ten post umiesciliscie... o 3 dni za pozno. Tydzien temu kupilem 5770 :/
o ile dobrze pamiętam masz 10 dni na to by oddać zakupiony towar bez podawania przyczyn, wiec jest jeszcze czas na zamianę :D
Tylko, że produkt musi być nie naruszony, nie używany i oryginalnie zapakowany.
Jeśli zdarłeś folię to koniec.
Wierz cie mi już to przerabiałem.
Te 10 dni masz po to np.: zamówiłeś sprzęt, przyszedł, patrzysz i stwierdzasz że to nie to <- zwracasz bez rozpakowania.
I wierz cie mi też że rzecznik konsumenta powie to samo co ja <- w końcu z nim też się kontaktowałem bo chciałem iść do sądu.
Rozpakowane = sprzedane.
Możesz rozpakować, podłączyć i sprawdzić. Nie może być śladów użytkowania, jakichś defektów itp. Przerabiane na monitorach. 8)
Ano. Rozpakować i podłączyć możesz. Masz tylko zwrócić bez śladów używania. Przerabiane na karcie graficznej ATI w sklepie Arest :D
Witam
Mało się udzielam ale to dla tego że działam na innym forum
Mam takie dziwny problem ? - może nie problem ale bardzo mnie to zastanawia
Wiem że aby liczyć w MilkyWay@home karta musi obsługiwać "double precision floating point operations"
i zgodnie z tym co jest podane w tym linku http://developer.amd.com/gpu/ATIStreamSDK/ATIStreamSDKv1.4Beta/pages/ATIStreamSystemRequirements.aspx
dla serii HD4xxx najsłabszym modelem jest karta o symbolu HD4770 i tu pojawia się pewna rozbieżność ?
Ostatnio na Allegro zakupiłem kartę ATI POWER COLOR HD4650 512MB DDR2 HDMI - dokładnie z tej aukcji http://allegro.pl/item1173549772_ati_power_color_hd4650_512mb_ddr2_hdmi_nowa_fvat.html
Dziś wsadziłem ją do kompa podłączyłem drugi monitor i tu zdziwienie zaczeka liczyć próbki z MilkyWay@home razem z moją HD5850
- nie doczytałem że to nie jest wersja LowProfile ale to już inna historia więc postanowiłem sprawdzić czy chociaż działa
Wie ktoś o co biega - czy trafiła mi się jakaś unikalna seria HD4650
Zrzuty z Boinc poniżej
(http://img844.imageshack.us/img844/1583/78785508.jpg)
(http://img839.imageshack.us/img839/3618/20452298.jpg)
Pozdrawiam
A jesteś pewien ze to ona liczy?? moze na jednej karcie lecą dwie próbki a druga się nudzi? Sprawdź temperatury....
Ale przecież ma w nawiasach przy tych zadaniach Device 0 i Device 1, i nawet by się to zgadzało z tym screenem wcześniej (bo Device 1 ma mniej zadania zrobione w stosunku do Device 0 przy takiej samej ilości czasu pracy).
Cytat: Mori w 15 Sierpień 2010, 23:39
Ale przecież ma w nawiasach przy tych zadaniach Device 0 i Device 1, i nawet by się to zgadzało z tym screenem wcześniej (bo Device 1 ma mniej zadania zrobione w stosunku do Device 0 przy takiej samej ilości czasu pracy).
Popieram @Troll81.
Jak miałem wpiętą 5850 + 4850 <- to też miałem 2xWU na raz niby na device 0 i device 1 <- ale tak na prawdę tylko 5850 liczyła i miała 60stopni <- 4850 się nudziła i miała 35stopni.
Wyciągłem 4850 i liczyłem 1xWU, ale dwa razy szybciej.
Witam dokładnie tak się dzieje
HD4650 dopiero zaczyna liczyć jak zabiera się za próbkę Collatz Conjecture
a tak dla Milkyway@home dwie próbki męczy HD5850
Faktycznie widać to po temperaturach rdzenia
Dzięki za odpowiedź pozdrawiam
Od tego tu jesteśmy. :D
Wpadnij do dzilu wizytówki i przedstaw się szerzej :D
Hejka mistrzowie GPU.
Ja niewiele liczę na grafach, ale jakieś 2 sztuki 4850 chodzą w dwóch moich kompach i liczą milkowe próbki dla CPU na starych dobrych optymalkach v.20. (ATI 8.12)
Warto przechodzić na nowsze stery i aplikacje z m@h , czy zostać na tych starych optach ?
przechodź :attack: :attack: :attack:
nooo, przejśc nie problem , tylko czy to ma jakiś sens. Teraz robię średnio 70-80k na karcie, wiecej chyba nie wyciągnę ...
Moje zdanie: jesli dziala, to nie tykac.
No tak chyba postąpię. Nie tykam :)
specjalnego skoku z optymalki 20 na 23 to nie pamiętam ale pamiętam różnice jakościowe w kolejnych sterownikach a sterowniki 8.12 są naprawdę stare ...
Krótko mówiąc: jak liczysz próbkę MW dłużej niż 3:20-3:30 na 4850 to podkręcaj/aktualizuj sterowniki/etc. :P Jeśli czasy masz na poziomie 3:00-3:20 to chyba to jest to, co się wyciąga z tej karty (a przynajmniej ja gdzieś tak wyciągam) i nie musisz ruszać nic.
3:50 na niekręconej karcie. Jeśli nowe stery dałyby coś lepiej to może warto :-\
Może jednak spróbuję na nowych sterach, tylko czy po zaciągnięciu plików z milki trzeba robić jakieś poprawki w app, czy zostawić jak fabryka dała ?
możesz zresetować projekt i wtedy zostanie pobrana domyślna aplikacja lub zassać aplikację edytowalną i popracować nad nią - lepsze wyniki
Z niekręconą to nie wiem, czy to nie są normalne wyniki... Czemu nie odrobina OC? Ale faktycznie, stery do ATI zaktualizuj może najpierw...
Cytat: Piotr R. (Peciak) w 17 Sierpień 2010, 12:56
lub zassać aplikację edytowalną i popracować nad nią - lepsze wyniki
-skąd zassać ? (http://www.arkayn.us/milkyway/index.html ???)
- czy dnetc.net karmi lepiej od milki przy użyciu 4850 ?
ponoć milka karmi lepiej
4850 -milka lepsza
Ok, dzieki , zostaję zatem na milce.
Wiecie jakie karty są obsługiwane przez PPS Sieve w PrimeGrid? Nigdzie na ich forum tego nie ma :(
http://primegrid.com/apps.php
To co obsługuje cuda23, cuda 2.3 chyba, jakakolwiek to wersja ;) Chyba, że masz mac os x, to cuda 3.1.
Może jakiś posiadacz nvidii wypowie się dokładniej.
Właśnie nigdzie znalezc nie moge ktore karty obsługuja CUDA 2.3... :(
Co się tak uparłeś na te 2.3. Jak masz nvidię od 8400 i tak zadziała.
Wielkie dzięki. Nie uparłem się tylko chciałem poznac "dolna" granice. :) Mam mozliwosc dostac prawie za free GT9500 więc chcialem sie dowiedziec czy wystarczy do Prime.
Ja mam u siebie takiego 9500gt. Po OC próbka liczy się 90 min i daje ~135pkt. Dużo lepiej wyjdziesz licząc na niej CC ~300pkt/h.
A nie amsz wiecej takich darmowych kart??
Najlepiej ze sto :).
Karta pochodzi od mojego kuzyna. Jedyny koszt tej karty to koszt przesyłki pocztowej :) Ma tylko jedną :)
http://allegro.pl/item1188308104_nowe_sapphire_hd5750_1gb_vapor_x_dx_tylko_5szt.html
a tu na pocieszenie karta w dosyc atrakcyjnej cenie :D
Czy komuś coś to mowi ?
2010-08-21 11:05:06 Milkyway@home Message from server: Your app_info.xml file doesn't have a version of MilkyWay@Home N-Body Simulation.
Chodziło , chodziło i tak właśnie zdechło !
Coś w MW chyba popsuli. Niby są próbki do pobrania, a mi na ATI nic nie pobiera. Nie mam app_info.xml, więc gdyby były zmiany w aplikacjach, to powinno mi nową pobrać automatycznie.
Już kumam. To N-Body, to jakaś nowa aplikacja, ale tylko na CPU :wth:
http://milkyway.cs.rpi.edu/milkyway/apps.php
No to zmusili mnie chyba do przejścia na nową aplikację, ze starej dobrej v.20 :(
No to chcąc nie chcąc mam już najświeższe stery od ATI i nową aplikację od Milki. Może ktoś mi podpowie jak zmusić teraz kartę (4850) aby liczyła po 2 próbki na raz jak to było onegdaj przy wykorzystaniu v20. Jakiś przykład na app_info ?
Kamraci, co liczyć na GF9500 ale pod linuxem64 - teraz leci DNETC ale właśnie nie mogę WU pobrać :(
PS. DNETC działa na HD3650 AGP
GPUGrid??
Nie wyrobie w deadline :(
Collatz, Seti?
Walczę właśnie z Colatzem. Niestety na linuxa nie zasysa sam app
http://www.boincatpoland.org/wiki/Kategoria:Projekty_GPU_Nvidia
Cytat: stachu @ fiddex w 23 Sierpień 2010, 07:58
Może ktoś mi podpowie jak zmusić teraz kartę (4850) aby liczyła po 2 próbki na raz jak to było onegdaj przy wykorzystaniu v20. Jakiś przykład na app_info ?
Linijka w app_info:
<count>x</count>
np. <count>1</count> lub <count>2</count>
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.
Cytat: goofyx w 28 Sierpień 2010, 16:54
Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.
Z tego co się orientuję to powinno być szybciej, piszesz że jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s :attack: 5s to może wydawać się niewiele ale jak liczysz 24h/7dni to pewnie będzie różnica ;)
Cytat: S6X w 28 Sierpień 2010, 17:22
Cytat: goofyx w 28 Sierpień 2010, 16:54
Cytat: toms83 w 27 Sierpień 2010, 23:09
Ale co daje liczenie 2 próbek na raz? Chyba jest nawet wolniej ciutkę?
Jest wolniej.
Załóżmy mi WU z MW liczy w 1m:40s <- jak ustawiłem 2 na raz to liczył WU w 3m:15s jakoś <- dlatego chyba nie warto, chyba że coś źle ustawiam.
Z tego co się orientuję to powinno być szybciej, piszesz że jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s :attack: 5s to może wydawać się niewiele ale jak liczysz 24h/7dni to pewnie będzie różnica ;)
Ja liczę 24h/d ale nie licząc testów nie bawię się w przerabianie wielu WU na jednym GPU <- 5sek w podliczenie na dobę to może wyjdzie ok.20k więcej <- nie jest to liczba dla której warto się zabijać <- to przynajmniej moje podejście.
procek moze sie nie wyrabiac przy liczeniu multigpu nie wiem czy i7 i 8watkow wystarczy czy przydaloby sie 12 watkow juz :)
Cytat: S6X w 28 Sierpień 2010, 17:22
(...) jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s (...)
Rzecz w tym, ze zadna WU dla GPU nie startuje natychmiast. W przyblizeniu wyglada to tak (na przykladzie Milky): 4sek. zaladowanie danych do GPU, 95sek. obrobka na GPU, 1sek. odeslanie danych z GPU. Jesli liczysz z ustawieniem `count 2` to nie zdarza sie zeby jednoczesnie dwie WU byly ladowane do GPU. Nawet jesli jedna WU sie laduje, to druga juz wykorzystuje GPU (na max.) - nie masz zatem tych kilkusekundowych przestojow, wymaganych do zaladowania danych do GPU (zwroc uwage na dokladny wykres obciazenia GPU podczas pracy z Milka). Stad podczas liczenia z `count 2` sumaryczny czas przeliczania dwoch WU jest o kilka sekund krotszy.
Cytat: goofyx w 28 Sierpień 2010, 18:08
Ja liczę 24h/d ale nie licząc testów nie bawię się w przerabianie wielu WU na jednym GPU <- 5sek w podliczenie na dobę to może wyjdzie ok.20k więcej <- nie jest to liczba dla której warto się zabijać <- to przynajmniej moje podejście.
Wszystko zalezy od tego jak liczysz i na jakich grafach. W ramach przykladu u mnie te 5 sek. to byloby 6,1% czasu liczenia WU, a to juz daje ca. 60k dziennie (juz jest o co walczyc).
Cytat: Tomasz R. Gwiazda w 28 Sierpień 2010, 18:13
procek moze sie nie wyrabiac przy liczeniu multigpu nie wiem czy i7 i 8watkow wystarczy czy przydaloby sie 12 watkow juz :)
Zwykly quadzik wystarczy, aczkolwiek wskazane by bylo dla niego poswiecenie pelnej mocy na obsluge graf (wylaczenie projektow dla CPU).
Cytat: AiDec w 29 Sierpień 2010, 11:29
Cytat: S6X w 28 Sierpień 2010, 17:22
(...) jak liczysz 1 WU to czas wynosi 100s (czyli 200s dla 2 WU) , a jak liczysz 2 WU naraz to masz 195s (...)
Rzecz w tym, ze zadna WU dla GPU nie startuje natychmiast. W przyblizeniu wyglada to tak (na przykladzie Milky): 4sek. zaladowanie danych do GPU, 95sek. obrobka na GPU, 1sek. odeslanie danych z GPU. Jesli liczysz z ustawieniem `count 2` to nie zdarza sie zeby jednoczesnie dwie WU byly ladowane do GPU. Nawet jesli jedna WU sie laduje, to druga juz wykorzystuje GPU (na max.) - nie masz zatem tych kilkusekundowych przestojow, wymaganych do zaladowania danych do GPU (zwroc uwage na dokladny wykres obciazenia GPU podczas pracy z Milka). Stad podczas liczenia z `count 2` sumaryczny czas przeliczania dwoch WU jest o kilka sekund krotszy.
Dlatego osoby które liczą 24/7/365 powinny liczyc 2WU na gpu. :attack:
Pytanie dla znawców projekty na GPU zawsze obciażają procesor (wiem że mało ale jednak) mam teraz takie pytanie czy dwa wu odpalone na grafę jednocześnie:
- obciążają proc 2 x wiecej ?
- dodatkowo zakłócają pracę procesora ( wszak procesor nie pracuje cały czas tylko skokowo wtedy kiedy jest potrzebny w aplikacji) ?
Możecie zapodać app_info.xml ? Dzięki!
Cytat: Piotr R. (Peciak) w 29 Sierpień 2010, 14:13
Pytanie dla znawców projekty na GPU zawsze obciażają procesor (wiem że mało ale jednak) mam teraz takie pytanie czy dwa wu odpalone na grafę jednocześnie:
- obciążają proc 2 x wiecej ?
- dodatkowo zakłócają pracę procesora ( wszak procesor nie pracuje cały czas tylko skokowo wtedy kiedy jest potrzebny w aplikacji) ?
1. Zawsze. Mniej lub bardziej, ale zawsze `jakos` obciazaja. W niektorych projektach (Milky) user moze decydowac w jakim stopniu obciazyc CPU.
2. 2WU na raz moga, ale nie musza obciazac proca 2x wiecej (patrz rowniez pkt. 1).
3. Nie zaklocaja.
Cytat: Szopler w 29 Sierpień 2010, 14:15
Możecie zapodać app_info.xml ? Dzięki!
Moj app. Nie wiem czy przydatny bedzie. Przygotowany pod 4GPU Milky + AQUA.
<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
<name>astronomy_0.23_ATI_x64.exe</name>
<executable/>
</file_info>
<file_info>
<name>brook64.dll</name>
<executable/>
</file_info>
<app_version>
<app_name>milkyway</app_name>
<version_num>23</version_num>
<plan_class>ati13ati</plan_class>
<flops>1.0e11</flops>
<avg_ncpus>0.12</avg_ncpus>
<max_ncpus>1</max_ncpus>
<coproc>
<type>ATI</type>
<count>1</count>
</coproc>
<cmdline>w0.0 p3</cmdline>
<file_ref>
<file_name>astronomy_0.23_ATI_x64.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>
<app_version>
<app_name>milkyway</app_name>
<version_num>22</version_num>
<flops>1.0e11</flops>
<avg_ncpus>0.12</avg_ncpus>
<max_ncpus>1</max_ncpus>
<coproc>
<type>ati13ati</type>
<count>1</count>
</coproc>
<cmdline>w0.0 p3</cmdline>
<file_ref>
<file_name>astronomy_0.23_ATI_x64.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>
</app_info>
Mam Maca z kartą Ati Radeon HD4870. Czy na systemie operacyjnym Snow Leopard można wykorzystywać tę kartę graficzną do liczenia np. w projekcie Milkyway@home, bądź w Collatz'ie? Po dołączeniu się do projektu Milki w wiadomościach był taki komunikat: "No usable GPUs found" :(
Masz uaktualnienia? na przykład to http://support.apple.com/kb/DL1083?viewlocale=pl_PL (http://support.apple.com/kb/DL1083?viewlocale=pl_PL)
jeszcze to znalazłem http://forum.osx86.org.pl/topics9/jak-uruchomic-karte-ati-hd4850-4870-w-leopard-snow-v432-vt754.htm
Mam wszystkie uaktualnienia - Snow Leopard 10.6.4 wraz z wszystkimi aktualizacjami.
Na makówkach z MacOsem niewiele osób liczy :( słabo z popularnością tego u nas.....
Odkopuję stary wątek aby nie zakładać nowego.
Proszę o podanie aktualnych projektów dla GPU:
Projekty dla AMD i Nvidia
Tak jak kolega @andy101fah Co tam najlepiej teraz dla nvidii
RTX 3090 gotowy do działania 8)
A co Cię interesuje?
PrimeGrid;
Collatz;
SR-base;
Einstein;
Moowrapper;
Z 3090 celowałbym w PG (bo GPUGrid jeszcze nie ma aplikacji dla tej generacji GPU), lub jeśli zależy na punkcikach to Collatz (miesiąc, 2 wystarczy).
CytatRTX 3090 gotowy do działania
Jak gotowy do działania to może PrimeGrid, trwa obecnie Tour de Primes, podprojekt GFN-16 najłatwiej coś trafić.
Jeszcze nikt nic nie trafił z Naszego zespołu, może będziesz pierwszy mając szybką kartę, pamiętaj, że zapas zadań nie jest wskazany przy podwójnym sprawdzaniu zadań
Folding@home :whip:
Kamraci :ahoy: MLC@Home nikt nie liczy :attack: ?
Ooo - nie byłem świadom, że MLC ma aplikację dla GPU. Już zaktualizowałem stronę główną.
Z ciekawości spojrzałem na stronę https://srbase.my-firewall.org/sr5/index.php (https://srbase.my-firewall.org/sr5/index.php) a tam Troll :ahoy:
(http://www.boincatpoland.org/smf/index.php?action=dlattach;topic=3302.0;attach=2417)
Na wszelki wypadek zajrzałem do lodówki :attack: :wth:
:ahoy:
Minecraft@Home jest na GPU, a nie ma go na liście!
Już jest
Hejka :)
Czy ktoś wie czy GPUGrid obsłuży RTX 3080 lub RTX 4080 .. ? Kiedyś pamiętam że miałem problem jak się przesiadłem z 980 na 2060 i coś tam było wersjami CUDA że nie obsługiwali nowszej (to było dziwne bo przecież jest koplatybilne w dół...) i nie pobierało jednostek. Ktoś ma, liczy i wie że pobiera i liczy próbki? Nie chciałbym wtopić kasy na próżno... :)
Dzięki z góry za podpowiedź.
moim zdaniem "na pewno" ... to dobry projekt, który zawsze aktualizuje ... nowe wersje GPU ... :p_arr:
pozdrowienia, Grzegorz Roman Granowski
dla pewności zapytaj na forum ... jednak ...
https://www.gpugrid.net/top_hosts.php
Wychodzi na to, że tak. Przynajmniej seria 3000.
GPUGrid jest wrażliwe, ostatnio wywalało mi, zmieniłem sterownik i jest dobrze.