Czy wiadomo cos na temat zaangazowania projektu CUDA do platformy BOINC ?
Adres serwisu : http://www.nvidia.com/object/cuda_home.html
CUDA - w skrocie jest to mozliwosc przeprowadzania obliczen przy pomocy karty graficznej
http://www.ks.uiuc.edu/Research/gpu/
[moderacja: link nie aktualny]GPU a BOINC[/]
Ostatnio u nas czytałem, że aplikacja SETI na grafikę jest blisko.
badam sprawę od kilku dni - niedługo zdam raport - już szykuję kartę do testów
czekamy, czekamy Pigu moja 8800 GT się nudzi :)
Pigu, jak GPU będzie w użyciu to ja przegram w przedbiegach - nawet do 1,5M nie dojdę :) Bo co można wyciągnąć na zintegrowanym intelu :)
projekt dotyczyt tylko kart z rodziny dzifors 8xxx
Robi się ciekawie, ale żeby się to w innych projektach upowszechniło, to najpierw boinc musi wesprzeć "dwie architektury" na jednym hoście (cpu i gpu)?
Z tego co wyczytalem bedzie wygladalo to tak...
Zamiast aplikacji BOINC zainstalujesz klienta np "GPU BOINC". Tutaj do konca nie wiem, czy CUDA obsluguje cala serie GPU G80 8xxx czy tylko model 8800.
W kazdym razie twoj CPU nadzoruje, rozdziela i zarzadza zadaniami, procesami i watkami, a GPU oblicza to wszystko. Prawdopodobnie tak to bedize dzialac, ale nie jestem w 100% pewien.
http://pclab.pl/art23133-2.html troche informacji o tym co potrafi CUDA
wiesz może, czy trzeba ściągać jakieś stery do cuda?
http://www.nvidia.com/object/cuda_get.html#windows
coś z tego jest konieczne? te stery z cuda nie należą do najnowszych - to będzie conieco spadku wydajności
Jak to? 169.21 jest najnowsze dla winxp a takie tam widzę. Stery do CUDA są już zamieszczone w najnowszych forceware'ach, przynajmniej tak jest w linuksowych, więc jeśli w takiej postaci rozprowadzane są te nowe od seti to najprawdopodobniej wystarczy tylko mieć zainstalowane najnowsze stery dla nvidia 169.21, ściągane ze standardowych lokacji, wcale nie muszą być z sekcji CUDA Download. SDK jest potrzebne do programowania i skompilowania kodu dla CUDA.
oż hehe dziadygi zmienili na tej stronce od mojej ostatniej wizyty specjalnie po to bym znów mógł się skompromitować :oops:
więc 169.21_forceware_winxp_32bit_international_whql.ex e którym się cieszę od kilku dni i nic mi więcej od strony sterów nie potrzeba?
nic wiecej, od serii 169 obsluga CUDA jest wbudowana w sterownik...
pozostaje czekac na oprogramowanie ktore to wykorzysta ;)
zabawki od kolegów z lunaticsa nie działają?
http://lunatics.kwsn.net/gpu-crunching/gpu-client.45.html
trzeba się zarejestrować
z tego co wyczytalem to aplikacja obsluguje GPU ale w zaden sposob nie jest zoptymalizowana do tego co robi. Wyniki gorsze od C2D, (nie przegladalem dokladnie ale podejrzewam ze aplikacja byla optymalizowana na procesory C2D stad taka roznica).
Jesli zespol tworzacy BOINC stworzy platforme odpowiedzialna za liczenie poprzez GPU CUDA, dorzuca dokumentacje na temat tworzenia projektow, to jest szansa na duzy rozwoj, inaczej beda pojedyncze wzloty :/
może to liczyć razem z procem? tzn i gpu i cpu?
Cytat: "Pigu"może to liczyć razem z procem? tzn i gpu i cpu?
Tu (http://setiathome.berkeley.edu/forum_thread.php?id=44099&nowrap=true#692793) jest próba odpowiedzi na to pytanie.
Cytat[Q:] In the present system, how many units can be running concurrently?
Cytat[A:] GPU support must be implemented in BOINC core ....
there are two ways for now - 1. use 4 cores for CPU applications or 2. use only one core for GPU application ....
one solution is : make application self-selectable- when starts , look if is GPU free then run GPU code else run CPU code ....
Teraz nie da się liczyć razem z procem, ale zaproponowana jest już na to solucja.
Najlepiej jakby sam boinc zaimplementował liczenie równolegle na cpu i gpu/nv/cuda, zgłaszać by musiał też serwerowi dwie platformy, no i to wszystko byłoby niezłym skomplikowaniem dla schedulera :P
No i mamy pierwsze testy!!! http://pclab.pl/art32890-6.html
Niestety kiszki mi się skręciły kiedy przeczytałem, że nie "poskręcali białek" - w końcu nawet mają własną drużynę. Miejmy nadieję, że szybko sie poprawią, a nam może RAC'e ;D - Pierwsza strona artykułu zrobi wrażenie na BOINC'ująbych
no to pora na zmianę sprzętu :D ciekawe jak długo pozyje karta na takim obciążeniu. Penie trzeba będzie ja downclockować bo wentylatorki nie wyrobią.
tylko przypomnę, CUDA to obliczenia o pojedynczej precyzji
ATI szykuje na trzeci kwartał tego roku odpowiedz
http://newsroom.chip.pl/news_225210.html (http://newsroom.chip.pl/news_225210.html)
i ta karta będzie liczyła z podwójną precyzją.
Nadchodzą ciekawe czasy, ale to jeszcze potrwa zanim się wykrystalizuje.
Tak nie wczytałem się, to mozna już zaprzęgnąć GPU do obliczeń ?
Czy 8800GTS 512MB @ na 832mhz clock GPU na wodzie wyrobi?
No to juz wiemy na co będziemy robic następne składki :D
A do nowego SKB@P trzeba zakupić płytę z 4 slotami PCI-Ex pod karty graficzne. już widze tego potworka. pewnie jeszcze wyjdzie wersja z podwójnym GPU na karcie :D Razem 8 GPU i jeden quad na pokładzie. Ogrzewanie domu za darmo :D
Nie za darmo. Tylko przy okazji. ;D
będzie dobra wymówka na zakupienie potworka z 4 kartami. Że niby nauka itp :D A cichaczem młócić w gierki :D
Cytat: KrzychuP w 17 Czerwiec 2008, 07:37
Nie za darmo. Tylko przy okazji. ;D
No i nie domu tylko serwerowni :)
Niewiele więcej danych, ale zawsze: http://www.rage3d.com/print.php?article=/previews/video/nvg2xx
Może ktoś liczy F@H? Co to są NS i jak prezentują się czasy ~20-30min?
A http://www.zwijaj.pl/component/option,com_frontpage/Itemid,1/ (http://www.zwijaj.pl/component/option,com_frontpage/Itemid,1/) strona konkurencj, na forum można troche ciekawych rzeczy wyczytać - i to wcale nie o CUDAch, a więcej dobrego o ATI...
oj, dzieje się, dzieje
http://newsroom.chip.pl/news_225243.html (http://newsroom.chip.pl/news_225243.html)
ciekawe co na to Intel ze swoim 8 rdzeniowcem :D Serwery na Nvidii?? :D
Dziś GTX 280 kosztują majątek, ale starsze karty są w cenach przyzwoitych (np Radki 1900), a moc mają i tak dużo wyższą od CPU nawet wielordzeniowych. Jeśli pojawi się więcej projektów wykorzystujących GPU, tj. bedą bardziej uniwersalne, bedzie można pomyśleć o wzmocnieniu własnych maszyn przez dodatkową kartę BOINCującą. A i dziś F@H jest niezłą alternatywą dla ulubionej przeze mnie Rossety więc jeszcze myślę.
Ale wszystkich projektów nie da się natym policzyć niestety,projekty takie jak primegrid odpadają -- ograniczenia sprzętowe :(
jak się GPU jeszcze trochę rozwiną to staną się bardziej uniwersalne.
No ale w końcu, skąd pociągnąć Folding@Home na GF9600???
http://boinc.berkeley.edu/dev/forum_thread.php?id=2518&nowrap=true#17311 Czy komus sie chce poszukac info ? Jest jakas wzmianka ze wersja 6.x.x Boinc'a bedzie obslugiwala GPU do obliczen ?
Z tego co pobieznie wyczytalem, poza Foldign@Home, nie istnieje projekt ktory wykorzystalby GPU do obliczen. Jesli dobrze wyczytalem, zwiazane jest to z bledami obliczen CPU vs GPU (cpu robi dokladniejsze obliczenia) oraz z zaawansowanym jezykiem programowania.
a ja miałem foldinga gpu już ściągniętego, ale wygoniłem, bo z boinciem się to nie trzymało kupy
Czekam na szanse zakupu 280GTX. Jesli marzenie sie spelni, to wtedy ocenimy czy w ogole warto sobie zawracac glowe. Zarzuce BOINC z Folding@home na jednym kompie i porownam z GPU Folding@home na 280GTX. Boje sie najbardziej tego, ze projekt ambitny i wrecz rewelacyjny zostanie skopany przez NVIDIE ze wzgledu na typowy dla nich brak optymalizacji kodu. Karta bedzie miala gigantyczne mozliwosci, a soft wykorzysta 10% tego, bo bedzie niedopracowany. To takie typowe, ze az sie tego od razu spodziewam... Ale poczekamy, zobaczymy.
No, kredyt zostal mi przyznany :). Teraz tylko sprawy papierkowe (jakies 5 dni), skladanie kompa (kolejne 5 dni), stawianie systemu (tez 5 dni :P ) i bedzie mozna testowac BOINC@GPU na 3x280GTX :).
no to ładnie ;D
ufff z 4k zł na grafę? ajj jak się ma taki proc wydajnościowo do g9800? co to wogle za twór - jakieś odgałęzienie technologii?
2100 pln za sztuke grafy. Drozej niz zwykla wersja, ale to OC od XFX. Jak juz to bede mial to zamieszcze drobne info w swojej wisytowce.
To nie odgalezienie. To po prostu najnowsza Nvidia. Najpierw wprowadzili 9800GTX (to samo co 8800GTX tylko o ok. 10-15% szybsze), pozniej 9800GX2 (2x9800GTX w jednej kanapce), a teraz 280GTX co jest tyci szybsze od 9800GX2. Przy okazji wprowadzania nowego modelu zmienili nazewnictwo bo im sie stare skonczylo :P
Poczytaj sobie newsy na necie. Juz jest wiele testow. We wszystkich testach to karta monstrum :D. Wiec zycz mi szczescia :).
PS. Wreszcie mam szanse przegonic Cie Pigu w Cosmo :).
Ponoć nVidia planuje od jutra(czyli już dziś xD) obniżyć cenę kart GeForce GTX 280 o 90 USD, natomiast modelu GTX 260 o 30 USD.
a po prostu nie chcieli mieć nazwy karty 5cio cyfrowej? :P
2,1k x 3 za grafy? hehe jesteś szalony ;D cuda jest na razie w krzaczorach na boinc, folding to nie boinc... ...zazdroszczę kamrrracie ;)
Cytat: SimoN w 04 Lipiec 2008, 02:51
Ponoć nVidia planuje od jutra(czyli już dziś xD) obniżyć cenę kart GeForce GTX 280 o 90 USD, natomiast modelu GTX 260 o 30 USD.
Tak, ale to Nvidia. Koncowi sprzedawcy (sklepy) niekoniecznie musza obnizac, a nawet jesli to i tak bedzie to dlugotrwaly proces. Sklepy najpierw musza sprzedac to co kupily drogo, a dopiero nastepna dostawa moze byc tansza. Proces obnizania cen pewnie potrwa ze 2-3 miechy.
@Pigu: Tak, nie chcieli. I tak, jestem szalony :D
Btw, Piszcie petycje zeby BOINC Manager wykorzystywal GPU tez, a nie tylko CPU :).
Posiadacze nowoczesnych kart Nvidii (i systemu Linux 64) nareszcie będą mogli je wykorzystać na platformie BOINC, dzięki twórcom projektu PS3Grid.
Powstał GPUGRID.net (http://www.gpugrid.net/), gdzie karty będą mogły analizować białka ;D
Na pozostałe projekty dalej trzeba czekać.
zeby jeszcze mieć taką kartę :D i żeby się nie uwedziła od chodzenia na 100% w trybie 24/7
Od zakupu w 1998 roku hiper, super wypasionej karty 3Dfx Voodoo Rush ;D za równe 720zł, nie kupuję super nowości. Do tego dochodziła super magiczna płyta abit SM5. Pierwsza bezzworkowa płyta na rynku, umożliwiająca zmianę FSB z 66 na magiczną liczbę 75Mhz. Plus jeden z najszybszech desktopowych procesorów pentium 233Mhz :). Wszystko kupowane z mozołem za dużą kasę. Teraz gdzieś leży w piwnicy pokryte grubą warstwą kurzu.
Trochę odświeżę wątek.
Czy ktoś mi może mi powiedzieć, czy CUDA chodzi na takiej karcie:
NVIDIA Quadro FX 570
;D
Gdzies kiedys widzialem na stronie Nvidii spis graf obslugujacych CUDA, ale teraz nie znajduje :(.
Nie znajduje rowniez nigdzie info ze Twoja grafa obsluguje badz nieobsluguje CUDA.
Znalazlem za to informacje ze cala seria:
Quadro FX 370, 256 MB
Quadro NVS 290, 256 MB
Quadro FX 570, 256 MB
Quadro FX 1700, 512 MB
ma zunifikowana architekture, z czego wynikaloby ze w pelni obsluguja CUDA.
To powiedzta mnie, w takim razie, krok po kroku, jak to ustrojstwo uruchomić?
Trzeba cuś zainstalować? Jakieś ustawienia zmienić w managerze/przydziale zasobów??
EDIT:
Jakoś trafiłem tu:
http://www.nvidia.com/object/cuda_learn_products.html
więc wynika, że obsługuje.
BÓJCIE SIĘ :attack:
boimy :D a powiedzcie jak CUDA na ATI uruchomić :D
no to Krzychu:
najpierw instalujesz najnowsze sterowniki CUDA:
http://www.nvidia.com/object/cuda_get.html
później klienta 6.3.14
http://boinc.berkeley.edu/download_all.php
później podpinasz się pod gpugrid.net (przez BAMa możesz) i łoisz tyle pkt ile wlezie :D
chiba na ATI jeszcze nie działa
manager pobrany, sterowniki nvidii zainstalowane
pobrana pierwsza próbka
PROBLEMY:
1. grafika mi mocno przycina - nie da się normalnie pracować
--> Czy da się nieco ograniczyć użycie proca karty graf. np. do 80% ???
2. 1 jajo procesora wyłączone z obliczeń
--> Czy da się jakoś to obejść i zapodać 3 wątki obliczeń (2CPU + 1 GPU) ???
to nie są problemy - grid tak ma
ad1. można - opcja w preferencjach lokalnych - używaj nie więcej niż % mocy procesora, ale jak się domyślasz wiąże się również z ograniczeniem mocy CPU
ad2. można - ale jest to nieopłacalne punktowo - GPUgrid szybciej mieli jak ma jednego jajka zarezerwowanego...jeśli jednak się uprzesz to w wątku GPUgrida powinno być napisane jak to zrobić...
Nie da sie uwolnic calkiem jajka :( Czekam na raport jaki RAc na tej karcie osiagniesz, mam takich z 10 wolnych :D
oby się wu przeliczyło przed deadlinem :ph34r:
Cytat: Machloj w 16 Październik 2008, 09:39
ad2. można - ale jest to nieopłacalne punktowo - GPUgrid szybciej mieli jak ma jednego jajka zarezerwowanego...jeśli jednak się uprzesz to w wątku GPUgrida powinno być napisane jak to zrobić...
niestety się tego obawiałem, da się przeżyć jak dobrze zapunktuje :)
Cytat: Machloj w 16 Październik 2008, 09:39
ad1. można - opcja w preferencjach lokalnych - używaj nie więcej niż % mocy procesora, ale jak się domyślasz wiąże się również z ograniczeniem mocy CPU
Raz, czy da się zrobić tak, żeby na procku trzymał stałą wartość % a nie skakał jak głupi i utrzymywał średnią w okolicach przydzielonego zasobu % ??
Dwa, czy można podejrzeć gdzieś jak mocno jest obciążone GPU (jakiś monitoring w stylu managera zadań Windowsa)??
EDIT:
Ad.raz
Jest chyba jeszcze gorzej, bo żeby utrzymać średnią zatrzymuje na ułamki sekund obliczenia :(
HWMonitor.exe ;) takie pi*drzwi, nie masz czegoś jak nvidia control panel?
Cytat: Pigu w 16 Październik 2008, 11:19
HWMonitor.exe ;) takie pi*drzwi, nie masz czegoś jak nvidia control panel?
A mam taki panel, już sprawdzam jak to działa
Cytat: KrzychuP w 16 Październik 2008, 11:16
Raz, czy da się zrobić tak, żeby na procku trzymał stałą wartość % a nie skakał jak głupi i utrzymywał średnią w okolicach przydzielonego zasobu % ??
da się tak zrobić - ale dla każdego zadania musisz robić to "ręcznie" - włączasz menadżera zadań - szukasz zadania które się przelicza, klikasz prawym przyciskiem na nim, dalej dajesz Ustaw koligację i widzisz tam takie coś pewnie CPU0 i CPU1 zaznaczasz jedno drugie odznaczasz...dalej szukasz zadania GPUgrida i zaznaczasz koligację na odwrót - dzięki temu jedno jajo będzie cały czas na 100% obciążone, a drugie 0-5% :)
po zakończeniu zadania chyba musisz jeszcze raz rą operację przeprowadzić (nie wiem czy da się jakoś ustawić do z automatu)
edit
Cytat: Wykorzystanie układów graficznych do przeprowadzania skomplikowanych obliczeń (tzw. GPGPU) to rozwiązanie, któremu aktualnie wróży się świetną przyszłość. Okazuje się jednak, że technologia ta oprócz przyśpieszenia typowych zadań może okazać się ogromnie pomocna w... łamaniu zabezpieczeń. Sprawie postanowili przyjrzeć się Rosjanie, którzy użyli najnowszej wersji programu Password Recovery potrafiącego za pomocą technologii CUDA wykrzesać moc drzemiącą w kartach GeForce. Okazało się, że przy pomocy dwóch kart GeForce GTX 280 program łamał zabezpieczenia WPA2 w sieciach WiFi około sto razy szybciej od konfiguracji, w której obliczenia wykonywał jedynie "typowy" Core 2 Duo. Według ekspertów w obliczu takich możliwości system szyfrowania WPA2 nie jest już gwarantem bezpieczeństwa.
ciekawe jak z łamaniem haseł z archiwów RAR :D
Czytalem ostatnio ze do tego wykorzystuje sie PS3 :) W 2 godzinki mozna znalesc haselko w porownaniu do kilku dni na kompie :P
pod warunkiem że hasełko nie wykracza poza 7 znaków. :Dbo prz 15 znakowym haśle to nawet na PS3 sobie poczekasz dłuuuuugo
Ale nie zmienia to faktu ze na PS3 bedzie szybciej :D
Cytat: Pigu w 16 Październik 2008, 11:19
HWMonitor.exe ;) takie pi*drzwi, nie masz czegoś jak nvidia control panel?
Nie jestem pewien, czy wszystko zrobiłem dobrze, ale u mnie HWMonitor nie pokazuje % użycia GPU.
Jest jakiś inny programik??
dobrze zrobiłeś, on tylko pokaże temp :ph34r: czyli właśnie pi*drzwi
ale nvidia contol panel zdaje się miał wykresy - zobaczę na stacjonarce, bo na lapku mam tylko jakąś wersję lite
Z tego co pamietam to trzeba cos do driverow dociagnac. Dodaje Ci to kilka opcji w panelu Nvidia (overclocking i temp). Za cholere nie moge sobie przypomniec jak to sie zwalo.
Pozdrow
Cytat: maxim w 20 Październik 2008, 14:40
Z tego co pamietam to trzeba cos do driverow dociagnac. Dodaje Ci to kilka opcji w panelu Nvidia (overclocking i temp). Za cholere nie moge sobie przypomniec jak to sie zwalo.
Pozdrow
To sie nazywalo (i nazywa) CoolBits:
http://www.tweaks.pl/download/rejestr/%5Bwww.tweaks.pl%5D_Podkrecanie_karty_graficznej.zip
Ale i tak IMHO RivaTuner jest najlepsza.
Ale Riva z tego co pamietam nie pokazuje temperaturki i obciazenia GPU.
Pozdro
RivaTuner chyba nie jest już rozwijany od jakiegoś czasu ? U mnie np. nie da się go używać, gdy spróbowałem ruszyć zegary karty komp się z nienacka wyłączył, a w sterownikach normalnie mogę sobie podkręcać.
Cytat: maxim w 21 Październik 2008, 12:01
Ale Riva z tego co pamietam nie pokazuje temperaturki i obciazenia GPU.
Pozdro
Od tego to masz najlepszy GPU-Z (odpowiednik CPU-Z). Od temp ofc.
Cytat: TJM w 21 Październik 2008, 12:20
RivaTuner chyba nie jest już rozwijany od jakiegoś czasu ? U mnie np. nie da się go używać, gdy spróbowałem ruszyć zegary karty komp się z nienacka wyłączył, a w sterownikach normalnie mogę sobie podkręcać.
U mnie dziala to dla 280GTX. A nawet dla trzech 280. Tak wiec moge polecic. Aczkolwiek oczywiscie ostroznie z tym :) - qmpel tez pisal ze mial ciagle zwisy (rowniez ma 280), az do czasu odinstalowania Rivy. Moze to zalezy nie tylko od grafy, ale tez od np.(!) mobo...?
Pół-podsumowanie.
Puściłem CUDA na NVIDIA Quadro FX 570.
Jeszcze liczy - w sumie już dla samego liczenia.
Zostało mi jeszcze ze 40h do przeliczenia, a deadline dawno minął.
Nie wiem czy wszystkie próbki są tej samej długości, ale ta moja będzie się przeliczać w sumie ok.150-160h. (Od początku pokazuje pozostały czas przeliczania 30-kilka godzin)
To daje prawie 7 dób przeliczania przy liczeniu 24/7. A zawsze jednak przydałoby się w pracy coś porobić ;)
Przy tej próbce deadline był po dobach, więc nie miałem najmniejszych szans ukończyć na czas.
Chyba ta karta jednak za słaba na CUDA w tej wersji, chyba, że skróciliby próbki albo wydłużyli deadline.
Dlugosc WU jest stala :(.
Jeszcze doliczę do końca, ale nie liczę, że dostanę choćby punkt.
Jedyna moja nadzieja, to zaapelować na forum o wydłużenie deadline'u. Chyba że jakiś inny projekt udostępni WU pod CUDA.
spróbuj FAH :D ale on nie jest na platformę BOINC
Pozostanę wierny BOINCowi. :)
hmm cóż - szczerze - pod cuda karta wypadła beznadziejnie - g8600 liczy ok 40h :(
a gdybyśmy mieli możliwość odkupienia tanio g8600 do kompa składkowego to byłby sens??
pytanie jak bardzo tanio
70 pln :D
Cytat: Pigu w 30 Październik 2008, 15:48
hmm cóż - szczerze - pod cuda karta wypadła beznadziejnie - g8600 liczy ok 40h :(
Która wersja GF8600 ?
nie mam zielonego. Być może odkupię od znajomych :D
Cytat: Szopler w 30 Październik 2008, 16:40
Cytat: Pigu w 30 Październik 2008, 15:48
hmm cóż - szczerze - pod cuda karta wypadła beznadziejnie - g8600 liczy ok 40h :(
Która wersja GF8600 ?
GT
Mhmmm czyli to co ja bede miał w lapku... a liczyłem na trochę łatwych punkcików ;)
Nie za bardzo siedze w cenach graf, ale 70 pln uwazam za niska cene. Gdyby to bylo np. dla mnie, to chetnie bym kupil taka 8600.
o ile nie wydechnie od ciepła :attack: jak nam starczy, to można by się skusić
Ja mówię że moge odkupić od znajomych. Co zespół wybierze to już nie moja brocha.
Kurcze.... chyba przeliczyło wreszcie jedną próbkę seti :D ale temp na gpu wzrosła do 68c
załóż jakiś mały wentylatorek na tę kartę
myślę nad tym ale nie mam możliwości zamocowania wentyla. na razie doliczył do 16% a gpugrid czeka w kolejce.
8600M GT w lapie... dziś parę minut po północy puściłem próbkę GPUGrida... Wróciłem z pracy po 16-tej i co widzę? CPU Time (Only) 7h47m. Czy on podaje czas tylko CPU? Przecież liczyło w sumie 2x dłużej... No i 25% policzyło - wyrobi w deadline, ale lap chodzi 24/7 z czego grid około 18-20.
Wyczytałem w
http://forums.nvidia.com/index.php?showtopic=84440
10. What are the technical specifications of the NVIDIA Tesla C1060 Processor ?
że to coś ma 240 rdzeni jako 30 8-rdzeniowych multiprocesorów, każdy rdzeń ma jednostkę arytmetyczną do floatów pojedynczej precyzji, więc takich jednostek jest 240. Ale jednostek do floatów podwójnej precyzji jest tylko 30 (po 1 na multiprocesor).
Ja z tego rozumiem tyle, że to jest super-procesor, który ma 240 rdzeni i który może wykonywać obliczenia podwójnej precyzji. A drobnym druczkiem jest napisane, że albo albo. Albo 240 rdzeni, albo podwójna precyzja.
cuuuudaa cuuudaa cuuuudaa ogła sza ją...
boinc benchmarkuje kartę jak wykryje ją w systemie? Jak wygląda wyciąg z 'messages' z pracy na tych kartach?
Na wiki nie ma za dużo o tej technologii, co jakby przetłumaczyć to:
http://boincfaq.mundayweb.com/index.php?language=1&view=471 ?
W tym faqu sporo uwagi jest poświęcone przymulaniu systemu podczas pracy na karcie. Czytałem kiedyś o jakiejś technologii nvidii, że jak w kompie jest i zintegrowana grafika i monstrum w slocie pciexpress to jeśli do aktualnej pracy (przeglądanie sieci itd.) to ten drugi może być całkowicie wyłączony. A co gdyby tak dopasować to do boinca, że na monstrum by było liczone ale rendereowaniem pulpitu zajmowała by się zintegrowany chip graficzny. A może już tak boinc potrafi?
w massage takie info jest na temat karty
2009-06-07 23:01 CUDA device: GeForce GTX 260 (driver version 18585, compute capability 1.3, 896MB, est. 105GFLOPS)
No to by było całkiem miłe. Pracuje sobie na zintegrowanej a cuda sobie liczą nie powodując przycinania.