Aktualności:

Nasza strona na Facebooku - poleć znajomym.

Menu główne

CUDA

Zaczęty przez lolek, 05 Luty 2009, 15:56

lolek

Na forum coraz częściej mówi się o wykorzystaniu GPU do obliczeń (sam też zacząłem). Ale czy ktoś zna programy wspierające CUDA, (np. Badaboom) w normalnym użytkowaniu PC ? ;)

mindc

już w którymś wątku pisałem o:
RTSquare - plugin do 3dsmax - renderuje wykorzystując CUDA
i obiło mi się o uszy jeszcze coś takiego jak Gelato - też chyba do renderingu


OxyOne

Cytat: mindc w 05 Luty 2009, 23:09
już w którymś wątku pisałem o:
RTSquare - plugin do 3dsmax - renderuje wykorzystując CUDA
i obiło mi się o uszy jeszcze coś takiego jak Gelato - też chyba do renderingu


RTSquare wogóle wykorzystuje grafy. ta wtyczka jak powstała jeszcze nie było cudowniewidów itp. ogolnie o kant dupy obic.
nic nie ma ciekawego, wogole nie ma go renderów grafami typowo jak w boincu. costam sciemniaja ze renderuje ale ja nie zauwazylem roznicy. tak samo TESLA wynalazek dla samego wynalazku. maiłem okazje przez tydzien sie pobawic i stwierdzam ze lepiej jak juz miec NV to 2x295 bedzie taniej i wydajniej niz TESLA (tylko nazwa ładna)
ATI tez moze sobie tym wynalazkiem FireStream 9250 - zrobic łopatke do piaskownicy :attack:
kity kity chłit matentigowy i tyle
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

sesef

Cytat: NetMonitoring w 05 Luty 2009, 23:41
ATI tez moze sobie tym wynalazkiem FireStream 9250 - zrobic łopatke do piaskownicy :attack:


A to nie jest przypadkiem zwykła karta graficzna tylko że z nową puszką i nazwą no i oczywiście ceną.

mindc

Cytat: sesef w 06 Luty 2009, 00:10
Cytat: NetMonitoring w 05 Luty 2009, 23:41
ATI tez moze sobie tym wynalazkiem FireStream 9250 - zrobic łopatke do piaskownicy :attack:


A to nie jest przypadkiem zwykła karta graficzna tylko że z nową puszką i nazwą no i oczywiście ceną.

Z tego co znalazłem:
9170 (RV670) -> jego graficzny odpowiednik 3870 (RV670)
9250 (RV770) -> jego graficzny odpowiednik 4850 (RV770)
9270 (RV770) -> jego graficzny odpowiednik 4870 (RV770)

czyli na tych samych GPU Core


sesef

no czyli to samo co Tesla u NV te same układy tylko więcej ramu no i te tesle więcej SP mają przydatność taka jak wersje Extreme CPU Intela.

Jarek Wróblewski

#6
Widzę, że te obliczenia na kartach graficznych rzeczywiście wyglądają obiecująco (nie to, co komputery kwantowe, które za naszego życia nie rozłożą na czynniki pierwsze liczby 77).

Właśnie się dowiedziałem, że za około 40,000pln są jakieś Tesle z 4x240=960 rdzeniami graficznymi, żrące koło kilowata. Za parę lat, jak zdejmą jedno zero z ceny i obniżą moc, może się na tym będzie liczyło. Na pewno 960 rdzeni to chwyt marketingowy, ale i tak wydajność powinno to mieć sporą.

Jak rozumiem, teraz można w tej samej technologii liczyć na kartach graficznych.

Moje pytanie: Czy ktokolwiek z Was jest w stanie napisać i uruchomić własny program komputerowy na grafie?

Niech nawet będzie proste badziewie w stylu 1+2+3+...+100:

int i, suma=0;
for(i=1;i<=100;i++)suma+=i;
printf("%d\n",suma);


EDIT:

A czy ktoś wie, gdzie można znaleźć jakiś manual lub inne materiały mówiące, jak się w tych CUDAch programuje? Liczyłem na to, że może są gdzieś jakieś seminaria z tego prowadzone i że może jakieś materiały do nich dają w internecie, ale jak w Googlu wpisałem: CUDA seminarium, to mi sypnęło seminariami duchownymi - to chyba jednak inna parafia. Z tego, co mi się gdzieniegdzie udało wygrzebać, odniosłem wrażenie, że program pod CUDA jest podobny do C, z tym, że pewnych rzeczy nie ma, a jest trochę nowych. Nigdzie jednak mi się nie udało dogrzebać do żadnego podręcznika.
Znaleziono AP26:

http://www.primegrid.com/forum_thread.php?id=1246#22466

Akira

http://www.nvidia.pl/object/cuda_learn_pl.html

Proszę bardzo

Troll81

Zarówno na stronach nvidii jak i ATI można znaleźć gotowe SDK i z tego co pamiętam to jakies materiały o programowaniu mają.

Jarek Wróblewski

#9
Jeszcze takie coś znalazłem:
http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf

EDIT:

Moje pierwsze wrażenie po przeczytaniu wstępu:

To całe CUDA i GPU to jest jakby inny rodzaj komputera, z innymi subtelnościami, które trzeba wziąć pod uwagę na etapie projektowania algorytmu. Chyba trudno wziąć dowolny program dla CPU i go na chama przepisać na GPU/CUDA, a przynajmniej trudno oczekiwać, że to będzie optymalne.

W zasadzie przy projektowaniu i implementacji algorytmu dla CPU bierze się w rachubę, czasem całkiem podświadomie, pewne parametry, które wynikają z obecnej komputerowej rzeczywistości, np.:
Że RAMu można użyć 1GB, ale nie można 100GB.
Że program może działać 10^18 cykli procesora (10-20 lat), ale nie może działać 10^30 cykli (10^13 lat).
Że liczby mają 32/64 bity i dobrze się jest do tego dopasować.

Często trzeba się zdecydować: używamy dzikie gigabajty RAMu, czy staramy się do RAMu nie sięgać. Używamy dysku twardego, czy staramy się tak wymanewrować, żeby tego uniknąć.

I inne subtelności w postaci optymalizacji prostych operacji w oparciu o rozumienie co jest dostępne.

No więc to CUDA/GPU jawi mi się trochę jako inny świat, w którym nie tylko trzeba się nauczyć programować, ale przede wszystkim nauczyć jakie operacje są dostępne, i jak je optymalnie wykorzystać.
Znaleziono AP26:

http://www.primegrid.com/forum_thread.php?id=1246#22466

sesef

Cytat: Jarek Wróblewski w 15 Luty 2009, 07:47Na pewno 960 rdzeni to chwyt marketingowy, ale i tak wydajność powinno to mieć sporą.

Jeżeli prawdą są te plotki o serii 5xxx nadchodzących Radeonów to najwyższy model będzie miał też coś około 900 procesorów strumieniowych a pewnie będzie kosztował mniej niż 3000 zł

OxyOne

Cytat: sesef w 16 Luty 2009, 13:42
Cytat: Jarek Wróblewski w 15 Luty 2009, 07:47Na pewno 960 rdzeni to chwyt marketingowy, ale i tak wydajność powinno to mieć sporą.

Jeżeli prawdą są te plotki o serii 5xxx nadchodzących Radeonów to najwyższy model będzie miał też coś około 900 procesorów strumieniowych a pewnie będzie kosztował mniej niż 3000 zł

czegos nie lapie HD4870x2 ma teraz 2x800 procesorów strumieniowych (2GPU) to jak seria HD5870 bedzie miala 900 procesorów strumieniowych jak ma miec 5GPU?
trzymajmy sie tego co mamy na reke nie co bedzie.

Tesla to porazka sezonu cenowo i wydajnosciowo, co do FireStream tez chłopaki sie nie popisali... sa masakrycznie drogie a wydajnosciowo ustepuja podstawowym flagowcom (HD4870x2, NV280, NV295)
Powyższy post wyraża jedynie opinię autora w dniu dzisiejszym. Nie może on służyć przeciwko niemu w dniu jutrzejszym, ani każdym innym następującym po tym terminie.

[/url]

sesef

Cytat: NetMonitoring w 16 Luty 2009, 13:59czegos nie lapie HD4870x2 ma teraz 2x800 procesorów strumieniowych (2GPU) to jak seria HD5870 bedzie miala 900 procesorów strumieniowych jak ma miec 5GPU?
trzymajmy sie tego co mamy na reke nie co bedzie.

To już całkowicie inna architektura, to nie będzie tak że wezmą 5 takich chipów od 4870 i obsadzą to na 1 płytce bo po pierwsze to zasilacza takiego chyba nie ma co by to udźwignął a lutowanie kilku zasilaczy nie wchodzi w grę w takich przypadkach bo to nie ma być zestaw małego elektryka a ogólnodostępny produkt, po drugie to do kompletu musieliby chyba dawać lodówkę no i podstawkę pod patelnie bo równie dobrze można by przygotować obiad podczas grania. Te 5 GPU to trochę mylne stwierdzenie ponieważ te karty (jak na razie to nie potwierdzone informacje i nikt nie wie do końca czy tak będzie, miejmy nadzieje, że będzie :)). Na karcie z serii 5xxx ma się znależć jeden układ (MASTER) w nim będą się znajdować te wszystkie kontrolery pamięci, całe sterowanie układami slave itd, będzie on również zawierał jakąś tam ilość procesorów strumieniowych. Najprostsza karta będzie zawierała tylko sam układ MASTER i tylko tyle, droższe karty będą zawierały również układy slave w których znajdują się tylko procesory strumieniowe w zależności od modelu ma ich niby być od 1 do 4 tak więc mówienie że taka karta będzie zawierać 5 GPU jest trochę błędne bo co najwyżej można powiedzieć, że ma 1 GPU bo jako GPU można traktować układ MASTER, SLAVE bez MASTERA nie będzie działać sam w sobie można powiedzieć, że jest niczym :P I taka najwyższa karta z Masterem i 4 slavami będzie niby miała 900+ procesorów strumieniowych, niższe modele będą miały mniej układów slave przez co i procesorów strumieniowych będzie mniej.

Jarek Wróblewski

W katalogu
http://www.math.uni.wroc.pl/~jwr/cuda/
umieściłem zadanie1.c

Jeśli ktokolwiek chce rozpoczynać zabawę w programowanie kart graficznych, to myślę, że sensowne jest rozpoczęcie od czegoś o tym właśnie stopniu trudności.

To jest działający program w C - dla CPU, należy go przepisać na GPU (może być emulator, nie muszą być CUDA - może być inny system do programowania grafik). Z emulatorami ostrożnie - w emulatorze wątki są wykonywane pojedynczo, więc się nie pogryzą - tutaj jest wspólny licznik i trzeba zadbać o to, żeby wątki sobie nie przeszkadzały.

Do zrobienia są 2 rzeczy:

1. Przepisanie kernela (jajo) w sposób zrozumiały dla karty graficznej.

2. Zastąpienie pętli
for(n=A;n<=B;n++)jajo(n);
odpaleniem równoległych B-A+1 wątków.

Nie mam bladego pojęcia, czy jest to zadnie trywialne, czy trudne, ale
dopóki się przez to nie przejdzie, trudno myśleć o czymś
poważniejszym.

W kernelu są instrukcje "for" oraz "if". Nie wiem, czy one nie będą
stanowiły problemu (np. z wydajnością), ale tym się na razie nie
martwmy, jeśli tylko uda się to przepisać na GPU.

Poza spełnieniem roli wzorca, program, który napisałem, powinien
służyć do zweryfikowania poprawności wyników oraz, po zainstalowaniu
odpowiednich dla systemu czasomierzy, do porównania prędkości.

Jeśli coś jest niejasne od strony matematycznej, chętnie odpowiem na wszelkie pytania.
Znaleziono AP26:

http://www.primegrid.com/forum_thread.php?id=1246#22466

jurdziol

Cos pokombinowalem.

http://dl.monkeystudio.pl/ - exe w wersji 64 bitowej, poniewaz mam problemy z konfiguracja visual studio dla wersji 32 bitowej.

Dla kazdego elementu z 20 elementowej tablicy jest wykonywana petla:
   for(i=0; i<100000; i++) {
      a[idx]+=1;
   }

Powinna sie wykonywac w 10 watkach. Na GF8800GT takie obliczenie trwa ulamek sekundy.

Bazowalem na http://llpanorama.wordpress.com/2008/05/21/my-first-cuda-program/ i zostalo pare elementow z orginalnego programu.
Ot taki drobny wstep do CUDA ;)
Pozdrawiam

Szopler

0 100000.000000
1 100001.000000
2 100002.000000
3 100003.000000
4 100004.000000
5 100005.000000
6 100006.000000
7 100007.000000
8 100008.000000
9 100009.000000
10 100010.000000
11 100011.000000
12 100012.000000
13 100013.000000
14 100014.000000
15 100015.000000
16 100016.000000
17 100017.000000
18 100018.000000
19 100019.000000


;)

Tomasz R. Gwiazda

http://itbiznes.pl/art36080.html

Troll81

ciekawe komu przyzna ATI

TJM

Przyglądałem się trochę ostatnio programowaniu w CUDA, nie wygląda to wcale tak strasznie jak mi się wydawało. Nie jestem tylko w stanie rozkminić niektórych rzeczy.
Przykładowo, przepisałem fragment źródła enigmy Stefana Kraha pod CUDA, część jednej z funkcji do obliczania score (to w zasadzie tylko wybieranie danych z tablic i dodawanie) - na tych funkcjach program traci co najmniej 50-60% czasu. Dane oczywiście na sztywno wklepane (w programie się zmieniają ciągle), ale to bez znaczenia dla wydajności samej funkcji.
Na podkręconym GF9600GT testowa pętla wykonuje się z prędkością porównywalną do PIII 1GHz. Dość wolno, ale co ciekawe procentowe użycie GPU jest w tym czasie bardzo niskie, prawie nieistniejące - sprawdzałem to prostym trickiem - obniżenie taktowania karty do minimum jakie da się na niej ustawić (dołączonym progsem 124/100), przy takim taktowaniu odpalenie czegokolwiek jadącego ostro na CUDA od razu totalnie zmula kompa - strony w przeglądarce chodzą skokami (zresztą sam wskaźnik myszy też) itp.
Odpalenie mojego progsa w ogóle nic nie zamulało, ale oczywiście proporcjonalnie wolniej działał.
Pewnie trzeba jakoś wykorzystać wielowątkowość karty i rozgałęzić program, żeby wykonywał wiele operacji równolegle - na razie jednak nie jestem w stanie nawet wyobrazić sobie jak to się robi  %)

Ciekawe też jak szybka jest obróbka danych znajdujących się w pamięci karty graficznej - kiedyś próbowałem zmodyfikować program, tak żeby korzystał z gotowych tablic połączeń w rotorach, ładowanych z pliku, zamiast na bieżąco przeskakiwać i sprawdzać. Niestety, przy normalnej aplikacji się to w ogóle nie sprawdza, bo zapotrzebowanie na pamięć rośnie do tego stopnia, że aplikacja z CPU-intensive robi się memory-intensive i po prostu zwalnia. Może na GPU nie byłoby tego problemu.



W razie jakiejś pilniejszej sprawy - jestem często dostępny na kanale IRC B@P, na forum czasami zapominam zajrzeć lub nie mam czasu.

Troll81

:D doczekamy się enigmy na CUDA?? wszka rosjanie używali już CUDA do łamania hasłeł w sieciach WIFI :D

KrzychuP

Wszedłem dziś na CPDN Beta, bo mi jakieś preferencje manager sczytuje z projektu zamiast z BAM i zauważyłem:

CytatUse Graphics Processing Unit (GPU) if available   yes

   Edit CPDN Beta preferences

Czyżby się też do GPU przymierzali?

TJM

Kto wie  %) Ja nawet nie jestem programistą, ale zawsze korzystając z manuali cośtam potrafię wymotać, może i całą aplikację CUDA dam radę kiedyś zrobić. Ale od jednej działającej pętli (z 80% kodu skopiowanymi z jakiegoś przykładu  %)) do działającego programu, zwracającego poprawne rezultaty raczej daleka droga i to pod górkę...
Aplikacja sama w sobie jest bardzo prosta, ale wystarczy popełnić malutki błąd gdzieś w głównej pętli, żeby otrzymać trudny do znalezienia bug, zwłaszcza, że wyniki mogą wychodzić poprawne (tzn weryfikujące się), ale po prostu nic nie warte; kompletne sprawdzenie poprawności wymaga ataku na jakieś testowe teksty i przeglądania rezultatów w celu oceny działania aplikacji.

W razie jakiejś pilniejszej sprawy - jestem często dostępny na kanale IRC B@P, na forum czasami zapominam zajrzeć lub nie mam czasu.

Troll81

to jest standardowy checkbox na stronach projektów. Tylko nie wszystkie upgrejdowały...

sesef

#23
@TJM

Ten problem z tym że karta nie pracuje na max itp może wynikać z tego, że pętla jest za krótka a pewnie od razu po zakończeniu iteracji chcesz zczytywać dane z ramu karty na ram w kompie i tutaj jest największy problem bo na tym się najwięcej traci i pomimo szybkiego policzenia czegoś na gpu to i tak całkowity czas może wyjść gorszy niż policzenie tego samego na CPU bo najwięcej czasu stracimy na komunikację z karta i kopiowanie pamięci.

Właśnie, w ogóle to jest sens nawet bawić się z tym do enigmy? Z tego co widzę na stronie projekt skończy się w styczniu 2010, planowane jest łamanie jakiś innych wiadomości?

Troll81

Jak enigma zostanie projektem miesiąca i jeszcze TJM ogłosi wyścig :D to się zakończy jeszcze w tym roku :D

TJM

Koniec aktualnie dostępnych keyspace nastąpi na pewno jeszcze w tym roku, wartości podane w server_status to średnie z dość długiego okresu i niespecjalnie oddają prawdziwą prędkość, na dodatek to statsy pobrane z serwera M4, a od jakiegoś czasu nie synchronizują się w czasie rzeczywistym z moim, po prostu zadania odsyłane są szeregowo jedno po drugim z grzecznym czekaniem za każdym razem na pełną odpowiedź zdalnego serwera i zamknięcie połączenia - musiałem tak zrobić, ponieważ przy asynchronicznym odsyłaniu kiedy były problemy z połączeniami, mój serwer DOSował praktycznie serwer M4 %) Teraz przez takie powolne odsyłanie czasami kilkadziesiąt albo nawet kilkaset tysięcy zadań siedzi w kolejce, a to może być ładne parę procent całości.

Koniec keyspace nie oznacza to, że tekst zostanie złamany - co dalej to się zobaczy, podejrzewam że już po zakończeniu pierwszego zakresu (gdyby się uprzeć i przyblokować drugi - max 30-50 dni, zależnie jaki tam jest procentowy rozkład długich/krótkich zadań) Stefan Krah wymyśli jakieś inne podejście. Ja bym na dzień dobry spróbował z innym słownikiem jeszcze krótszy początek tekstu niż hceyz72 albo po prostu inny fragment, np. 60-70 liter od końca. A doświadczenie z CUDA przydałoby mi się chociażby na wypadek, gdyby okazało się, że podejścia z obecnym algorytmem nie dadzą żadnych rezultatów - moce procesorów są zbyt słabe, żeby marzyć w ogóle o ewentualnym bruteforce, ale gdyby okazało się, że potężna grafa da jakieś konkretne przyspieszenie, to kto wie - można by bruteforcem ciągnąć np. pierwsze 20 liter, wyniki sprawdzać w locie ze słownikiem, kiszkowate odrzucać a zostawiać tylko te najlepsze.


W razie jakiejś pilniejszej sprawy - jestem często dostępny na kanale IRC B@P, na forum czasami zapominam zajrzeć lub nie mam czasu.

stn

Mam pytanie. Chce zeby moje GPU liczyło SETI. Zainstalowalem najnowsze sterowniki do mojaj karty (nVidia 9600GSO). Moj system to Fedora 10 x64. Na windowsie do czasu liczylo GPUGrida ale się zepsul windows i juz nie liczy  >:( Po włączeniu BOINC widzę komunikaty:
pią, 24 kwi 2009, 17:26:05||Can't load library libcudart
pią, 24 kwi 2009, 17:26:05||No coprocessors

Z góry dziękuje za jakąkolwiek pomoc.

Moj komp:

http://www.primegrid.com/hosts_user.php?userid=35957

buninek

Zacznij od zmiany mangera na najnowszy. Może niezbędne będzie użycie innnej wersji sterowników do karty?

Tu jest wątek temu poświęcony.
http://www.boincatpoland.org/smf/setihome/cuda-w-seti/msg60673/#msg60673

stn

Nie do końca poświęcony temu. Mój problem się tam nie pojawia, a jakbym chciał odpalić GPUGrid to tez by nie dzialalo. Chodzi o samego BOINC i jego ślepote na moją grafe^^. Na WinXP karta graficzna byla znajdowana i nawet na niej liczyło. Mam najnowsza stabilna wersje BOINC na Linuxa. Sterowniki są ze strony "download CUDA", wiec wszystko powinno byc OK. Pytam czy ktoś miał podobny problem, bo rozwiązać to "na farta" będzie ciężko...

Niekumaty Burak

Ściągnąłem sterowniki 182.65_quadro_winxp2k_international_whql.exe. Gdzie mam je zainstalować, w C/:Windows/system32 ?
Navigare necesse est, vivere non est necesse.

Troll81

chyba rozpakować :D najpierw z tgo co pamiętam rozpakowywwujesz (obojętne gdzie) a dopiero potem instalujesz (a tu już sam instalator decyduje)

Tomasz R. Gwiazda

http://www.in4.pl/komentarze_ForceWare_186.18_WHQL_do_pobrania,18760.htm

NVIDIA wypuściła nowe, oficjalne sterowniki o numerku 186.18.
Sterownik z certyfikatem WHQL dla przeznaczonych dla komputerów typu desktop procesorów graficznych GeForce z serii 6, 7, 8, 9 i 200 i ION.
Nowości w wersji 186.18:
* Liczne poprawki błędów. Więcej informacji znaleźć można w dokumentacji.
* Automatycznie instaluje nowe oprogramowanie systemowe PhysX w wersji 9.09.0428.
Do pobrania wersje dla Windows 7 / Vista 32 bit, Windows 7 / Vista 64 bit, Windows XP 32 bit, Windows XP 64 bit.
Nowości w wersji 185/186:

* Dodana obsługa CUDA 2.2, zwiększająca wydajność aplikacji wykonujących obliczenia na GPU. Więcej informacji znaleźć można pod adresem www.nvidia.pl/cuda
* Podnosi wydajność w wielu aplikacjach 3D. Poniżej kilka przykładów wzrostu wydajności, uzyskanych w czasie testów sterowników w wersjach 185/186 oraz 182 (wyniki mogą być różne w zależności od twojego procesora graficznego, konfiguracji systemu i ustawień gry):
o Do 25% wyższa wydajność w The Chronicles of Riddick: Assault on Dark Athena.
o Do 22% wyższa wydajność w Crysis: Warhead.
o Do 11% wyższa wydajność w Fallout 3.
o Do 14% wyższa wydajność w Far Cry 2.
o Do 30% wyższa wydajność w Half-Life 2 engine games with 3-way and 4-way SLI.
o Do 45% wyższa wydajność w Mirror's Edge.
* Obsługa pakietu GeForce Plus Power Pack #3. BEZPŁATNY zestaw aplikacji PhysX i CUDA można pobrać stąd.

Troll81

pytanie jak toto pójdzie z BOINCem w parze :D

Tomasz R. Gwiazda

na jednym zainstalowalem i poszlo... bez problemow

Tak mnie to ciekawi... jak to jest, ja updatuje stery na biezaco i klientow tez i problemow nie mam, a ciagle ktos na forum ma...
TO znaczy ze nie problem z tym jest tylko z samymi kompami i ich maitenancem chyba :)



AiDec

To znaczy ze:

- albo soft jest niedopracowany i u jednego (na jednym hardware i software) dziala, a u innego nie dziala
- albo soft jest niedopracowany i na komputerach innych uzytkownikow (ze wzgledu na wiecej zainstalowanego oprogramowania, innego oprogramowania, oprogramowania wykorzystywanego w inny sposob) dziala inaczej, a co za tym idzie nieprawidlowo



Bo jest paru kumpli :),
Bo jest parę w życiu dobrych chwil...


Moja wizytowka i sygnaturka

TRZECIAK

186.18 zainstalowałem w nocy ok 1 czy 2 i już odesłałem na nich 2 próbki GPUgrida, więc nie widzę problemu.
Jedyny problem który pojawił mi się pierwszy raz to to że po instalacji sterów komp niechciał mi się potem wyłączyć.
Musiałem dać mu reset i od tamtej pory wsio jest jak na razie ok.

A tak przy okazji to zmieniałem już sporo wersji sterów i nigdy nie miałem żadnych problemów z liczenie BOINC. To samo się tyczy samego BOINCa zawsze staram się mieć najnowszą wersję (mały wyjątek to ostatnia wersja którą downgradeowałem do wersji 6.6.28, bo następna wersja nie zamykała mi procesów przy zamykaniu programu).


Szopler

Firma Kaspersky Lab "przyznałą się", że dodała w instalacji swojego oprogramowania komponenty Tesla S1070. Pozwala to na wykorzystanie technologii Nvidia CUDA w celu zapewnienia jeszcze większej ochrony. Tesla została wprowadzona przez producenta oprogramowania antywirusowego aby przyspieszyć rozpoznawanie niechcianych plików spośród wszystkich nowo zainstalowanych na dysku komputera poprzez porównywanie ich do tych zarejestrowanych przez laboratorium antywirusowe.

Zgodnie z testami przeprowadzonymi przez firmę można uzyskać ponad 300-krotny wzrost w prędkości wykonywania algorytmu porównującego przy przełączeniu z procesora Core 2 Duo o taktowaniu 2,6 GHz na Tesla S1070.

Kaspersky Lab nadal chce rozwijać wykorzystywanie rozwiązań komputerowych opartych na procesorach graficznych i rozważa dodanie wsparcia dla technologii CUDA (i może Steam) do swoich rozwiązań zabezpieczeń.

źródło:http://www.tcmagazine.com/comments.php?shownews=31514&catid=6