Nowa architektura grafik AMD

Zaczęty przez Aegis Maelstrom, 19 Czerwiec 2011, 15:59

Aegis Maelstrom

AnandTech zamieścił wczoraj artykuł na temat nadchodzącej nowej architektury grafik od AMD (dawne ATi), która obejmie zarówno samodzielne karty graficzne, jak i nadchodzące kolejne generacje układów CPU + GPU czyli tzw. APU takich jak obecne Llano.

Co ważne, nowa architektura w większym stopniu niż obecnie skupiać się będzie na wykorzystaniu GPU nie tylko do grafiki, lecz także do obliczeń. AMD pracuje, by takie wykorzystanie układów graficznych zyskało na popularności i efektywności. Wg informacji zdobytych przez AnandTech nowa architektura ma być łatwiej programowalna i ma oferować wsparcie dla programowania w takich język jak C++, m.in. zapewniając obsługę wskaźników, a nawet rekurencji.

Informacje przedstawione przez AMD mają umożliwić twórcom programów przygotowanie się do nowych możliwości. Nie podano żadnych terminów wejścia architektury na rynek, wiadomo że opracowywany od dawna Buldozer, czyli silna jednostka CPU + GPU dostępna od 2012 roku będzie oparty jeszcze na obecnej architekturze bazującej na VLIW4.

Dla przypomnienia: tutaj linkowałem świetny artykuł pokazujący prace nad poprzednimi generacjami Radeonów.

krzyszp

Ciekawe sprawy. Mnie jednak zastanawia coś innego.
W moich obecnych zastosowaniach znacznie większe znaczenie ma ilość i szybkość pamięci (zarówno RAM jak i pamięci masowe). Ze względu na wciąż dość wysoką cenę SSD nie są one jeszcze w stanie zastąpić (w moich zastosowaniach) HDD, ale nawet szybkość RAM'u ma u mnie większe znaczenie niż szybkość procesora... Co więcej - w zastosowaniach czysto biurowych (a to pewnie z 70-80 procent rynku) już dwu rdzeniowe procesory produkowane 5-6 lat temu zapewniają wystarczającą wydajność. Na dobrą sprawę, dobry telefon oparty na Androidzie (lub zmodowany do Ubuntu) może stanowić "serce" domowego centrum audio-video, o przeglądaniu stron internetowych czy pisaniu tekstów nie wspominając...
Jaki jest więc tak naprawdę cel w produkowaniu takich potworów? Dla kilku serwerowni, pasjonatów, BOINC (oraz pochodnych) oraz nowego Crysis'a? Czy to będzie się opłacać...
Wiem, wiem - postępu się nie zatrzyma, ale czy firmy "wyjdą na swoje" przy konieczności wydatkowania potężnych sum na dalszy rozwój x86?
Oczywiście, sprawa będzie wyglądać trochę inaczej po przejściu na techologie oparte na grafenie lub komputery kwantowe - wtedy pojawią się nowe zastosowania dla tych potworów, ale wprowadzanie ogromnych środków na uzyskanie dalszego postępu o 10-15% imho mija się trochę z celem...


Fajne zegarki :)
Należę do drużyny BOINC@Poland
 Moja wizytówka

Tomasz R. Gwiazda

ta pogon producentow kart GPU to jest niekonczaca sie :)
to jest ewidentna zmowa z producentami gier :) ktorzy nie umieja/nie chca/z premedytacja nie optymalizuja kodu tylko pieprza ze potrzeba wiecej powera :)
a kupujac najlepsza karte na rynku z 2gpu + spianjac ja sli/cross fire i tak maxa nie mozna wyciagnac :)


Aegis Maelstrom

Co do wzrostu zapotrzebowania na moc obliczeniową: niestety decyduje o tym ekonomia.

Z jednej strony użytkownik może życzyć sobie nowości, np. nowego interfejsu, z drugiej trzeba mu to dostarczyć, możliwie prędko i niewielkim kosztem.
Prędko i tanio oznacza niechlujnie, bez optymalizacji, przy użyciu klepaczy kodu, którzy mają problemy ze zrozumieniem co to wskaźnik, a poważnej algorytmiki to na oczy nie widzieli i nie byliby w stanie jej zrozumieć, przy użyciu pierdyliarda bibliotek i warstw abstrakcji, w korporacji gdzie kod się _znowu_ wyrzuca do kosza i _znowu_ pisze to samo tylko inaczej i gdzie_znowu_ nie udało się uniknąć wszystkich błędów, ale wprowadzono masę nowych.

W ten sposób np. powstaje nowe Windows 8, które ma mieć możliwość takiego iPhone'owo/Facebookowego interfejsu, gdzie programy korzystające w pełni z tego nowego UX rzekomo będą musiały mieć interfejs napisany w Javascripcie  :deadman:. W ten sposób coraz więcej rzeczy przenosi się do sieci, gdzie np. wykonywanych jest w przeglądarce ze znów javascriptem. W ten sposób żyjesz w sytuacji, gdzie gość pisze Ci, że javascript to nie problem, bo wykonuje się najwyżej parę razy wolniej niż .NET. Który też nie jest demonem prędkości.
W ten sposób żyjesz w świecie, w którym komórka ma procesor 1Ghz i n razy więcej RAMu niż Twój Pecet sprzed 15 lat, a jednocześnie potrafi wolno chodzić i nie mieć porządnej wielozadaniowości.

Gdyby zamrozić postęp w sprzęcie i wymusić rozwój softu, kładąc na to gigantyczne środki, obecne komputery, komórki czy odtwarzacze multimedialne okazałyby się być bestiami o gigantycznych możliwościach.

Oczywiście nie są to jedyne powody spowolnienia. Trzeba robić rzeczy bezpiecznie, by nie dawały się łatwo zhackować, by np. przekłamanie fizyczne w pamięci nie powodowało destabilizacji systemu, wreszcie by system był odporny na interakcje między programami, wątkami, danymi itd. itp. Takie coś mocno spowalnia.

W przyszłości możemy się też spodziewać np. ścian wyświetlaczy, ekranów tysiące na tysiące pikseli, konieczności dekodowania wielu szerokich strumieni mediów, prostych sztucznych inteligencji i dalszego rozszerzenia kompetencji komputerów. Więc to się wykorzysta.