Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

DvP schrieb:
Naja, ich finde auf die schnelle zwar keine handfesten Informationen dazu, jedoch kann man sehen, dass die 2900XT fast doppelt so viele Transistoren hatte als deren Vorgängerin (die X1950XTX) und dennoch nur etwas mehr Shader Einheiten (wobei R4 auf R5 Umstellung), die gleiche Anzahl an ROPs und somit nur eine leichte Erhöhung der Pixelfüllrate und der Texelfüllrate aufweisen konnte. Aber wie gesagt, es gibt sicher einige hier die uns erklären könnten wie viel Aufwand das wirklich wäre.

@ john carmack
WOW bei diesen stichhaltigen Argumenten (bzgl. GT300) und verlässlichen Quellen glaube ich dir natürlich alles. Danke für die Erleuchtung. :rolleyes: Wobei ich natürlich zugeben muss, dass der RV870 auf der Architektur des RV770 aufbaut, das ist natürlich richtig. Ein Refresh ist aber gänzlich anders definiert.
Mit so dogmatischen Aussagen wie jener die Sgt.Speirs zitiert hatte, sollte man generell etwas aufpassen ;-)

@ Sgt.Speirs
Dass man das nicht einfach so machen kann, ist uns ja klar. Aber was ein Umbau auf 512bit für Änderungen verlangen würde, wäre interessant. Auch wenn ich es für Vollkommen unrealistisch halte, dass ATI das macht.




Quelle: http://www.hardware-infos.com/news.php?news=2663
Zwar etwas älter aber meiner meinung nach kommen die News der Wahrheit recht nahe!


...Angesprochen auf die evolutionären Neuerungen des Chips, verriet man uns, dass beispielsweise die Recheneinheiten keine Single Instruction Multiple Data (SIMD)-Einheiten mehr wären, sondern Multiple Instruction Multiple Data (MIMD)-ähnliche-Einheiten, die Clusterorganisation selber dynamischer würde und dass man das Prinzip der Crossbar aufgegriffen hätte und neue Buffer hinzugefügt hätte. Ferner soll ein stark verändertes Power- und Speichermanagement zum Einsatz kommen.
Intern soll es schon erste, lauffähige Testschaltungen geben. Ein Tape-Out wird für das dritte Quartal angepeilt.

GT300, so verriet man uns abschließend, ist der "wahre" Nachfolger des G80, während der GT200 im weitesten Sinne nichts weiter als ein breiterer G80 mit verbesserten GPGPU-Computing-Eigenschaften sei.
Man darf also gespannt sein, was Nvidias erster DirectX-11-Chip imstande sein wird, zu leisten...
 
Zwirbelkatz schrieb:
@Sunrise
Wenn der G300 noch fetter wird als der 200er ist die Karte wohl definitiv nichts für mich. Aber das bleibt abzuwarten.

Ich meinte dicker im vgl zum rv870 - ka wie das im vgl zu gt200 aussieht.

john carmack schrieb:
Erklär mir das mal genauer? Versteh ich nicht so ganz!
Omg aber hauptsache rummeckern?
Bandbreite = Breite des Speicherinterface * geschwindigkeit des speichers.

Daher verbaut ATI zb "nur" ein 256bit interface, kombiniert es aber mit extrem schnellem 2400mhz speicher.
Bei der GTX 285 ist es genau anderst rum, 512bit mit ~1200mhz speicher - letztlich bietet beides die selbe bandbreite.

Ab dem Punkt wo so viel Bandbreite zur verfügung steht wie die GPU zur vollen auslastung benötigt wird es natürlich sinnlos noch mehr bereit zu stellen.
 
Zuletzt bearbeitet:
Es wird immer riesen Teile geben die Übernommen werden,

War beim G70 -> G80 aber nicht so, das geht schon alleine aufgrund des Wechsels vom statischen Pipelinemodell hin zu einer Unified-Architektur nicht.

denn das Rad erfinden die GPU Hersteller ja nicht neu, sie setzen es nur immer wieder anders zusammen ;-)

Trifft auch weiterhin zu, bis auf den oben genannten Architekturwechsel.

Das verlangen schon die ganzen Spezifikationen welchen sich eine Grafikkarte unterordnen muss.

Neue Technologie kann auch abwärtskompatibel sein, ohne die eigentliche Hardware zu enthalten. Beispiel: T&L wird auch seit der Geforce 6 via Shader realisiert, die letzte "wirkliche" T&L Einheit war bei nV in der Geforce FX enthalten.
 
Das beste an den Karten ist das die sich wohl glänzend übertakten lassen.

ASUS übertaktet die HD 5870 von 850 auf 1035 Mhz und den Speicher von 4800 auf 5200 Mhz. Dabei steigt die Spannung von 1,15 auf 1,35 Volt.

Die 5850 wird von von 725 auf 1050 MHz übertaketet und der Speicher von 4000 auf 5200 Mhz und die Spannung steigt auf 1,4V.

Ich glaube da kaufe ich mir lieber die 5850.

Quelle: Hartware.de
 
@ john carmack

Klingt für mich doch total nach einer Überarbeitung und nicht nach einer Neuentwicklung. Gesprochen wird von Evolution und angesprochen werden nur Veränderungen die am Chip Design gemacht werden. Meinst du nicht? Sogar ich hätte jetzt etwas erwartet, das "revolutionärer" klingt. Ähnliche Aussagen findest du übrigens auch zum RV870 im Testartikel von CB unter der Überschrift "Technik im Detail".

@ Bullet Tooth

Kannst du dir vorstellen welche Leistungsaufnahmen mit solch einer Spannungserhöhung einher gehen werden? Da werden wohl neue Rekorde aufgestellt. Kann man nur hoffen, dass die Stromsparmechanismen im Idle dann immer noch voll aktiv und gleich effizient bleiben. Dann wär das alles nicht so dramatisch. Aber auf 1,4V hochgehen ist schon brutal. Bei so nem Schritt würde meine CPU mehr als das doppelte ziehen.

@ All

Wäre wirklich interessant wenn wir mal etwas Handfestes zu dem angeblichen Fehlen des Tesselators im GT300 finden bzw. mit welchen Auswirkungen zu rechnen wäre, falls dieses Feature demnächst wirklich breit unterstützt wird (wovon auszugehen ist). Beim Nachlesen hab ich übrigens die Info gefunden, dass die 2900 von ATI tatsächlich die erste GPU mit dedizierter Tesselationseinheit war. Damals schrieb CB schon darüber, dass das verwundert, da diese "Fähigkeit" erst von D3D11 gefordert wird. Vorher (ab Radeon 8500) wurde diese Funktion wohl über Shader realisiert, was ja auch bei nVidia der Fall sein könnte. Damals sagte ATI selbst, dass dies (TrueForm) ohne merklichen Leistungsverlust möglich sein soll. Wenn das stimmt, siehts auch im Falle des Falles nich so schlecht für NV aus.
 
Zuletzt bearbeitet:
ASUS übertaktet die HD 5870 von 850 auf 1035 Mhz und den Speicher von 4800 auf 5200 Mhz. Dabei steigt die Spannung von 1,15 auf 1,35 Volt.
die asus 5870 möchte ich haben :)
 
DvP schrieb:
@ john carmack

Klingt für mich doch total nach einer Überarbeitung und nicht nach einer Neuentwicklung. Gesprochen wird von Evolution und angesprochen werden nur Veränderungen die am Chip Design gemacht werden. Meinst du nicht? Sogar ich hätte jetzt etwas erwartet, dass "revolutionärer" klingt.

Kann mir nicht vorstellen das im GT300 immer noch ein kleiner G80 steckt!

Aber eigentlich ist hier das Thema ja ATI´s 5800 und nicht der GT300!:D
 
BadBoy74 schrieb:
Mein Ziel sind weniger als 80Watt bei Vollast und eine Leistung entsprechend einer HD 4770

Und nicht lachen das ist bestimmt kein Problem für die Karte die wird laufnen !:evillol:

Da kannst ja gleich ne hd 4770 kaufen und undervolten:rolleyes::confused_alt:

Außerdem sind 13 Fehler in den ersten 2 Sätzen schon krass. Restalkohol vom Vortag?!?

john carmack schrieb:
Ein Tape-Out wird für das dritte Quartal angepeilt.

Da müssen sie sich aber beeilen.
 
Gerade der G80 war ein Chip mit einer völlig neuen Architektur.
Die Entwicklungsdauer betrug lt. Nvidia 6 Jahre und wurde parallel neben den üblichen Refresh's entwickelt.
Ob solch ein Performancesprung im Bereich der Single Gpu's so nochmals möglich ist, bezweifle ich.
Ich denke das Nvidia den Trend, hin zu Multi Gpu's forcieren und sich dort das neue High-End Segment etablieren wird. Ati's HD5870 zeigt 'ne respektable Leistung mit überraschend guten Verbrauchswerten,
nicht mehr, aber auch nicht weniger.

Edit: die G2XX Familie sind praktisch alles Refresh's, die auf der Architektur des G80 basieren. Das hat Nvidia insgesamt besser hinbekommen, als ATI, wenngleich diese mit der HD4XXX Serie durch ein sehr gutes P/L
Verhältnis punkten konnten. Die HD5870 scheint überhaupt hochwertiger gefertigt zu sein - siehe Bauteile, erstaunlich effiziente Kühlung, besseres Energiemanagement und eben auch die DX11 API, das macht die Karte eben
teurer, was ich für vertretbar halte.
 
Zuletzt bearbeitet:
Evader schrieb:
Nö, siehe G70 -> G80, der G80 war eine komplette Neuentwicklung.
Ja, weil sich DX9 massiv von DX10 unterschied, allein schon von Pixel-, Vertexshader zu Unified Shader. Trotzdem werden manche Sachen nicht neu erfunden, sondern einfach verbessert bzw. an die neuen Gegebenheiten angepasst.

ATI hatte den Vorteil, dass sie die ursprünglich für DX10 geplanten Neuerungen (u.a. auch schon die Tessellation-Einheit) trotzdem in die HD2900 XT verbaut haben, obwohl sich Nvidia dagegen gesträubt hat. Und weil Nvidia stur war, sodass diese Neuerungen erst mit DX11 eingeführt werden, müssen sie jetzt große Veränderungen an ihrer Architektur vornehmen. Da hat ATI bereits die Hausaufgaben vorher gemacht gehabt.
 
wer sich einen neuen rechner oder eine neue GK zulegen möchte
wird wahrscheinlich (außer er will nicht mehr als 150 euro für GK ausgeben) auf die neuen von ati zugreifen
damit wird nvidia kaum noch GK verkaufen, außer die gehen extrem mit dem preis runter

narürlich muss die verfügbarkeit ausreichend gegeben sein


wenn nvidia in den nächsten 4 wochen keine bombe aus dem hut zaubert bricht bei den der umsatz im highend-bereich weg

eine gtx285 2gb für ca 200€ wäre durchaus ok :)
 
AleksZ86 schrieb:
die asus 5870 möchte ich haben :)
alle 5870 und 5850 karten werden regelbare spannungen haben. denn die für die spannungsversorgung verantwortlichen chips sind per software einstellbar. ich denk mal, dass es nicht all zu lang dauern wird bis rivatuner, powerstrip oder andere die möglichkeit des voltage-tweaking integriert haben.

Above pictures show the important voltage regulation components. The most prominent are the two Volterra VT1165 MF Voltage Controllers that both support software control. You can also see that AMD has left some empty spots in their PCB design for possible improvements by adding more phases.

-> http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/4.html
 
@DvP: Wenn ich die HD5850 in Händen halten werde und diese dann 850 und 4800 schafft wäre ich schon voll zufrieden.
 
Ich finde die Karte gar nicht schlecht, ist schon ein kleiner Sprung (vor allem für ATI). Sicher, NVidia wird früher oder später zurückschlagen und wird dann vermutlich kein großes Problem haben, die 5870 zu schlagen (alles Andere wäre eine Enttäuschung), ist mir dann aber gleich, weil es dann wenigstens den Preis drücken wird.

Dennoch wird rein preislich für mich die 5850 wohl sowieso interessanter werden. Bin auf einen Test derselben jedenfalls auch sehr sehr gespannt. :) Wobei ich mit meiner "good old" 8800GTS-512 noch immer überraschend zufrieden bin.
 
Trotzdem werden manche Sachen nicht neu erfunden, sondern einfach verbessert bzw. an die neuen Gegebenheiten angepasst.

Das hat auch niemand bestritten, siehe G80 -> G92 -> GT200 und davor NV15 -> NV20 -> NV25 etc.
Beim G80 gab es wie gesagt diesen sauberen Schnitt.
Das der G80 auch ROPs etc. hat ist klar, nur sind diese keine "verbesserten" G70 ROPs, sondern ebenfalls neu entwickelte.

ATI hatte den Vorteil, dass sie die ursprünglich für DX10 geplanten Neuerungen (u.a. auch schon die Tessellation-Einheit) trotzdem in die HD2900 XT verbaut haben, obwohl sich Nvidia dagegen gesträubt hat.

Ich bezweifle allerdings, dass das für ATi in den letzten 3 Jahren von Vorteil war.
Das Problem ist halt, das der Nutzwert des Tesselators mangels Support in nicht weniger als 3 Kartenserien (2900, 3000 und 4000) gleich null ist. Erst mit DX11 und der 5000er Serie wird man davon wirklich vernünftig Gebrauch machen können, alle anderen Chips haben damit so gesehen nur Chipfläche und ein paar millionen Transistoren verballert, für ein Checklisten-Feature.

Das nV die Architektur umbauen muss stört mich nicht sonderlich, die G80 Aufgüsse sollten nach nunmehr 3 Jahren zumindest im High-End ihr Ende finden.
 
Screemer schrieb:
alle 5870 und 5850 karten werden regelbare spannungen haben. denn die für die spannungsversorgung verantwortlichen chips sind per software einstellbar.

Tja und wem haben wir das zu verdanken - UNS :-)

Die breite Öffentlichkeit hat immer mehr Druck gemacht, dass endlich effiziente Leistungsaufnahmen auch in Grafikkarten Realität werden. Und was war dafür nötig? Eine dynamische Spannungsversorgung die sich den Gegenheiten anpasst (wie auch bei CPUs seit Ewigkeiten). War auch irgendwie klar, dass man da bald selbst daran drehen kann :D
 
Evader schrieb:
Ich bezweifle allerdings, dass das für ATi in den letzten 3 Jahren von Vorteil war.
Der Vorteil für ATI lag darin, dass man die Hardware für DX11 bereits (zum Teil) auf der Karte hatte und keine "neue" Architektur brauchte wie Nvidia. Wahrscheinlich dürften auch die Entwicklungskosten dementsprechend niedriger gewesen sein. D.h. man kann jetzt mit der neuen Technik (DX11) ordentlich Geld verdienen und danach den Preis an die Leistung im Verhältnis zum GT300 anpassen.
 
Zurück
Oben