Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

john carmack schrieb:
Erklär mir das mal genauer? Versteh ich nicht so ganz!

Aber gerne doch !

Ich halte 512 Bit Speicherschnittstelle zusammen mit GDDR5 2.400 Mhz ( effektiv 4800 MHz ) für unsinnig weil:

4800 Mhz * ( 512 Bit / 8 ) = 307200 MB/s ! | schau mal der GTX285 hat 158976 MB/s. Und die HD5870 hat 153600 MB/s

Und ich glaube nicht das die HD5870 und selbst der GT300 eine Bandbreite von 307200 MB/s braucht !
 
Zuletzt bearbeitet:
DvP schrieb:
Darüber hinaus, wäre das eine viel zu krasse Veränderung. Da wäre doch ein neues Chip Design (mehr Transistoren) notwendig und mehr PCB Layers wenn ich mich richtig erinnern kann. Bitte um Verbesserung/Ergänzung der echten GraKa Cracks, die wir haben ;-)
Ich halte das für ausgeschlossen.

Das siehst du vollkommen richtig. 512bit SI ist sowas von ausgeschlossen, eher konvertiert der Papst zu Scientology. (für die HD5000 natürlich)

512bit SI braucht erstmal mehr Die-Fläche (also die GPU wird größer)-->weniger dies pro Wafer-->teurer. (Die Ausbeute (yield) sinkt auch noch-->noch teurer)
Zudem brauch das PCB mehr Leiterbahnen, die "Elektrik" wird einfach aufwendiger-->teuer
Von 256bit auf 512bit geht nur mit einem kompletten Neudesign des GPUs. Weniger geht immer, einfach Teile deaktivieren (Bei ATI sinds ja 4x64bit, man hätte der 5850 also auch nur 192bit spendieren können.

john carmack schrieb:
Erklär mir das mal genauer? Versteh ich nicht so ganz!

6 Spurige Autobahn mit Tempolimit 400km/h, es fahren aber nur täglich 3 Autos mit höchstens 200km/h.-->Speicherbandbreite überdimensioniert

5870 könnte sicher noch mehr vertragen, aber ob sich die Mehrkosten rechnen für die paar Extremfälle... ich glaube nicht. GPGPU braucht anscheinend massiv Bandbreite, vielleicht rechnet sich das für NVIDIA mit 512bit + GDDR5.

BadBoy74 schrieb:
Mein Ziel sind weniger als 80Watt bei Vollast und eine Leistung entsprechend einer HD 4770

Warum dann 300€ für ne 5870 ausgeben, wenns ne 4770 auch tut? Die läuft eh schon bei 80W!

Sinn/Unsinn!?!?

:watt:

Ne 5770 kommt auch bald, da haste Performance der 4870/4890 bei 120W oder noch weniger (Furmark, mal so grob von mir übern Daumen gepeilt)
 
Zuletzt bearbeitet:
Die Games sind natürlich der Knackpunkt und da sieht es im Moment doch eher danach aus, daß Nvidia
sich immer wieder einen entscheidenden Vorteil verschafft. Das wie, sei dabei mal dahingestellt.
Aber wenn man sich zb. den derzeitigen Top Titel Batman Arkham Asylum mit seiner excl. Nvidia PhysX
Unterstützung anschaut, dann zeigt dies doch, welcher Hersteller näher bei den Games bzw. Gamer ist.
Von der DX11 API kann ATI derzeit sowieso nicht profitieren, da es einfach an Games mangelt.
 
Zuletzt bearbeitet:
Der Vorteil für ATI lag darin, dass man die Hardware für DX11 bereits (zum Teil) auf der Karte hatte und keine "neue" Architektur brauchte wie Nvidia.

Daran würde ich das nicht festmachen, Tesselation z.B. kann auch über Shader realisiert werden und es halten sich hartnäckig Gerüchte, das der G300 gar keinen Tesselator als solchen besitzt. Das DX11 einiges an Umbauten erfordert ist klar, doch das nV dem G300 alleine deswegen eine neue Architektur verpasst wage ich -auch vor dem GPGPU/Cuda/etc. Hintergrund- zu bezweifeln.
 
göschle schrieb:
Aber wenn man sich zb. den derzeitigen Top Titel Batman Arkham Asylum mit seiner excl. Nvidia PhysX
Unterstützung anschaut, dann zeigt dies doch, welcher Hersteller näher bei den Games bzw. Gamer ist.
Von der DX11 API kann ATI derzeit sowieso nicht profitieren, da es einfach an Games mangelt.
physx in batman ist absolut nicht spiel relevant. nettes gimmik aber sonst nichts. cryostasis ist so ein mieses game das es nicht mehr feierlich ist und mit diesen 2 haben sich die games in denen man von physix was merkt schon erschöpft. wo man da näher am gamer ist frag ich mich wirklich. nahe am gamer und an seinen anforderungen wäre nvidia dann, wenn sie physx endlich von ihrem proprietären cuda auf eine offene plattform portieren würden. das wäre nahe am gamer und seinen ansprüchen, denn es würde alle gamer erreichen und nicht nur die gruppe der nvidia-besitzer. da geht ati mit dem programm zur umsetzung von physikengines in opencl wirklich weit mehr auf den gamer ein als es nvidia bis jetzt getan hat. denn eine implementierung von bullet, havok und pixelux im platformunabhängigen opencl und direct compute shader ist wesentlich erstrebenswerter als alles was nvidia mit physx und cuda auf die beine gestellt hat.

es wäre für dich einfach wenn du deine fanboy gebrabbel einstellen würdest. seit 2 tagen muss ich dauernt ati-flameposts von dir lesen. hab mich bis jetzt nicht zu einem kommentar hintreisen lassen, doch langsam wird langweilig.
 
göschle schrieb:
Die Games sind natürlich der Knackpunkt und da sieht es im Moment doch eher danach aus, daß Nvidia
sich immer wieder einen entscheidenden Vorteil verschafft. Das wie, sei dabei mal dahingestellt.
Aber wenn man sich zb. den derzeitigen Top Titel Batman Arkham Asylum mit seiner excl. Nvidia PhysX
Unterstützung anschaut, dann zeigt dies doch, welcher Hersteller näher bei den Games bzw. Gamer ist.
Von der DX11 API kann ATI derzeit sowieso nicht profitieren, da es einfach an Games mangelt.

DirectX braucht man auch für andre Anwendungen, und nicht nur für Spiele !
 
Ich gehe aber mal davon aus, daß sich die meisten die Karte, hauptsächlich wegen den Games kaufen
möchte.
 
physx in batman ist absolut nicht spiel relevant. nettes gimmik aber sonst nichts. cryostasis ist so ein mieses game das es nicht mehr feierlich ist und mit diesen 2 haben sich die games in denen man von physix was merkt schon erschöpft.

Da gibts schon noch einige mehr (Sacred 2, Mirrors Edge etc.) aber der Physix Bonus ist "nice to have", mehr nicht.

m platformunabhängigen opencl und direct compute shader ist wesentlich erstrebenswerter als alles was nvidia mit physx und cuda auf die beine gestellt hat.

nV wird sowohl compute shader als auch OpenCL unterstützen, von daher erübrigt sich die Diskussion eigentlich.
 
Wird's denn auch ein 5xxx Modell mit in etwa der Leistung einer GTX 260 geben? Das wäre dann mein Kandidat.
 
Evader schrieb:
Da gibts schon noch einige mehr (Sacred 2, Mirrors Edge etc.) aber der Physix Bonus ist "nice to have", mehr nicht.
genau darum gings mir. sacred 2 und mirrors edge haben 0 mehrwehrt mit phyx.

Evader schrieb:
nV wird sowohl compute shader als auch OpenCL unterstützen, von daher erübrigt sich die Diskussion eigentlich.
seh ich genau so. allerdings sperren sie jetzt andere hersteller willentlich aus und das ist für mich definitiv nicht "näher am gamer", wie göschle ja so schön meinte.
 
@Screemer: Da muss ich dir aber wiederprechen, Nvidia sperrt nicht willentlich andere aus. Ich meine mal gelesen zu haben das AMD hätte auch einfach so PhysX nutzen können laut Nvidia.

Wenn ich falsch liege bitte um Berichtigung

@Winnie0601: Das musste sein einige können sich auch ihr Fanboy gehabe nicht verkneifen
 
Zumal das sinnlose an Physx ist, dass es nur Performance kostet und man aus auch mit Open CL etc.. genausoschön berechnen könnte. Marketing auf niedrigen Niveau halt.
Wenn AMD Physx auch genutzt hätte, bzw an Nvidia dafür etwas bezahlt hätte, hätten sich danach wieder die normalen Physik rendering Codes durchgesetzt. Sprich Havok und Open CL.
 
Das PhysX ist durchaus Spielerelevant und es ist ein Unterschied, ob ich's bei Batman hab' oder nicht - aber Hallo ! Cryostasis ist darüberhinaus alles andere als ein mieses Spiel, sondern überzeugt mit einer tollen Atmo. Die bescheidenen Wertungen sind hauptsächlich auf den enormen Hardwarehunger das Games zurückzuführen. Im übrigen geht es ja nicht darum, wie zukunftsfähig PhysX ist, sondern um den momentanen Stand der Dinge und da hat Nvidia, aus welchem Grund auch immer, ein paar Trümpfe mehr in der Hand.

Edit: wenn und aber ist in dem Falle, Schnee von gestern.
 
DvP schrieb:
Tja und wie ist der Ausdruck definiert! Es wird immer riesen Teile geben die Übernommen werden, denn das Rad erfinden die GPU Hersteller ja nicht neu, sie setzen es nur immer wieder anders zusammen ;-) Das verlangen schon die ganzen Spezifikationen welchen sich eine Grafikkarte unterordnen muss.
Mach dich bitte nicht lächerlich und informier dich erstmal bevor du dich versuchst rauszuwinden.

G71 -> G80 und das ohne tiefgehendes Detailwissen meinerseits.

- komplett anders ausgelegte Textureneinheiten (Abschaffung der Pixel-Pipelines)
- komplett anders arbeitende Shadereinheiten (vom Pixel/Vertex Shader zum "Universalshader"
- erweitertes Speicherinterface (256Bit vs. 384Bit)

Wo sind da also die "riesen Teile die Übernommen werden"?
Das der Hersteller nvidia ist und anchwievor GDDR3 Speicher verwendet wurde?

Das gleich kann man übrigens auch für R580+ vs. R600 aufzählen.
 
@ DvP und F_GXdx: Ihr wisst schon, dass ich von dem Unterschied HD 2900 XT und HD 2900 Pro schrieb, oder? Nix da mit X1900 und HD 3800. Bei der HD 2900 Pro hat man mal eben 256 bit entfernt und teilweise gab es HD 2900 Pro mit 512 bit, die eigentlich XT waren.
 
Zurück
Oben