Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Nun, würde der GT300 hinter der aktuellen HD5870 bleiben, wäre dies eine mittlere Katastrophe, ist doch ganz klar. Allerdings glaube ich schon, daß Nvidia's Karte schneller sein wird, dies wird ja auch selbst
von Nvidia bestätigt. Also ein Scheitern ohne Gefahr zu laufen in Hohn und Spott zu versinken, können die sich bei solch einer Ankündigung schonmal nicht leisten. Interessant wird sein, wie gut sich
Nvidia den neuen Chip bezahlen lässt, da bin ich echt gespannt.
Andererseits wird es ohnehin eine Frage der Zeit sein, bis die Single GPU's von den Dual GPU's im High-End Segment endgültig verdrängt werden.
 
DvP schrieb:
Darüber hinaus, wäre das eine viel zu krasse Veränderung. Da wäre doch ein neues Chip Design (mehr Transistoren) notwendig und mehr PCB Layers wenn ich mich richtig erinnern kann. Bitte um Verbesserung/Ergänzung der echten GraKa Cracks, die wir haben ;-)

Ich bin mit Sicherheit kein Graka-Crack, aber bei der ganzen HD2900XT/Pro-Geschichte hat man mal eben am Speicherinterface rumgespielt ohne was Nennenswertes an der Graka zu machen.
 
Der GT300 wird ja auch wieder ne nummer größer sein wenn ich mich nicht sehr irre, folglich auch teurer - die Frage ist dann halt wieder um wie viel er schneller ist und ob das gesamtpaket (leistung, features, preis) am ende dann mehr oder weniger interessant ist.
 
Wer weiß wie alles aussieht wenn die ersten Optimierten Treiber von ATI kommen und die 5800er auf nem aktuellen Core i7 läuft!!!

Wobei ich auch denke das 256Bit Speicherinterface die Karte so um 15-20% bremst!!!
 
Super keine Frage aber Leistungstechnisch bin ich wirklich entäuscht. Alle haben gejammert als die 200 nur 30 Prozent mehr Leistung hatten als die 8800 aber jetzt sollen die Werte für die ATI OK sein? Gut ich wiederhole mich aber der Verbrauch ist nicht schlecht aber Leistungstechnisch sehe ich nicht das was wir erwartet haben.

Äpfel und Birnen?
Du vergleichst den Leistungsunterschied der damaligen Nvidia Kartengenerationen untereinander (30%) mit der aktuell schnellsten Singlekarte GTX285 und ihrem Leistungsunterschied von ca. 30% zur HD5870.
Blöd ist nur, dass die GTX285 nicht der Vorgänger der HD5870 ist, sondern die HD4890. Ich weiß die Zahlen jetzt nicht genau, aber da ist man im Vergleich zur HD4870/90 ungefähr(!) rund 45-65% schneller. Ganz davon abgesehen sind die AMD Karten günstiger und schon allein deshalb theoretisch leistungstechnisch zwangsläufig unterlegen.

Ich sage das als jemand, der von einer 8800gt ECTS passiv auf eine GTX260² gewechselt ist.

@Sunrise
Wenn der G300 noch fetter wird als der 200er ist die Karte wohl definitiv nichts für mich. Aber das bleibt abzuwarten.
 
DvP schrieb:
Absolut kein Refresh! Sondern einfach "nur" Midrange. Neue Architektur, neue API, und nahezu alle technischen Leistungsdaten verdoppelt. Momentan ist sie High End aber als das war sie auch gar nicht konzipiert, die gute Zeitpunkt des Release macht sie nur dazu.


FALSCH!!!

Der RV870 baut auf dem RV770 auf!

Der GT300 hat ne neue Architektur!
Ergänzung ()

Keres schrieb:
Ich bin geneigt zu behaupten, dass DX11 mehr Relevanz haben wird als PhysX. :)
Und das mal so ganz ohne Fan-Brille, die ich nicht trage. ;)

Absolut richtig!

Was bringt es eine Fan-Brille zu tragen?

Ich hatte jetzt auch schon 2 Geforce und 3 ATI´s - Hab einfach immer zu dem Zeitpunkt an dem ich eine neue kaufen wollte zur schnelleren (besseren) gegriffen.

Genau wie ich auch noch nie eine Intel CPU drin hatte! Aber AMD hat im Moment nix Schlagkräftiges zu bieten deswegen wirds wohl ein i920 oder höher!
 
john carmack schrieb:
Man sollte übrigens nicht vergessen das der RV870 auf dem RV770 aufbaut und der GT300 eine neue Architektur hat!

In den letzten Jahren war es ja immer so das Ati schneller die Karten am Markt hatte und Nvidia immer mit (zwar 1-2 Monaten Verspätung) schnelleren Karten konterte.
Neue Architektur heißt immer noch nicht automatisch, dass sie sehr viel schneller wird als die alte.

Zur These, dass ATI immer schneller ist:
  • 8800 GTX vor HD 2900XT
  • 8800 GT vor HD 3870
  • GTX 280 vor HD 4870

Vielleicht erstmal nachlesen, bevor man solche Beiträge postet.

Und zu deiner Ergänzung:
Man kann nicht einfach eine für ein 256bit-SI ausgelegte Karte ein SI mit 512bit verpassen :rolleyes:
 
darko2 schrieb:
Ich bin mit Sicherheit kein Graka-Crack, aber bei der ganzen HD2900XT/Pro-Geschichte hat man mal eben am Speicherinterface rumgespielt ohne was Nennenswertes an der Graka zu machen.

Naja, ich finde auf die schnelle zwar keine handfesten Informationen dazu, jedoch kann man sehen, dass die 2900XT fast doppelt so viele Transistoren hatte als deren Vorgängerin (die X1950XTX) und dennoch nur etwas mehr Shader Einheiten (wobei R4 auf R5 Umstellung), die gleiche Anzahl an ROPs und somit nur eine leichte Erhöhung der Pixelfüllrate und der Texelfüllrate aufweisen konnte. Aber wie gesagt, es gibt sicher einige hier die uns erklären könnten wie viel Aufwand das wirklich wäre.

@ john carmack
WOW bei diesen stichhaltigen Argumenten (bzgl. GT300) und verlässlichen Quellen glaube ich dir natürlich alles. Danke für die Erleuchtung. :rolleyes: Wobei ich natürlich zugeben muss, dass der RV870 auf der Architektur des RV770 aufbaut, das ist natürlich richtig. Ein Refresh ist aber gänzlich anders definiert.
Mit so dogmatischen Aussagen wie jener die Sgt.Speirs zitiert hatte, sollte man generell etwas aufpassen ;-)

@ Sgt.Speirs
Dass man das nicht einfach so machen kann, ist uns ja klar. Aber was ein Umbau auf 512bit für Änderungen verlangen würde, wäre interessant. Auch wenn ich es für Vollkommen unrealistisch halte, dass ATI das macht.
 
Zuletzt bearbeitet:
JokerGermany schrieb:
Finde es krass, dass alle glauben das Nvidia jetzt alles besser machen kann.

Gerade wo anscheinend sehr zuverlässige Gerüchte wie "Aus 416 Chips waren 7 funktionsfähig"
Ich vermute immo das Nvidia sich übernommen hat ;)

Aber naja, es ist ja wie bei nem Formel 1 Fahrer.
Wer in der vorherigen Saison Weltmeister geworden ist wird wieder im nächsten Jahr Weltmeister.

Vielleicht sind aber grad diese 7 Chips ca. 20% schneller als die 5870...

Bin weder Hardcore-Fan von ATI oder Nvidia - kaufe einfach immer das bessere Produkt!
 
darko2 schrieb:
Ich bin mit Sicherheit kein Graka-Crack, aber bei der ganzen HD2900XT/Pro-Geschichte hat man mal eben am Speicherinterface rumgespielt ohne was Nennenswertes an der Graka zu machen.
Bin auch kein Crack, aber ja, es wurde von 512 Bit Ringbus auf 256 Bit Standard Point2Point umgestellt. Ich denke nicht, dass ein anderes Speicherdesign ein Problem des Chips ist, sondern rein ein Problem der Platine/des PCBs. Da müssen wahrscheinlich 20-30-Schichten PCBs benutzt werden, verdammt aufwendig in der Herstellung sowas.
 
"Aus 416 Chips waren 7 funktionsfähig". Wobei wir immer noch nicht wissen, wie es bei ATi mit dem allerersten Wafer aussah. Auch Turbostaat konnte diesbezüglich nur Infos geben, die in der News von "semiaccurate.com" standen, wobei gerade die Seite offenkundig kein Freund von nVidia ist. Mehr oder weniger Handfeste Zahlen, wie eben diese 7 funktionsfähigen Chips, gibt es da von ATi nicht.

Dementsprechend hänge ich noch immer an der Aussage von 3DCenter, die sie in der News vom 16.09.2009 gebracht haben.

http://www.3dcenter.org/news/2009-09-16
 
Dieses ganze "der baut aber auf der alten architektur auf" gelaber ist doch vollkommener blödsinn - Man baut IMMER auf alten architekturen auf, die Frage kann höchstens sein wie viel man geändert oder neu gestaltet hat. Der Core2 war auch eine "neue architektur" dennoch baut er auf dem Pentium3/M auf...
Das einzige was zählt ist doch was am ende dabei raus kommt oder hat sich bei euch schonmal eine Grafikengine beschwert dass die graka auf irgendwas aufbaut?
 
Whoozy schrieb:
Stahlseele: GDDR 5 mit 512 Bit? Dann würde ja ein Großteil der Bandbreite nicht genutzt werden, das macht doch auch keinen Sinn.


Erklär mir das mal genauer? Versteh ich nicht so ganz!
 
richtig, wie sies machen ist doch am ende völlig egal, wichtig ist nur das leistung, preis, stromverbrauch und lautstärke am ende stimmen ;)

meinetwegen können sie ihre hd5870 auch aus 2 GTX260 zusammenbauen, mir wurscht :P

mfg
 
Man baut IMMER auf alten architekturen auf, die Frage kann höchstens sein wie viel man geändert oder neu gestaltet hat.

Nö, siehe G70 -> G80, der G80 war eine komplette Neuentwicklung.
 
Die HD 5870 hat eine hohe leistungs aufnahme und bietet Undervolter und underclockern eine Experiementier Bord an.


Wenn ich sich so die vergleichs daten an gugck solte man die Karte Super undervolten und underclcken können.

Die Leistungsaufnahme ist zwar sehr hoch kann aber leicht duch Speichertakt,Gpu takt senkung und Undervolten auch angenehme 100Watt oder weniger reduziert werden ohne das man weniger leistung bekommt als eine HD 4850-70.

Da der Chipsatz auf 40nm Fertigung setzt wird man einiges an leistungsaufnahme einsparen können.

Habe selbst eine HD 3850 mit 3870Takt und Stark Reduzierter Voltage. (84Watt Last)
Ich werde als nechstes einen Genarationen Sprung wargen und der HD 5870 das Undervolten eintrichtern.

Mein Ziel sind weniger als 80Watt bei Vollast und eine Leistung entsprechend einer HD 4770

Und nicht lachen das ist bestimmt kein Problem für die Karte die wird laufnen !:evillol:
 
Evader schrieb:
komplette Neuentwicklung.

Tja und wie ist der Ausdruck definiert! Es wird immer riesen Teile geben die Übernommen werden, denn das Rad erfinden die GPU Hersteller ja nicht neu, sie setzen es nur immer wieder anders zusammen ;-) Das verlangen schon die ganzen Spezifikationen welchen sich eine Grafikkarte unterordnen muss.
Die Larrabee wird eine komplette Neuentwicklung, wobei diese sogar auf (seit vielen vielen Jahren) bestehenden X86 Cores aufgebaut wird. Darum spricht man ja meistens von neuer Architektur und sogar da kann man streiten was nötig ist um der Bezeichnung gerecht zu werden.
 
.....underclocken....
...untertakten
...Spannung
....Undervolter....
???? (Der buckliger Bruder vom Undertaker ? ;) )

Nächstes mal bitte deutsch oder englisch (den ganzen Text). Ich hasse denglisch :D .


BTT : Bei den Karten müssen wir eben mal schauen. Leider ist ja nicht ganz das rumgekommen was die ATI-Sippschaft sich gewünscht hat. Vielleicht brücke ich trotzdem mit einer 5870 die Wartezeit zur neuen Generation des Konkurrenten.
 
Zuletzt bearbeitet:
naja obwohl ich ja ATI sehr angetan bin reißt mich das jetzt nicht wirklich vom hocker.
auch wenn viele hier schreiben "wow schnellste single gpu karte!!!"

klar schnellste single gpu karte,
also wenn ATI es nicht schafft mit einer neuen generation von grafikchip,
kleinere vertigungsstruktur bei dem alle einheiten auf dem chip verdoppelt wurden,
und durch die verdoppelung natürlich an die geschwindigkeit der alten multi gpu karte 4870x2 herankommt,
da ja durch die verdoppelung der einheiten auf dem chip eigentlich zwei gpu´s zu einer gpu geschrumpft ist.

und dann ja auch noch der mitbewerber mit seinen neuen karten noch nicht auf dem markt ist,
dadurch eine echte vergleichsmöglichkeit der zwei hersteller und der neuen generationen fehlt,

denke ich ist es pflicht die momentan schnellste single gpu karte zu haben,
sonst könnte ATI sich einstampfen lassen,
und sie hätten irgendwas komplett falsch gemacht ;)
 
Zurück
Oben