Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Ich glaube das Hauptproblem dieser Diskussion ist dass die HD 5870 zwar ordentlich Rendert, aber eben nicht ausreichend hoch um als "wirkliche" next gen Karte durchzugehen. Ansonsten wäre es völlig egal welche Spiele man raus bzw. reinimmt in den Benchmarkparkour.
Einer 8800 Ultra war das fast 3 Jahre lang egal. Und die Leute hoffen nunmal bei jeder neuen gen auf so eine Karte. Nennen wir sie mal die Mutter aller Karten ;)
 
Schaffe89 schrieb:
Da stimme ich zu. Overall Ratings sind echt doof.
Man sollte sich eigentlich gewisse Spielebenchmarks reinziehen.. möglichst viele und dann entscheiden.

Machst du es etwa anders? die Rankings überfliege ich nur...Ich schaue mir die Benchmarks meiner Lieblingsspiele an und entscheide dann. :freaky:
 
Mal was ganz anderes:

Weiß jemand vielleicht, wie es aussieht mit Multi-Card Eyefinity?
CF wird ja nicht unterstützt.
ABER: könnte man zB zwei 5870 einbauen, die eine den mittleren, die andere die äußeren Monitore betreiben lassen?
 
Motkachler schrieb:
Da hat NV mal die richtigen Antworten bekommen echt zum schießen :evillol::evillol:
das ist echt zum totlachen :D

nvidia fragt:
Why is AMD focusing so much on DX11 when most games are on DX9 console ports?
schlagfertige antwort der anderen seite:
[...]If NV really believes that DirectX11 doesn't matter, then we challenge them to say that publically, on the record.
 
Sehr schöner Test! Das ist meine nächste Karte:D
 
Die HD 5850 wird schon fleißig gelistet. Sollte die Grakka dann bis spätestens Mitte Oktober bei 150 Euronen landen gehört eine davon mir ^^ Denn ich bezweifle dass eine HD5770 noch so schnell released wird wie ich es mir wünsch.

HD 5850
 
CHILEChile schrieb:
Sehr schöner Test! Das ist meine nächste Karte:D
Macht das überhaupt Sinn, du hast doch schon ne gute, lt. Signatur ne:
Sapphire Radeon HD4890 OC 1GB GDDR5???
 
derMutant schrieb:
Ich glaube das Hauptproblem dieser Diskussion ist dass die HD 5870 zwar ordentlich Rendert, aber eben nicht ausreichend hoch um als "wirkliche" next gen Karte durchzugehen. Ansonsten wäre es völlig egal welche Spiele man raus bzw. reinimmt in den Benchmarkparkour.
Einer 8800 Ultra war das fast 3 Jahre lang egal. Und die Leute hoffen nunmal bei jeder neuen gen auf so eine Karte. Nennen wir sie mal die Mutter aller Karten ;)
Bitte was? Deine "Mutter aller Karten" kam 2007 auf den Markt. Sprich 3 Jahre wären nächstes Jahr ;)
Des weiteren wurde sie ein Jahr später von der HD4000-Serie generell überflügelt hatte.

Den Leistungsspruch des G80 war und wird sehr wahrscheinlich auch einmalig bleiben. Von daher sehe ich die HD5780 als "next Gen"-Karte. Allein schon die Unterstützung von DX11 berechtigt sie, diesen Namen zu tragen.
 
Kasmopaya schrieb:
3x weniger Idle Stromverbrauch, erst jetzt sieht man im Vergleich schön wie schlecht die HD 4870/4890 sind. Unglaublich das so viele die Karten gekauft haben, obwohl sie offensichtlich eine schlechte Generation waren...

Meine 4870 verbraucht IDLE genauso viel oder wenig wie die 5870! Einizig ein 2D Profil im ATi Tray Tool macht es möglich. Das wäre mein einziger Kritikpunkt, den musste ich zwar selbst beheben, da ich mich aber nicht zu den MM Kunden zähle und auch nicht auf den Kopf gefallen bin, erfreue ich mich noch heute einer lautlosen, sparsamen und dennoch leistungsstarken 4870. Dennoch wird die 5870 zu Weihnachten in Haus trudeln ... ;-) dann kommt die 4870 in den Zweitrechner ;-)

Also was war oder ist noch so schlecht deiner Meinung nach?
 
@Sgt.Speirs
Moment mal, die 8800GTX kam Ende 2006, von daher passt es schon...
Und die G80 war nicht die erste ihrer Art, der legendäre R300 hat damals noch viel mehr alles aufgewühlt.
Was haben beide gemeinsam? Sie waren die ersten, die jeweils eine neue DX-Stufe einführten, R300-Dx9, G80-Dx10. Und ich wage es mich soweit aus dem Fenster zu lehnen und behaupte der G300 wird ein Flopp, ähnlich wie NV30 und R600: zu groß, neuer Fertigungsprozess ohne Erfahrung mit kleineren Dice, Verspätung, hinhalten seitens PR-Abteilung. All die Meldungen in den letzten Wochen scheinen es zu bestätigen. Ein neuer DX-Standard wurde immer auf der ersten verfügbaren Hardware etabliert (Selbst damals bei der GF3 und DX8), d.h. auch MS (gut DX11 ist anscheinend schon lange fertig) und die Spieleschmieden passen sich eben an die Hardware und deren Eigenheiten an. Das war damals das Hauptproblem der FX-Serie, Nvidia hatte eine etwas andere Auslegung von DX9, wegen der heftigen Verspätung musste man sich aber dem etablierten Stand (ATi-Auslegung) fügen und anpassen, was sich auf die Leistung negativ auswirkte, oder gar die Effekte beschränkte (HL2@DX9 war inkompatibel zu den FX).
Mit Flopp meine ich 10% schneller als die HD5870!

Nun zum aktuellen Vorsprung zur GTX285, jener beträgt aktuell in etwa 30%. Das würde ich aber noch nicht in Stein meißeln, Treiber, stärkere CPUs und passende Spiele werden den Abstand wohl auf durchschnittliche 50% anheben lassen, dies war beim R300 sowie dem G80 genauso, der einzige der dies zu verstehen scheint, ist y33H@
Was ich also sagen möchte, das wahre Potential der HD5870 haben wir noch gar nicht gesehen.

Ich hoffe sehr, dass sich der Spielemarkt von den Konsolen (wieder) entkoppelt, und die Spiele mehr Leistung von der GPU benötigen (durch den Spielinhalt, nicht nur durch Auflösung+AA+AF), dann werden wir auch die wahre Stärke der HD5-Reihe sehen.
Zum Vergleich RSX/Xenos ca. 200GFLOPS ggn. ca. 3TFLOPS, durch extreme Optimierung wird man evtl. einen Faktor 3 ausgleichen können, nicht aber solche Dimensionen. Die Konsolen halten die Spiele technisch total auf.

Mir scheint die HD5850 attraktiver, da man durch Spannungserhöhung beim Ram auch auf die 1200MHz kommen sollte, womit man bei gleichem Chiptakt vermutlich bis auf 5% an die 5870 herankommt.
 
Zuletzt bearbeitet:
Booby schrieb:
Mir scheint die HD5850 attraktiver, da man durch Spannungserhöhung beim Ram auch auf die 1200MHz kommen sollte, womit man bei gleichem Chiptakt vermutlich bis auf 5% an die 5870 herankommt.

es ist ja nicht so,dass man die 5870 wahrscheinlich auch ein wenig übertakten könnte.


gruß
 
Drachton schrieb:
Hört hört .. Unyu brauch einen neuen Anhänger [wenigstens bis der GT300 draußen ist]. Kasmopaya willst du aufrücken?
Leider kann ich die Begeisterung nicht teilen, solange es weiterhin keine gescheite Filterung gibt, trotz 80 TMUs bei 850Mhz.
Es interessiert mich persöhnlich nicht mal ansatzweise, wie Nvidias Default angeblich sein soll, solange HQ praktisch geschenkt ist.

Lautstärke interessier mich nicht, da muss ein Wasserkühler her.

Das hässliche Aussehen juckt mich siehe oben ebenfalls nicht.

Sparsamer ist sie wohlwar, ist aber kein Umstiegsgrund. Was sollen die paar W, das ist bei einem Neukauf ein Argument.

D3D11 ist eine Notwenigkeit beim Neukauf, aber kein Grund zum umrüsten solange es nichts gibt. Da hast du es, jetzt führt beim Neukauf kein Weg vorbei, aber es führt ein Weg am Neukauf vorbei.

SGSSAA ist ein guter Punkt. Bisher hat der Mangel von SSAA einen AMD Kauf arg im Wege gestanden.
Das ich umgekehrt wegem besseren SSAA für die D3D9 Titel losrennen werden, wird nicht so leicht passieren, OGSSAA inklusive Hybride ist hier bereits voll einsatzfähig.
Den Vorzug eines negativen LOD bei Nvidias SSAA kann man beispielsweise dank AMDs Texturfilter nicht im selben Maße genießen.
Koppelung mit MSAA soll nicht möglich sein.
Und was ist unter D3D10? Afaik gehts dort nicht, Downsampling auch nicht.


Tut mir leid, deine Ansichten kannst du bei dir behalten, mir bietet die HD5 auf den ersten Blick zu wenig, als das sie einen Umstieg erzwingt.
 
Zuletzt bearbeitet:
"Tut mir leid, deine Ansichten kannst du bei dir behalten, mir bietet die HD5 auf den ersten Blick zu wenig, als das sie einen Umstieg erzwingt."

Sehe ich ähnlich, es fehlen einfach die DX11 Games oder wenigstens ein richtiger, auf ATI hin, optimierter
Blockbuster, um einen Kauf der Karte attraktiv bzw. zwingend zu gestalten. Die aktuellen aber auch kommenden Games lassen sich mit der
Vorgänger Generation meistens noch gut und in sehr guter Bildqualität spielen. Was die Performance der HD5870 anbelangt, so kann man das von einer neuen High-End Karte verlangen - Soll erfüllt, nicht mehr, aber auch nicht weniger.
Marktstrategisch halte ich den relativ frühen Launch von ATI allerdings für gelungen und richtig, zumal die HD5870 mit einem humanen Preis in's Rennen geht und Nvidia jetzt die (hohen) Erwartungen erfüllen darf.
 
ich brülle nichts, sondern ich hab nur auf dich und göschle gewartet. eure aussagen sind die gleichen wie in allen anderen 58xx threads. soll ja keine kritik sein. wie gesagt ich hab halt drauf gewartet.

für mich gilt dieser satz:
Inwieweit dieses Flimmern als störend empfunden wird, ist stark subjektiv und auch vom Textur-Content der Spiele selbst abhängig.
in den ht4u vids wird das flimmern von mir durchaus wargenommen, da wird mein auge allerdings auch nicht von der umgebung abgelenkt. im eigentlichen spielgeschehen merk ich da nicht viel bis gar nichts von. es bleibt trotz dem zu hoffen, das amd/ati das flimmern in zukunft in den griff bekommt und sein af auf das nvidia niveau anhebt.
 
Zuletzt bearbeitet:
DX 11 mit Tesselation ist schon ein Kaufgrund wenn ich mir die Bilder hier anschaue.
http://www.pcgameshardware.de/aid,6...ten-DirectX-11-Screenshots/Action-Spiel/News/

Und die ersten DX11 Beches zeigen wohl deutlich was da kommen wird da hat eine GTX 295 keine Chance. Die ersten Games gibts schon und angekündigt sind schon viele Games mit DX 11. Auch für etliche ältere wirds DX11 patches geben. Siehe Battleforge.
http://www.pcgameshardware.de/aid,6...rd-ab-sofort-eingespielt/Strategiespiel/News/
 
Zuletzt bearbeitet:
das mit den patches wollen wir mal hoffen. bin mal gespannt wie viele tatsächlich kommen.

ich freu mich schon auf avp und die tesselation vs non-tesselation vergleiche.

hab mir vor ca. 2 wochen mal wieder avp2 installiert und war geschockt von der grafik. dachte das spiel ist so von 2005/06, allerings ist es ja schon von 2001.
 
Zurück
Oben