Test Grafikkarten-Übersicht: 10 Mal DirectX 11 von AMD und Nvidia im Vergleich

Das die HD6 auf HD5 AF Niveau bleiben wird, davon gehe ich zu 100% aus. Leider wurde hier die Kritik seit nunmehr 4 Generationen immer noch nicht laut genug, als das ein vollkommen unschädlicher optionaler HQ Modus angeboten wird.
So sicher bin ich mir da nicht, k es ist nur ein Hybrid mit HD 5000er Anteilen, aber vielleicht werden genau solche Sachen von der neuen Architektur übernommen. Vorallem da NV jetzt vorgelegt hat mit 1,3 und 1,5GB zum neuen Standard wurde, müsste ATI nachziehen und hätte dann vielleicht 2GB Vram und danach auch locker genug für HQ AF. Also ich hab da noch Hoffnung das da was geht. SGSSAA ist ja auch aus heiterem Himmel gekommen, warum nicht auch beim AF.



Denke nicht das es ein Bug ist, ATI hat ja mit der HD 5000er die AF Qualität stark erhöht. Es ist mir ja schon gleich beim Start aufgefallen das die HD 5000er gegenüber der HD 4000er im Vram fordernden Settings nicht so gut performen wie sie sollten. Nun bestätigt sich das ganze, AA wurde ja nicht verbessert, was sollte sonst den zusätzlichen Vram fressen? Ach ja noch ein Beispiel dann haben wir 3 Beispiele im CB Test:
Batman: (1GB Versionen müssten ihr CPU Limit schaffen, tun sie aber nicht)
Splinter Cell: Klare Sache voll eingebrochen
Metro: Wieder klare Sache.

Crysis: Aufgrund von AF Cheaterei schneller als NV und nicht im Vram eingebrochen. (wohl der beste Beweis das es mit dem AF zusammenhängt)


Auch interessant scheint die 2-GB-Versionen, die uns AMD aber leider nicht zur Verfügung stellen konnte. Ob sich der enorm hohe Aufpreis lohnt, können wir hier und heute somit leider nicht bezeugen.
Wäre definitiv interessant geworden vorallem bei den SSAA vergleichen war es gleich doppelt unfair für ATI.
1. mussten Karten antreten die günstiger waren als die von NV
und 2. mussten sie mit viel weniger Vram in diesen extremen Settings antreten.
 
Zuletzt bearbeitet:
Fetter Fettsack schrieb:
Es geht nicht um die Leistungsaufnahme in Relation zur Konkurrenz sondern um die Erreichung eines absoluten Leistungsaufnahmelevels.

CB ist anscheinend der Meinung, dass Karten weniger als 150 Watt verbrauchen sollten. Dahe rkritisieren sie beide. Ich bin im Übrigen ebenso für die allgemeine Senkung des Verbrauches.

QFT.

Danke für die Einführung eines neuen Testpacours ohne neue Karten, dass erhält die Übersichtlichkeit und bleibt bei der Leistungsaufnahme kritisch am Ball!
 
Computerbase mausert sich immer mehr zu Pro Nvidia.

1. Im NEUEN Testparcour immer noch Batman: Arkham Asylum
2. Bei den Fazit wird keine Temperatur berücksichtigt.
3. Als negativ Punkt bei der ATI 5870: hohe Leistungsaufnahme

Zu Punkt 1: Es sollte zwar mitlerweile den meisten klar sein, dass der Test nicht in die Bewertung mit einfließt, aber es sieht schon sehr Nvidia lastig wenn alle ATI Karten so kurze rote Balken haben und die grünen Nvidia Balken so weit über die der roten Balken herausragen. Warum lasst ihr den Test nicht einfach weg?

Zu Punkt 2. Warum spielt die Temperatur im Fazit keine Rolle? Wahrscheinlich um einen großen negativ Punkt bei den neuen Nvidias nicht so offen darzustellen.

Zu Punkt 3: Das die ATI 5870 eine hohe Leistungsaufnahme hat ist schlichtweg falsch. Die Leistungsaufnahme liegt noch unter einer GTX 260 und einer ATI 4870, hat aber 70-80% mehr Leistung.

Das sind für mich 3 Punkte woran ich sehe das die CB-Tests nicht mehr als Neutral einzustufen sind. Frage, wann bekommt Computerbase ein Nvidia Logo spendiert?

Ich bin echt maßlos entäuscht, von euch.
 
Kasmopaya

Ich sehe, das SGSSAA AMD überhaupt nicht geschadet hat, es hat im Gegenteil für gute Presse gesorgt. Man hat es nicht ins Negative gedreht und wenn, das war es eine Möglichkeit um die Leistung überhaupt sinnvoll auszunutzen.
HQAF würde in erster Linie dafür sorgen, das die Leute sehen das es jetzt nicht HQ ist. Dann würde es die Balken verkürzen, also im Grunde kaum positiv. Schau mal zur Gamestar, wenn du dich diesem Müll aussetzen willst, die sind ein gutes Beispiel dafür, das man nichts mehr tun muss. Diese runde Presseblume hat für Begeisterung gesorgt.

Zum VRAM, gerade in Crysis, wo wir ja wissen das AMD cheated, "kostet" AF der HD außergewöhnlich wenig.
Andererseits sind die Beispiele nicht von der Hand zu weisen, dort fehlt eindeutig etwas, das an VRAM erinnert. In Metro z.b. wundert es mich jedoch, das ist doch ein D3D11 Titel, wie kannst du hier die HD4 ins Spiel bringen?

Denke nicht das es ein Bug ist
Denke ich auch nicht, war nur angelehnt an die alten Tage, als dieses Wort durch die Foren glitt...

Schaby

Batman ist unheimlich wichtig, um zu sehen wie die Geforces mit PhysX Belastung reagieren. Damit sich keiner mit seinem IHV benachteiligt fühlt wird es weggelassen aus dem Fazit.
Ich denke die Tolleranz kann man erwarten, den Geforcenutzern gegenüber, die daran interessiert sind.

Temperatur ist in der Tat bedeutungslos. Lautstärke und Leistungsaufnahme zählen, wie heiß das Ding wird juckt nicht, solange es sicher läuft.

Punkt 3 wurde zur genüge disskututiert, warum gehst du nicht darauf ein?
 
dirky8 schrieb:
@User4base

würde einfach mal tippen das du die letzten 6 Seiten nicht ansatzweise gelesen hast?

ich tippe ganz einfach mal du hast meine Frage nicht verstanden? (ansatzweise :evillol: )
oder wo wurde diese in den letzten 6 Seiten beantwortet?

Deshalb nochmals:

eine ATi Radeon HD 5850 mit 299W (Performance ca. 83%) bekommt die Bewertung:
Die Radeon HD 5850 hat dabei den großen Vorteil einer recht niedrigen Leistungsaufnahme

eine ATi Radeon HD 5870 mit 320W (Performance ca. 100%)bekommt die Bewertung:
Recht hohe Leistungsaufnahme unter Last

Meine Frage war: wie diese Bewertung zustande kommt. Irgendwelche Kriterien wird es dafür wohl geben. Ich kann sie jedenfalls nicht erkennen bzw. nachvollziehen.
In diesem Zusammenhang habe ich auch gefragt, mit wieviel Watt hätte eine 5870 die Bewertung "recht niedrigen Leistungsaufnahme" bekommen? (309W, 319W ???)
Ich kann die Frage auch anders formulieren: Wieviel mehr an Performance hätte eine 5870 bringen müssen, damit diese 21W unter Last gerechtfertigt wären um z.B eine Bewertung " noch akzeptable Leistungsaufnahme" zu erhalten?

Wenn ich etwas teste, dann kann ich das Ergebnis unbewertet und einfach für sich stehen lassen.
Wenn ich eine Bewertung einführe, dann sollte diese transparent und für jeden ersichtlich und nachvollziehbar sein.

Beispiel Bewertungskriterien (Performance spielt keine Rolle :D ):
....
Alle Karten deren Leistungsaufnahme unter 299W liegt, bekommen die Bewertung "recht niedrige Leistungsaufnahme"
Alle Karten deren Leistungsaufnahme bis zu 309W reicht, bekommen die Bewertung "noch akzeptable Leistungsaufnahme"
Alle Karten deren Leistungsaufnahme über 319W liegt bekommt die Bewertung "Recht hohe Leistungsaufnahme"
....
 
Ich bin auch der Ansicht das CB schon etwas genauer die Unterschiede der beiden High-End Karten von ATI und NVIDIA in Sachen Leistungsaufnahme aufzeigen hätten müssen.

Sparsam sind sie beiden nicht. Das ist richtig.
Aber zum Sparen sind sie ja auch nicht gemacht worden.
Sparsamkeit bedeutet im eigentlichen Sinne Verzicht.
Eine HD4670 ist sparsam einhergehend mit dem Verzicht auf BQ und hohen Auflösungen bzw. hohe Settings.
Die HD5870 und die GTX480 sind daher nicht sparsam. Bei ihnen bekommt man alles ohne auf etwas verzichten zu müssen.
Dies schlägt sich dann auch im Verbrauch nieder.

Die Frage ist daher nicht wer sparsamer ist. Sondern wer effizienter von den Beiden arbeitet !
Und da ist eben die HD5870 deulich besser als die GTX480.
 
Nun reitet nicht ewig auf der Definition des Stromverbrauchs rum.....seinerzeit war eine Voodoo5 5500 auch als Stromfresser verschrieen und liegt mit seinen schaetzungsweise max. 50W im Bereich einer heutigen HD5570.

Die hier getroffene Abstufung ist durchaus akzeptabel.
 
Auch wenn ich etwas spät bin:

Großes Kompliment an CB! :daumen:

Ihr habt mit der neuen Testumgebung echt den zahn der zeit getroffen, es schön aufbereitet, SSAA, DX 9/10/11...Alles was Spieler interessiert und imo auch ne ausgewogene Spieleauswahl.

Stark.

Einzig:

Schon wieder das Unwort "öfters" im Fazit - langsam sollte es doch mal ankommen, dass es das Wort nicht gibt! Häufiger bitte...

Jetzt nur noch bei den nächsten Einzeltests auch beim OC den Stromverbrauch messen und alles wär in butter! ;)

Kompliment!
 
Den SSAA Support bei DX10/11 halte ich allerdings bestenfalls fuer interessant, da es letztenendes nur per Treiber Hack realisiert wird.....auch wenn er vom Hersteller gelieftert wird denn damit bricht man meines Wissens nach die entsprechenden Spezifikationen.
 
LOL die GTX 480 empfehlen ? die saugt deutlich mehr Strom als die HD5970 und gut 120 Watt mehr als die HD5870 und ist dabei zu dieser gerademal 15 % schneller :D

Das ist EPIC FAIL !
 
Zuletzt bearbeitet von einem Moderator: (Schriftgröße geändert.)
Wenn die standard fermi gtx modelle nur nicht so heiß,laut und stromfressend wären, wäre der Aufpreis für die gtx 480 auf jedenfall gerechtfertigt.Höhere Performance, Cuda/physix Unterstützung, sowie SSAA Unterstützung und höhere DX11 Tauglichkeit durch 15 Tesselation Units u.a. (bei ati nur eine Tesselation Einheit) würden mich normalerweise sogar wechseln lassen zu nvidia.Ohne Wakü die meiner Meinung nach zwangsweise nötig ist (gerade jetzt im Sommer) bei den Last Temps von 90 ° und mehr sind die Standardmodelle einfach nicht relevant für mich.Ein gutes Wakü Set kostet um die 500 € und die einzige von der lautstärke und temperatur akzeptabele Variante wäre die Zotac GeForce GTX 480 AMP! bei der das billigste Angebot 522 € beträgt.Wem die fast 200 € Aufpreis (billigste 5870 335€) nichts ausmachen bekommt die beste Single Graka die der Markt zu bieten hat.

Ich persöhnlich warte entweder auf die ati 6xxxer oder darauf dass nvidia billiger wird was wohl nicht der Fall sein wird.^^
 
Zuletzt bearbeitet:
Die interessanteste nVidia kommt doch eh diese Woche: die GTX 460 1024 MiB im Preisbereich 199 $ mit der Leistung einer HD 5850 und etwa 160 Watt Stromverbrauch.
 
wadenbeisser schrieb:
sagt "Glaskugel 2.0"?

Sagen die offiziellen Specs (und Leaks aus dem asiatischen Raum). Die Karte ist außerdem schon längst bestellbar.

Im Vergleich zur GTX 465:

+42 % Texturierleistung (mehr als GTX 470!)
+12 % Speicherbandbreite
+11 % ROP-Leistung
+6 % Rechenleistung

Die 10 % Leistungsvorsprung der HD 5850 gegenüber der GTX 465 sind damit locker eingeholt. Mehr wird CB morgen wahrscheinlich veröffentlichen, wenn die NDA um 6 Uhr morgens Ortszeit fällt.
 
wadenbeisser schrieb:
solche leaks sagten auch mal das die 2900XT die absolute ist...was daraus wurde ist ja bekannt.
les dir lieber mal diese news durch: https://www.computerbase.de/news/grafikkarten/herstellernahe-benchmarks-zur-geforce-gtx-460.28092/

In der News steht was von "GTX 460 in der kleinsten Ausführung". Damit ist wohl offensichtlich die 768 MiB-Version gemeint (siehe auch Bilder), die nur über ein 192-Bit-Speicherinterface verfügt. Ich rede von der 1024 MiB-Version und die wird schneller als die GTX 465. Da braucht man nicht einmal Benchmarks, das sieht man deutlich an den offiziellen Specs.
 
Ja...die kleinste Ausführung mit dem 192 Bit Speicherinterface und die 1024er hat ein 256Bit Speicherinterface.
Das ist mehr oder weniger auch alles was halbwegs sicher bekannt ist.
 
Pickebuh schrieb:
Ich bin auch der Ansicht das CB schon etwas genauer die Unterschiede der beiden High-End Karten von ATI und NVIDIA in Sachen Leistungsaufnahme aufzeigen hätten müssen.

Sparsam sind sie beiden nicht. Das ist richtig.
Aber zum Sparen sind sie ja auch nicht gemacht worden.
Sparsamkeit bedeutet im eigentlichen Sinne Verzicht.
Eine HD4670 ist sparsam einhergehend mit dem Verzicht auf BQ und hohen Auflösungen bzw. hohe Settings.
Die HD5870 und die GTX480 sind daher nicht sparsam. Bei ihnen bekommt man alles ohne auf etwas verzichten zu müssen.
Dies schlägt sich dann auch im Verbrauch nieder.

Die Frage ist daher nicht wer sparsamer ist. Sondern wer effizienter von den Beiden arbeitet !
Und da ist eben die HD5870 deulich besser als die GTX480.

Sparsamkeit ist kein Verzicht, was ein Quatsch, Sparksamkeit ist Effizienz, als wenn man, nur weil man keien Kohle für Strom raushaut auf irgendetwas verzichten müsste !! Nur weil die Technik schlecht ist, muss man nicht die Bedeutung des Wortes verdrehen
 
Zuletzt bearbeitet von einem Moderator:
x-polo schrieb:
Schön wäre es wenn CB die Leistungsaufnahme der Grafikkarte messen könnte (nicht das ganze System) und eine Tabelle Leistung pro Bild/ in Watt um die effizienz der Grafikkarten zu Vergleichen.

Problem ist das die GPU einen Teil der Energie vom Mainboard bezieht. Daher nimmt man Komplettsystemmessungen um diesen unbekannten Faktor zu umgehen.
 
Unyu schrieb:
https://www.computerbase.de/artikel...on-hd-5870-test.1085/seite-29#abschnitt_fazit
https://www.computerbase.de/artikel...arten-2009-test.1152/seite-24#abschnitt_fazit

Wo war da die Kritik über CBs Kritik der 5870/4870 Leistungsaufnahme?
Wer die Kritiker kritisieren möchte, der sollte wenigstens versuchen dies nicht nur einmal wenn es ihm gerade passt zu tun.


Ich lese nicht jeden Test der CB, der letzte den ich so überflogen bin war der Test mit den 2GB 5870 Karten und der grauenhaft schlecht.
 
Zurück
Oben