Test AMD gegen Nvidia: 13 aktuelle Grafikkarten im Vergleich

computerbase83 schrieb:
auf jedenfall es lohnt sich kaum noch ne neue Graka zu kaufen wenn man ne 4890 oder 285gtx hat und besser bis zum Winter warte bei den neuen grakas was rauskommen werden!;)


Ist ja auch verständlich wenn man schon die schnellste Single GPU Karte besitzt.
 
Wolfgang schrieb:
Das Problem ist der anisotrope Filter. Mit 4xAA/1xAF sinds 56 FPS, mit 4xAA/16xAF sinds 30 FPS.
Dann wär das geklärt.

Damit ist HAWX kein Nvidia freundliches Spiel, sondern ein Spiel das klare Architekturmisstände, wie die wenigen TMUs aufdeckt.

Kasmopaya schrieb:
Oh nein ihr habt es schon wieder getan, eine GTS 250 mit 512MB Vram ist der letzte Dreck, wie kann man sowas empfehlen. ->"manchmal zu wenig Vram" ist untertrieben denkt doch auch mal ein wenig weiter... :o
Noch spannender ist es, wie man eine Karte empfehlen kann, die gar nicht mitgetestet wurde. :D

Damit ist zwar klar, warum keine 1024MiB GTS 250 genommen wurde, aber das Fazit dieser Karte ist dadurch fehlerhaft.
 
Zuletzt bearbeitet:
Unyu schrieb:
Noch spannender ist es, wie man eine Karte empfehlen kann, die gar nicht mitgetestet wurde. :D

Damit ist zwar klar, warum keine 1024MiB GTS 250 genommen wurde, aber das Fazit dieser Karte ist dadurch fehlerhaft.

Jetzt wo du es sagst. ;)
Schon klar warum keine GTS 250 1GB empfohlen werden kann, wenn man keine zum Testen bekommen hat, das rechtfertigt aber wie du schon sagst kein falsches Fazit bzw. eine verdammt schlechte Empfehlung. Währ übrigens mit ATI nicht so hart ins Gericht gegangen mit der HD 4770, nur weil se grad nicht verfügbar ist und ein wenig teurer ist wie sie sein könnte, sollte man die nicht einfach ausschließen. Immerhin ist die Karte ein wahres Watt/Performance Monster, leider fehlt die wirklich gute 1GB Version noch komplett. Daher dann doch wieder gut das keine Empfehlung gegeben wurde.

Wenn wir schon grad beim Meckern sind: http://www.pcgameshardware.de/aid,6...ulti-GPU-Refresh-von-Nvidia/Grafikkarte/Test/
GTX 295 1.0 ist schon lange wieder altes Eisen und komplett veraltet, es gibt schon die neue 2.0 Version die fast alles besser macht. :lol:

Soll jetzt nicht falsch verstanden werden, der Großteil des Tests ist perfekt :daumen:, aber mit ein paar groben Schnitzern.
 
Zuletzt bearbeitet:
@Kasmopaya: Ich bitte dich inständig - editiere bitte diesen Post über mir. Du hast die Sätze derartig verschachtelt geschrieben, dass du offenbar selbst den Faden dabei verloren hast. Ich verstehe nicht was du geschrieben hast.

@CB: Schöner Test, ich find's super dass ihr endlich die 1920er Auflösung reingenommen habt. Eure beiden 9800er Modelle müssen ziemlich sch** sein was den Stromverbrauch betrifft. Ich hab hier neben der aktuell eingebauten HD4770 noch eine MSI 9800GT OC und eine MSI 9800GTX+ OC, die beide im Idle weit weniger als die Radeon verbrauchen. Die GT sicher 15 Watt weniger (eher 20), und die GTX+ verbraucht da vielleicht 5W mehr. Ersucht doch mal die Hersteller nach aktuelleren Ausführungen dieser Karten :)
 
Kasmopaya
Neben dem VRAM meine ich vor allem Dinge wie Lautstärke oder Leistungsaufnahme.
Es wirkt ziemlich seltsam, die ohne Grafikkarte ermittelt zu haben.

1. Sie könnten aus dem alten GTS 250 Test entstammen, der mit mehr VRAM.
Dann sind die Werte nur sehr bedingt übertragbar, wegen anderer Raumtemperaturen oder der VRAM Größe.

2. Sie könnten aus dem hiesigen Test stammen.
Dann ist das Label GTS 250 einfach nur falsch. Die gemessenen Werte entsprechen keiner GTS 250.
 
Ich wette mir dir das ist die alte 9800GTX+ engineering sample die mit der exorbitanten Leistungsaufnahme im Idle und ich glaub auch unter Last. Die gibt es gar nicht im Handel, die wurd einfach aktuell getestet und wie bei NV einfach den Namen getauscht. Nur blöd das die richtige GTS 250 einen Idle Stromsparmodus hat...

Aber da lässt sich sowieso nix machen, keine Karte kein Nachtest. So einfach ist das. :rolleyes:

Mir ist bewusst das so ein Test nicht innerhalb von 2 Wochen fertig ist, aber würd einfach bei dem Shop meines Vertrauens eine Karte bestellen, die Karte testen und wieder kostenlos zurückschicken. (wenn möglich innerhalb der 2 Wochen) Mit dem Shop noch ein bisschen kostenlose Werbung ausmachen für den Service der massenhaften Rücksendungen und schon hat man immer kostenlose aktuelle Karten zur Hand.

@Computerbase
Ist das eine Idee oder was. :D
 
xpk7 schrieb:
Mal davon abgesehen, dass es tatsächlich auch übertaktete 285er gibt :rolleyes:
Mal davon abgesehen, dass dein Posting nach Subjektivität stinkt, kostet die Hd4890 155 und die GTX285 255 Euro. Was was solls, nicht wahr :o



@Test

Danke, dass ihr endlich 1920x1200 implementiert habt!


Ich glaube, dass die Karten mit wenig VRam zu gut weg kommen. Ebenfalls fehlt mir ein nettes Wort zu dem extrem guten Strom- Leistungsverhältnis der HD4770 in diesem Review. Genau aus diesem Grund habe ich sie mir für meinen "HTPC" gekauft.
Denn sie verbraucht - laut euren Angaben - unter Last ca. 60(!) Watt weniger als ihre Schwester Hd4850.

Genauso wie der Trend hin zu 1680x1050 und 1920x1200 geht es denke ich zu kleineren Gehäusen. Dort ist man froh um die geringere Abwärme oder den insgesamt geringeren Verbrauch, wenn man ein schwaches Netzteil benutzt. Folgekosten für Strom sind wohl bei den aktuellen Halbwärtszeiten von solch günstigen Karten nicht mehr so relevant, aber durchaus vorhanden.

Die GTX260 kommt nach wie vor sehr gut. (Ich empfehle jedem sich angesichts der anstehenden Nachfolgerkarten eine Investition in eine teurere Karte gut zu überlegen :) )
Der Kühler der GTX260 Karten lässt sich übrigens sehr gut per RivaTuner auf einen leisen Idle-Betrieb trimmen. Aber das ist schon klar, dass ihr die Werkslautstärke messen und angeben müsst.

Danke.
 
Absoluten Beifall von meiner Seite... endlich die 1920x1200er Auflösung. :) DANKE CB FÜR EURE MÜHE...
 
Warum wurde die HD4830 nicht mitgetestet? Die wäre sonst die deutliche Empfehlung vor der 9600GT, dass die HD4670 keine Chance hat, ist klar.
 
Finde die Segmentierung und Auflösungsempfehlung sehr gelungen. Bei dem Chaos, welcher am Markt vorherscht bringt das schnell Licht ins Dunkel.

Danke für die Anpassung.

Cu
Lasyx
 
Ein super Test, an dem man sich mal in Ruhe (und vor allem Wertungsfrei, denn es gibt Seiten im Netz, die haben grüne oder rote Brillen auf) einen Überblick über die zur Zeit üblichen Modelle verschaffen kann.

Er bringt Licht ins Dunkel beim momentan vorherrschenden GraKa-Überfluss.

Und ich muss gestehen, dass ich meist immer gern erstmal das Fazit durchlese.
Ich will wissen, wer der Mörder ist. :lol:

Danke CB, weiter so! :daumen:
 
Hm ja das mit den µrucklern ist übertrieben, ich weiß wie sich welche anfühlen, da ich diese sowohl mit ner GTX295 als auch einer HD4870x2 spüren durfte.
Bei beiden Karten allerdings tauchten die bei ca 30FPS auf.
Bei etwa 35-40FPS waren die bei beiden Karten weg, als wir ne LAN hatten hab ich das aus intresse intensiv untersucht.
Wir haben 6 Spiele gezockt. Cod4 Cod5 Crysis, CRysis Warhead, Stalker Clear Sky. Hawks.
Bei cod4 und 5 war nichts von µrucklern zu erkennen, weil die FRamerraten sehrsehr hch waren.
Bei Crysis mit max Einstellungen 1900x1200 ohne AA war das µruckeln hier bei der GTX295 deutlich stärker und bei der HD4870x2 war nichts zu sehen.
Umgekehrt war das dann in stalker Clear sky, gleiche Auflösung, hier µruckelte es etwas mehr auf der Radeon.
Crysis Warhead lief bei jeder GRaka gleich gut, keine µruckler zu sehen. bei etwa 35 bis 45 Frames.
Hawks lief supi. keine µruckler auf beiden Karten. 40 bis 50FPS durchschnittlich.
Dass Nvidia da irgendwas bei den µrucklern gemacht hat, kann durchaus sein, in dieser Spieleauswahl liefen die Games allerdings mit der 100 Euro billigeren HD4870x2 besser.
 
Wegen den µ-Rucklern:
Das menschliche Auge schaft es eine Vielzahl von Bildern pro Sekunde aufzunehmen. Jedoch bearbeitet unser Gehirn nur die Anzahl an Bildern, die es für nötig erachtet. Unser Gehirn funktioniert selektiv. Daher kann man mit Hypnose ja auch Erinnerungen herbeizaubern, welche man gar nicht so erwartet hätte, da man sie eigentlich verdrängt hat.

Fazit:
Es gibt diese ungleichmäßige Verteilung der Frames und jeder empfindet sie anders. Auch das Fiepen von Kondensatoren ist unterschiedlich, da nicht jeder noch ein so gutes Gehör hat. Das eine ist mechanisch bedingt und das erstere ist entwicklungsphysiologisch bedingt.

Man kann ewig darüber weiter diskutieren, ob sie existieren oder nicht, wenn nicht jeder sie gleich intensiv wahrnimmt.
 
Dann zeige uns doch mal eine Grafk mit den Frameverläufen.

Ich kann mir nämlich sonst nicht erklären, warum die Frameverläufe auf CB den Eindruck erwecken, dass du bei Crysis Warhead keine Mikroruckler gesehen hast, dafür aber bei Stalker.

Edit: Man brauch nicht drüber existieren, ob sie gibt, da es schon längst bewiesen und durch ausreichend viele test niedergelegt wurde, dass es dieses Problem gibt. Ob und wie man sie wahr nimmt, ist natürlich etwas anderes.
 
Zuletzt bearbeitet:
Was sagt der geneigte CB-Redakteur (Wolfgang Andermahr) dazu:

http://s2b.directupload.net/images/090705/utxau9ee.jpg

http://s1.directupload.net/images/090705/whdmrb7t.jpg

Entweder ist da was schief gelaufen oder ich bin blind. Unterschiedliche Seitenverhältnisse und unterschiedliche Details. Könnte auch ein Treiberbug sein. Ausserdem ist das Spiel doch ein OGL statt D3D9 oder irre ich etwa?

Ansonsten muss ich die Arbeit auch loben. Dieser Test ist als gute Kauforientierung zu sehen.

bye Hübie
 
Zuletzt bearbeitet von einem Moderator: (Bitte nicht das Layout sprengen!)
Tja wieder mal ein totaler Mülltest oder wundert das keinen das die Leistungsaufnahmen trotz gleichgebliebenen Testsystem auf einmal deutlich höher sind, als bei den Messungen der Grafikkarten unter Last beim damaligen Test? Auch der Unterscheid zur Lautstärke bei der GTX 260 und GTX 275 is völlig falsch, da die 275 deutlich lauter ist. Für mich reine Zeitverschwendung der Test hier!
 
@BIubb
Wolfgang sagte doch, dass sie nun die Grafikkarten anders auslasten!

Wolfgang schrieb:
BTW, wie erklärt sich eigentlich die schon deutlich gestiegene Leistungsaufnahme der GTX 275 im Vergleich zur HD4890? Wenn man den Test zum Erscheinungstermin beider Karten mit dem jetzigen vergleicht, ist da schon ein kräftiger Unterschied bei den Load-Werten zu sehen.
Der Lasttest ist nun ein anderer. Der scheint die Nvidia-Karten besser auszulasten.
 
Zuletzt bearbeitet:
Zurück
Oben