Test AMD gegen Nvidia: 13 aktuelle Grafikkarten im Vergleich

xpk7 schrieb:
Es gibt mehr Probleme als nur Microruckler, wenn DU zufrieden bist schön für dich (behalts ruhig für dich). Die Karte ist trotzdem Müll, sowie multi-GPU ganz allgemein. Davon abgesehen verstehen höchstens 1% die wahre Bedeutung von "Microrucklern", denn es geht nicht nur um eine unsaubere Bildausgabe, sondern vorallem darum, dass das Spiel LANGSAMER wahrgenommen wird als es der Penis-FPS-Balken anzeigt!
Und wenn man schon nen dicken Geldbeutel und einen zu großen Monitor hat, ist es SELBSTVERSTÄNDLICH zu einer 100 Euro teuereren Karte zu raten, wenn diese wenigstens etwas besser läuft! Zudem ist sie schneller und hat die Nvidia typischen Vorzüge.


Mich würde vor allem interessieren, wie du dazu kommst dir ein Urteil zu bilden?
Falls du was von Multi-GPU-Systemen verstehst, dann weise es aus, oder behalt deine Kommentare für dich.
Sieh's doch ein, 90% der Benutzer hat keine Erfahrung mit Multi-GPU-Systemen und verlässt sich auf die Aussagen von Redakteuren oder halbgaren Nutzermeinungen wie der deinen.
Erstaunlicherweise kenne ich keine Stimmen von Leuten mit Multi-GPUs, die total unzufrieden waren, aber diverse die mit der Leistung sehr zufrieden sind.

Schön ist, dass du dich in deinem Kommentar wenigstens noch selbst disqualifizierst.. :rolleyes:

Edit: Wenn man sich das Ganze dann nochmal genau anschaut, dann gibt's genau 3 Spiele, bei denen Micro-Ruckler übrhaupt eine Rolle spielen können: Cryostasis, Clear Sky und Warhead. Zwei der drei Spiele erhielten sehr zweifelhafte Spielspass-Wertungen und alle drei sind für ihre generell grottige Performance bekannt.
Und in der "Grossen Monitor"-Liga ist die Lage leider nicht so klar, wie es xpk7 gerne hätte...
 
Zuletzt bearbeitet:
Naja man kaut halt gerne den Quark, den andere schon angesabbert haben ;)
Ich stoße auch immer wieder auf solche "Experten".
Traurig traurig. Wer sich selber als jemand ausgibt, der Ahnung von der Materie hat verwedet beispielsweise nicht einmal das Wort Mikroruckler. Denn Mikro ist 0,000001 oder 10^(-6). Wenn etwas so wenig ruckelt ists egal:D
Des weiteren kommen wahrnembare Ruckler nur auf bei:
  • niedrigen Frameraten auf einer Einzelkarte(<25) oder Multikarte (<33)
  • ungünstiger MGPU-Konfiguration (Mischbestückung)
  • in Crysis unweigerlich
  • in Benchmarks wo die Kamerafahrt fixiert ist (3DMark, Clear Sky, Far Cry 2 etc...)

An ein Spiel wo ich unter 33fps habe erinnere ich mich nicht mehr. Crysis lasse ich aussen vor. Das ist ne spielbare Grafikdemo.

bye Hübie
 
hübie schrieb:
Traurig traurig. Wer sich selber als jemand ausgibt, der Ahnung von der Materie hat verwedet beispielsweise nicht einmal das Wort Mikroruckler. Denn Mikro ist 0,000001 oder 10^(-6).

Das ist meiner Meinung nach Unfug. Es ist einfach nur der gängige Begriff, wie zum Beispiel auch das Mikroskop.
Des weiteren kommen wahrnembare Ruckler nur auf bei: niedrigen Frameraten auf einer Einzelkarte(<25) oder Multikarte (<33)

Das ist imo auch nicht richtig. Wenn du Shooter, wie CS:S oder COD spielst, sind 25FPS viel zu wenig. Da du ein ruckliges und unsauberes Spielgefühl und Bild hast.
 
Herrlich! Endlich tests in 1920x1200! Darauf hab ich echt gewartet :)
 
Sehr gutes Fazit und super übersichtlich. So wünscht man sich das doch.
Jetzt weiß man auch in welcher genauen Liga die Grafikkarten mit den neuen Treibern liegen...
Klasse!

Da werden schon wieder erste falsche Rückschlüsse gezogen. DA hat man den Salat.
Man weiß eben nicht in welch genauer Liga die Grafikkarte spielt, im Gegenteil.=(
Man weiß es nur in dem Trauben/Gurken Salat Parcour.
 
Zuletzt bearbeitet:
d-Raven-b schrieb:
Erstaunlicherweise kenne ich keine Stimmen von Leuten mit Multi-GPUs, die total unzufrieden waren, aber diverse die mit der Leistung sehr zufrieden sind.
Dann kennst du nicht so viele Leute.

Zu µRucklern gibts immer den selben Schnee.
Die klassische Ausrede: "Ist eh so schnell, da fällts nicht auf".
Die klassische Antwort: "Wozu dann überhaupt MGPU?"
Die klassische Gegenantwort: "Aber, aber!/*Schweigen*" -> Oder hast du eine bessere Antwort zu der Frage?

Sieh's doch ein, 90% der Benutzer hat keine Erfahrung mit Multi-GPU-Systemen und verlässt sich auf die Aussagenvon Redakteuren oder halbgaren Nutzermeinungen wie der deinen meinen.
Das ist schlimm.
Statt wenig aussagenden Test müssen jetzt subjektive Lobhuldigungen herhalten.
Kein Wunder das es MGPU soweit geschaft hat, ohne das die grundlegenden Probleme beseitigt wurden.

Der Redakteur präsentiert die tolle "Performance" der MGPU Lösung, der Benutzer wird dadurch bewusst getäuscht. Dann wird das Kleingedruckte durch dich noch relativiert.

Zählen wir: Verschweigen der Nachteile, Täuschung durch Benchen gut skalierender Vorzeigespiele, allgemeine Täuschung durch falsche Settings.

Wenn man sich das Ganze dann nochmal genau anschaut, dann gibt's genau 3 Spiele, bei denen Micro-Ruckler übrhaupt eine Rolle spielen können: Cryostasis, Clear Sky und Warhead.
Wie kommst du auf ein derart seltsames Ergebnis? µRuckeln sonst keine Anwendungen?
 
Zuletzt bearbeitet:
Bedenken Sie jedoch bei allen Multi-GPU-Lösungen, dass diese nicht nur unter Mikroruckeln, sondern auch an einer Eingabeverzögerung leiden. Bei den Geforce-Karten wurde dieses Manko mit aktuellen Treibern fühlbar abgemildert, ist unterhalb von 30 Fps aber nach wie vor störend. Radeon-Crossfire ist deutlich stärker vom Mikroruckeln betroffen, hier ist das Problem in vielen Spielen unterhalb von 40 bis 50 Fps präsent; auch die Min-Fps sind bei zwei Ati-GPUs oftmals reproduzierbar langsamer als bei einer.
http://www.pcgameshardware.de/aid,6...-Refresh-von-Nvidia/Grafikkarte/Test/?page=13
Aktuelle Fakten und aktueller Stand. Wer was anderes fühlt, fühlt falsch. ;)

Die Verbrauchsmessungen sind ein heikles Thema, soweit mir bekannt war früher Bioshock der Load Zustand, jetzt ist es Crysis Warhead und offensichtlich ungünstiger für NV Grafikkarten. Je nach Spiel oder Architektur verbraucht mal die eine mal die andere Grafikkarte mehr Strom. PCGH benutzt Race driver Grid und wird das sorgfältig bestimmt haben. Einen richtig fairen Vergleich gibts sowieso nur wenn man die Leistungsaufnahme aller Games im Test misst und dann mittelt(zu viel Aufwand). Mit Warhead haben auf jeden Fall die Radeons einen Bonus bei der Leistungsaufnahme.

Für so eine Ausmittlung der Leistungsaufnahme kommt höchstens ein extra Artikel in Frage, ist aber eher was für Print Magazine...

Bei der GTX 275 ist allgemein bekannt das NV nicht die hochwertigsten Chips verbaut, die sind für die GTX 285 reserviert.
http://www.pcgameshardware.de/aid,6...idia-Geforce-GTX-275/Grafikkarte/Test/?page=3
PCGH kommt auf das Selbe im Idle und unter Load. GTX 275 ist leicht über der GTX 285!
Allgemein kann man sagen das die ATI Grafikkarten bei CB mit dem neuen Testsetup beim Verbrauch zu gut abschneiden.

Deswegen ist ja auch der Furmark was schönes der liefert immer 100% Last egal welches System im Hintergrund werkelt, egal welche Grafikkarte. Außerdem muss man ja sein Netzteil auf solche Lastzenarien auslegen, PCGH hat das sehr gut in den Testparcours eingearbeitet.


MfG Kasmo
 
Zuletzt bearbeitet:
Klasse, noch einen Grund mehr gleich eine GTX 285 zu kaufen, wenn auf der GTX 275 aussortierte Chips ihren Platz finden. Und ich war wirklich kurz davor eine GTX 275 zu kaufen....
 
..... diese "aussortierten Chips" haben aber dennoch stellenweise erhebliches OC-Potential (siehe meine Karte, und da ist noch nicht Schluss).
 
OC ist wie gewohnt verdammt gut, aber eben die Leistungsaufnahme ist nicht so prickelnd. Wenn man dann den Preis mit einbezieht ist die GTX 275 immer noch besser in der Preis/Leistung als die GTX 285. Die GTX 285 würd ich aktuell sowieso nur in der 2GB Version kaufen, vorzugsweise flüsterleise: http://www.edel-grafikkarten.de/pro...tion---Palit---Gainward---Design--2048MB.html
Auch die 3D-Verbrauchswerte irritieren im Angesicht der sparsamen 55-Nanometer-Geschwister. Dieser Umstand nährt aktuelle Gerüchte, dass Nvidia "alte" GT200-GPUs (GTX 280/260-65nm) auf die neuen Platinen löten lässt. Die Demontage des Kühlers offenbart allerdings einen GT200b im B3-Stepping. Unsere Vermutung: Es handelt sich um weniger gute Exemplare, welche Nvidia mittels erhöhter Spannung zu den geforderten Taktraten befähigt.
http://www.pcgameshardware.de/aid,6...idia-Geforce-GTX-275/Grafikkarte/Test/?page=3

Seit wann wird bei GPUs selektiert?
Seit Anbeginn der Zeit.
 
Zuletzt bearbeitet:
Soweit ich weiß geben einige Hersteller der GTX 275 auch erstaunlich viel Saft, Zotac befeuert seine beispielsweise unter Last mit 1,17V, während eine GTX 285 in der Regel unter Last mit 1,15V versorgt wird. Dies würde natürlich den Mehrverbrauch erklären. Nun ist nur die Frage, ob die GTX 275 mit mehr Spannung versorgt wird, weil der Chip "minderwertiger" ist, oder um möglichst viel OC-Potential zu gewährleisten. Also zumindest meine lässt sich erstaunlich gut übertakten. Und ich bin nicht der einzige:

https://www.computerbase.de/forum/threads/offizieller-gtx-275-overclocking-thread.579009/
 
Das selektiert wird, vermute ich auch schon lange.
Aber gibts dafür auch Beweise? Belege?
 
Der Beleg nennt sich Yield Rate.

Je nach dem wie die Ausfällt bekommen GTX 260 und GTX 275 und billige Quadros mehr teildefekte untergemischt.
Da sich diese x-mal häufiger als GTX 285 oder teure Quadros oder Teslas verkaufen wäre das Rätsel gelöst:
Für die minderwertige Ware muss die Spannung immer hoch sein, um sicherzugehen, das auch diese läuft.
 
Warum soll die ware deswegen minderwertig sein?
Die beschreibung passt nicht. Und das mit den Teildefekten würd ich auch mal anzweifeln.
 
Packt Takt X bei Spannung Y nicht: -> Minderwertiger, Spannung hoch oder Takt runter
Defekt in Cluster X: -> Minderwertiger, Cluster deaktiveren oder egal, weil defekt sowieso im Redundanzbereich liegt

Beweis: Es rollen keine fehlerfreien Wafer vom Band.
-> Was hast du gedacht was Yield u.a. heißt?
Das Celeron Beispiel kennst du?

Beispiele: So ziemlich allen GPUs werden auch beschnitten auf irgendwelchen Karten verbaut.

Hoher Andrang auf billige Karten: Man mischt (mehr) gute Chips rein oder bastelt eine neue GPU.
 
Zuletzt bearbeitet:
Hm... okay..., also besteht die Möglichkeit, dass man eine teildefekte GTX275 besitzt?
 
Dat ist wohl die Generalprobe für das neue Test-Setup. Erste Erkenntnis: Das neue Testsystem zieht noch mehr Saft (nachdem es vorher schon weit von der Realität weg war). :verwandlung:
 
Schaffe89
Natürlich, aber muss nicht. Ich kanns mir zb. nicht erklären wo auf einmal so viele Defekte herkommen sollen um all die Kartenversionen zu befriedigen.
Und wenns nur ein defekter Cluster ist, so ist es ohne Belang. Sind eh nicht mehr aktivierbar.
 
Ich bin enttäuscht, verwendet mann doch die ATI4870 in der 1GB Version darf keine GTS250 mit 1GB antreten.

Dann fehlt auch noch die GTX280 und die Ur-GTX 260 mit 192 ALUs

Stattdessen sind dann so "aktuelle" Karten wie die 9800GT(X) und 9600GT vertreten.
 
Zurück
Oben