Test Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

Silent ist bei beiden aufwendig und am Limit, ja.
Ein 512-bit SI ist auch nicht gerade günstig in Entwicklung/Implementierung/Chipgröße.
Jepp. Deswegen kommt der GT212 ja angeblich auch mit 256 Bit SI und GDDR5. Bei gleicher Leistung offenbar billiger.
 
Unyu schrieb:
GTX 260 - 142€ ---- 4870 1024 - 165€
Das GPUs nicht lose beim Händler verkauft werden hast du vergessen?

Wow, 142€, 146€ und 148€ für die drei günstigsten 260gtx 192er Karten. Nur werden die nicht mehr Hergestellt. Vor noch nicht all zu langer Zeit waren die bei 190€. Die 4870 kostet auch nur 142€ bei der 512er Version. Leider kann man die 1GB Version nicht mit der 260er vergleichen, oder man sollte den Mittelwert von der 512er und 1024 nehmen. Vorteile in Spielen hat die 260er mit dem mehr an Ram eh nicht. Und auch da hat die 4870 190€ gekostet.

Aber was bringen mir diese Zahlen deinerseits?

Es ging doch nicht darum, dass ICH weniger dafür zahlen muss, sondern ATI mehr Gewinn damit macht als NVidia, wenn die mehr Chips pro Wafer haben. War das denn so schwer zu verstehen:freak:
 
Nur werden die nicht mehr Hergestellt.
Aber kaufen kann man sie (noch) :rolleyes: Und nein, wir vergleichen keinen 512er-Krüppel mit einer 896er/1.024er-Karte.
sondern ATI mehr Gewinn damit macht als NVidia, wenn die mehr Chips pro Wafer haben
Wie bereits erwähnt - eine Grafikkarte besteht aus weit mehr als nur einer GPU.
 
Aber darum geht es doch gar nicht. ATI verkauft GPU´s und keine Grafikkarten.

holdrio schrieb:
Zu 2, wen interessiert die Grösse des Chips?

brabe schrieb:
Kleinerer Chip= mehr Chips pro Wafer = billigere Preise

Rede ich denn Kisuaheli?

Die Frage war, wen es interessiert, wie groß die Chipfläche ist. Meine Antwort ist:
AMD oder NVida
Nicht der Kunde direkt, sondern der GPU Hersteller.

Besser? Oder muss ich es noch ... erklären?
 
ATI verkauft GPU´s und keine Grafikkarten.
Nein. Die verkaufen beides bzw. geben es an die Boardpartner weiter - Referenzdesign plus Aufkleber. Die FireGL kommen zudem imo sowieso direkt von AMD.
 
Ich frage mich ob bei den Veränderungen an der 4890 eigentlich die Vitec Spannungsregulatoren ausgetauscht wurden, bzW. da ja auch der Referenzkühler verändert wurde seine Problematik gelöst wurde... die scheinbar hohen Drehzahlen des Lüfters, bzW dessen Lautstärke sprechen ja eher dagegen...
 
Zuletzt bearbeitet:
Eine Pipe mehr, mehr Oberfläche der Kühlplatte über den VRMs, eine Phase mehr für die GPU und ein stärkerer Lüfter. Pulse statt Vitec (teils). Lauter deswegen, weil die U/min angeblich an die VRM-Temp angepasst wird und nicht an die GPU. Letztere fackelt später ab, insofern keine dumme Idee.
 
y33H@ schrieb:
Und nein, wir vergleichen keinen 512er-Krüppel mit einer 896er/1.024er-Karte.

Da war hier doch mal ein Test von wegen Speichermanagment.

https://www.computerbase.de/2008-04...kkartenspeicher-muss-sein/15/#abschnitt_fazit

Ich weiß der ist schon etwas älter aber soweit mir bekannt hat sich daran nicht wirklich viel geändert bezügl. dem Vergleich zwischen Nvidia und ATI beim umgang und Verbrauch des Ram's.
Falls dem doch so sein sollte könnte man das vieleicht mit der aktuellen Grafikkartengeneration wiederhohlt testen/gegenüberstellen??
Ansonsten müsste man sagen das man den Vergleich ATI 5120MB vs. NV 896MB bzw. 1024MB wirklich machen kann,oder?
 
y33H@ schrieb:
Lauter deswegen, weil die U/min angeblich an die VRM-Temp angepasst wird und nicht an die GPU. Letztere fackelt später ab, insofern keine dumme Idee.

Ah, ok.
Indirekt zwei meiner Fragen beantwortet bzgl. RV790

Aber warum beschweren sich jetzt wieder so viele über die Lautstärke der Karte?
Sie ist laut, für mich im Referenzdesign absolut nciht ertragbar, aber es gibt ja Mittel und Musashis um dem Problem Herr zu werden.

Irgendwie kann mans keinem Recht machen: Die einen sagen, dass die 4870 zu heiß ist, dafür aber leise. Die anderen nun, die 4890 sei zu laut, dafür bleibt sie aber kühler.

Ach übrigens, die GTX 285 finde ich in Bezug auf die GTX 275 zum momentanen Preis unnütz. Allerdings gibts da ja auch wieder Unterschiede, die einen höheren prozentualen Aufpreis denn dem prozentualem Taktunterschied rechtfertigt:

512bit, somit bisl mehr Vram.

Und nochwas wegen der Chip-Größe: Wichtig für AMD, für uns zählt das Gesamtkonzept und hier ist die 4870 1Gb nun etwas teurer denn die GTX 260, teils auch in der 216er Ausführung. Hier sollte vllt noch etwas getan werden seitens AMD um ihr P/L-Verhältnis wieder aufzupolieren.

@ pleio

Auch wenn das Speichermanagement besser ist bei AMD, denn bei Nvidia: Wenn der Vram voll ist, ist er voll. Dann wird ausgelagert und du kannst flüssiges Spielen vergessen.

=> Somit kannst du den Vergleich nicht anstellen, auch wenn AMD ihn vvlt so sehen möchte.
Gegen eine GTS 250/9800GTX+ 512MB kannst du gerne die 4870 512MB vergleichen und da gewinnt dann logischerweise die AMD-Karte, weil im Schnitt mehr Leistung.
 
Zuletzt bearbeitet:
Wie die GTX 275 aber mit weniger Takt und etwas weniger Rechenkernen wie die GTX 285 in einem Test VOR der GTX 285 landen konnte versteht auch nur CB ....
Das kann eigentlich gar nicht sein. Hat da vielleicht jemand geschlampt ?

Einen Beigeschmack eines nVidia Fanboy hat die CB mal davon abgesehen schon länger.
(ich hab auch ne GTX 285 drin, wegen der Leistung und auch wegen gerigen Idle Verbrauch, ebenso wie merklich leiserem Betrieb)
 
Liegt an den Treibern: Es wurden nicht alle Karten mit dem gleichen Treiber gebencht, sondern nur die neuen mit dem neuen Treiber und die Ergebnisse der alten Karten mit den alten Treibern einfach übernommen.

=> Das Performance-Ranking ist nicht wirklich aussagekräftig, sondern nur eine ungefähre Einordung.
=> HD4890 und GTX 275 auf einem Niveau, lass den Preis entscheiden.
=> Den Rest muss man sich über die Treibervergleiche selbst erarbeiten und vergleichen
 
Schöner Test.

Die GTX275 sollte die Lücke zwischen der 260er und der 280 schließen, überholt in den meisten Fällen aber die GTX280...mhh
Bin überrascht von der Leistung.
 
MacPok schrieb:
Ja dann is ja gut :) :D

@doesntmatter:
Vergiss den Post vorhin einfach ... doesn´t matter eben ...

Ja, es war 100% ein Lob, kann aber nachvollziehen, daß sowas hier in den CB-News-Postings eine exotische Variante ist. :D

P.S. Ich nutze CUDA mit allen drei Grafikkarten bisher lediglich für DC-Projekte wie folding@home und GPUgrid.
 
y33H@ schrieb:
Imo ein Pseudo-Argument. Man muss sich vor dem Kauf ohnehin informieren. Und feinere Leistungs- wie Preisabstufungen erlauben es eher, die fürs Budget passende Karte zu finden. Meine Meinung =)
Wenn es nur die Stock Varianten gäbe hättest du sicher recht, aber da die Grafikkarten häufig übertaktet sind, fällt es schon schwer zu sagen, welche Karte nun schneller und wie viel.

Unyu schrieb:
Das weißt du woher?
Nvidia bläst Produkte in den Markt um Verlust zu machen? Wirkt unlogisch.
Neimand behauptet das Gegenteil. Wie viel NV nun eine Grafikkarte kostet, weiss wohl niemand externes. Eins ist aber sicher, NV wollte seine Karten zu einem ganz anderen Preis verkaufen. Und natürlich macht es sinn, den Preis zu senken, wenn man die Karten die man im Lager hat sonst nicht los wird. Und nicht nur, die die schon im Lager liegen, auch die, für die die Bestellung schon draussen sind, macht das je nachdem Sinn, wenn der Verlust der Karten geringer ist, als die Kosten für eine Stonierung des Auftrages.

Es macht mitunter sogar Sinn neue Aufträge für Karten zu geben, obwohl man weiss, dass man sie mit Verlust verkaufen muss. Weder Ati noch NV kann es sich leisten eine ganze Generation dem Gegner das Feld zu überlassen, der Imageschaden und die Kosten um die Kunden wieder ins eigene Lager zu holen sind zwar schwer zu beziffern, aber sicher gewaltig.
 
doesntmatter schrieb:
Ja, es war 100% ein Lob, kann aber nachvollziehen, daß sowas hier in den CB-News-Postings eine exotische Variante ist. :D

Dann wärs soweit geklärt. Entschuldige bitte, aber manchmal bin ich (gerade auf diesem Board) zusehr von Zynismus, Ironie und Sticheleien zerfressen bzw. geprägt. :lol:
Nix für Ungut. :)
 
sry, aber diesen Test muss ich jetzt mal Kritisieren! es gibt hier mehrere Sachen die mich deutlich stören. Darum kann ich auch die Leute hier nicht verstehen die "Super Test" usw. schreiben, denn offensichtlich wollen die hier nur scheimen oder haben keine Ahnung :freak:

Was ich zu kritisieren habe:

Treiberversionen

* Nvidia GeForce 185.63 (GTX 275)
* Nvidia GeForce 182.46 (GTX 260²)
* Nvidia GeForce 181.22 (GTX 295, GTX 285)
* Nvidia GeForce 180.48
* ATi Catalyst 8.592.1 (HD 4890)
* ATi Catalyst 9.3 (HD 4870 1GB)
* ATi Catalyst 8.11

allein dadurch ist kein vernünftiger Vergleich von "neuen" und "alten" Karten möglich, da der Cat. 9.3 im durchschnitt 10-15% schneller ist als der 8.11, bei den Nvidia Treibern ist es Ähnlich, das ist auch der Grund warum die 275 is diesem Test schneller ist als die 280. Ich weiß das es viel Aufwand ist so nen Test zu erstellen, aber andere Seiten bringen das auch hin.

Und von CB,
gemäß AGOF Internet Facts 2008-IV (PDF) hinter Chip, Computerbild, PC-Welt und Netzwelt das zurzeit fünftgrößte IT-Online-Magazin Deutschlands (siehe hier)

darf man auch erwarten das der Test mit aktuellen Treibern durchgeführt wird.


Desweiteren sind Benchmarks von Spielen aus dem Jahr 2006 und 2007 dabei. Ein moderner Benchmarkparcours sieht anders aus.


Zum Schluss ist es absolut nicht nachzuvollziehen, warum im Jahr 2009, wo gute 24" Monitore nur noch 200€ kosten die Auslösung 1920x1080 bzw. 1920x1200 nicht gestestet wird :stock:
9 von 10 Monitoren in der Top 10 des Geizhals-Monitorvergleichs haben diese Auflösung, das zeigt ganz deutlich wo der Zug hinfährt


Wer mal nen "state of the art" Test sehen will und des englischen mächtig ist sollte folgenden Link folgen:

hardwarecanucks Sapphire Radeon-HD 4890 Review

-moderne neue spiele mit dx9 und dx10/dx10.1 vergleich!
-neuste treiber für alle karten!
-alle spiele auf dem neusten stand gepacht!
-längere benchmarks 5-10min (und nicht nur 60 Sekunden wie bei den meisten anderen Seiten)
-keine integierten benchmarks oder timedemos
-selbst erstellte timedemos von ingame levels
-benchmarks vom echten spielgeschehen!
-4!! benchmark durchgänge für jede auflösung
-Auflösung 1680x1050, 1920x1200 und 2560x1600

So hat ein guter Test auszusehen und ich hoffe das CB sich an diesem Test ein Beispiel nimmt.

Ich hoffe das spätestens beim Launch der HD 58XX bzw. GTX 3XX die von mir aufgeführen Mängel am Test beseitigt werden, damit CB wieder ein aussagekräftiges Review bieten kann, welches nicht in anderen Foren verspottet wird (was mit diesem Test durchaus der Fall ist).
 
Zuletzt bearbeitet:
y33H@ schrieb:

Wasn daran nicht zu verstehen? die haben alle timedemos selbst erstellt.

y33H@ schrieb:
PCGH etwa testete alle Karten mit identischen (!) Treibern[/URL]

Hab ich gesehen ;), aber musstet ihr die nicht tweaken um das möglich zu machen?

Hardwarecanucks hat schlicht und ergreifend die damals aktuellen WQHL Treiber verwendet + die entsprechenden Betas für die 4890 + 275. Halte ich für völlig legitim. Ich hab schon mitbekommen das der 185er treiber nochmal 5-10% auf die 182er rausholt.

In dem Beispiel gehts um die GTX 280 die hier mit dem 180.48 gestestet wurde (bzw. einfach die Ergebnisse aus diesem Test vom 20.12.2008 übernommen wurden). Die 275 wurde mit besagtem 185.65 getestet, was schlicht und ergreifend die Ergebnisse verfälscht. In den 4 Monaten hat sich Treibertechnisch einfach ne Menge getan.

Das habe ich bemängelt.
 
Du schreibst, es kämen keine Timedemos zum Einsatz und führst als nächsten Punkt an, sie erstellen selbst Timedemos. Das impliziert doch, dass diese Timedemos auch genutzt werden *g*
aber musstet ihr die nicht tweaken um das möglich zu machen?
Per Gerätemanager aufzwingen ... war nie ein Problem.
Hardwarecanucks hat schlicht und ergreifend die damals aktuellen WQHL Treiber verwendet + die entsprechenden Betas für die 4890 + 275. Halte ich für völlig legitim.
Ich bin eher für ganz oder gar nicht :D
Das habe ich bemängelt.
Zu Recht. ABER - Wolle ist eine (grandiose) One-Man-Show. Wenn der alleine den kompletten Parcour mit aktuellen Treibern bencht, dann sitzt der da grob überschlagen mindestens ne Woche. In Anbetracht dieser Tatsache ist der Treibermischmasch sicher blöde, aber deutlich besser als gar kein Test. Wolle hat unlängst eine Überarbeitung angekündigt - vll mit aktuellen Treibern und 1.920. Ich würde es begrüßen =)
 
Zurück
Oben