Test Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

dafür leidet die GTX295 weniger unter microrucklern..für viele ein gutes argument.


@unyu

ich sagte,dass der RV770 an sich sparsamer ist,als der GT200, siehe 4830, 4850 im PCGH direktvergleich. den 40watt sprung hat allein der GDDR5 speicher zu verantworten, drosselt man diesen manuell, ist die 4870 sparsamer als eine GTX260. geht man jetzt weiter,und senkt den chip takt, den speichertakt und die spannung weiter, gehts weiter runter. ob man eine gtx260 manuell noch viel sparsamer bekommt (mit viel mein ich mehr als 20watt), ist fraglich, bzw ich habe davon noch nichts gelesen,
lasse mich aber gerne belehren.


gruß
 
Welchen PCGH Vergleich meinst du? Diesen? http://www.pcgameshardware.de/aid,6...ufnahme-von-10-Grafikkarten/Grafikkarte/Test/

Du sprichst die Spannung an. Nur mal so, man munkelt der GT200b der GTX 275 bekommt 1,18V. Das ist verdammt viel.


Wenn du nicht alle Seiten kennst, solltest du dich vielleicht etwas zurückhalten mit definitiven Aussagen.
AMDs Seite scheinst du zu kennen, ebenfalls das das heruntertakten des GDDR5 nicht ganz risikofrei ist.
 
Zuletzt bearbeitet:
Ich will eure reißerische Disskusion ja nicht stören aber kann mir vielleicht noch jemand meine Frage beantworten?

Kann mich hier irgendwer mal aufklären um was für eine GTS 250 es sich in diesem Test handelt?

Hier beim Testsystem wird sie nicht aufgeführt:
https://www.computerbase.de/2009-04/test-ati-radeon-hd-4890-vs-nvidia-geforce-gtx-275/6/
aber Stromverbrauch und Temperatur finde ich doch sehr positiv von dieser GTS 250 aber bei Geizhals finde ich nur umbenannte 9800gtx+ und die weist ja nicht so einen guten Stromverbauch und so eine gute Temperatur auf
 
göschle schrieb:
Hybrid SLI wurde von Nvidia ab der GTX285/295 gestrichen.

Ja und die GTX 275 ist anscheinend näher mit der GTX 280 verwand als man glaubt.

@ Computerbase


Könnt ihr bitte mal bei NV nachfragen warum das Feature plötzlich wieder da ist? Vielleicht ist die GTX 275 doch nur eine modifizierte GTX 280 ka? Auf jeden Fall genial das es wieder bei Desktopkarten zu finden ist, im mobilen bereich war es ja nie weg und wird auch nicht verschwinden...

GTX 275 hat Hybrid-SLI steht zumindest hier: http://www.nvidia.de/object/product_geforce_gtx_275_de.html

Bei den GTX 260 55nm Modellen kenn ich sogar einen der es mit Hybrid SLI abschaltetet. Soweit ich weis ist das den Herstellern überlassen ob sie es einbauen und die meisten machen es, also kann man hier auch nicht davon ausgehen das es weg ist.



MfG Kasmo
 
Also fassen wir mal zusammen:

Wir haben im sozialistischen Lager eine Radeon HD4890. Das Herzstück, alias RV790, bringt 3 Mio. mehr Transistoren auf die Waage als der Vorgänger. Faktisch ist der RV790 eine Revision des RV770.
Was hat sich getan? So gut wie gar nichts. Der Chip ist, Northwood lässt grüßen, auf für Grafikchips hohe Taktraten optimiert worden.
Ist das gelungen? Ja! 750MHz (RV770) zu 900MHz (HD4890OC/ Herstellerbedingt, jedoch von AMD expliziet gewollt) sind kein Pappenstil. Das sind 13,34%, respekt. 20%. (Von letzteren 20% rühren wahrscheinlich auch die 20% Mehrleistung ggü. RV770 der Gerüchte letzter Tage/Wochen her)

Warum das kein Pappenstil ist?
Ein Paar vergleiche:
Nvidia G92 - GeForce 8800GTS-512 (650MHz) -> GeForce 9800GTX (675MHz) // 3,9%
Nvidia G92/G92b - GeForce 9800GTX (675MHz) -> GeForce 9800GTX+ (738MHz) // 9,34%
Nvidia G80 - GeForce 8800GTX (575MHz) -> GeForce 8800Ultra (612MHz) // 6,4%
[ATI R520/R580 - Radeon X1800XT (625MHz) -> Radeon X1900XTX (650MHz) // 4%]
Diese Zahlen sind insofern mit Vorsicht zu genießen, dass die vollzogenen Optimierungen modellabhängig sind. Sie geben trotzdem einen guten Eindruck das die taktbezogenen Optimierungen des RV790 absolut greifen.
Doch zu welchem Preis?

Ein System mit RV790 soll gerade mal 5W genügsamer sein als eines mit RV770 (Idle). Das liegt recht nahe an den Messtoleranzen mittelmäßiger Verbrauchsmesser. Für was zieht eine HD4890 im Idle 45W mehr Leistung aus der Dose als eine HD3870 oder HD4830?
Wie schon von vielen hier erwähnt soll der GDDR5 der übeltäter sein. Wie diverse (risikobehaftete) Untertaktungsversuche des GDDR5 auf der HD4870 zeigten, kann man jene 40W gut im Idle einsparen.
Unverständlich ist für mich, dass man als versierter User selbst Hand anlegen und somit das Risiko tragen muss und keinen von vorn herein sicheren Mechanismus entwickelt und implementiert hat. Bei der HD4870 konnte man AMD den vorwurf vlt. noch nicht machen, aber bis hin zum RV790 hatten sie genug Zeit gehabt sich der Sache anzunehmen.
Die Balken-Explosion der Leistungsaufnahme unter Last liegt bedauerlicher Weise auf Höhen aller aktuellen High-End-Single-Chip-Karten.

Rein Performance-technisch weiß die HD4890 zu gefallen und kann unter qualitativ hohen Settings überzeugen. Die mageren +/- Prozente zur GTX280/275 sind die gegenwärtigen Aufpreise absolut nicht wert. Wer CUDA braucht und auch benutzt bzw benutzen kann, kommt um eine GeForce nicht herum. Bei der GTX275 ist der geringe Aufpreis (nicht nur) für dieses Feature gerechtfertigt, womit ich jetzt auch kurz noch zum grünen Sprössling mein Senf abgeben möchte:

Wie ich und andere schon oft angemerkt haben hat die GTX275 eine gewisse Sonderstellung. Sie ist beinahe so schnell wie eine GTX285, jedoch deutlich günstiger. Von daher war die ein oder andere Anmerkung hier nach dem Sinn der Karte vielleicht gerechtfertigt. Je nach dem wie sich die Preise "stabilisieren" werden, könnte die GTX275 die GTX260, insbesondere die teuren OC-/ X² pipapo - Versionen, schnell verdrängen. Entweder man bezahlt 190 bis 220 EURO für eine GTX260²/OC oder eben die 230EURO der GTX275. Die bis zu 20% Mehrleistung könnten den 10 bis 15%igen Aufpreis rechtfertigen. Außerdem kommt die volle Ausbaustufe der SP und die somit drastisch gestiegene MADD-Leistung ggü. der GTX260 CUDA in vielen Anwendungen sicherlich spürbar zu Gute.
Desweiteren verfügt die Karte über halbwegs akzeptable Stromsparmechanismen (und - wie soll es auch anders sein - den Leistungshunger eines Staubsaugers unter Last).

Ich muss feststellen, dass mir die Kritikpunkte bei der GTX275 recht schnell ausgehen.
Meine wenigkeit, die CUDA bei viellerlei Anwendungen gebrauchen kann, wird, oder besser würde, zur GTX275 greifen.
Wer lediglich grafisch anspruchsvoll zocken will, fährt mit der HD4890 wahrscheinlich besser. (PhysX als Pro-Argument setz ich bei der GTX275 in Klammern. Hier lohnt sich der Mehrpreis einfach [noch] nicht.)
 
Schöner Test CB, Danke!

Die GTX275 finde ich unter last deutlich zu warm und das bereits ohne OC (da war der G92 noch um einges taktfreudiger)...

Die 4890 hat anscheinend Probleme beim Stromverbrauch (wie siehts mit dem runter takten bzw. undervolten im idle aus?), auch sehr schade.

Da fallen wohl beide Karten für meine Ansprüch flach -> weiter warten, schade!

Peace
 
Hallo,

mit dem Hintergrund, dass ich zu der wachsenden Gruppe gehöre, die kleine µATX-optimierte Gehäuse bevorzugen, hätte ich noch einen Punkt der meiner Meinung nach bei den CB-Artikeln in Technische Daten aufgenommen werden sollte:

L*B*H (mm), das Hauptanliegen ist dabei die Länge - oder hab ich's einfach übersehen?

Diverse Shops bieten zwar auch diese Abmessungen in der Produktbeschreibung an, zu archivzwecken wäre es allerdings hilfreich mal eben schauen zu können, welche Maße die aktuell verbaute ältere GraKa inne hat - vorrausgesetzt die Designs sind deckungsgleich.

z.B.: Aktuell verbaute GraKa ist eine 8800 GTS, passt dann auch eine GTX 275?


Grüße,
Martin
 
Das rote PCB der PowerColor Radeon HD 4890 misst eine Länge von 24 cm und ist somit von den Ausmaßen identisch mit einer Radeon HD 4870.

Das PCB der GeForce GTX 275 kommt in einer schwarzen Farbe daher und misst eine Länge von knapp 27 cm. Man sollte vor dem Kauf also erst einen Blick in das eigene Gehäuse werfen, ob nicht irgendwelche Bauteile wie ein Festplattenkäfig im Weg sind.

Die GTX275 dürfte drei bis vier cm länger als Deine GTS sein (640 oder 512?). :)

Das PCB der Point of View GeForce 8800 GTS 512 misst die Länge von 23 cm und entspricht somit den Ausmaßen einer aktuellen High-End-Grafikkarte (nur Radeon HD 2900 XT, GeForce 8800 GTX und GeForce 8800 Ultra sind größer).
 
Nach einem geschlagenen halben Jahr eine "neue" Highendkarte (?) bringen und Nvidia braucht ihre Nr.1 nicht mal anfassen und lediglich Nr.2 etwas aufmöbeln für ein locker gleichwertiges Gegenstück, schwache Vorstellung von Ati und vor allem peinlich für die.
Erst recht da die 4890 sogar noch erheblich lauter ist als die 275 und sogar lauter als die 285! :rolleyes:

4890 = buchstäblich viel Lärm um nichts. :freak:
...mal wieder muss man sogar sagen, die X1950XTX ist verdammt lange her und bei der nächsten neuen Generation wäre es wirklich höchste Zeit für einen echten Knaller mal wieder!
 
Was auffällt das die HD4890 im CrossFire sehr gut skaliert. Sie fällt so gut wie nie unter 30 FPS, was positiv ist zu dem thema microrucklern.
 
@holdrio

peinlich ist wohl eher Nvidia, das nenne ich reinste Kundenverarsche. Die bringen jetzt die 275er Single GPU Karte die scheinbar ganz locker die 740MHz packt und damit letztlich die 285er locker wegsteckt.

Schön blöd wer da jetzt noch über 300 Euro für eine 285er ausgibt. Für das Geld wirds die 275er SC mit mehr Speicher geben. Wer will dann noch eine 285er haben?
 
holdrio schrieb:
Nach einem geschlagenen halben Jahr eine "neue" Highendkarte (?) bringen und Nvidia braucht ihre Nr.1 nicht mal anfassen und lediglich Nr.2 etwas aufmöbeln für ein locker gleichwertiges Gegenstück, schwache Vorstellung von Ati und vor allem peinlich für die.
Erst recht da die 4890 sogar noch erheblich lauter ist als die 275 und sogar lauter als die 285! :rolleyes:

4890 = buchstäblich viel Lärm um nichts. :freak:
...mal wieder muss man sogar sagen, die X1950XTX ist verdammt lange her und bei der nächsten neuen Generation wäre es wirklich höchste Zeit für einen echten Knaller mal wieder!

LOL soviel schwachsinn hab ich noch nie gehört!

1. Ist die GTX 285 nicht die nummer 1. Wenn dann Nr. 3, denn die Highend Karten sind GTX 295 und 4870 X2! Wobei ich immernoch die X2 schneller sehe als die GTX 295, da diese nur in kleinen Auflösungen und bis maximal 4AA mehr Performance hat. Jemand der 400€ für ne Graka raushaut wird wohl kaum auf nen 19 Zoller spielen oder? Wohl eher 24 Zoll und hohe Qualitätsstufen! UND da ist die X2 deutlich schneller.

2. ATI schafft es mit einem Chip der gerade mal etwas mehr als halb so groß ist wie der von NV bis auf 8% an die schnellste single GTX zu kommen. Was ist da schlecht? oder gar peinlich?

3. Wer hat bitte Lärm gemacht? Du vieleicht, für ATI ist es ein kleines Refresh, der Chip ist nicht größer geworden aber man hat 10-15% mehr Performance. Wärenddessen NV die GTX 260 mit Minus verkaufen muss, die GTX 285 warscheinlich bald keiner mehr haben will, weil sie für 5% mehr Performance 35% mehr kostet...
 
die nvidia Karte ist eindeutig besser:D
 
@unyu

ich beziehe mich auf den PCGH printed artikel zu stromverbrauch bei PC´s, da wurde der direktverbrauch aktueller karten gemessen, und der RV770, verbaut in 4830 und 4850 waren ganz vorne, vor jedem G200a-z. weiß nicht,ob dies auch online gestellt haben.


gruß
 
TeHaR schrieb:
3. Wer hat bitte Lärm gemacht? Du vieleicht, für ATI ist es ein kleines Refresh, der Chip ist nicht größer geworden aber man hat 10-15% mehr Performance. Wärenddessen NV die GTX 260 mit Minus verkaufen muss, die GTX 285 warscheinlich bald keiner mehr haben will, weil sie für 5% mehr Performance 35% mehr kostet...
Ja das kommt mir sehr bekannt vor, ich kann mich gut erinnern, wie ich bei Ankündigung/erstem Test der 260² gesagt habe, dass diese der 280 den Markt abgräbt.
Nun ist die 280 eol, und es werden fast nur noch verkrüppelte Chips verkauft.
Das man nun die 285 wieder unter den gleichen Druck stellt. :freak:
 
Unyu schrieb:
Was erwartest du?
Das NV A sich darüber freut ordentliche Chips auf 150€ Karten zu verblasen.
Das NV mal eben die Lücke zwischen 150€ und 300€ AMD überlässt.

Es gab und gibt Karten beim Händler.

Seltsam auch das dich früher echte Paperlaunches (also Launches ohne Karten) nicht interessiert haben. Die letzten sind gar nicht so lange her, was war da nur los.

1. Mir egal worüber sich NVIDIA freut. Selber schuld würde ich sagen.
2. Was für ne Lücke zwichen 150 und 300€? Die 4870 kommt ab 150€, die 260 ebenfalls. Die 4890 kommt 200€, diverse OC-Versionen der 260 ebenfalls. Der geringe Leistungsunterschied zwischen 260 und 285 rechtfertigt eben keine 150€ Aufpreis ;)
Und die 4870 gibts erst wieder ab 360€, wird aber eh von der 295 geschlagen. Also eh egal. Kurze rede langer Sinn: Von ca. 230 -300€ gabs von beiden Herstellern keine Karten und die 275 reinzuschieben, macht wegen der geringen Leistungsdifferenz einfach keinen Sinn.

Ja klar gibts Karten, aber komischerweise nur von Palit/Gainward, wo lustige Sachen
gemunkelt werden.

Schön das du weisst was mich früher so alles interessiert hat und was nicht :eek:

Prinzipiell hab ich nix dagegen, wenn man ne Graka vorstellt, die dann erst von mir aus 7 Tage später auf breiter Front verfügbar ist. Dann gibts wenigstens nicht so ein Chaos wie zum 4890 Start. Aber wie gesagt, das hier ist schon ziemlich schäbig (und völlig sinnfrei, aber da nimmt sich NVIDIA mit INTEL nix, die machen das genauso). Begründung siehe oben von mir.

y33H@ schrieb:
Und mich interessiert, wo er diesen angeblich von AMD versprochenen Wert her hat. Das Ranking mit den unterschiedlichen Treibern kannst du dir btw eh stecken - Wolle ist (leider) eine One-Man-Show. HD4870/512 mit 8.11 vs. HD4890 mit 9.3

Der Wert schwirrte halt in diversen Gerüchten rum, an was offizielles von AMD kann ich mich jetzt auch nicht erinnern. Wenn du die 10% vom Treiber-Review auf die 4870/512 raufpackst, kommt halt eben ca. 20% raus ;)

MysWars schrieb:
Ich will eure reißerische Disskusion ja nicht stören aber kann mir vielleicht noch jemand meine Frage beantworten?

Sollte wohl die hier sein

Kasmopaya schrieb:
Ja und die GTX 275 ist anscheinend näher mit der GTX 280 verwand als man glaubt.

@ Computerbase


Könnt ihr bitte mal bei NV nachfragen warum das Feature plötzlich wieder da ist? Vielleicht ist die GTX 275 doch nur eine modifizierte GTX 280 ka?

Kann schon sein, das das getestete Modell ne verkappte 280 ist. Kann also sein, das man fürs erste ne 280 einfach billiger bekommt mit nem anderen Sticker drauf (BIOS auch anders, logisch). Bis und falls NVIDIA dann die "echte" 275 bringt. Die das Feature dann natürlich NICHT hat. :rolleyes:

Saftladen...
 
Zurück
Oben