News Erster kompletter Test der Radeon HD 4890

Lübke schrieb:
allerdings hab ich wirklich fest an pp2 untersttzung geglaubt. bei den kleinen karten gehts doch auch...
Findet ihr nicht, dass ihr ein wenig übertreibt?
Zeig mir mal die kleine Karte, die im Idle 140 Watt weniger verbraucht(ganzes System) als unter Last.
Natürlich wäre es schön, wenn man noch 30-40 Watt weniger verbrauchen würde im Idle.
Ein Vergleich mit z.B. der 4670 ist aber nur bedingt zulässig, dies ist einfach eine wesentlich kleinere Karte. Mann braucht sich ja auch nicht zu wundern, dass ein Quadcore im Idle mehr Saft aus der Dose zieht als ein Singlecore im Idle.
Warum eine 4830 20W weniger braucht als ne 4850 und die wieder 21W als die 4870 ist natürlich nur begrenzt verständlich. Hmm wenn ich die so aufgelistet sehe, sind die +8W im Idler der 4890 ja richtig gut. :evillol:
 
Wer verrät mir die Daseinsberechtigung dieser Karte, gesetzten Falles, dass diese Benchmarks legitim sind?
 
Sie bringt nochmal ein wenig Bewegung in den Markt. Die Preise werden wohl nochmal ein wenig in den Keller gehen, und Nvidia wird wohl noch mehr seltsame Karten mit noch bekloppteren Kürzeln auf den Markt werfen. ^^

Find das Ding garnet schlecht. Ist halt quasi n Refresh...wie oft gabs sowas auf der grünen Seite schon...und das sogar ohne Leistungsanstieg (Stichwort 8800->9800->wie auch immer das ding heute genannt wird)
 
Um mal was von wegen Daseinsberechtigung zu sagen:

y33H@ schrieb:
Höhere Leistungsaufnahme idle wie load, nur gut 10% mehr Leistung. Dafür besserer Kühler und besseres PCB als eine HD 4870. Die Karte wird einen schweren Stand gegen die GTX 275 haben, da die meisten sich (leider) nur für Fps/Euro interessieren.

TJa, so wie es aussieht, hat die Karte an sich eine (viel) höhere Qualität bei den Komponenten als die jetzigen GTX und die 4870.
Hochwertiges PCB kostet halt mehr alleine dafür ist ein prozentual höherer Preis als der rein leistungsmäßige Aufpreis gerechtfertigt.

10% mehr Leistung, 20% mehr Preis = OK

Nur hab ich mal (nebem dem PCB) auch noch was von einem überarbeitetem Speichercontroller gelesen, also wart ich mal auf einen vorzgsweise deutschen Test, um nicht nur die Tabellen anschauen zu müssen (wie beim chinesischen Test).

e:/ Dem Post #85 (Unyu) kann ich diesmal eigentlich fast übernehmen, aber eine Kleinigkeit stört mich da: Furmark. Ich finde es gerechtfertigt, die Stromaufnahme bei voller Auslastung zu messen, (ohne dabei ausgebremst zu werden) da eigentlich AMD darauf ja hinarbeitet...
Wozu sollte AMD eine Karte mit 5D-Shadern bauen, wenn sie eh nicht vorhaben, alle Shader optimal auszulasten? Dann hätten sie ja sich nicht die Mühe machen brauchen und ne leichter Optimierbare Architektur raushauen können...

Dass dann auch noch Spiele dazu müssen, um einen Vergleich bei der Auslastung ziehen zu können, ist aber selbstverständlich.
Ach, falls ich mich überwinden kann, eine Graka (nochmal) für den Preis ~200€+ x zu kaufen, dann sehr wahrscheinlich die 4890, aber mit 6+8 Pin Versorgung.
Zum Release eher nicht, aber vllt ne 4850 1GB ... Mal schauen, ob ichs überhaupt brauche.
 
Zuletzt bearbeitet:
@mace1978:
Zeig mir mal die kleine Karte, die im Idle 140 Watt weniger verbraucht(ganzes System) als unter Last.
wie willst du mit einer karte die max 70 watt verbraucht 140 watt sparen? Oô
dass die kleinen karten in totalen wattangaben weniger sparen als eine karte die weit über hundert watt aus der dose zieht (mit funktionierender sparfunktion) ist doch wohl logisch. es geht um die prozentuale einsparung. aber wenn dir der vergleich leichter fällt, dann schau auf die gtx285, da gehts doch auch.
 
was haben wir hier:

1. eine 4890 mit 850 Mhz, 100 Mhz mehr als eine 4870 1GB. Sind 13% mehr Takt, real Leistung sind es vllt 8-10% mehr.
Schaut man auf den Test wird das in etwa 1:1 erreicht und somit entspricht der R790 genau einem R770 mit erhöhtem Takt. Genau hiervon war auch auszugehen.


2. glaubt man Gerüchten kommt die 4890 mit bis zu 950...1000 Mhz, was gegenüber der 4870 1GB 26% Mehrtakt entspricht vovon in etwa 20 - 22% ankommen dürften.
Damit würde eine 4890 mit ca 950Mhz in etwa zeimlich genau auf GTX 285 Niveau liegen, was ebenfalls das Zeil von AMD war / ist, und ebenfalls zu erwarten war (mal schneller, mal langsamer).

3. der R790 weißt nur geringfügige Verbesserungen auf, ist eventuell auch nur ein selektierter R770. Das kann man AMD auch nicht verübeln und sie tun meiner Meinung nach besser daran in die nächste Generation zu investieren.
Mein R770 auf der 4850 macht 850 Mhz absolut stabil bei etwa 1,35V. Warum er soviel benötigt? Weil die Spannungsversorgung der 4850 nicht für diesen Verbrauch, der weit über 4870 liegt, ausgelegt ist, und kollabiert. Dies führt zu Instabilität.
Für 850 Mhz reichen einer 4870 oftmals Stock Voltage, also ca 1,3V. Die HD4890 kommt mit bis zu 1,4V, weshalb 950Mhz gut erreichbar sein werden. Auch 1000Mhz halte ich für realistisch, welche jedoch eine gute 4870 mit guter Versorgung und ohne den bekannten VoltageLimit ebenso erreicht hätte.
Jedoch behaupte ich dass die Leistungsaufnahme der 4890 auf 950 Mhz ein ganzes Stück höher ausfallen dürfte als bei der hier getesteten, eben weil sie mehr Spannung benötigen wird.

4. GTX 285 Leistung erreicht, Glückwunsch, jedoch ist eben diese ebenfalls nochmals um 10-20% übertaktbar, genau wie die GTX 260. Es gibt 260er die schneller sind als 280, allein durch OC. Für Leute die OC betreiben dürfte eine gute GTX 285 oder GTX 280 nach Ausreizung schneller sien als eine 4890, die ebenfalls am Limit läuft.
Wer allerdings auf 1Ghz Core scharf ist, wird diese mit der 4890 schon eher erreichen...

soviel dazu. Wenn ich Sachen wie 0MB VRam und 128bit SI lese frag ich mich wann diese Leutz mal das Hirn einschalten. :freak:
Alles in allem ist es ein vertrauenswürdiger Test, auch wenn 8xAA gewählt wurden. Es siegelt das wider was die meisten erwartet haben. Man kann Volker nur recht geben, in einigen Tagen werden sich diese Ergebnisse hier auf CB bestätigen.

BTW: Furmark renamed Load mal für NV Karten geeignet sein, für AMD Karten jedoch relativ unrealistisch da die Shader real bei weitem nicht so ausgelastet werden können. Natürlich muss die Karte diese MaxLoad aushalten, ändert jedoch wenig an der Realitätsferne. Futuremark wäre schon angebrachter um die Leistunsgaufnahme zu ermitteln.
 
Zuletzt bearbeitet:
Moin Volker

Volker schrieb:
Ich versteh die Aussage nicht. Die Seite ist sehr vertrauenswürdig, denn es gibt sie nicht erst seit ein paar Wochen/Monaten wie so manch andere Beispiel-Seite, die hier sonst zu Rate gezogen werden oder auf die verwiesen wird. Sie ist eine der größten Seiten in dem Online-PC-Bereich, und nur weil man sie nicht kennt, muss man sie nicht verurteilen.

Und was entspricht denn nicht den/deinen Erwartungen? Also ich sehe alles genau so, wie es AMD und die Boardpartner erwartet hatten. Da waren mal 6 Prozent Vorteil gegenüber einer 4870 im Gespräch, und die sind ja wohl fast überall überboten worden.

Bei der Leistungssteigerung gibts wirklich keine große Überraschung OC 4870 eben, suggeriert ja schon der Name der Karte, aber das schon wieder kein Power Play 2 funktioniert, kann ich mir nicht vorstellen. 4870 X2(liegt nicht allzuweit weg von der GTX 295 im Idle) beweist ja auch das es mit heftigen Lastverbrauch und GDDR 5 funktionieren kann im Idle dann ordentlich zu drosseln. Wahrscheinlich sparen sie wieder jeden Cent am PCB bzw. Spannungswandlern und die Folge ist wieder ein Idle Stromverbrauch der mit Abstand alle Rekorde bricht.


In einer Woche hast du das gleiche Ergebnis schwarz auf weiß noch einmal, dann für dich aber auch in deutsch.

Das hättet ihr ja gleich in den News schreiben können das ihr die gleichen Ergebnisse habt. ;)

Weil CB aber unter NDA steht bekräftigt mich das jetzt wieder das ihr irgendwo abweichende Ergebnisse habt. :D

Ihr könnt den Artikel auch gerne in Englisch verfassen, Diagramme bzw. Balkenlängen haben nix mit den verwendeten Sprachen zu tun, das Fazit aus den Testergebnissen kann man sich auch ohne Chinesisch zu können selber ausmalen.

MfG Kasmo
 
wenn man grad der aussage vno Y33h glauben darf, ist die 4890 entgegen der preispolitik von Nvidia mal wiede eine karte mit höherwertiger Qualität, kosmo.

zudem funktioniet powerplay,die karte verbraucht im idle deutlcih weniger als unter last, nur, ist es keineswegs so effizient wie angenohmen.


gruß
 
Kasmopaya schrieb:
[...] Wahrscheinlich sparen sie wieder jeden Cent am PCB bzw. Spannungswandlern und die Folge ist wieder ein Idle Stromverbrauch der mit Abstand alle Rekorde bricht.

Falsch, genau andersrum: Wie y33H@ schon andeutete, und teils schon sehr deutlich gesagt wurde: Die SpaWas eine Phase mehr ( immer noch digital) und sind von einem anderen Hersteller: Bessere Verteilung, bessere Verteilung, sicherlich weniger Probleme oder besser: gelöste SpaWa-Probleme.

Dann kann man auch 6+6 Pin oder 6+8 Pin verbauen, je nachdem.
Alles in allem ist das PCB hochwertiger und teurer => Alleine daher ein Mehrpreis, den viele vllt nicht haben wollen, da die höhere Qualität total egal ist...
 
Ich versteh absolut nicht wieso einige hier so enttäuscht sind oder sich gar über die "schlechte" Leistung der Karte aufregen. ATI/AMD kann nun mal auch nicht zaubern und wenn eine Karte absichtlich als HD4890 erscheint, sollte man nicht allzu viel erwarten.

Es ist doch so, dass eine HD4850 ca. 20% langsamer ist als eine HD4870, das liegt einerseits am Takt und andererseits am schnelleren Speicher des RV770XT. Wer jetzt dann erwartet hat, dass die HD4890 nochmal 20% und mehr drauflegt, hat meiner Meinung nach nicht aufgepaßt.

Was mich viel mehr interessiert, denn davon konnte ich im Review leider nichts lesen, ist die Lautstärke der Karte. Die 10W mehr im Vergleich zur HD4870 müssen natürlich auch abgeführt werden, da frage ich mich ob die Optimierungen des Kühlers nur dafür reichen oder auch für eine Senkung der Lüfterdrehzahl in Idle und Load.
 
ist die 4890 entgegen der preispolitik von Nvidia mal wiede eine karte mit höherwertiger Qualität,

Was wird denn die GTX 275 kosten? Und werden die Treiber auch hochwertiger, das gehört ja schließlich auch zur Karte dazu...

zudem funktioniet powerplay
Würd das ganze dann auf "Plazebo Power Play 2 -> PPP 2" umbenennen ;)

die karte verbraucht im idle deutlcih weniger als unter last,
? 8800 verbraucht auch deutlich weniger im Idle als unter Last, 8800GTX(2006) verbraucht sogar ein paar Watt weniger als die 4870 im Idle, hat sie dadurch einen Stromsparmodus -> Nein

gelöste SpaWa-Probleme.
Das glaub ich erst nach einem (vertrauenswürdigen) Test. :D

Alles in allem ist das PCB hochwertiger und teurer => Alleine daher ein Mehrpreis, den viele vllt nicht haben wollen, da die höhere Qualität total egal ist...
Wenn das PCB teuerer ist und trotzdem funzt der Stromsparmodus nicht bzw. Furmark(100% Auslastung) wird immer noch gedrosselt, dann hats die Sache ja nicht wirklich gebracht.

Wenn schon höherer Preis dann muss schon alles klappen.
 
Zuletzt bearbeitet:
bis auf weniger idle verbrauch passt doch alles, also hör auf zu flamen. und was meinst du mit deiner unterstellung der hochwertigen treiber? hat nvidia denn welche?


gruß
 
Nvidia ist halt momentan die Leistungsspitze und wird es bis zur nächsten Generation mit Sicherheit sein.

ATI bleibt immerhin der P/L Sieger.

die ganzen 200b chips und 48xx von ATI alles alter verbesserter Käse. Hoffe das die 3xx und die 5xxx Generation mal richtig mehr Power bringt für weniger Watt und weniger Hitze ..

.. ich seh's an meinen 295GTX .. ohne WaKü übertakten - unmöglich.
 
Powerplay 2 läuft, nur bringt er weniger als erwartet. Das ist alles, und daran wird sich auch nichts ändern. Da muss ein neuer Chip her, eine neue Generation wo dieser Mechanismus von Anfang an umgesetzt werden kann. AMD wird und kann nich mal eben in den R770 nen PP3.0 Meachnismus einbauen...

@Kasmopaya

du glaubst doch nicht ernsthaft dass AMD nun nach bald einem Jahr R770 PowerPlay 2 zum Laufen bringt o.O. PP 2 läuft schon seit nahezu Anfang an, mit mäßigem Nutzen. Daran wird sich nichts mehr ändern.

@Xeljaga

genau, du willst am besten komplett neue Shader und eine grundlegend andere Architektur. Diese gab es zuletzt mit Enführung der Unified Shader. Was erwartest du, beim g200 wurden die Shader und Ausführungseinheiten erhöht, anders angeordnet und vieles mehr geändert. Es gibt bis jetzt keine neue, besser Archikektur. So läuft es nunmal, Shaderzahl erhöhen, Ausführungseinheiten erhöhen, tunen, fertig ist die neue Generation.
Das der g92 alter Käse ist, damit geb ich dir recht. Aber verglichen zu G80 und R600 hat sich bei g200 und r770 genug getan.
Ändern wird sich erst was wenn NV auf 3D oder vllt 10D Shader umsattelt. Irgendwann müssen se die Leistungsdichte erhöhen, den da ist AMD im Vorteil, der G200 zu groß.
 
Zuletzt bearbeitet:
abwarten und tee trinken ;)


Das mein ich aber auch, meine Güte Kopfheißgela.... !! Menno, erst mit einem vernünftigen Treiber und funzenden pp werden die tatsächlichen Werte darliegen wie ein offenes Scheunentor :cool_alt: In dem frühen Stadium ist das verpuffte Energie:freak::freak:

Im übrigen tun sich die beiden Mitbewerber bei Neuerscheinungen immer ein wenig schwer, behäbig und vollmundig - wie mein Rotwein im Keller:p

Für´n ersten Test sonst nicht soo schlecht:schluck:
 
founti schrieb:
Find das Ding garnet schlecht. Ist halt quasi n Refresh...wie oft gabs sowas auf der grünen Seite schon...und das sogar ohne Leistungsanstieg (Stichwort 8800->9800->wie auch immer das ding heute genannt wird)
das ding nennt sich heute geforce 250.
 
die karte bleibt zwar weit hinter den erwartungen der meisten zurück, aber schlecht ist sie darum auch nicht. es ist eher ähnlich wie von der 9800gtx zur 9800gtx+. kein quantensprung aber eine kleine verbesserung. allerdings muss der preis noch gewaltig nach unten korrigiert werden, um wirklich mit der gtx260 konkurrieren zu können.
 
Zurück
Oben