News Erste (stark) übertaktete Radeon HD 4890

Wenn ich mit 800mhz an ne GTX280 rankomm, Speichertiming 4400, dann wird, wohl die Leistung der neuen HD4890 @850 und 3900mhz Speichertiming, mit ein paar verbesserungen logischerweise auf dem Niveau einer GTX285 liegen.
Imho, wenn es solch übertaktete Karten (1ghz) geben wird, dann liegen sie klar über der Leistung einer GTX285, man kann also davon ausgehen, dass nvidia bei Single Karten geschlagen wird.
Weil man jetzt einen 8er und einen 6er stromanschlusshat, liegt es wohl naheliegend dass die Leistungsaufnahme steigt, ansonsten würde man den kaum verbauen.
@ Dural, wo gabs die?
 
Zuletzt bearbeitet:
Bezüglich der "normal" getakteten HD4890 schreibt Fudzilla folgendes:

"Nvidia believes that GTX 275 should do well on market. This card should beat 4890 in many test, at least this is what our sources believe".
 
Wenn 6% Takt 20-30% FPS gut machen, dann kann man auch unsinnige OC vs Default Vergleiche anstellen.
 
Ja de glauben das, wenn sie aber das glauben ne GTX275 soll die schlagen liegen sie aber falsch..^^
Warum sollte ATI so ne Gammelkarte bringen die nur n paar prozentchen mehr bringt, wenn dann schon gescheit.
 
Weil AMD scheinbar doch Geld verdienen will. Mit 4830/4850/4870 bei den aktuellen Preisen schwer.
 
Ja, sie können aber nur Geld verdienen wenn die Karte auch was kann.
Wenn sie unter ner GTX280 liegt isse wohl n Scherz.
 
Labert euch doch alle dumm mit eurem NV vs AMD ... Ich Bach0r euch alle mit Intel IGp .. so -.-.

Das ist ne OC Karte, nicht mehr. Wer seine 4870 gegen ne refrsh tauscht hat einfach zu viel Geld. Eine Karte pro Generation sollte wohl ausreichen (jeh nach Generation auch mal 2).
 
Das wird der Markt entscheiden.
Die GTX 280 ist eh längst EOL, ergo gibt als Konkurrenten nur 4870, GTX 260, GTX 275 und SLI, CF.
Einzig problematisch sind die letzten beiden Konkurrenten.
 
tgsn4k3 schrieb:
meine 4870 läuft auch jehenseits der 1GHz also ^^ ab dem R600 können alle mit 1GHz laufen, meine 2900pro, 3850 sowie meine 4870 können / konnten das auch.
Aber das wird die erste Karte mit 1 GHz Chiptakt ab Werk. Wer weiß, was dann noch mit User-OC und Spannungserhöhung möglicht ist. 1,2 GHz Chiptakt vielleicht?

/EDIT: Ok, hab da was missverstanden, die 1 GHz waren lediglich User-OC.
 
Zuletzt bearbeitet:
Die theo. Bandbreite wurde von Generation zu Generation jeweils verdoppelt, Latenzzeiten aber wurden kaum bis gar nicht verringert.
Jepp, bei gleichem Takt sind die Latenzen etwas höher, das ist der Preis den man für die deutlich höheren Taktraten in Kauf nehmen muss. Daher lohnt sich beispielsweise erst der Sprung von DDR2-1066 mit 5-5-5-18 auf DDR3-1300 mit 7-7-7-21 halbwegs bzw. letzteres ist n Tick schneller.
wenn es solch übertaktete Karten (1ghz) geben wird, dann liegen sie klar über der Leistung einer GTX285, man kann also davon ausgehen, dass nvidia bei Single Karten geschlagen wird.
Nö, da man ne GXT285 auch OCen kann. Die EVGA FTW etwa ist ausgehend von einer default-285 noch mal gut 10% schneller. Und 1-GHz-Modelle des RV790 wird es nicht geben, das ist schlicht zuviel des guten - da bin ich sicher.
 
y33H@ schrieb:
Jepp, bei gleichem Takt sind die Latenzen etwas höher, das ist der Preis den man für die deutlich höheren Taktraten in Kauf nehmen muss. Daher lohnt sich beispielsweise erst der Sprung von DDR2-1066 mit 5-5-5-18 auf DDR3-1300 mit 7-7-7-21 halbwegs bzw. letzteres ist n Tick schneller.[..]
Den ersten Satz versteh ich nicht so ganz :rolleyes:

Die zweite Aussage zweifle ich mal an, denn: (7/1300) > (5/1066)
D.h. der 1066er schaltet bei 5er Timings in weniger Zeit als der 1300er mit 7er Timings.
Zumindest ergibt sich dieses Ergebnis unter der ausschließlichen Berücksichtigung des Zahlenspiels - in Anwendungen dürfte der Unterschied marginal sein.
 
Den ersten Satz versteh ich nicht so ganz
Es gibt meines Wissens keinen GDDR5 welcher bei gleichem Takt mit schnelleren Latenzen läuft als gleich getakteter GDDR3. Dafür erlaubt GDDR3 absolut gesehen deutlich höhere Taktfrequenzen bei geringerer Spannung und Leistungsaufnahme. Wie üblich.
in Anwendungen dürfte der Unterschied marginal sein
Was gibts an "n Tick schneller" nicht zu verstehen?! :rolleyes: Sind so 2-3%, je nach Spiel und Setting.
 
Zuletzt bearbeitet:
Hmmm, meinen Tests nach ist DDR3-1333 (nicht 1.300, sorry) mit 7-7-7-21 etwas flotter als DDR2-1066 mit 5-5-5-18. Aber das sind idR unter 3% und damit in der Praxis am Rande der Messungenauigkeit.
 
Die HD4890 und besonders die OC Variante von Asus, wird sich dem Furmark stellen müssen und ich bitte
bei dem kommenden Review, die CB Redaktion darum, sich explizit um die Kühlung, Stabilität und den nicht
zuletzt hitzköpfigen Wandler der Karte(n) zu kümmern. Es sollte dem Kunden schon klar sein, ob die
Exemplare erneut am Limit rendern oder diesesmal nachhaltigen Verbesserungen unterzogen wurden.
 
Ich versteh absolut nicht, wieso hier immer so viel Wert auf Furmark gelegt wird. Ich hab meine HD4850 nie mit Furmark belastet, auch schau ich nicht alle paar Sekunden auf die Temperaturen...warum sollte ich auch. Auch als ich testweise mal ne HD4870 im System hatte, waren die Temps nur zweitrangig. Alle Spiele liefen problemlos...warum dann noch die Grafikkarte mit Furmark quälen. Ist doch Quatsch!

Momentan ist sowieso ein regelrechter Auslesewahn ausgebrochen, man könnte denken einige User würde nicht genug Sensoren angezeigt bekommen. Hab schon Leute in Foren gesehen, die den Kauf einer GTX280 im Vergleich zur GTX260 vorgezogen haben, weil die mehr Temps anzeigt. Auch bei der HD4800 Serie gibts ja sowas. Soll ich mir jetzt sorgen machen weil meine HD4850 nur 3 Sensoren hat...oh Gott, wer weiß wie heiß es sonst wo ist.

Wenn die HD4890 am Limit rendert ist es mir persönlich vollkommen egal, übertakten werde ich sowieso nicht und wenn sie kaputt geht, wird sie eben eingeschickt. Andere werden wohl wieder erstmal ne Stunde Furmark zocken (voll geil der Pelz) und wenn die Karte kaputt geht oder der Bildschirm schwarz wird, geht die Karte zurück.
 
Nun, Furmark schafft es anscheinend das letzte Quentchen (eher Quanten) aus den Shadern der HD4xxx, oder auch der GTX2xx heraus zu quetschen. Diese Render-Leistung stellen beide zur Verfügung und insofern empfinde ich diesen Test als legitim. Bloß man muss sich fragen, mit was eig. AMD oder Nvidia ihre Grafikkarten bei ihren Tests prügeln. Scheinbar mit "softeren" Programmen, sonst würden solche Lapsi, wie Überschreitung der PCIe-Leistungsspezifikationen und mangelnde Kühlung der Bauteile in Fällen wirklich 100 prozentiger Belastung, ja nicht passieren.
Dass Furmarktests für den momentanen Leistungshunger bei Spielen keine große Aussagekraft besitzen, muss der User halt auch wissen. Wie es bei GPGPU aussieht, weiß ich gar nicht. Vielleicht können dadurch die Shader in ähnlicher Weise belastet werden.

Gruß
Raubwanze
 
sonst würden solche Lapsi, wie Überschreitung der PCIe-Leistungsspezifikationen und mangelnde Kühlung der Bauteile in Fällen wirklich 100 prozentiger Belastung, ja nicht passieren
Die testen sicher nicht mit Ponyhof 14, keine Angst. Den Furmark kannte wohl kaum einer und die TDP halten die Karten aus - diese erreicht man in der Regel mit keinem Spiel. Andererseits wissen AMD wie nV natürlich, dass die Specs gesprengt werden, aber mit dem Furmark hantieren eh nur 0,3% aller User, daher kann man sich ja hier lustig über die Specs hinwegsetzen. Spart Geld und ermöglicht somit eine bessere Positionierung. Und gerade bei kranken Teilen wie einer HD 4870 X2 oder GXT 295 machts nichts wenn die Dinger recht schnell verrecken, die laufen so oder so am Limit und wer so eine Karte kauft, wirft sie idR eh nach nem Jahr wieder aus dem Rechner. Meiner Meinung nach wird das eiskalt kalkuliert und vieles bewusst in Kauf genommen.

Ich erinnere mich da an die Story mit einem Autohersteller, da war es (angeblich) billiger die Familien zu entschädigen als die Produktion umzustellen. Da gabs Probleme mit den Bremsen :freak:
 
Hauptsache die Performance stimmt, Furmark intressiert nicht.
@y33H
Glaub kaum dass ich die nach nem jahr wieder aus meinem PC schmeißen muss, was du erzählst is doch absoluter schmarrn.
Die Karten laufen nur in Furmark am Limit, da Furmark wie gesagt keinen intressiert wie du ja sagtest, vll 0,3% aller User, dann würde ich als Graka Hersteller auch das Geld sparen.
Warumsollte eine Grafikkarte als "billig" dastehen nur weil sie in einem programm, das dazu ausgerichtet ist alles auszulasten was geht, probleme bekommt.
Das wär das gleiche wenn ich sage...maaan warum geht die Graka nicht auf 1200/1500 mhz. So ein Klump. O.o
 
Zuletzt bearbeitet:
Zurück
Oben