News ATi-Partner bringen Radeon HD 4890 X2

man braucht nur 1 und 1 zusammenzählen und feststellen dass eine OC 295 wieder schneller wäre. Da ist die GPU auch um 100Mhz übertaktbar und braucht dabei noch weniger Saft als eine 4890 x2.

Zumal eine 295 bei 35 FPS wohl flüssiger rüberkommen würfte als eine 4890X2 bei 50 oder 60 FPS.
Nvidia ist diesbezüglich einen großen Schritt vorraus. Eine 295er braucht ja schon ne Latte weniger Saft als ne 4870 X2.
Für NV jedenfalls kein Akt das wieder zu kontern, wobei sie das eventuell garnicht nötig haben, da wiegesagt eine 295 auch mit weniger FPS auskommt und dazu noch effektiver ihre Arbeit verrichtet.

Und das ist jetzt kein Fanboygelaber, ich freue mich viel mehr auf die 40nm Chips von AMD die dann hoffentlich ihren 5D Shader Vorteil erst richtig ausspielen kann. Die 4770 setzt den Anfang, aber ab 1500 Shader legt das Ganze erst richtig los ;)
 
Zumal eine 295 bei 35 FPS wohl flüssiger rüberkommen würfte als eine 4890X2 bei 50 oder 60 FPS.

Sicherlich - weil die Bilder von ATi einfach "laschig" wirken!
Was bist du den fürn komischer Vogel?
 
4 GB GDDR5 ist echt fett :eek: - stellt euch das Ding mit CrossfireX vor (16 GB GDDR5), dann hätte man wohl die nächsten 10 Jahre Ruhe mit GraKa-Upgrades! :p
 
@René 83
Du musst bedenken, dass bei Crossfire die gleiche Menge an Speicher zur Verfügung steht und sich nicht vermehrt.
Außerdem vermute ich, dass bei 4GB beide Chipsa gemeint sind wobei man auf effektive 2GB kommen die jeder Chip zur Verfügung hat.
 
Darkwonder schrieb:
@feldwebel-Chief
Doch man könnte etwas tun aber es würde sehr viel kosten, man müsste die gesamt Energie Wirtschaft umbauen und das von heute auf morgen.
Es gibt Konzepte die den Klimawandel ca. 20 Jahre Hinauszögern könnten, diese sind aber sehr Kostspielig und auch mit hohen Risiken verbunden.
Vor allem das nicht unwahrscheinliche Risiko, dass es keine Klimaerwärmung gibt (Jedenfalls keine vom Menschen verursachte). Es gab schon immer warme und Kalte Perioden in der Geschichte. Die Natur des Menschen macht daraus nur eben ergene Katastrophen. Denn wenn es ihm gut geht ist er unzufrieden, dass er nichts mehr zu jammern hat uns sucht sich künstlich Probleme. Wäre die Gefahr durch die angeblich durch den Menschen verursachte Globale Erwärmung wirklich so schlimm würde immer noch dazu in den Medien berichtet, aber da wir die Finanzkrise haben hat die Politik endlich etwas gefunden, mit dem sie besser Stimmen fangen kann und schert sich daher einen Dreck darum.
In den 80ern (oder warens die 70er? Jedenfalls vor gar nicht all zu langer Zeit) steuerten wir angeblich auf eine Kaltzeit zu. Jeder Forscher, der was anderes sagte wurde nicht für voll genommen, hatte aber recht.
Jetzt wars/isses mit der "globalen Erwärmung" genau so. Forscher, die nicht mit dem Strom schwimmen werden nicht gezählt. Publiziert werden die, die der Politik und den Medien helfen zu werben. Ob es jetzt Zuschauer oder Wähler sind ist egal.

Aber globale Erwärmung ist offtopic

mindestens genau so offtopic wie greenIt bei Enthusiasten-Hardware. Dabei geht es nicht darum, ob etwas viel verbraucht, sondern nur um brachiale Leistung.
 
DUNnet schrieb:
Sicherlich - weil die Bilder von ATi einfach "laschig" wirken!
Was bist du den fürn komischer Vogel?

Nein weil NV die Microruckler weitestgehend eindämmen konnte

"Wir hatten es beim Probespielen im Gefühl und die Diagramme der GeForce GTX 295 bestätigen unsere Vermutung: In der Tat, Nvidia scheint mit den letzten Treibern aktiv gegen die Mikroruckler vorgegangen zu sein. Es gibt sie zwar immer noch, aber in deutlich geringerem Maße. So war es sowohl in Call of Juarez als auch in Crysis Warhead sowie Stalker Clear Sky selbst mit 30 FPS noch ohne Probleme möglich, auf der Multi-GPU-Karte ein flüssiges Spielerlebnis zu haben. Bis vor kurzem konnte man mit älteren Treibern vor allem in den drei Spielen bei den FPS-Raten teils extreme Mikroruckler erleben.

Selbst 25 FPS sind auf der GeForce GTX 295 ohne allzu große Einbußen machbar. Man merkt in dem Bereich durchaus, dass eine Single-GPU-Karte das Spiel „runder“ darstellen kann, aber die Anwendungen sind noch nicht unspielbar. Insofern hat Nvidia das Problem noch nicht völlig aus der Welt geschaffen, konnte es aber zumindest so weit reduzieren, dass man ein Multi-GPU-System endlich an die Grenzen seiner Leistungsfähigkeit bringen kann, ohne dass es trotz theoretisch noch gut spielbaren Werten unspielbar wird.

Anmerken muss man an dieser Stelle noch, dass es durchaus Anwendungen geben kann, die Mikroruckler stärker zeigen als andere. In unseren Testläufen haben wir aber keine Ausnahmen feststellen können. ATi ist nun also im Zugzwang, da der Catalyst 8.12 an den Mikrorucklern auf einer Radeon HD 4870 X2 nichts geändert hat. Wenn man die Karte an die Grenze bringt, gibt es viele Spiele, in denen man Schwierigkeiten bekommt, die eigentlich nicht nötig wären."


https://www.computerbase.de/2009-01...95/21/#abschnitt_mikroruckler_auf_der_gtx_295

vs.

https://www.computerbase.de/2008-08/test-ati-radeon-hd-4870-x2/24/#abschnitt_problem_mikroruckler

Du wirst ziemlich sicher bei ner 295 was mit 30FPS spielen können, was bei ner 4890 einfach nur noch ruckelig wirken würde...

Edit:

Angenommen du kannst bei ner 295er was mit 35 FPS flüssig spielen, was bei der 4890X2 50 FPS gleichkommen würde, gefühlt versteht sich, dann müsste die 4890X2 42% schneller sein um dasselbe "Spielgefühl" zu vermitteln. Und das wird sie auch auf 1000 Mhz nicht sein.
 
Zuletzt bearbeitet:
ohaaa wenn ich da jetz an quadfire denke xDD


wobei wenn der treiber das unterstützen würde könnte man auch octafire betreiben :D
krank.. aber genial irgendwie ^^

auf meinem mb wären genug pci-e slots.. aber alle dann mit leider nur 8 x bandbreite ;)

aber wozu könnte man soviel leistung benötigen? für die nächsten jahre im gaming? ati stream anwendungen wären da wohl bisschen gescheiter wenn die nich unbedingt viel bandbreite benötigen...

aber die idee find ich genial! bin mal gespannt was da heraus kommt... jetz passiert doch noch was auf dem grafik-desktop markt zwischen jetzt und weihnachten ^^
 
@ Arhey,

also sind da theoretisch 2x HD4870X2 auf der HD4890 X2 verbaut, oder?
Denn eine HD 4890 hat ja 1 GB!
 
Alter schwede das wird ein Monster, sowohl von der Leistung als auch vom Verbrauch gerade Idle dürfte sehr interesant werden vielleicht kommt dann endlich mal ein Treiber wo PP lübbt, auch unter XP.

Binn schon gespannt darauf, mein NT hätte zumindest 2x8PEG aber ich werde mir dann lieber eine gebrauchte 4870 1024MB holen und mit Crossfire X experementieren.
 
Zuletzt bearbeitet:
Stoßstange schrieb:
ATI is back!

Endlich geht die Krone wieder an ATI.

Nja ... mit was ist ATI back? Mit einem Toaster ... jeder kann sich zwei Karten einbauen, hier werden sie halt im Paket verkauft. Genauso halte ich die 295 und die 4870 X2 für nicht sinnvoll ... dieser wir verkaufen zwei Karten als eine Blödsinn nur um die "schnellste" Karte im Sortiment zu haben. Vielleicht zieht Nvidia auch dieses mal wieder nach und verkauft zwei 285 unter dem Namen "295 Heater" oder so.

Die Krone bleibt bei der 285, denn zwei davon sind noch immer schneller als zwei 4890.
 
@René 83:

Nein, logischerweise 2x HD4890 auf einer Platine. Vermutlich mit 2x2GB Ram. Und da in beiden "Rams" das Selbe stehen muss, hat man effektiv doch nur 2GB zur Verfügung.
 
Drachton schrieb:
Schon lustig, wie du Diskussion hier ausartet - beim G80 war Nvidia beliebend vorne weg -> es wird geheult, dass ATI vollkommen hintendran ist. Jetzt spielt ATI mit Kompromissen wieder oben mit -> jetzt wird wegen etwas andrem geheult. Lasst doch einfach die heulen die sich die Karte kaufen und schwups wäre der Thread auf ein paar wenige reduziert. Immer dieses sinnlose Streitereien über eine Karte, die selbst hier im Forum nich viele haben werden.



Hab ich etwas verpasst oder wird die 4890x2 aus einem Dual-PCB gebaut?
Fakt ist: Ich seh (noch) keine GTX295 auf einem PCB. Und warum man bei ner "positiven" ATI News öfters "hinterücks" Nvidia einbaut versteh ich bei CB noch immer nicht .. es ist nur auffallend.

Mmmmmmhhhhh ja ... und DU heulst hier rum wegen Leuten die rumheulen. Fass dich doch mal erst an der eigenen Nase, bevor du anfängst über Andere her zuziehen. Ne ? ;)

Da auch ich wie jeder Andere, egal ob er sich nun eine ATI, Nvidia oder sonstige Schlagmichtot-Hardware kauft oder auch nicht, das Recht hat seine Meinung frei kund zu tun, werde ich Diesem jetzt mit dem größten Vergnügen nachkommen.

Zum Thema:

Ein Karte dieser Art mit derart hohem Stromverbrauch ist schlicht und ergreifend völlig inakzeptabel. Schon die Single GPU Ausführung der 4890 für meine Begriffe völlig am Ziel vorbeigeschossen. Normalerweise sollte ein neues Chipdesign grundsätzlich die Effizienz der Vorgängerversion stets übertreffen. Dies ist hier definitiv nicht der Fall. Marginale Mehrleistung für höheren Kaufpreis bei höherem Stromverbrauch als ne 4870 ist einfach nur schlecht. Nicht zu vergessen die immer noch viel zu hohe Stromaufnahme im Idle. So und nicht Anders sollte es auch offen zur Sprache gebracht werden. Sorry ATI, dafür von mir einfach nur die Rote Karte und nix Anderes.
 
Mizukag3 schrieb:
ohaaa wenn ich da jetz an quadfire denke xDD

^^ aber Quadcrossfire macht aufgrund der Ruckler schon keinen Spaß mehr. Sagen zumindest die Tests. Aber ich wills auch garnicht drauf anlegen ;)
 
nicht schlecht ATI,wer so eine karte kauft muss warscheinlich gleich neue netzteil kaufen,ich werde warscheinlich mit mein cooler masterr 520W nicht auskommen.

Ich verstehe nicht warum ATI/NVidia immer monster karten rausbringen,ich meine es kommen wieso nicht soviele spiele für PC, für jetzige spiele reicht HD4870/GTX260 sogar für nächsten 2 jahre aus.
 
Zuletzt bearbeitet:
JueZ schrieb:
Die Krone bleibt bei der 285, denn zwei davon sind noch immer schneller als zwei 4890.

So sehe ich das auch. Die 285 topt von der reinen Leistung gerade noch keine Karte. Okay, eine 4890 ultraOC eventuell, aber dabei vergessen leider viel zu viele dass eine 285 ebenso übertaktet werden kann.
Was bei der Karte nervt ist jedoch die geringere PCB Quali und das Spulenfiepen.
Dafür besitzt sie den weit besseren Idle Verbrauch und man muss im SLI kaum mit Microrucklern kämpfen.

Mit dem R770 kann AMD was Effizenz angeht nicht gegen den G200b anstinken. Da mischt erst 40 nm die Karten neu.
 
@ Sp1d3r,

eine HD 4890 X2 ist zum zocken auch schon viel zu überdimensioniert, es sei denn du willst CRYSIS mit Supersampling, 32x AA und 2048x1536 spielen! ;)

Für Normalo-Gamer reicht natürlich eine HD 4870 aus!
 
Arhey schrieb:
...Phenom II 940BE reicht für jede dual Karte.

Einzigste Ausnahme wäre hier GTA IV.

naja kommt drauf an wiegut der grafik thread skaliert auf den 4 kernen... sicherlich nicht mit 100 %(das wäre ja ein traum ^^) ! wenn es überhaupt einen grafik thread einzeln gibt (schätze mal schon)
 
ich weiß gar nicht was ihr alle habt. Preislich wird sie wohl nicht über 2x4890 liegen also wahrscheinlich unter 400€; maximal 500 (bis sie rauskommt ises ja noch hin -> preise fallen). Das hat man früher für alle high-end karten gezahlt (8800 Ultra war sogar deutlich über 500€). Strom braucht sie auch nicht mehr als 2x4890 (wer aufmerksam liest, sieht dass sie mit 2x8pin maximal 375 Watt abkann und nicht 500 oder sowas, man wäre also mit einem 700W netzteil im grünen bereich - je nach cpu). Und Lautstärke... was soll man sagen: natürlich ist es nix für silent pcs. Wers leise will nimmt halt ne wakü. 4GB find ich machen schon sinn inssbesondere bei CFX, man hat ja effektiv 'nur' 2GB bzw. bei CFX 1GB pro GPU.

Wers braucht? Leute mit großem Bildschirm!!
 
@René 83 eine 4870 reicht nicht es sei denn mann spielt mit pussy Auflösungen von 1280, bei Warhead binn ich schon froh das ich die X2 genommen habe habe aber auch nur 1680 mit 2aa
 
Die Krone bleibt bei der 285, denn zwei davon sind noch immer schneller als zwei 4890.

sehe ich genauso ;)

Ich frage mich wieso Nvidia bei der gtx 295 nicht gleich alle 32 ROPs freigschaltet hat und nicht nur die kompletten 240 shader.
Dann wäre die krone mit Sicherheit bei Nvidia geblieben ;)
 
Zurück
Oben