Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ATi-Partner bringen Radeon HD 4890 X2
- Ersteller Sebastian
- Erstellt am
- Zur News: ATi-Partner bringen Radeon HD 4890 X2
jopi24johannes
Commodore
- Registriert
- Sep. 2007
- Beiträge
- 5.089
Hammergeile Karte. Wenn die silenttauglich wäre würde ich mir die Karte holen. 4096MB VRam ist genial. Die werden nichtmal in CoH mit maximaler Auflösung und maximaler Quali voll. Nur Mikroruckler, Lautstärke und Kühlprobleme sind dann doch zu viele Gegenargumente.
Hoffen wir, dass es bald wieder einen revolutionaär schnellen Chip ,wie den G80 damals, noch 2009 geben wird!
Hoffen wir, dass es bald wieder einen revolutionaär schnellen Chip ,wie den G80 damals, noch 2009 geben wird!
Sentionline
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.184
Und ich behaupte, das man mit kleinen Tricks die Karte auf Silent trimmen kann. Wenn man nicht zu blöd ist, die vorhandene Kühlung mit 2*120mm Lüfter zu versehen und mit einer Lüftersteuerung zu koppeln. Dann auf 1.2 Ghz takten...
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Die wird es bestimmt nur mit WaKü geben.
Naja Tri-Slot bzw. Quad-Slot Design mit 3 Lüfter auf der Karte und 5 Gehäuselüfter die den Luftstrom direkt auf die Karte konstant halten, könnten es noch schaffen.
Warum? 2x 2048MB bekommt man im CF verdammt schnell voll.Ob 4GB sinnvoll sind, wage ich stark zu bezweifeln.
DUNnet
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.612
Ob man jetzt 2x 4890 oder 1x 4890x2 einbaut, macht auch keinen Unterschied, also stellt euch nicht so an
Doch macht es! Warum auch immer ergeben Tests eine X2 Karte ist schneller O.o
Wobei 16Lanes pro Karte rechnerisch schnelle sein müssten!
Zur Kühlung stellt euch mal nicht so an! Ein Quad CF/SLI überleben auch ohne Probleme - kochen halt bei 90°C!
Ansonsten: 2D 1GPU auf 150/150MHz und der 2te GPU aus!
Ob man wohl VRam abschalten kann? Denn für den 2D reichen auch 64MB - und der VRam zieht ja bekannter maßen mieß viel saft!
Gruß
Zuletzt bearbeitet:
GodCast
Banned
- Registriert
- Apr. 2009
- Beiträge
- 1.540
Psycho! Über 300Watt, ich wette die Karte beginnt zu brennen sobald FurMark gestartet wird .
Irgendwas um 400 Euro könnte man schon schwach werden , dazu noch ein neues 100 Euro Netzteil und ne Packung Ohropax, dazu noch schlechte Treiber wenn die Karte nicht einmal offiziell unterstützt wird und die Mikroruckler, dazu noch ne Stromrechnung von über 500 Euro im Jahr.
Ich freue mich schon auf die ersten heulenden FanBoys weil Spiele und Treiber nicht funktionieren.
Jetzt mal im ernst, wenn man nicht gerade größer als 24 Zoll zockt, kommt man ganz gut mit einer Single GPU zurecht.
Irgendwas um 400 Euro könnte man schon schwach werden , dazu noch ein neues 100 Euro Netzteil und ne Packung Ohropax, dazu noch schlechte Treiber wenn die Karte nicht einmal offiziell unterstützt wird und die Mikroruckler, dazu noch ne Stromrechnung von über 500 Euro im Jahr.
Ich freue mich schon auf die ersten heulenden FanBoys weil Spiele und Treiber nicht funktionieren.
Jetzt mal im ernst, wenn man nicht gerade größer als 24 Zoll zockt, kommt man ganz gut mit einer Single GPU zurecht.
m-sharingan
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.368
jopi24johannes schrieb:. Nur Mikroruckler, Lautstärke und Kühlprobleme sind dann doch zu viele Gegenargumente.
wieso?
vllt gibt es die karte nur mit wakü zu kaufen weil sie doch merken man kann diese monster nicht mit nem kühler gut genug lüften dann gibt es nur ein problem...microruckler
lautstärke und kühlproblem -> Vergangenheit xD
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Wartet es doch einfach ab
Wenn Sapphire ein Atomic Modell veröffentlich, dann wird es sowieso für die Meisten hier nicht bezahlbar sein, aber es dient nur zum Prestige für AMD und Sapphire, wieder das aller Schnellste zu haben
Ooops - jetzt habe ich schon fast zuviel gesagt.
Wenn Sapphire ein Atomic Modell veröffentlich, dann wird es sowieso für die Meisten hier nicht bezahlbar sein, aber es dient nur zum Prestige für AMD und Sapphire, wieder das aller Schnellste zu haben
Ooops - jetzt habe ich schon fast zuviel gesagt.
Rorschach
Cadet 3rd Year
- Registriert
- März 2009
- Beiträge
- 39
6Pin + 8 Pin nur? Eine übertaktete 4870X2 braucht das schon, dann werdens bei einer 4890X2 wohl eher 2x 8 Pin.
Mir machst sorgen wenn die Chips auf einen Board sind übertaktet und auf 100% Last das bei manchen einfach mal das Board wegschmilzt. Das wäre ja keine tolle Werbung für AMD/ATI.
Mir machst sorgen wenn die Chips auf einen Board sind übertaktet und auf 100% Last das bei manchen einfach mal das Board wegschmilzt. Das wäre ja keine tolle Werbung für AMD/ATI.
Rommaster
Lt. Junior Grade
- Registriert
- Sep. 2008
- Beiträge
- 483
Mal abgesehen vom technischen Wahnsinn dieser Karte(n), welche CPU soll bitteschön in der Lage sein, genug Rohleistung für dieses Monster zu liefern ?
Selbst ein I7 dürfte doch dann ganz gewaltig limitieren. Von Crossfire mit 2 dieser Karten spreche ich erst gar nicht, mal abgesehen, das dann die Leistungsaufnahme so ziemlich alles dagewesene sprengen dürfte.
Selbst ein I7 dürfte doch dann ganz gewaltig limitieren. Von Crossfire mit 2 dieser Karten spreche ich erst gar nicht, mal abgesehen, das dann die Leistungsaufnahme so ziemlich alles dagewesene sprengen dürfte.
ChristianSL
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.068
Wozu das Rumgelaber bezüglich Sinn und Unsinn.
Als das in diesem Segment jemals eine Rolle gespielt hat. Aber solche Entwicklungen müssen einfach sein: 1. um der Kunkurenz zu zeigen was geht und 2. um die Technik an die Absolute Leistungsgrenze zu treiben, anders wären die gigantischen technologischen Sprünge der letzten jahre garnicht möglich gewesen...
Andererseits hatte doch ATI, wie einige richtig erkannt haben, die Entwicklung einer solchen Karte dementiert, wenn jedoch die Nachfrage, welche bekanntlich den Mark bestimmt, vorhanden, warum sollten dann nicht die Boardpartner ihr Glück versuchen.
Mir kanns zumindest nicht schnell genug gehen auf dem Weg zum Fotorealismus ;-)
Gruß
Christian
Als das in diesem Segment jemals eine Rolle gespielt hat. Aber solche Entwicklungen müssen einfach sein: 1. um der Kunkurenz zu zeigen was geht und 2. um die Technik an die Absolute Leistungsgrenze zu treiben, anders wären die gigantischen technologischen Sprünge der letzten jahre garnicht möglich gewesen...
Andererseits hatte doch ATI, wie einige richtig erkannt haben, die Entwicklung einer solchen Karte dementiert, wenn jedoch die Nachfrage, welche bekanntlich den Mark bestimmt, vorhanden, warum sollten dann nicht die Boardpartner ihr Glück versuchen.
Mir kanns zumindest nicht schnell genug gehen auf dem Weg zum Fotorealismus ;-)
Gruß
Christian
1. Der Preis wird gar nicht so hoch, wie viele hier annehmen. Was soll einen dazu bewegen 600€ oder so für eine X2 auszugeben, wenn ein normales CrossFire Gespann schon ab grob 400€ zu kaufen ist. In ähnlichen Regionen wird sich also auch die X2 bewegen.
2. Der Stromverbrauch ist angemessen. Wer Leistung will muss auch opfer bringen. Ob man jetzt nen Bugatti Veron fährt und seine 1001PS befeuern muss oder eine 4890X2 hat, die ihre Watt aus der Steckdose haben will.
1.+2.: Männer bleiben immer Spielkinder. Nur die Spielzeuge werden teurer.
3. Die Lautstärke und Wärme der Karte steht noch in den Sternen und wird erst durch die Tests dargelegt werden. Bis da hin kann man zwar viel spekulieren, aber bei so einem Monstrum kann ein qualitativ hochwertiger Kühler zum Einsatz kommen, der dann alle überrascht.
4. Bei Dual-Core Prozessoren hieß es auch erst, dass die keiner braucht. Dann hieß es das von Quadcore CPUs. Jetzt wagt keiner mehr das gleiche bei Hexa oder Octacores zu sagen, aber viele würden es gerne^^. Hingegen ist bei Grafikkarten noch einiges an Optimierung hinsichtlich der Taktraten möglich, sodass die Multi GPU Systeme noch nicht so viel Sinn machen, aber es nicht falsch ist bereits erste Erfahrungen mit den Dingern zu sammeln, weil das irgendwann die Zukunft ist (auch für Stromsparer könnten Multi GPU Systeme interessant werden, wenn im Idle zum Beispiel nur 1 Chip von X arbeitet und die anderen dann keinen Strom mehr fressen. Heute geht das bisher nur per runtertakten.).
5. Bei allen X2s wurde bisher gesagt, dass so viel Leistung nicht notwendig sei.
Aber die 4870 hatte für viele zu wenig Leistung, obwohl sie in etwa so schnell ist wie ne 9800GX2 oder 3870X2. Die Leistung wird genutzt werden können. Zur Not bald mit GPU Computing via OpenCl, das angeblich für alle DX 10 fähigen Karten funktionieren soll.
2. Der Stromverbrauch ist angemessen. Wer Leistung will muss auch opfer bringen. Ob man jetzt nen Bugatti Veron fährt und seine 1001PS befeuern muss oder eine 4890X2 hat, die ihre Watt aus der Steckdose haben will.
1.+2.: Männer bleiben immer Spielkinder. Nur die Spielzeuge werden teurer.
3. Die Lautstärke und Wärme der Karte steht noch in den Sternen und wird erst durch die Tests dargelegt werden. Bis da hin kann man zwar viel spekulieren, aber bei so einem Monstrum kann ein qualitativ hochwertiger Kühler zum Einsatz kommen, der dann alle überrascht.
4. Bei Dual-Core Prozessoren hieß es auch erst, dass die keiner braucht. Dann hieß es das von Quadcore CPUs. Jetzt wagt keiner mehr das gleiche bei Hexa oder Octacores zu sagen, aber viele würden es gerne^^. Hingegen ist bei Grafikkarten noch einiges an Optimierung hinsichtlich der Taktraten möglich, sodass die Multi GPU Systeme noch nicht so viel Sinn machen, aber es nicht falsch ist bereits erste Erfahrungen mit den Dingern zu sammeln, weil das irgendwann die Zukunft ist (auch für Stromsparer könnten Multi GPU Systeme interessant werden, wenn im Idle zum Beispiel nur 1 Chip von X arbeitet und die anderen dann keinen Strom mehr fressen. Heute geht das bisher nur per runtertakten.).
5. Bei allen X2s wurde bisher gesagt, dass so viel Leistung nicht notwendig sei.
Aber die 4870 hatte für viele zu wenig Leistung, obwohl sie in etwa so schnell ist wie ne 9800GX2 oder 3870X2. Die Leistung wird genutzt werden können. Zur Not bald mit GPU Computing via OpenCl, das angeblich für alle DX 10 fähigen Karten funktionieren soll.
Zuletzt bearbeitet:
Sentionline
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.184
Egal, dann wird eben als besitzer der Karte(n) 32xEdge Detekt als neuer Standard im Treiber festgenagelt.Rommaster schrieb:Selbst ein I7 dürfte doch dann ganz gewaltig limitieren. Von Crossfire mit 2 dieser Karten spreche ich erst gar nicht, mal abgesehen...
Rorschach
Cadet 3rd Year
- Registriert
- März 2009
- Beiträge
- 39
GodCast schrieb:auf jeden Fall limitiert jede AMD CPU
Ich glaube beim Verkauf einer 400 Euro Grafikkarte ist es AMD Wurst ob sich der Käufer dann eine Intel CPU kauft oder net^^
Papst_Benedikt
Captain
- Registriert
- Apr. 2007
- Beiträge
- 3.592
Ich bin ja auch mal auf die HD4890 X2 mit 1GHz Chiptakt und 4GB GDDR5 gespannt! Was die wohl kosten wird... 600€ oder doch 700€?!? Wenn man mal bedenkt, das wohl nur sehr wenige RV790 die 1GHz mitmachen, würde ich dann mal auf selektierte Chips tippen und das wird richtig teuer! Bei der Powercolor HD4890 PCS+ ist doch ein Chiptakt von 950MHz angesetzt und es klang in den News damals so, als wäre es nicht leicht die zu erreichen und vor allem auch bei jedem Chip. Und dann die 1GHz? Wenn die sich da mal nicht übernommen haben...
Andererseits siehts wohl so aus, als wäre das Design der X2 den Boardpartnern überlassen und dann gibts eventuell auch halbwegs gute Kühllösungen. Ich bin ja mal gespannt, ob sowas wie ein "Accelero Extreme X2" mit zwei Bodenplatten geben wird, technisch wäre das zumindes möglich, sowas zu bauen und das Teil wäre dann auch halbwegs in der Lage, die enorme Verlustleistung abzuführen. Der Referenzkühler einer HD4870 X2 schafft des aber nicht mehr, da bin ich mir sicher. Oder die Karten gibts allgemein nur mit Wasserkühler, so wie die Sapphire Atomic oder wie die heißt.
Andererseits siehts wohl so aus, als wäre das Design der X2 den Boardpartnern überlassen und dann gibts eventuell auch halbwegs gute Kühllösungen. Ich bin ja mal gespannt, ob sowas wie ein "Accelero Extreme X2" mit zwei Bodenplatten geben wird, technisch wäre das zumindes möglich, sowas zu bauen und das Teil wäre dann auch halbwegs in der Lage, die enorme Verlustleistung abzuführen. Der Referenzkühler einer HD4870 X2 schafft des aber nicht mehr, da bin ich mir sicher. Oder die Karten gibts allgemein nur mit Wasserkühler, so wie die Sapphire Atomic oder wie die heißt.
durchgedreht
Cadet 4th Year
- Registriert
- Apr. 2009
- Beiträge
- 94
Ob es generell möglich ist stand nie zur Diskussion.. Nur unter was für Umständen halt:
- Lässt sich mit den wohl nicht extrem hohen Verkaufszahlen die Entwicklung, Vermarktung etc zumindest bezahlen oder sogar Gewinn machen?
- Wie 350W Abwärme wegleiten ohne dass man taub wird, es zu viele Slots verbraucht und das ganze natürlich noch bezahlbar bleibt?
- Wie viel ist das "LuL wir haben die schnellste GraKa dies gibt!11!1einz / wir haben die GTX295 vernicht0rt" wert?
Machbar ist viel (z.B. 4890x4 für 3k$ pro stk mit 50cm PCB und eigenem NT + kompletter Wakü gleich dazu...), nur gehts meist darum Produkte auf den Markt zu werfen und theoretisch damit Gewinn zu erzielen, also ausreichend viele Leute zu haben die es dann kaufen gehn..
Also ich bin echt gespannt wie das ding aussehen wird
- Lässt sich mit den wohl nicht extrem hohen Verkaufszahlen die Entwicklung, Vermarktung etc zumindest bezahlen oder sogar Gewinn machen?
- Wie 350W Abwärme wegleiten ohne dass man taub wird, es zu viele Slots verbraucht und das ganze natürlich noch bezahlbar bleibt?
- Wie viel ist das "LuL wir haben die schnellste GraKa dies gibt!11!1einz / wir haben die GTX295 vernicht0rt" wert?
Machbar ist viel (z.B. 4890x4 für 3k$ pro stk mit 50cm PCB und eigenem NT + kompletter Wakü gleich dazu...), nur gehts meist darum Produkte auf den Markt zu werfen und theoretisch damit Gewinn zu erzielen, also ausreichend viele Leute zu haben die es dann kaufen gehn..
Also ich bin echt gespannt wie das ding aussehen wird
Zuletzt bearbeitet: