News ATi-Partner bringen Radeon HD 4890 X2

Schon lustig, wie du Diskussion hier ausartet - beim G80 war Nvidia beliebend vorne weg -> es wird geheult, dass ATI vollkommen hintendran ist. Jetzt spielt ATI mit Kompromissen wieder oben mit -> jetzt wird wegen etwas andrem geheult. Lasst doch einfach die heulen die sich die Karte kaufen und schwups wäre der Thread auf ein paar wenige reduziert. Immer dieses sinnlose Streitereien über eine Karte, die selbst hier im Forum nich viele haben werden.

Nvidia könnte dann nur noch über eine geringere Leistungsaufnahme und einen geringeren Preis um Kunden werben. Der Preis beziehungsweise die Herstellkosten für eine GeForce GTX 295 sollen übrigens durch Nvidias Bestreben, aus der Dual-Grafikkarte GeForce GTX 295 mit ihren zwei Platinen eine Dual-GPU-Karte auf einer Platine zu machen, reduziert werden.

Hab ich etwas verpasst oder wird die 4890x2 aus einem Dual-PCB gebaut?
Fakt ist: Ich seh (noch) keine GTX295 auf einem PCB. Und warum man bei ner "positiven" ATI News öfters "hinterücks" Nvidia einbaut versteh ich bei CB noch immer nicht .. es ist nur auffallend.
 
Genau das eine spannende Entwicklung, vor gerade mal einem Jahr galten 9800 GX2 und 3870 X2 als schicke Öfen, heute ist das vergessen, der Verbrauch wurde verdoppelt.
Wenn das mal nicht rasant voran geht. Ich meine 200W für eine Singlekarte sind in Zukunft kein Thema mehr, vor einem Jahr wurde über 200W Dualkarten geschimpft, heute werden 110W mehr oder weniger erfolgreich passiv gekühlt. Das ist der Wahnsinn.
Natürlich sind hier die Kühlsystemdesigner gefragt, der Kostenfaktor Kühlsystem nimmt eine immer entscheidendere Rolle ein, übertrifft am Ende sogar den GPU Preis.

Ich muss sagen, ich habe mich völlig getäuscht.
Ich dachte die 4870 X2 liegt bereits am Limit des momentan möglichen, mal unter, mal ein gutes Stück über 300W reallem Vebrauchs, bestückt mit einem sehr Kräftigen Kühlsystem.
Den 2. 8pin Stecker hätte bereits die 4870 X2 gut gebrauchen können, aber ok wird das Versorgungsdefizit wenigstens nicht schlimmer.
Aber was jammer ich, andere haben bereits an einer GTX 295 gezweifelt, heute sehen wir das die im 4x Verbund laufen und und im Einzelbetrieb weit enfernt von Verbrauchsrekorden sind.

Der einzige Hoffnungsschimmer bei der News bleibt die VRAM Größe. 2x2GiB GDDR5 die diesen Takt mitmachen sind nichtumsonst, dennoch bleibt die Frage:
Wie wirkt sich die Karte auf den Markt aus?
Wird sie teuer verkauft und beeinträchtigt in kaum?
Wird sie billig verkauft, drückt die 4870 X2 tief runter, die dadurch wiederum den Markt der ihr untergeordneten Karten kaputt macht?


Fragen über Fragen, zb. wie viel Schub (in sone) schafft eine solche 4890 X2 im CF-X, sofern das überhaupt läuft. ;)
Oder, bietet AMD in Zukunft bei seinem 500€ Geschoss eine Wahlmöglichkeit der Texturfilterqualität?
 
Zuletzt bearbeitet:
Drachton schrieb:
Schon lustig, wie du Diskussion hier ausartet

das wird der heißeste Faden der Woche! Ich kann nur hoffen, dass Nvidia so blöd ist und darauf einsteigt und eine 295+ bringt oder so. Zumindest wäre eine 295er um 350 Euro begrüßenswert.
 
m-sharingan schrieb:
wieso?
vllt gibt es die karte nur mit wakü zu kaufen weil sie doch merken man kann diese monster nicht mit nem kühler gut genug lüften dann gibt es nur ein problem...microruckler

lautstärke und kühlproblem -> Vergangenheit xD

Witzig. Ein 360er Radi nur für die eine Graka, wenn der reicht. Und für alternative Boardlayouts oder solche "Special Karten" gibt es in der Regel keine Wasserkühler. Siehe 4850 X2.
 
Die immer mit den ganzen Dual Karten,
ich wär mal lieber wieder für die nächste Generation der Single Grafikkarten.
 
verrückt... Den nächsten Winter stelle ich meinen rechner mit der 4890 x2 einfach mal ins Wohnzimmer; dann wirds schön warm :evillol:
 
max 500W verbrauch:lol::lol::lol: allein für die graka

wie wollen die das kühlen?

das ist doppelt bis dreimal soviel so viel wie mein system benötigt...
 
Zuletzt bearbeitet:
Boah, Ati kann gegen mich nichts unternehmen.
Ich hab 16 riesen Villas, 256 Bugattis, 4096 Diamanten und 4 Frauen.
Da müssen die sich noch etwas anstrengen.
 
BAM! da bekommen wir ein neues Lustobjekt für Enthusiasten ... und wie bei allen Karten spielt der Stromverbrauch hier wohl die geringste Rolle ... wer das Geld für so eine Karte hat, kann auch die Stromkosten zahlen und sowieso werden sie ihm egal sein.
Ein Scheich kratzt es auch nicht ob sein neuer Bugatti Euro4 hat und wieviel Verlustleistung sein Motor bei 1001PS hat.
 
Wo wird denn bitte eine AMD CPU ausbremsen?
Wenn man keine Ahnung hat einfach ruhig bleiben.
Für jede Single GPU reicht eine einigermaßen aktuelle Dual Core CPU und Quad Core alá Phenom II 940BE reicht für jede dual Karte.

Einzigste Ausnahme wäre hier GTA IV.
 
das bei den 40nm strukturen entspannt sich doch nur in der ersten generation.. in der zweiten wird die architektur wieder bis zum limit ausgereizt, so dass auch dort wieder der verbrauch ins unermessliche steigt..^^ da wett ich doch glatt n zehner druff^^

die radeon 5xxx würd mich viel eher interessieren^^ kommt die eig. an weihnachten?
 
RIPchen schrieb:
Das wäre eine feine Sache, so eine 4890X2 ! Ob 4GB sinnvoll sind, wage ich stark zu bezweifeln. Aber bezüglich Stromverbrauch gibt es aus meiner Sicht nur noch die Möglichkeit eines externen Netzteils. Anderenfalls sind die leicht erzielbaren, aber stromhungrigen Frequenzen der GPUs nicht erreichbar.

naja externes netzteil mussn nicht sein, eins mit 1000W tuts auch:D

jopi24johannes schrieb:
Hammergeile Karte. Wenn die silenttauglich wäre würde ich mir die Karte holen. 4096MB VRam ist genial. Die werden nichtmal in CoH mit maximaler Auflösung und maximaler Quali voll. Nur Mikroruckler, Lautstärke und Kühlprobleme sind dann doch zu viele Gegenargumente.
also lautstärke und kühlprobleme? nur wenn man so dumm ist und sich die karte ohne wakü kauft.... wer 400-500€ für ne karte ausgibt kann auch wenigstens eine kleine wakü für die graka finanzieren

Rommaster schrieb:
Mal abgesehen vom technischen Wahnsinn dieser Karte(n), welche CPU soll bitteschön in der Lage sein, genug Rohleistung für dieses Monster zu liefern ?

Selbst ein I7 dürfte doch dann ganz gewaltig limitieren. Von Crossfire mit 2 dieser Karten spreche ich erst gar nicht, mal abgesehen, das dann die Leistungsaufnahme so ziemlich alles dagewesene sprengen dürfte.:freak:

naja ganz so schlimm wirds nicht sein, ein i7 975 sollte gaaaanz knapp reichen:D:D ne spaß bei seite, ein PII920/940 oder vergleichbarer intel qc schafft das schon.. außer man meint sich 2 dieser karten einbauen zu müssen...


@Topic:
Hammergeil, aber für 08/15 user total übertrieben... aber falls ich mal 2.500€ auf der Straße finde weiß ich ja wie ich sie anlegen kann: i7 975, auf 4,5ghz übertakten, wakü für ne verlustleistung von 1500W und eine 2*4890X2

dann mit AA, AF und allem auf maximum Crysis, GTA4 etc. mit 200fps auf meinem 17" zocken:D:D
 
Da AMD massenhaft Waver in Korea bestellt hat ist zu vermuten das AMD eine größere Menge an Chips produzieren wollen. Ich vermute das ATI mit dem Knowhow von AMD es geschafft hat eine Dual GPU zu entwickeln. Also zwei GPUs auf einem Die. Damit würde sich ein neuer Leistungshorizont eröffnen und wahrscheinlich ist das Microruckler Problem gelöst.

Eine andere Möglichkeit wäre das AMD einen neue CPU Generation produzieren will. Das wären dann die 6 oder 8 Core CPUs. Aber dafür alleine brauchen die nicht fast die ganze Waverproduktion von Korea. Mein Gefühl sagt mir das bis Weihnachten AMD/ATI eine große Überraschung hat.
 
nanopixel schrieb:

Geen IT ? ist eh schon vorbei ... klimawandel kannste nicht mehr aufhalten ... nur verzögern.

BTT: Die karte wird bestimmt richtig abgehn ... aber 375W (denke mal das es locker mehr sind) ist schon krass
 
Der Grund, warum Ati diese Karte freigibt, liegt doch auf der Hand.
Sie haben wieder die Performancekrone, wodurch weniger Erfehrene User rückschlüsse auf kleinere Karten ziehen, und damit die Ati-Produkte kaufen.
Die Grafikkarte wird warscheinlich schwer(mit Luft), schwer zu kühlen sein, deshalb konstruiert sie Ati auch nicht selbst und lässt die Partner entscheiden, die dies oft mit mehr Angagement macht, weil Ati eben mit dem konstruieren neuer Produkte beschäftigt ist.
Die Leistungesaufnahme eine HD4870X2 liegt schon bei etwa 380W unter (langer)Vollast, bei der "neuen Gen"kann man also vonetwa 0,45kW ausgehen.

MfG
 
Zuletzt bearbeitet:
@Fragesteller
Wo hast diese Infos her?
Ein link wäre ganz gut. :-)

mfg darkwonder

@feldwebel-Chief
Doch man könnte etwas tun aber es würde sehr viel kosten, man müsste die gesamt Energie Wirtschaft umbauen und das von heute auf morgen.
Es gibt Konzepte die den Klimawandel ca. 20 Jahre Hinauszögern könnten, diese sind aber sehr Kostspielig und auch mit hohen Risiken verbunden.
 
Das Teil muss dann ja Power haben, whui.
Da könnte sich ein 600W Netzteil erstmals sogar lohnen, wenn nicht 700W ;)

mfg,
Markus
 
Zurück
Oben