News Radeon HD 4870 X2 schlägt GeForce GTX 280?

Weil hier so viele damit argumentieren, dass eine DualGPU Karte natürlich schneller ist als eine SingleGPU. Da sage ich euch aus der Sicht eines Kunden wie ich es einer bin: Das ist mir egal, ob da jetz 1,2 oder 4 GPUs auf der Karte sitzen. Mich als Kunde interessiert der Preis und die Leistung, die ich dafür bekomme, wie sie das verwirklichen ist mir (erstmal) egal.
 
Ich würde es AMD auch gönnen. Aber vor einführung des Phenoms oder des R600 wurde auch große Töne gespuckt. Das Ergebnis ist uns allen bekannt ;)

Also ich glaub erst welche Karte welche schlägt wenn ich es Pixel auf Plastik auf CB lese :D
 
Glaub ich nicht dran, dass die ATI schneller wird als die NVidia.
Wäre schon sehr verwunderlich, obwohl ichs auch lieber sehen würde, dass es ATI wieder besser geht. Nur glaube ich dieses Gerücht nicht.
 
ich hoffe es dass die ATI besser bzw schneller ist, aber auch nur damit die Preise der nvidi ein bisschen gedrückt werden.
Eigentlich bin ich schon Fan von nvidia
 
2 Kerne mit einem zu vergleichen finde ich aber schon recht merkwürdig. Aber was macht man nicht alles damit man gut darsteht als Firma oder Fan dieser Firma.
 
ATi hat somit das Ende der Architektur erreicht - möchte man meinen - darum brauchen sie auch eine X2 um eine GTX zu übertrumpfen.

Oje, was soll denn nun nVidia tun?
Richtig, die GX2 wird's richten und ATi stünde dann wieder blöd da, nur PowerPlay hätten sie noch.

Ich hoffe einmal, dass es nicht so kommen wird, aber zumindest klingts für mich danach.
 
Wenn die HD4870X2 schneller werden sollte als die GTX 280, dann hätte Nvidia etwas falsch gemacht. Doch angesichts der Tatsache, dass Nvidia mit dem G80 genug an Erfahrung sammeln konnte, glaub ich nicht an die Performancekrone für ATI.

Und selbst wenn dies so sein sollte, so wäre ich mit nem SingleChip besser bedient, als mich mit diversen CF Problemen rumschlagen zu müssen. :D

Desweiteren würde Nvidia mit ner GX2, bestehend aus zwei GT200b in 55nm auf den Markt bringen und schon wurde ATI wieder in den Arsch getretten. Ich finds herrlich!
 
cookiie schrieb:
Oje, was soll denn nun nVidia tun?
Richtig, die GX2 wird's richten und ATi stünde dann wieder blöd da, nur PowerPlay hätten sie noch.

machiavelli1986 schrieb:
Es wird keine GX2 Version vom GTX280 geben. Wurde bereits mehrmals von Nvidia mitgeteilt. Ist bei diesem Monsterchip aus mehreren Gründen nicht möglich. Hauptsächlich wegen der Energie, Abwärme usw. Nvidia wird nach dem GT200 Chip auch einen völlig neuen Weg einschlagen.

isigrim schrieb:
Eine GT200-Dual-Karte wäre wohl höchstens für das Heizen des Backofens geeignet, sollten sich die Hinweise auf die TDP als richtig gerausstellen.

man wird wohl keinen kühler entwickeln, der 480 w tdp (insofern sie denn der realität entsprechen) kühlt. das is knapp 1/4 meines wasserkochers, was ich finde, schon ziemlich heftig wäre. von den stromkosten mal abgesehen...
 
Ich muss immer wieder lachen , wenn einige sagen , dass es von NV eine 280 GX2 geben soll . Das Ding hätte einen Verbrauch von 450 Watt oder noch mehr ...
Wie wollt ihr das ühlen ??? - Mit der Tri oder Quadslot-Kühlung ? :freak:
Und wie wollt ihr das Ding mit Strom versorgen ??? - Mit 2x6 Pin + 2x8 Pin ? :freak:
Manche dencken echt nicht nach , bevor sie schreiben .

Desweiteren würde Nvidia mit ner GX2, bestehend aus zwei GT200b in 55nm auf den Markt bringen und schon wurde ATI wieder in den Arsch getretten. Ich finds herrlich!

Dein Name sagt schon alles über den geistigen Hintergrund von deiner Aussage nWarrior . ( Ich beziehe hier das nWarrior auf Nvidia )
 
Zuletzt bearbeitet: (Zitat eingefügt)
Irgendwie wäre es schon logisch wenn 2 Chips gegen einen Chip gewinnen. Auf der anderen Seite aber, ist es schon egal, ob ich jetzt zwei kleine Chips oder einen großen nehme. Wenn ich die Zahlen noch richtig im Kopf habe, dann sind 2 ATi Chips immer noch kleiner als 1 NVidia.
 
fuh schrieb:
Weil hier so viele damit argumentieren, dass eine DualGPU Karte natürlich schneller ist als eine SingleGPU. Da sage ich euch aus der Sicht eines Kunden wie ich es einer bin: Das ist mir egal, ob da jetz 1,2 oder 4 GPUs auf der Karte sitzen. Mich als Kunde interessiert der Preis und die Leistung, die ich dafür bekomme, wie sie das verwirklichen ist mir (erstmal) egal.

das erstmal is ne gute wortwahl - wenn ich dann bei doppeltem stromverbrauch und doppelter wärme 10% frames mehr hab is mir des wurscht un ich hol mir die karte mit einem chip ;)

wenn die leistungsaufnahme der x2 ungefähr der der gtx280 entspricht und ATi die treiber in den griff kriegt und zu guter letzt der preis stimmt würde ich sagen dass ATi wieder spitze is, insofern stimm ich dir zu^^
 
nWarrior schrieb:
Und selbst wenn dies so sein sollte, so wäre ich mit nem SingleChip besser bedient, als mich mit diversen CF Problemen rumschlagen zu müssen. :D
Verstehen viele nicht. :)
Aber hey huldigt schon den Vantage Rekord der X2, der AMD Mann hat natürlich die X2 mit neuesten Treiber gegen die GTX 280 mit Uraltinfos verglichen......
 
nWarrior schrieb:
Desweiteren würde Nvidia mit ner GX2, bestehend aus zwei GT200b in 55nm auf den Markt bringen und schon wurde ATI wieder in den Arsch getretten. Ich finds herrlich!

Fanboy?:lol:
Desweiteren würde Nvidia mit ner GX2, bestehend aus zwei GT200b in 55nm auf den Markt bringen und schon wurde ATI wieder in den Arsch getretten. Ich finds herrlich!
Was ist denn die GX2 bitteschön für eine Karte?:freak: Öhm, da war doch was...Ich komm gerade nicht drauf...Wie hieß das CF bei nVidia nochmal?...Mikroruckler...Ne...Das haben ja nur die ATIs...Ah ja, SLI:rolleyes:.
Schon mal dran gedacht was eine GX2 280b verbrauchen würde:rolleyes:? Da wird der FAQ von Soulpain, über Hochleistuns Netzteile, doch noch seine Verwendung finden:freak:.

Ich finds herrlich!
Zufrieden?
 
ja dieses gequatsche "nvidia hat schon was in der hinterhand", natürlich sind sowohl amd als auch nvidia theoretisch in der lage "besseres" zu bauen, also z.B. schnelleres, aber man muss auch einen markt dafür finden, sprich die karte sollte z.B. keine 2000,- kosten. und nur sagen wir 40% schneller sein.

Das was nvidia da jetzt bringt ist das was sie momentan zu bieten haben. Das sie in ein paar monaten wieder was neues haben ist klar, das hat aber ati/amd auch.

Und nur weil nvidia jetzt mal 1,5 jahre die performance-krone inne hatte, haben die nicht schon seit 1 jahr eine wunderkarte im schrank die sie dann rausholen wenn ati gefährlich wird.

Da kommt noch ein die-shrink auf 55nm was bei der karte wohl wichtig wird vieleicht gibts auf der basis in einigen monaten noch ne dualcore, aber wohl warshceinlich nicht die nächste generation (von beiden) stehen ja auch schon wieder vor der tür.

Und zu der frage ob mans vergleichen kann, natürlich. Wenn ati es nicht schafft wie bisher die guten werte auf allen spielen zu erreichen oder sagen wir mal bei >90% und das microgeruckel noch immer in der jetzigen form vorhanden ist (das scheint ja ein problem zu sein hab das noch nirgends gesehen daher kann ichs nicht beurteilen) dann kann man die 2 nicht anhand von durchschnittswerten oder einem 3dmark test vergleichen.

Sollten sie es aber in den griff bekommen haben und der stromverbrauch die leistung und der preis besser sein wie bei dem nvidia-monster dann kann man das sehr wohl vergleichen.

hier wurden doch auch schon teils sogar in spielen (was wirklich total sinnlos ist) ein phenom x4 und ein core2duo verglichen, dann kann man doch wohl eine grafikkarte wo es eh nur für den zweck (zumindest für 99% der leute) des spielens gibt, bei spielen vergleichen.

Zumal eben von nvidia auf absehbare zeit kein x2 modell geben wird wo dann halt auch das argument "nvidia bringt ihre gx2 dann sind sie wieder vorne" weg fällt.

und spielt doch keine rolle ob man nun einen doppelt so großen die macht oder 2 halb so große.
 
@ n Warrior: stimmt nvidia hat was falsch gemacht, hat alle entwicklungsenergie in einen riesenmonsterchip gesetzt und nun ist das thema eben ausgereizt und es geht nicht weiter.

ich erinnere an die aussagen von nvidia, die nun wirklich oft auf den verschiedensten seiten zu lesen war, dass in zukunft nvidia den weg von ati gehen wird und auf kleinere chips setzen wird und die high end klasse bei nvidia dann auch auch 2 oder mehr gpus bestehen wird.

ich werte das als eingeständis, aufs falsche pferd gesetzt zuu haben, auch wenn das fanboys wohl so nicht wahrhaben wollen *g*

so, aber nun steht nvidia da, ein riesenchip, der physikalisch nicht zu ner dualgpu verarbeitet werden kann aufgrund von stromverbrauch und hitzeentwicklung.

also bleibts beim g92, davon gibts schon ne gx2, oder sie können vom g92b, eine gx2 bauen.

aber der g92b ist ja auch net schneller als ein g92,sondern einfach nur der gleiche chip in geshrinkter version.
selbst die taktung bei der 9800GT bleibt ja die gleiche wie beim 8800GT.

also wird eine gx2 aus zwei g92b kaum schneller als eine 9800GX2.


tja, also braucht nvidia schnell einen wirklichen nachfolger dieser reihe, und den schütteln sie nicht so leicht aus dem hut, ich erinnere an die aussage von nvidia, dass der g92 noch ein jahr weiterlaufen soll.

also wird ati die mittelklasse beherrschen, die 4er reihe ist bei weitem der 9er überlegen und im high end bereich wird ati mit der 4870x2 auch dominieren.

gute zeiten für ati, aber ist doch auch nix neues, jeder der ein paar jahre die "szene" beobachtet, weiß, dass ati leistungstechnisch oft dominierent war und auch in sachen marktanteil vor nvidia lag.
 
Zuletzt bearbeitet:
egal wer wen mit wieviel prozessoren schlägt

leistung/watt - das ist ausschlaggebend

kann ja keine was dafür wenn Nvidia über eine Milliarde Transistoren verbaut, dafür wahrscheinlich deutlich über 300€ verlangt und dann bis zu 240 Watt verbraucht *stirnpatsch*
 
ohje wie eckelig dieses fans hier, ist ja schlimmer wie in ein fussball stadion.
warum wartet ihr net mal die tests ab und blubber dann euer zeugs los.

beide werden ihre reize haben denke ich mal :-P
 
cookiie schrieb:
ATi hat somit das Ende der Architektur erreicht - möchte man meinen - darum brauchen sie auch eine X2 um eine GTX zu übertrumpfen.
Das hat eher was mit dem Konzept tun. Kleine günstige Chips für den Mainstream-Bereich und die Zwei-Chip-Lösung für den High-End-Bereich. Da die meisten eh eine einfache Karte kaufen werden eine gute und wirtschafliche Lösung.

Ob die 4870X2 die GTX280 schlagen wird sein mal dahingestellt. Wenn's nur bei einem Benchmark ist, bringt das einem wenig. Die Tests werden es zeigen, auch ob die Treiber dann das Mikroruckler-Problem im Griff haben.
 
Haben die neuen Karten eigentlich HDMI 1.3 mit Tonausgabe an Board.
Wäre wg. den neuen HD Tonformaten der Blu-ray wichtig !
 
NoNameGamer schrieb:
Was sieht man da?
Das kein AF aktiviert war?

cosmicparty schrieb:
also wird ati die mittelklasse beherrschen, die 4er reige ist bei weitem der 9er überlegen und im high end bereich wird ati mit der 4870x2 auch dominieren.
Huy, harter Stoff.
Dominierend, wie RV670 gegen G94 verloren hat? :lol:


cosmicparty schrieb:
@ n Warrior: stimmt nvidia hat was falsch gemacht, hat alle entwicklungsenergie in einen riesenmonsterchip gesetzt und nun ist das thema eben ausgereizt und es geht nicht weiter.
Hm? Mit 55nm geht der Spass doch erst richtig los, dann hat AMD den einzigen Vorteil, die billige Fertigung verloren.
Dann haben wir einen direkten Kampf der Archtiktur und AMD kann sich nicht mehr hinter teurer verkauften Mittelklasse Chips verstecken.
 
Zuletzt bearbeitet:
Zurück
Oben