News Radeon HD 4870 X2 schlägt GeForce GTX 280?

Unyu schrieb:
Verstehen viele nicht. :)
Aber hey huldigt schon den Vantage Rekord der X2, der AMD Mann hat natürlich die X2 mit neuesten Treiber gegen die GTX 280 mit Uraltinfos verglichen......

Das slebe bei Nvidia, kleiner Unyu und du kapierst immer noch nichgt das es Gerüchte gibt wo das Problem vbehoben wurde, zudem Multicore GPUs IN sind und die monster GPU von Nvidia wo alles in die höhe geschraubt wurde undd as zu einem hohen Preis !
 
JaXasS schrieb:
Ich hoffe für ATI, dass AMD know how in die Entwicklung der X2 mit eingeflossen ist und somit bekannte Probleme von SLI bzw Crossfire nicht mehr existieren.

Nein die Crossfire problem werden erst mit dem R800 behoben.

Es wird weiter mikroruckler geben die stören aber nicht.
 
Solange es noch keinen einzigen Vergleichstest gibt, würd ich mir da garnicht den Kopf drüber zerbrechen ^-^
 
sehe erlich gesagt auch keinen grund warum nvidia keine 280gx2 bringen sollte,
wird definitiv wieder leute geben die sich nen sli system mit 2 gtx 280 aufbauen,
genauso wie es leute gibt die 2 oder 3 8800ultra im sli nutzen.

warum sollten dann keine gtx 280 gx2 kommen?
mehr verbrauchen als nen sli gespann von 2 einzelkarten hat die gx2 auch nicht.

leute die 500-1000€ für ne grafikkarte ausgeben sind enthusiasten
und denen ist der stromverbrauch egal.
 
Wenn das stimmt wäre das mal sehr erfreulich für AMD, da ja die 4870x2 ungefähr denselben verbrauch haben wird wie die gtx280, wenn nicht sogar weniger. Das hiesse ja das die HD4000 von AMD genasoschnell oder schneller sind als die 2X0 karten von nvidia, da AMD theoretisch ja einfach die Shaderanzahl auf dem Chip verdoppeln könnte und aus der x2 somit eine x1 enstehen würde, mit derselben leistung wie eine gtx280 und auch nur mit einem chip. Diese Karte wäre dann ja sogar noch schneller da kein cf nötig ist, was auch performance kostet da 2 Karten nie doppelt so schnell sein werden wie eine.
 
einer der noch nachdenkt ohne vorher schlüsse zu ziehen. schade eigentlich dass es im forum keinen plus-knopf gibt. ;)
 
sTOrM41 schrieb:
sehe erlich gesagt auch keinen grund warum nvidia keine 280gx2 bringen sollte,
wird definitiv wieder leute geben die sich nen sli system mit 2 gtx 280 aufbauen,
genauso wie es leute gibt die 2 oder 3 8800ultra im sli nutzen.

warum sollten dann keine gtx 280 gx2 kommen?
mehr verbrauchen als nen sli gespann von 2 einzelkarten hat die gx2 auch nicht.

leute die 500-1000€ für ne grafikkarte ausgeben sind enthusiasten
und denen ist der stromverbrauch egal.

weil diese karte dann einen stromverbrauch jenseits der 400watt hätte, Nvidia hatte sich das warscheinlich auch anders gedacht aber dann war der chip wohl doch nicht so schnell und sie mussten ihn so groß machen das er 236watt zieht, doppelchipkarte somit sehr sehr unwarscheinlich.

edit: ich würde es mit trotzdem wünschen, nur um diese 2kg schwere, 3slot karte mit riesen lüfter zu sehen^^
 
Zuletzt bearbeitet:
-WATC- schrieb:
Das slebe bei Nvidia, kleiner Unyu
Bei Nvidia ist man nicht auf X2 Lösungen angewiesen, man bekommt High-End mit einer Single Karte.

PS. Erst mit R800 könnte es behoben sein, das Gerücht kenne ich.
Wir haben hier aber R700, kleiner Unterschied.
 
Zuletzt bearbeitet:
Mnsch, selbst ich habe eine 5 in Physik einst gehabt und kann mit Bestimmtheit sagen, daß die Abwärme bei einer Doppelkarte der GTX280 wohl gleich dem ganzen Rechner den Hitzetod bescheren wird. Es sei denn, Nvidia führt die externe Lösung extra für den Gefrierschrank ein.

@ nWarrior

Unverbesserlich.. ;-) Paß mal auf, ich nenne mich gleich in GlATiator um, dann kann's weitergehen.
 
Unyu schrieb:
Bei Nvidia ist man nicht auf X2 Lösungen angewiesen, man bekommt High-End mit einer Single Karte.

So wie bei Nvidia mit der GX2, wir reden vom hier und jetzt(!). Zudem war mein Post auf das gerichtet:

Verstehen viele nicht.
Aber hey huldigt schon den Vantage Rekord der X2, der AMD Mann hat natürlich die X2 mit neuesten Treiber gegen die GTX 280 mit Uraltinfos verglichen.....

da hat man auch den 8.3 Treiber verwendet aber hier alles gut geredet wie die Nvidia abgeht den Treiber auser Acht gelassen, sehr Objektiv :lol:
 
Na klasse... was bringts ATI wenn se mit 2 Chips auf ner Karte en bissl besser sind wie NVIDIA mit einem Chip? Da sind se genau so lange schneller, bis sich NVIDIA dazu entschließt 2 280 Chips auf eine Platine zu baun, also ich seh da ehrlich keinen Sinn drin...
 
Unyu schrieb:
Mit 55nm geht der Spass doch erst richtig los, dann hat AMD den einzigen Vorteil, die billige Fertigung verloren.
Dann haben wir einen direkten Kampf der Archtiktur und AMD kann sich nicht mehr hinter teurer verkauften Mittelklasse Chips verstecken.
Danach macht Nvidia das selbe. Günstige Chips für die Mittelklasse, für High-End einfach zwei davon.
 
Der Newsname ist ja auch genial - "ATI schlägt NV?" dabei übersah ich das X2 und dacht schon was das wohl sein wird und dann sah ichs: aha x2 gegen singlecore, super News.
 
Pepsito schrieb:
Nein die Crossfire problem werden erst mit dem R800 behoben.

Es wird weiter mikroruckler geben die stören aber nicht.

Ich meine nicht nur die Microruckler, sondern auch eine bessere Skalierbarkeit und Performance aufgrund der Architektur. Es kann nicht sein, dass 2GPUs auf den Wert von einer zurückfallen. Profil im Treiber hin oder her.

Wenn Dual GPU-Lösungen wirklich als Alternativen zählen sollen, darf das bei Nvidia und bei Ati einfach nicht mehr vorkommen.
 
KBUZ schrieb:
Sorry aber mit ner DualGPU gegen eine SingleGPU gewinnen? Ich hoffe Nvidia macht noch ne 280GTX GX2 :D

xXstrikerXx schrieb:
oh man, sehr sinnvoll das ganze. klar gewinnen zwei chips gegen einen. aber zwei 280´er plätten die 4870x2 wieder um längen.

so long and greetz
Ich sage mal 7900 GX2 vs. X1900 XTX, damals war es nv mit einer Dual-Lösung um mit der X1900 mit zu halten. Beide Parteien haben also schon auf diese Lösung gesetzt und werden das weiterhin tun. Nur damals hatte man diese beiden auch als Konkurrenten verglichen, also sollte man das auch heute tun. Nv kann aber trotzdem eine Dual-Karte bringen, ein leicht abgespeckter GT280 oder/mit gesenkten Taktraten ist das Zauberwort.
 
Zuletzt bearbeitet:
DAS IST DOCH ALLES KÄSE !! MIR IST DAS SOWAS VON SCHNUPPE WER SCHNELLER IST.

Überlegen wir mal anders. Sind die "next" Graka Krücken ala ATI und Nvidia denn nun im Stande bei einem Spiel wie Crisis die Qualität auf High gestellt zudem eine Auflösung sagen wir mindestens 1280*1024 bei Einstellung 16 AF und 8 AA flüssig unter direct x 10 zu zocken ?

Sprich 200 oder 300 FPS !!!

Oder nennt man diese neue Graka Generation HighEnd weil sie anstatt lächerlichen 23 FPS wie es die X2 von Ati schafft nun mit 40 FPS dahin ruckelt. Und dafür auch noch 500 Euro und mehr ausgeben lächerlich
 
@Unyu

wollen wir wetten,dass bereits die nächste Generation von Nvidia als Spitzenmodell eine Dualkarte bringt? (den GT200b zähl ich nicht dazu)?


gruß
 
Zitat von BIG_MAC Beitrag anzeigen
Ich muss immer wieder lachen , wenn einige sagen , dass es von NV eine 280 GX2 geben soll . Das Ding hätte einen Verbrauch von 450 Watt oder noch mehr ...
Wie wollt ihr das ühlen ??? - Mit der Tri oder Quadslot-Kühlung ?
Und wie wollt ihr das Ding mit Strom versorgen ??? - Mit 2x6 Pin + 2x8 Pin ?
Manche dencken echt nicht nach , bevor sie schreiben .

Dein Name sagt schon alles über den geistigen Hintergrund von deiner Aussage nWarrior . ( Ich beziehe hier das nWarrior auf Nvidia )
Nunja. 1000 Watt Netzteile gibt es massig. Und PCI-Express gibt alleine schon mal 300 Watt her. Dann brauchst schon mal nur noch 1x 6 pin + 1x 8pin. Musst das bloß vielleicht groß auf der Packung erwähnen.

Die Karte wird wohl eher dann so bassiert sein wie damals die GX2 7950, bloß eben beide Dual statt Single Slot, also vier Slots und den fünften sollte man nicht nützen, damit da Luft angesaugt werden kann. Muhaha. Soweit so gut. Also eine Penta-Kühlung.

(Desweiteren steckt die 2. GTX 280 im 2. PCIe Slot und macht sich somit überflüssig; Nein natürlich nicht, es soll ja Leute geben mit einem PCI-Express Slot, dafür gibt es dann eine Halterung für PCI; sonst noch wird die Konstruktion durch Carbonstreben zusammengehalten.)

So könnte man es realisieren, ist aber wegen der Größe total nutzlos und bei 1300 Euro pro Stück ist auch ein neues Board drin + 2x GTX 280.



Nun ja , man könnte ja 2 Wakü-Körper draufschrauben und dann eine Wasserkühlung einsetzten . Da dass aber 99 % der Waküs nicht schaffen werden , wird man wahrscheinlich den Wasserkreislauf des Hauses anzapfen müssen und einen dicken schlauch an der Frischwasserleitung befestigen müssen . Dieser führt dann zu ner Feuerwehr-Pumpe und diese jagt dann das Wasser mit 5 Bar durch den Wakü-Körper .
Das nächste Problem wäre halt dann die Destillation des Wassers , da mann in ner Wakü nur dest. Wasser verwenden soll . Dieses Problem könnte man dahingegend umgehen , indem man extra eine Halle neben das Haus baut , und in diesem ein adäquates Filtersystem unterbringt , dass in der Lage wäre mind. 1000 Liter in der Minute zu filtern .
Das nächste Problem , die Ableitung des Wassers wird man so aufbauen müssen : Man wird wieder ein dickes Rohr oder Schlauch an die Abwasserleitung direkt rankuppeln müssen , um das ganze Wasser ja dann schnell genug wieder zu entsorgen .
Dumm ist halt dann nur , dass die benötigte Feuerwehrpumpe auch nicht gerade wenig Strom frisst , und somit die Kühlung um einiges mehr Strom brauchen wird als der komplette Rechner . Dazu würden noch die exorbitanten Wasserkosten dazukommen , aber wie nWarrior schon gesagt hätte , Technisch gesehen wäre eine GX2 Karte problemlos machbar ... :daumen:
 
Zuletzt bearbeitet:
@Unyu genauso wie schrottige Treiber und mangelnden Support.

Mir persönlich ist es egal ob Nvidia schneller ist oder nicht meine nächste Karte wird auf alle Fälle ne Ati den es war definitiv zuviel den kompletten Ram ersetzen zu müssen nur damit die schrottigen Treiber halbwegs laufen. Am besten ist immer noch die Tatsache das das bei Nvidia schon seit Jahren niemanden interessiert aber solange es solche Fanboys wie Unyu gibt die jeden Schrott von der Firma kaufen wird sich das wohl kaum ändern.
 
Zurück
Oben