News Radeon HD 4870 X2 schlägt GeForce GTX 280?

@Kreisverkehr: vllt solltest du beim notebook einfach mal die mobil-treiber von nv benutzen ;) dann brauchste nich in der ini rumzuwurschteln^^
http://www.nvidia.de/Download/index.aspx?lang=de

@xxxx: und was macht dich so sicher dass der fehler bei nv liegt und nicht bei mdt? es gab auch eine zeitlang probleme bei mdt speicher in amd-systemen (inzwischen glaub ich nicht mehr) bei intel trat das problem nicht auf. ist amd daran schuld? andere speicher liefen mit den amd-systemen problemlos...
ich wette, wenn du den ram statt der graka getauscht hättest, wäre das problem auch weg gewesen.
 
Zuletzt bearbeitet:
@Lübke lies mal richtig ich hab den Ram getauscht im übrigen ist das ein Intel System also sind da keine Probleme mit Mdt Ram bekannt.Nee der Fehler liegt definitiv im Nvidia Treiber und wird durch Inkompatiblitäten usw ausgelöst (weil mit der Ati vorher lief es ja).Aber wahrscheinlich ist es für Nvidia einfacher wenn sich 10% der Nutzer aufregen weil es nicht richtig läuft anstatt den Treiber neu zu schreiben.
 
@Lübke naja nur es ist halt kein AMD Rechner und da hast du selber geschrieben das dir da nix mit Intel Systemen bekannt ist.
Naja ich gebe dir mal ein Beispiel Crysis Core Level wo du entdeckst das es eine Invasion ist im Dx10 Modus nicht spielbar weil das Bild einfriert und der Treiber neu geladen wird naja und selbige Stelle im Dx9 Modus läuft komischerweise also ist das Problem definitiv bei Nvidia zu suchen den wenn es wirklich Probleme mit dem Ram gegeben hätte wäre das Spiel im Dx9 Modus genauso abgestürzt.
 
mit amd und intel reden wir grad n bissel anander vorbei^^ das ist n völlig anderes problem und hat nix mit deinem prob oder grafikkarten allgemein zu tun. das war nur n beispiel, dass der fehler auch beim ram liegen kann... in diesem fall halt auch mdt...

und wegen deinem problem: du hast ja selbst geschrieben, dass der fehler beim corsair ram nicht aufgetreten ist, warum schließt du dann einen zusammenhang mit dem mdt ram aus?
 
@FreiWild007 :lol: schön wäre es 3Dfx rulez :)

@Lübke Einen Zusammenhang mit dem Mdt Ram schließe ich ja garnicht aus halte ihn sogar für sehr wahrscheinlich. Aber letztendlich liegt der schwarze Peter trotzdem bei Nvidia würden ihre Treiber nicht diesen Bug aufweisen gäbe es ja gar keine Probleme.Den wie kann es sonst sein das die Ati Treiber offensichtlich mit dieser Inkompatiblität klar kommen die Nvidia Treiber aber nicht?Lies mal in dem von mir geposteten Thread dort haben etliche Leute die selbe Erfahrung gemacht wie ich.
 
Pepsito schrieb:
Doch Wunder gibt es immer wieder.

Hast du denn X1950 XTX vs 7950 GX2 vergleich vergessen?

Die eine X1950 XTX ist auch schneller als die 7950 GX2.

Es muss also nicht immer heissen das 2 Karten besser sind als eine.;););)

Nein das stimmt nicht. Eine GX2 war deutlich schneller zu anfang als eine einzele X1950 und ist heute in einigen Spielen die gut mit SLI skalieren immer noch schneller.

Sogar eine einzelene 79000GTX war anfangs schneller als eine normale X1900XTX und ist heute immer noch in einigen Spiele vor der Karte!
 
naja eine 7900gtx war wohl eher etwa gleichschnell wie eine 1900xtx, aber vom prinzip her hast du recht. zu ihrer zeit war die 7950gx2 die schnellste karte wenn man multi-gpu karten mitrechnet. sie lag schnell mal 30 % vor der 1950xtx. als die 1950xtx aufgrund der heutzutage shaderlastigen spiele, die der architektur der x1k weit besser liegen als der gf7, aufgeholt hatte, war die 8800gtx schon lange draußen, sodass die 1950 nie die performancekrone erobern konnte...
und bei der 4870x2 ist es dann wohl umgekehrt ;) da hat ati die doppel-gpu...
 
Ja schlägt sie! Muss sie einfach, genau wie die 3870 X2 das Damalige Topmodell an die Wand gerechnet hat!
 
naja, an die wand gerechnet ist wohl ein wenig übertrieben... nicht wenige seiten haben die 8800gtx damals vorne gesehn... hatte aber wohl auch mit den fps-einbrüchen bei multi-gpu zu tun... bin aber mal gespannt wie groß der unterschied diesmal wird :) multi-gpu gegen schnellste singel-gpu... hat ja schon fast tradition mittlerweile :D
7950gx2 vs. 1950xtx
3870x2 vs. 8800gtx
4870x2 vs. gtx280
(to be continued..) :D
 
Zuletzt bearbeitet:
Kottenpipel schrieb:
Ja schlägt sie! Muss sie einfach, genau wie die 3870 X2 das Damalige Topmodell an die Wand gerechnet hat!

In den Peaks ja, im Average war die 8800 GTX immer noch überlegen. Und was bringen mir die Peaks im Spiel...
 
Mario64ds schrieb:
Nein das stimmt nicht. Eine GX2 war deutlich schneller zu Anfang als eine einzelne X1950 und ist heute in einigen Spielen die gut mit SLI skalieren immer noch schneller.


Nein das stimmt nicht. Im Gesamtpaket, Lautstärke, Kühlbarkeit, FPS ohne Einbrüche bzw. Microruckler, Skalierbarkeit, Bildqualität etc. etc. ist die X1950, X1900XTX vor der 7900GX2, 7950gx2! Da hatte ATI noch ihre Hausaufgaben gemacht, klarer Sieg für ATI.

Zur Hölle mit Multi-GPU, solange es nicht gefixed ist! :rolleyes:
 
Jammert mal nicht rum vonwegen: "Doppel GPU karte schlägt sowieso immer Single GPU" Die Doppel GPUs haben auch Probleme. Es war nicht klar, dass die X2 die GTX280 schlägt! Hat man ja an der 3870X2 gesehen. die hat die Ultra auch nicht geschlagen. Also klarer sieg für ATi. Endlich setzt mal jemand anders die Krone auf ! (Wenn die Gerüchte Stimmen)
 
Kasmopaya

Nein, war sie nicht. Microruckler waren damals noch gar nicht bekannt, soviel dazu. Bildquali hatten die ATi das bessere AF, dafür konnte man bei der G7X Reihe SSAA nutzen und das war deutlich hübscher als das normale MSAA von ATi.

Lautstärke waren beide auf gleichen Niveau und FPS ohne Einbrüche war die GX2 deutlich vor der X1950, jedenfalls in Spielen die SLI unterstützen.
 
Ich weiß, ich wiederhole mich, aber:

Abwarten und Tee trinken!

Es ist wirklich äußerst nervig wie sich hier einer nach dem anderen in diesem Netz aus Gerüchten und Halbwahrheiten verspinnt. Weder ist der engültige Stromverbrauch beider Chips bekannt (also alltagsmäßig, nicht TDP Blödsinn), noch kennt irgendwer hier objektive, fertige Benchmarks. Die wirds erst in knapp zwei Wochen geben und dann viele. So lange ist das doch nicht mehr. Also spart euch noch ein wenig Geld und Nerven!
Dann kann jeder, der gerne Crysis mit 300 fps auf einem 30" oder gar 56" Bildschirm spielen will, sehen, was die Karten bringen.(Ironie - ich weiß es ist doof, wenn man darauf aufmerksam machen muss, aber bei dem Fanboy-Gequatsche hier) Aber bitte schließt nicht aus irgendwelchen Gerüchten und einseitigen Berichten. (Gerade wegen des Fanboy-Blödsinns, der solche Dinge im Vorfeld sehr schwer durchschaubar macht, wie die Vergangenheit nur allzu gut gezeigt hat.)
Diese Konstrukte die hier aufgebaut werden, zeigen nichts weiter, als dass absolut keiner weiß, was los ist, aber jeder seinen Senf dazu gibt.
 
@isigrim: ma ne ganz doofe frage:
dich nerven diese spekulationen. du weißt, dass es noch keine verlässlichen infos gibt. du sagst abwarten und tee trinken...
warum liest du dir dann hier die posts durch und schreibst hier sogar selber? :D
also ich hab spass am spekulieren. klar haben hier einige ne sehr blühende fantasie und es ist sehr viel spielraum für fanboygehabe und so, aber das is halt meinungsfreiheit^^
wenns dich nervt, klick einfach nicht auf kommentieren... cb hat doch schon extra die komments von den news getrennt.
 
KAOZNAKE schrieb:
Heute: Zwei GPUs auf ein PCB.
Zukunft: 1 GPU, aber mit 2 Dies-->DualCore GPU.
2 Dice auf eine Karte und du hast immer noch keine "Dual Core GPU". Der Begriff ist Müll.
Wieviele Kerne hat GT200? 240? Oder zählen wir nur die TMUs? Oder nehmen wir die ROPs?

Bei CPUs siehst du es schön:
Heute Notlösung mit 2 Dice, morgen ein großer Die, übermorgen 2 davon, übermorgen wieder einer.
Cedar Mill (1 Die) -> Presler (2 Die) -> Conroe (1 Die) -> Kentsfield (2 Die) -> Yorkfield (2 Die) -> Nehalem (1 Die) -> 2x Nehalem (2 Die)

Wie man heir erkennt ist Dual Die eine Notlösung, bei GPUs weitaus schlimmer, wegen der elend lahmen Kommunikation zwischen 2 Dice. -> grottige Effizienz, kommen die CF/SLI Nachteile hinzu ....

KAOZNAKE schrieb:
Hab jetzt geblickt, was du mit vergleichbar gemeint hast "von den Produktionskosten her".
Ich habe nicht die RAM Größe vergleichen!
Ich habe die 9600GT genommen und die schnellste AMD Karte fürs selbe Geld (3850 512).
[Übrigens die 9600GT gibts auch mit 256MiB]
Referenzkühler, soll das die Ausrede für den hohen preis des RV670 sein? Die 9600GT hat massig verschiedene Kühler....
Der Vergleich war lediglich auf GPU Basis. Da ist es nunmal Fakt, das AMD Karten mit 192mm² Die vergleichsweise teurer sind im Gegensatz zu Nvidia Karten mit einen 240mm² Die. Sogar Nvidias 334mm² Die Karten sind in dem Vergleich billig.
Deshalb die Frage: Wo bleibt der Vorteil für den Kunden?
G92 ist von 66€ - 200€ gestaffelt, ganz ohne Dual Die. Das zeigt mir doch nur, das die Deaktivierungsmasche besser läuft, als krampfhaft einen kleinen perfekten Die zu bekommen, notfalls viele davon.

Fehlendes AF: Oft läuft AF nicht (AC *hust*)

Kreisverkehr schrieb:
Wie schön, dass bei AMD die Treiber ständig weiterentwickelt werden
Jetzt wirds spannend:
Der neueste offzielle Geforce WHQL ist vom 13 Mai, supported auch die FX5100.

Kreisverkehr schrieb:
Die 9600GSO und ihr SI und ihr VRam sind zum lachen. Da die das selbe wie die 8800GS ist, brauch ich zu der ja nix zu sagen.
AMD ist effizienter bei der Nutzung vom VRam.
Die 9600 GSO ist ein Produkt für 66€. Was genau ist da witzig?
VRAM: Wichtig ist was hinten rauskommt, muss man eben mehr VRAM zupacken, dafür stimmt dann die Leistung und Qualität.
Hier kannst du lesen wie sie sich gegen die 3850 256 macht: http://en.expreview.com/2008/01/21/review-palit-8800gs-384mb-768mb/?page=18
So jetzt darfst du weiterbashen.

Übrigens, der 9600 GSO fehlt mehr als nur die paar lächerlichen Bits.
Über die Umbennung (die Nvida jetzt fast geschafft hat, AMD sogar 2mal) kannst du gerne einen Fred eröffnen, wenn du es noch nicht verstanden hast.

Kasmopaya schrieb:
Zur Hölle mit Multi-GPU, solange es nicht gefixed ist!
Full ack!
Und R700 wird sich da nicht von R680 unterscheiden.
 
Zuletzt bearbeitet:
Zurück
Oben