ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ganz einfach. Weil 2HD5970 Taktmäßig keine 2 vollen HD5870 sind.
Außerdem stieg ATI von x2 zu HD5970 um. Das wollte man halt mit einem Volt Mod etwas entschärfen, ist doch logisch. Wo ist da der Haken? Das versteh ich nicht.
Außerdem bringt ATI noch ne HD5890. Da wäre ein Volt Mod bei ner HD5870 doch ein Eigentor. Soweit sollte man doch denken können?:freak:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

2x8 ist ausserhalb der ATX-Spezifikation. Die HD5870 hat 2x6-Pin und die 5970 1x6+1x8.
Damit ist noch Luft dazwischen für eine Single-CPU mit 1x6 und 1x8.
Nun muss man sich fragen wo die Spannungserhöhung überhaupt Sinn macht?
Die 5970 ist schon runtergetaktet wegen der max. TDP 300W

Also wenn man sich die Werte anschaut kann es eigentlich nur heissen, dass die Fermi einiges unter den 300W TDP bleibt, da sie sonst kaum noch viel Luft für Taktraten und Spannungs-OC hätte. Wenn sie solch eine geringe Verlustleistung hat - bei 3 Mrd. Transistoren eher unwahrscheinlich - stellt sich die Frage warum sie dann nicht gleich höher getaktet mehr Leistung bringen?

Meine Vermutung: Das A3 Stepping muss in den Release da ein weiteres Stepping nochmals 2 Monate Verzögerung bedeutet. Die Qualität ist in der Produktion noch nicht wo sie hin sollte und damit die GTX380 noch nicht möglich. So wird Nvidia nicht gleich mit der schnellsten Karte raus kommen sondern eine kleinere, die nicht so hoch getaktet werden muss, zuerst bringen damit sie überhaupt was bringen. Die Top-Modelle müssen ins A4 Stepping. Um das nun im Marketing vorzubereiten und da sie noch nicht genau wissen wie das Endprodukt sich in der Wärmeentwicklung verhalten wird kommt diese "Hammer-Feature" (ja ich hatte es tatsächlich ironisch gemeint ;))

Manchmal macht Spekulieren richtig Spaß :cool_alt:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Warum gabs das Tool nicht bei der HD 4890? Keine Ausrede wegen möglicher 4990.
Warum gibts das Tool quasi nur für die Presse?

Die Idee des Nachreichens des Topmodells ist Quatsch, aber eine spätere Version wird höher getaktet erscheinen. Das haben wir oft gesehen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

1. Weil Boardpartner stark übertaktete Modelle brachten?
2. Das Tool kann sich jeder saugen.
Eventuell kommt ja noch ne HD5980 mit verbessertem Stepping und mit 850mhz Chiptakt.^^
DAs aber nur von Boardpartnern.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

hö? War Crysis kein Nvidia, It's meant to played Spiel?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

War und ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nur dass man keinen Vorteil hat, wenn man den Titel mit Nvidia spielt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

sind das µRuckler oder bilde ich mir das ein?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

meinet beim vid -soltle aber klar sein was ich meinte, oder?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hm da seh ich jetzt keine. Die Kamera die das aufgenommen hat ist auch nicht die beste.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

dieses komische zucken wenn die Maus etwas weiter/schneller bewegt wird. Genau in diesen Fällen fällt es bei meiner X2 auch besonders auf...

Naja, kann aber auch einbildung oder "normale" Ruckler sein...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Da könnteste recht haben. DAs würde auch erklären warum der chinesische Spieler so erbärmlich rumläuft und versucht die schnellen Bewegungen so gering wie möglich zu halten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

oder um nachladeruckler zu vermeiden. auffällig ist,das er vor jeder neuen szene erstmal paar sec verweilt, zb. bevor es ins freie läuft oder im gang um die ecke.


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Gibt doch genug andere Videos wo man keine Ruckler sieht - da kann man das doch anschauen, anstatt rund um dieses eine Video zu spekulieren. Zudem vermute ich, dass sich dies auch von Treiber zu Treiber anders darstellt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

tja, ich habe das Video auch auf HD laufen lassen, von der erbärmlichen Ladezeit mal abgesehen, kann ich keine Ruckler feststellen. Einmal hängt die DEMO wohl kurz, ob das aber an fehlendem VRAM oder an was anderem liegt - keine Ahnung.

Ach ja, dass er Pausen macht, liegt daran, dass der Kollege dann immer was erzählt - das ist also kein Argument!

Wenn Ihr hier schon die Haare in der Suppe sucht, dann fang mal bei der Aufnahme an, auch da kann es zu kurzen Standbildern beim speichern kommen. Mal ganz davon abgesehen, dass die Aufnahme grottig ist, womöglich Handy-Kamera? Schaffe89 hat da schon recht.....
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Microruckler sind es bestimmt nicht weil Eyefinity funktioniert nicht mit Crossfire.

Man kann es wohl nicht genug erwähnen.
Wer tatsächlich glaubt das man 3 Monitore mit einer Grafikkarte flüssig versorgen kann der glaubt womöglich auch noch an den Weihnachtsmann... :rolleyes:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Man kann es wohl nicht genug erwähnen.
Wer tatsächlich glaubt das man 3 Monitore mit einer Grafikkarte flüssig versorgen kann der glaubt womöglich auch noch an den Weihnachtsmann... :rolleyes:
Ich glaub dran - vielleicht nicht in allen 3D Spielen, doch mit Sicherheit in den Anwendungen die ich benötige - Huch schau mal ein Tellerrand-> :eek:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben