ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Du weißt ja das wir hier vom kommenden Crysis 2 reden ?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Crysis2 ist ne Konsolen portierung das weist Du aber schon.:D
Das wird wohl weniger resourcen fressen als Crysis oder Crysis Warhead.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Du weißt ja das wir hier vom kommenden Crysis 2 reden ?
Wusste gar nicht dass dies der Crysis-Thread ist ;)

Scherz beiseite:
Deshalb habe ich dir auch den Rat gegeben nicht so pauschal zu behaupten dass 3 Monitore nicht mit einer Grafikkarte flüssig betrieben werden können ->Tellerrand? ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Motkachler schrieb:
Crysis2 ist ne Konsolen portierung das weist Du aber schon.:D
.


Selten soein dickes Fail gesehen :)

Crysis 2 wird eine PC Portierung auf die Konsole.
Und die CE3 wird wieder ressourcen fressen ohne Ende denn laut Crytek wird die Engine ihr ganzes Potential auf dem PC zeigen können und sich dort dann auch voll entfalten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Platforübergreifend läuft auch auf konsolen also brauchts mehr resourchen das ich nich lache.
Die CryEngine 3 soll eine plattformübergreifende Engine werden. Man verspricht selbst auf der kommenden Konsolengeneration eine gute Skalierbarkeit. Wann mit ersten Spielen zu rechnen ist, nannte man noch nicht.
http://www.hardware-infos.com/news.php?news=2804
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

sorry - bitte loeschen, falsches topic :(
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Motkachler: gta IV ist auch ne konsolenportierung ;) ist also noch kein eindeutiger beweis für die hardwarebelastung auf dem pc. ^^
aber vom prinzip her hast du recht. wenn es ordentlich portiert wird, dann sollte ein pc spielend die leistung einer konsole bringen...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Crossfire klappt doch jetzt auch mit Eyefinity, soviel ich gelesen hab? Neuester Treiber? Klingelts da bei wem?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die CryEngine 3 soll eine plattformübergreifende Engine werden. Man verspricht selbst auf der kommenden Konsolengeneration eine gute Skalierbarkeit.
richtig, allerdings fällt bei den Konsolenvarianten AA vollkommen weg und die Texturen werden im Vergleich so aussehen wie bei der CryEngine 2 auf low (weil nur 256mb vram).

gta IV ist auch ne konsolenportierung
mhh... korrigier mich wenn ich falsch liege bin grad ein bisschen verwirrt, aber war GTA IV nicht zuerst auf der Konsole und wurde dann auf den Pc portiert? - bitte nicht töten^^
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

yupp, nix anderes wollte er auch sagen...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schaffe89 schrieb:
Crossfire klappt doch jetzt auch mit Eyefinity, soviel ich gelesen hab? Neuester Treiber? Klingelts da bei wem?

Und ich hab mal irgendwo gelesen das Eyefinity nicht im CF funktioniert. :cool_alt:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
@Motkachler: gta IV ist auch ne konsolenportierung ;) ist also noch kein eindeutiger beweis für die hardwarebelastung auf dem pc. ^^

Naja dabei sollte man aber berücksichtigen, dass bereits ein Mittelklasse-PC bei GTA 4 in den Settings wie es auf den Konsolen läuft (Auflösung, Texturdetails, Sichtweite...) mindestens die gleichen Bildraten auf den Bildschirm zaubert wie eine PS3 oder XBox360.

@Topic
Wann ist denn die Tabelle im ersten Post das letzte mal aktualisiert worden? Soweit ich weiß ist die Kombination aus 384bit Speicherinterface und GDDR5 beim GT300 doch wohl ziemlich wahrscheinlich oder?

Ich persönlich rechne mit 48 ROPs (8 je 64bit SI im Gegensatz zu 4 je 64bit SI beim GT200) und 128 TMUs. Dann würde Pixel- und Texelfüllrate bei rund 650MHz Chiptakt etwa 15% höher sein als bei der HD 5870, und ziemlich genau diese Mehrleistung erwarte ich in etwa von der GTX 380 im Vergleich zur HD 5870. Ist aber natürlich alles nur Spekulation.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

|MELVIN| schrieb:
Ich persönlich rechne mit 48 ROPs (8 je 64bit SI im Gegensatz zu 4 je 64bit SI beim GT200) und 128 TMUs. Dann würde Pixel- und Texelfüllrate bei rund 650MHz Chiptakt etwa 15% höher sein als bei der HD 5870, und ziemlich genau diese Mehrleistung erwarte ich in etwa von der GTX 380 im Vergleich zur HD 5870. Ist aber natürlich alles nur Spekulation.
Das hört sich für mich auch realistisch an.

Wobei es wohl im besonderen davon abhängt ob sie die 650 MHz mit vernünftigen Temperaturen gebacken bekommen. Das Ziel von Nvidia war ja wohl 750 MHz und die Befürchtung geht Richtung 500 MHz, was zu wenig für ein Release wäre.

Wenn sie mindestens 650 MHz vernünftig hin bekommen kommen sie raus mit dem Stepping und hätten noch Luft über die angekündigte Spannungs OC den Takt dann zusätzlich hoch zu pushen, was dann aber spezielle Kühlung benötigt. So wüde alles ins Bild passen was man bisher gelesen hat :)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Naja wenn ich bedenke dass so ziemlich jede GTX 280 mit dickem 512bit SI und in 65nm locker 700MHz GPU-Takt mitmacht mache ich mir da eigentlich keine Sorgen. Die 40nm und das kleinere SI sollten gewährleisten, dass auch die GTX 380 solche Taktraten erreicht. Beim Sprung von G80 auf GT200 ist die Fertigung prozentual gesehen geringfügiger verkleinert worden (90nm -> 65nm), die Shadereinheiten wurden fast verdoppelt und das SI von 384bit auf 512bit vergrößert und trotzdem konnten locker die gleichen GPU-Taktraten erreicht werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Warum sollen die gleichen GPU Taktraten erreicht werden können? Schlechte 40nm Chips, neues Chip Design, ich denke, dass das mit dem hohen Takt nichts werden wird.
Deswegen auch die OC Reklame.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Vom G80 auf den GT200 wurde um knapp 28% geshrinkt, vom GT200 auf den GT300 wird um über 38% geshrinkt.
Vom G80 auf den GT200 wurden die Shadereinheiten in etwa verdoppelt, vom GT200 auf den GT300 werden die Shadereinheiten etwas mehr als verdoppelt.
Vom G80 auf den GT200 wurde das SI von 384bit auf 512bit vergrößert, vom GT200 auf den GT300 wird das SI von 512bit auf 384bit verkleinert.

In meinen Augen spricht alles dafür, dass das was beim Sprung von G80 auf GT200 gelungen ist auch beim Sprung von GT200 auf GT300 gelingen wird. Alles in allem halte ich sogar höhere Taktraten als beim GT200 für möglich, vorallem weil der Shrink größer ist als bei der letzten Generation und weil der Chip durch das kleinere SI "entlastet" wird.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was hat der Shrink mit dem Takt zu tun? Rein gar nichts.
Allerdings braucht Nvidia hohe Taktraten sonst kriegen sie probleme mit ner HD5890.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schaffe89 schrieb:
Was hat der Shrink mit dem Takt zu tun? Rein gar nichts.

Ist das dein Ernst? Je größer der Shrink ist desto mehr nimmt die Abwärme ab und desto mehr Taktspielraum ist vorhanden. Oder willst du ernsthaft abstreiten, dass man einen hypothetischen auf 22nm geshrinkten E8400 höher takten kann als einen hypothetischen auf 32nm geshrinkten E8400?
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ja pauschal sicherlich.
Bei Nvidia war das aber in letzter Zeit nicht der Fall... zudem etwas neuere Architektur und Yield Probleme.
Oder konnte man ne GTX260 in 55nm besser übertakten als ne GTX260 in 65nm?
Shrinks implizieren nicht unbedingt einen höheren Takt, da gabs in der Geschichte genug gegenbeispiele.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben