ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Crystal schrieb:
Was sagt euch nun das Video? Kann man dadurch irgendwelche Aussagen zur Performance treffen? :confused_alt:

Nix, nada, njente :rolleyes:

Was man sagen kann ist, dass ein 6 und ein 8 Poliger Stromanschluss vorhanden ist, was nach Adam Riese maximal:

6 Pol (75 Watt) + 8 Pol (150 Watt) + PCIe Steckplatz (75 Watt) = 300 Watt max TDP wobei man freundlich ausgedrückt sagen kann >=225 Watt ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

mich interessieren da eher die benches von wolfgang ;)
ich bleib dabei: die gtx380 wird (wenn überhaupt) leicht über der 5870 liegen, so ca 10-20 %.
für mehr braucht sich nvidia nicht krumm zu legen. je mehr leistung sie rauskitzeln, des so weniger chips bleiben über, die die leistung auch packen. also slebst wenn der fermi so viel schneller wäre, würde nvidia die gtx380 nicht viel schneller machen. aber ob sie überhaupt die wahl haben, ist auch noch fraglich. bei nur 500mhz realisierbarer chiptakt wird die 5870 ne verdammt harte nuss für den fermi. ursprünglich sollte der fermi ja satte 50% mehr takt spendiert bekommen (750mhz) aber das war angeblich technisch nicht umsetzbar wegen der fertigungsprobleme. dabei kann der g200 schon in 55nm bis zu 780 mhz bei guten samples.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ok :) dachte nur dass das Video weils so flüssig läuft irgendwie die Leistung des Fermis darstellen, da einige hier ja "jubelten"
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Naja, schneller als ne 5970 wirds sie aber in keinem Fall. Die theoretische Rechenleistung (leider das einzige was es bisher gibt) liegt bei 448 Shadern und 1,4 GHz bei um die 1,9 TFLOPs, mit MUL. Ne 5970 kommt da auf 2x 2,3 TFLOPs.

Bin mal auf die TMUs, ROPs und die sonstige Architektur gespannt. 384 Bit bei GDDR5 ist zwar recht sinnlos, aber wenigstens ein schön hoher Wert.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Man sollte doch keine SingleGPU- mit DualGPU-Grafikkarten vergleichen...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
384 Bit bei GDDR5 ist zwar recht sinnlos,.....

Warum? Die GTX 380 sollte ja wohl mindestens die Speicherbandbreite der GTX 285 erreichen, und das ist mit 256bit + GDDR5 nur schwer zu schaffen. Da müsste der Speicher dann schon mit knapp 2500MHz takten (knapp 5000MHz effektiv). Bei 384bit hingegen reichen bereits ~2100MHz (4200MHz effektiv), um die 200GB/s Marke zu knacken. Genau diese Marke erwarte ich von nVidias neuem High-End-Modell.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die 5870 hat mit 256 Bit die selbe Bandbreite wie ne GTX285.

Mit Sinnlos meinte ich eigentlich, dass man die Bandbreite nicht braucht. Selbst bei 2GHz hast du schon 192 GB/s, was fast nichts mehr bringt.

Selbst die GTX 285 kann aus ihrem deutlich höheren Durchsatz zu 5850 (158 zu 128 GB/s) keinen wirklichen Vorteil ziehen.

Das 256 Bit Interface reicht immernoch völlig aus. Letzten Endes hat halt aber nur der Käufer den Nachteil, weil er mehr zahlen muss.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Felixxz21

Eine GTX285 mit 1060 GFLOPS ist kaum langsamer als eine HD5850 mit 2000 GFLOPS. Da MGPU nicht immer gut skaliert und man an für die µRuckler raus rechnen sollte und man Fermi evtl. einen kleinen Effizienzbonus (Caches usw.) gegenüber dem GT200 zugesteht, könnte es gelegentlich bei 448 ALUs @ 1,4 GHz für eine HD5970 reichen.

Bezüglich Bandbreite: So wie die direkten GFLOPS-Vergleiche nicht taugen, taugen auch die mit der Bandbreite nicht. GT200 braucht mehr Bandbreite als ein RV770 oder Cypress (daher taugt dein "die GTX 285 kann aus ihrem deutlich höheren Durchsatz zu 5850 keinen wirklichen Vorteil ziehen" auch nichts), evtl. ist dies bei Fermi auch so - daher sind 384 Bit bei GDDR5 sicher nicht sinnlos.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

gtx285 hatte sicher noch reserven bei der bandbreite, sonst könnten übertaktete gtx260 und gtx275 nicht schneller als eine gtx285 werden. (448 zu 512 bit). allerdings ist es auch normal, dass die hersteller ihren highendkarten nicht selbst einen flaschenhals verpassen. auch wenns manchmal etwas übertrieben wird (siehe 2900xt/pro gddr3, 512bit). wieviel luft gtx285 und 5870 noch haben, wissen wir wohl nicht wirklich einzuschätzen. wenn der fermi wirklich so viel schneller als die gtx285 sein soll, dann ist auch deutlich mehr bandbreite erforderlich. 384bit gddr5 dürfte bei einer verdoppelung der ausführungseinheiten wohl angemessen sein.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
@ Felixxz21

Eine GTX285 mit 1060 GFLOPS ist kaum langsamer als eine HD5850 mit 2000 GFLOPS. Da MGPU nicht immer gut skaliert und man an für die µRuckler raus rechnen sollte und man Fermi evtl. einen kleinen Effizienzbonus (Caches usw.) gegenüber dem GT200 zugesteht, könnte es gelegentlich bei 448 ALUs @ 1,4 GHz für eine HD5970 reichen.

Bezüglich Bandbreite: So wie die direkten GFLOPS-Vergleiche nicht taugen, taugen auch die mit der Bandbreite nicht. GT200 braucht mehr Bandbreite als ein RV770 oder Cypress (daher taugt dein "die GTX 285 kann aus ihrem deutlich höheren Durchsatz zu 5850 keinen wirklichen Vorteil ziehen" auch nichts), evtl. ist dies bei Fermi auch so - daher sind 384 Bit bei GDDR5 sicher nicht sinnlos.

Praxiswerte sind zz. eh völlig sinnlos. Es gibt nur Theorie und auch davon recht wenig. Trotzdem wird die Rechenleistung nie für eine 5970 ausreichen.

Die theoretischen Werte (die bei beiden nicht erreicht werden) sind einfach zu hoch.
1,9 TFLOPs (GTX 380) zu 2x 2,3 TFLOPs (5970) ist in der Theorie sehr eindeutig.

Wie gesagt, über die Praxis kann man momentan nicht reden, dazu ist einfach zu wenig über Fermi bekannt.

Die 5800er haben jedoch genauso eine Cache Steigerung (16 auf 32 KB). Das wird sich dann in den GPGPU Benches zeigen, wer hier die Nase vorn hat.

Dass die nVidia Chips mehr Bandbreite/Speicher brauchen stimmt zwar, aber nicht 30 GB/s mehr.
Eine 5770 zeigt dass es (bis auf FullHD/2560x1600 mit MSAA) auch mit deutlich weniger geht.
Somit denke ich dass nVidia hier nur versucht einen möglichst großen Wert auf die Beine zu stellen, was natürlich gut fürs Marketing ist.

EDIT:
@Lübke: Das mag zwar stimmen, aber meine Einschätzung ist dass die GTX 380 nur max. 10-20% schneller sein wird, als ne 5870. Hier dürfet dann auch die "alte" Bandbreite, mit vielleicht leichten Taktseigerungen ausreichen. Ist aber nur meine subjektive Vermutung.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

1,9 TFLOPs (GTX 380) zu 2x 2,3 TFLOPs (5970) ist in der Theorie sehr eindeutig.
sind sie nicht, denn es sind 1,9 tflop 1d zu 2 x 2,3 tflop 5d. letztere sind best case werte und die worsed case werte wären 2 x 0,46 tflop. bei 1d bleiben die 1,9 tflop.

edit: ich teile deine einschätzung mit den 10-20% zur 5870 zwar, aber die flops sind als indiz völlig ungeeignet, weil sie nicht vergleichbar sind.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
sind sie nicht, denn es sind 1,9 tflop 1d zu 2 x 2,3 tflop 5d. letztere sind best case werte und die worsed case werte wären 2 x 0,46 tflop. bei 1d bleiben die 1,9 tflop.

edit: ich teile deine einschätzung mit den 10-20% zur 5870 zwar, aber die flops sind als indiz völlig ungeeignet, weil sie nicht vergleichbar sind.

Du vergisst aber etwas: Bei den 1,9 TFLOPs ist auch das MUL mitgerechnet. Dieses kommt aber ebenso selten voll zum Einsatz, wie die vollen 5D Shader. Deswegen bleiben in der Praxis beim GF100 auch nur deutlich weniger. Und die Worst Case Werte treten aber so gut wie nie auf, ebenso wie die best case Werte.

Dass die FLOPs nur einen lückenhaften Vergleich zu lassen ist mir klar. Doch es ist der einzig mögliche Vergleich, andere Daten gibts zum Fermi nicht. Und es ist nun mal so, dass die 5970 und auch die 5870 bei den FLOPs (in der Theorie) vorne liegen.

In der Praxis verlieren GF100 und Cypress an Leistung gegenüber den theoretischen Werten, wie viel hängt von der Anwendung und dem Treiber ab. Trotzdem würde ich die 5870 höher einschätzen, einfach weil die Ausgangsleistung, von der verloren wird höher ist. Und zwar fast um ein ganzes TFLOP.

Wies dann wirklich aussieht werden erst die anderen Daten und die richtigen Benchmarks zeigen-
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ok dann rechne mul raus, dennoch wird der flopwert wohl kaum unter 0,92 tf fallen. dann bietet die gtx380 eine höhere speicherbandbreite etc. alle (angenommenen!) werte, die wir bisher haben, reichen nicht aus, um eindeutig sagen zu können, ob die leistung einer 5970 theoretisch erreicht werden könnte oder nicht. es ist rein spekulativ.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Weiß erlich gesagt nicht wie das geht. Kann einer die Werte bzw. Formel ohne MUL sagen?

Natürlich ist alles reine Spekulation. Die Bandbreite wird keine wirkliche Mehrleistung bringen. Außerdem habe ich ja nur von den theoretischen FLOPs geredet, die bei einer 5850/5870/5970 höher sind.

Ich bleibe aber dabei, dass die 5970 die GTX 380 immer überholen wird, auch noch ein bisschen stärker als damals bei GTX 280/4870 X2.

Eigentlich kann man (zugegeben recht spekulativ) auch auf eine andere Art und Weise auf die Leistung schließen. Fermi hat 3 mrd. Transistoren, Cypress 2,14 mrd.. Wenn man jetzt bedenkt dass die Shaderarchitektur aufgrund der hohen Anzahl an 1D Shadern mehr Transistoren braucht, als auf ner 5870, bleibt für TMUs und ROPs nicht mehr so viel übrig.
Im Klartext glaube ich kaum, dass 160 TMUs und 64 ROPs eingesetzt werden. Vielleicht 100 und 40 oder so.
Dazu kommt noch der relativ niedrige Takt (habe von relativ sicheren 650/1400/2000 gelesen). Ist reine Spekulation, aber was anderes bleibt einem zz. auch nicht übrig.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die ROPs waren in den letzten Generationen bei nVidia immer = (Speicherinterface/64)*4. Ich denke mal beim Fermi wird das ganze auf (Speicherinterface/64)*8 erhöht werden, sprich es wären 48 ROPs und damit etwa 50% mehr Pixelfüllrate als bei der GTX 285 (einen ähnlichen GPU-Takt vorausgesetzt). Die TMUs waren beim G80 die Hälfte und beim GT200 ein Drittel der Shadereinheiten. Ich könnte mir vorstellen, dass es beim Fermi dann ein Viertel wird, sprich bei 448 Shaderunits wären es dann 112 TMUs und damit 40% mehr Texelfüllrate als bei der GTX 285. Diese Rahmendaten würden dann wahrscheinlich auch reichen, um rund 10 bis 20% vor der HD 5870 zu liegen, wie ich es ebenfalls in etwa erwarte. Aber alles natürlich nur Spekulation.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dann wären die Werte:
GTX380
1,9 TFLOP/s
73 GTexel/s
31 GPixel/s

5870
2,7 TFLOP/s
68 GTexel/s
27 GPixel/s

Bei diesen Werten wäre die GTX 380 ungefähr gleich schnell wie eine 5870 manchmal ~ 5% schneller, manchmal aber auch langsamer (bei hohem Rechenaufwand). Die GPixel kann man eh vergessen, limitieren zz. nicht wirklich.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
Die GPixel kann man eh vergessen, limitieren zz. nicht wirklich.

Und warum skaliert dann die Bildrate in den meisten Spielen bei mir fast perfekt mit dem GPU-Takt meiner GTX 275, sprich mit der Pixel- und Texelfüllrate?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

du hast schon wieder die flops mit einbezogen. nochmal: das ist nicht vergleichbar.
die 5870 hat 0,54 bis 2,7 tflop. das sind im mittel 1,62 tflop. allerdings ist das mittel nichts aussagend. genauso wie min und max wert.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
Bei diesen Werten wäre die GTX 380 ungefähr gleich schnell wie eine 5870 manchmal ~ 5% schneller, manchmal aber auch langsamer (bei hohem Rechenaufwand).
Das was du da ausgerechnet hast, sind Werte, die +80% (FLOPS), +41% (Texel), +50% (Pixel) über der einer GTX285 liegen. Selbst wenn man die Effizienz außer acht lässt, sind das locker 50-70% mehr Fps als eine GTX285 schafft. Und im Mittel überholt die GTX380 damit problemlos eine HD5870, die ist nämlich im Mittel und mit DX9 nur knapp 30% schneller als eine GTX285 (1920 mit 4x MSAA). |MELVIN| hats bereits ja schon gesagt.

Du kannst die theoretischen Wert einer HD5870 nicht 1:1 mit der einer GTX380 vergleichen, letztere ähnelt wenn, dann am ehesten einer GTX285 und diese solltest du als Basis nehmen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Melvin
Ich habe nicht von Texel, sondern Pixelfillrate gesprochen. Texel limitieren natürlich schon.#

@Lübke
Ich habe nur gesagt dass der Wert höher ist. Genauso hab ich der GTX 380 augrund von höherer Texelfillrate mehr Leistung zugesprochen was genauso Theorie ist. Wie vergleichen hier nun mal theoretische Werte.

@y33H@
Ist schon sehr, sehr weit hergeholt von den Werten auf die fps zu schließen. Eine GTX 285 ist in der Theorie um 60% schneller als eine 4870 mit 1GB, in der Praxis aber nur um 27%. Somit ist dein Vergleich ziemlich hinfällig.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben