ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Motkachler schrieb:
Nvidia zeigt taktschwache Fermi-Karten
http://www.hardware-infos.com/news.php?news=3304

Langsam kommts raus warum man keiene Game Benches des Fermi zu sehen bekommt.

Ich sehe da nur eine Tesla-Karte.
Hat nichts mit den Spiele-Karten zu tun.

Buntstift schrieb:
falsch, dass ist bereits seit der hd48xx serie der fall :)

Klar deshalb takten die Leute selbst bei der HD5000er Serie den Ram bis zur Selbst-Korrektur.
Bei der GTX380 wird es bei 200 GB/s nicht mehr nötig sein den Ram zu quälen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Menschen takten nuneinmal beides, den Ram sowie den GPU Core Takt!
Warum taktet man einen Quad der sowie schon ausreicht ?
Die Frage hierbei stellt sich nicht ob es sinnvoll ist oder nicht!

Und hier mal ein kleiner Beweis, dass auch eine 58xx nicht unbedingt ein Speicherkrüppel ist ;)
https://www.computerbase.de/2009-12...ails/14/#abschnitt_taktspiele_was_bringt_mehr
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

die erste karte, die kein ram-oc braucht ist schon ne ecke älter. die 2900xt brauchte mal ganz sicher kein ram-oc ;) leistung einer 9600gt aber gddr4 mit satten 512 bit angebunden. eine 2900pro mit 256bit auf xt übertaktet hatte keinerlei bandbreitenlimitierung, sprich man hätte den speichertakt sogar halbieren können bei der xt, ohne dass es sich auswirkt. ;) vermutlich gabs aber auch vorher schon modelle, die speicherbandbreite im überfluss hatten, gemessen an der gpu-leistung.

@raubwanze: ok, damit muss ich mich wohl nochmal beschäftigen. allerdings weis ich nicht, wie man am ehesten einen halbwegs sinnvollen vergleichswert zwischen den ati und den nvidia hinbekommt. bereits jetzt sugerieren die flop-vergleiche deutlich höhere leistung bei den ati-karten, was ja durch die 5d-architektur nicht wirklich gegeben ist. auf die flop/s angabe ganz verzichten möchte ich auch nicht. soll ich je eine zeile für die atis und eine für die nvidias verwenden?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Ich sehe da nur eine Tesla-Karte.
Hat nichts mit den Spiele-Karten zu tun.



Klar deshalb takten die Leute selbst bei der HD5000er Serie den Ram bis zur Selbst-Korrektur.
Bei der GTX380 wird es bei 200 GB/s nicht mehr nötig sein den Ram zu quälen.
Meinst Du wohl die Gamerkarte erreicht dann ganz andere takte wie die Tesla karten.
Ist der gleiche Chip das da noch was geht beim takt ist mir schon klar aber Welten werden das sicher nicht.
NV hat ja durch das was bekannt wurde nie behauptet das der Fermi eine überragende Gamer Karte werden wird. Wo NV die prorität des Fermis sieht hat jeder mitbekommen der nicht ganz verblendet war.

aus Chiphell ( Babelfish-Übersetzung)
Beim A1 Stepping warens: 495MHz Chiptakt, 1100MHz Shadertakt. Mit Wasserkühlung. Zitat "Hotboy"
" Lao Huang takes the card it is said may run X10000 (the GPU score), in frequency not high situation (, because is really runs not high). .300 editions each time renew always a little are pleasantly surprised. At that time the frequency was 495/1100/1000.

Did not believe the words might turn occasionally before storm 5870 minutes…. Now the N card's most major problem is promotes the frequency to depend on the water cooling suppression…"
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@y33H@

danke ^^

@FortissimoIV

ah ok also erst später im januar

@Motkachler

das sind aussagen zu A1 Stepping ... bereits zum A2 stepping waren die werte höher und es hat offensichtlich seine gründe, warum das A3 für die spielekarten kommen soll ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Beim A2 warens max 1200 shadertakt also wird das A3 das wunder dann schaffen das 1700 gehen.
Wär aber das erste mal das ein stepping so ein Wunder vollbringt.
Ich geh davon aus das die Gamerkarten mit ca 600/Chip und 1400 Shader kommen werden.
Und da schon ordentlich Spannung brauchen.
Wir werden ja sehen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

wären pi mal daumen 1,4TF bzw 2,1TF incl MUL wenns wirklich 1400 werden.

aber ich denke mir das A2 stepping hat 1300~1350 geschafft ... für die tesla karten gehn sie da nie ans max wegen der lebensdauer und zuverlässigkeit ... FALLS ich damit recht habe würd ich beim A3 WENN sie gute arbeit geleistet haben bei 1600~1700 landen und nem realen karten takt von etwa 1500

wären pi mal daumen 1,5TF bzw 2,3TF incl MUL wenns wirklich 1500 werden.

verglichen mit den (von mir) vermuteten realwert von 1,6TF bei der 5800 lägen sie dann gut im rennen (mit vergleichbarem OC potential wie bei AMD) aber das muss sich alles noch zeigen (nicht das ich nicht SPASS an spekulationen hätte ;) )
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Bei den Tesla karten hatte die grosse 1230 Schader takt das dürfte mindestens A2 sein.
Mit Wissen über den Architekturaufbau, den Nvidia schon vor einigen Wochen umrissen hatte, weiß man damit aber auch, dass die für 3D-Spiele relevante Single-Precision-Leistung lediglich bei 1040 und 1260 Gigaflops liegt und damit nur unmerklich höher ausfällt als auf den aktuellen Nvidia-Karten.
Die These, dass die Tesla-Karten stets etwas niedriger getaktet sind als die Geforce-Karten, gilt zumindest nicht für den Shadertakt. Dieser ist gerade für die Profikarten von hoher Relevanz und insofern üblicherweise auf Desktop-Niveau.
http://www.hardware-infos.com/news.php?news=3304
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

nur mal zur info: die teslas takten tatsächlich niedriger als die geforces. das hat aber nichts mit dem stepping zu tun, sondern damit, dass die teslas für den dauer-lastbetrieb gedacht sind und möglichst langlebig und ausfall sicher sein müssen.
ich weis jetzt gar nicht, wo ich das gelesen habe, aber ich glaube diese aussage von nvidia habe ich hier im thread schon mal verlinkt...

wie groß diese differenz allerdings ausfallen wird, darüber wurde nichts gesagt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das die Teslas niedriger takten gilt nach der Aussage aber üblicherweise nicht für den shadertakt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

das war ne allgemeine aussage über die taktraten der karte. warum sollten die shader ausgeschlossen sein? der shadertakt hat auf lebenserwartung und hitzeentwicklung und lebenserwartung ebenso auswirkung wie chip- und speichertakt, oder sehe ich das falsch?
von den hohen taktraten bin ich allerdings auch etwas überrascht, da ich in meiner alten tabelle die taktraten der tesla zumindest für die gtx360 angenommen hatte. die differenz ist ja nicht grad gering...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Neo_Xsendra schrieb:
@FortissimoIV

ah ok also erst später im januar

Die Vorstellung möglicherweise, aber noch völlig ohne Verfügbarkeit, siehe einen weiteren Artikel bei Fudzilla:

"(...) The most realistic availability date is March 2010, and again only if everything goes right. Judging by our previous information, Nvidia delayed its plans by more than one, if not two quarters. (...)"

http://www.fudzilla.com/content/view/16685/65/
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

jap das sit klar, ging nur um die vorstellung

und zu den daten: hab mal in den NV dokumenten nachgeschaut:

unterschied in der letzten generation zwischen tesla karte und GForce, der gleichen chipreihe:

GPU: GF +10%
Speicher: GF +50%
Shader: GF +10%

(die angaben beziehen sich auf die taktraten, gerechnet von der tesla karte aus)

auf den Fermi bezogen heisst das folgente takte sind wahrscheinlich:

GPU: 715
Speicher: 1575
Shader: 1540

hmm ... das klingt doch schon realistisch oder?

EDIT: Das wären dan 1,6 TF oder 2,4 TF incl. MUL
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wie kommst Du auf 1540 Shader die kleine Tessla 1015 + 10% wären 1115 die grosse tesla 1230 + 10% wären 1350 da müsste das nächste stepping schon gewaltig was reisen.
Ganz zu schweigen von der TDP wenn die Teslas schon bis 225 watt haben bei dem niedrigen takt.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Motkachler ich bin mal großzügigerweise von den vermuteten 1400 das A3 steppings ausgegangen ;)

wenn schon spekulieren, dann aber mal RICHTIG spekulieren XD
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Richtig spekuliert wäre 1700 Shader ohne stepping :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

[grueni] schrieb:
Die Menschen takten nuneinmal beides, den Ram sowie den GPU Core Takt!
Warum taktet man einen Quad der sowie schon ausreicht ?
Die Frage hierbei stellt sich nicht ob es sinnvoll ist oder nicht!

Und hier mal ein kleiner Beweis, dass auch eine 58xx nicht unbedingt ein Speicherkrüppel ist ;)
https://www.computerbase.de/2009-12...ails/14/#abschnitt_taktspiele_was_bringt_mehr

he :D
genau darauf wollte ich mich beziehen :P

Eins lässt sich mit Garantie sagen: Die Radeon HD 5870 (und somit wahrscheinlich auch ein Großteil der restlichen Radeon-HD-5000-Serie) ist interessanterweise nicht speicherbandbreitenlimitiert. Und das, obwohl eben diese auf den neuen Radeon-HD-5000-Karten gegenüber den Vorgängern mit Abstand am geringsten angehoben worden ist. ATi selbst behauptet, dass die Radeon HD 4890 und die Radeon HD 4870 Speicherbandbreite im Überfluss haben, mit denen die GPUs eigentlich kaum etwas anzufangen wissen – unsere Tests untermauern dies. Ohne Anti-Aliasing sowie der anisotropen Filterung kann die Radeon HD 5870 nur um neun Prozent von der zusätzlichen Bandbreite profitieren.
und die gilt eben auch für die hd48xx serie.
wenn user übertakten, ist das nicht zwangsläufig ein realer vorteil, wohl mehr ein vorteil für das eigene wohlbefinden ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Motkachler

Du kannst die FLOPS eines Fermi nicht mit einem GT200 1:1 vergleichen, Fermi ist (wahrscheinlich) weitaus effizienter.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wahrscheinlich ist auch das er mit dem A2 Stepping nicht effizient genug ist ist sonst wäre der fermi wohl schon in der produktion.
Ne Pleite kann sich NV nach der verzögerung nicht mehr leisten.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was hat das Stepping mit der Effizienz zu tun? Beim A2 ist die schon "abgefertigt". Und woher weißt du, das NV nicht schon Fermis produziert? So mies wie die 40-nm-Ausbeute ist (siehe auch Cypress) wirds halt nicht viele geben. Zumal wenn man nur die MAD-FLOPS nimmt, sind 1.260 GFLOPS im Vergleich zu den 709 einer GTX280 schon recht fett (+78%).
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben