ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
wie bist du auf die geschätzten werte gekommen? stützen die sich auf irgendwelche angaben oder sind die frei nach deinem gefühl gewählt?
Sind frei gewählt.
Die Gerüchte sprachen ja eine ganze zeitlang von 700 MHz Chiptakt und 1600 MHz Shadertakt. Daran habe ich mich orientiert und die Taktspielraum eher pessimistisch angesetzt wegen der Fertigungsprobleme und weil man vom G80 zum GT200 auch keine großartigen Takterhöhungen gesehen hat.

P.S.: Selbstverständlich kannst du dich aus der Tabelle bedienen. Die Angaben zu den Steamprozessoren kann man ja auch direkt aus dem Whitepaper zum Fermi auf der Nvidia-Homepage entnehmen. Bei den TMUs brodelt die Gerüchteküche noch etwas, weil man in einem Diagramm auf Beyond3D etwas von 256 TMUs lesen kann: http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png. Die mit "11" markierten Einheiten sind die TMUs. Aber das rührt wahrscheinlich von einem Missverständnis her - evtl. in Zusammenhang mit den Load-/Store-Einheiten.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

theorist schrieb:
Ich halte es für sehr unwahrscheinlich, dass irgendeine GeForce mit Fermi-GPU über 6 GiB Grafikspeicher verfügen wird.
Auf jeden Fall, das kann kein Mensch bezahlen. Selbst auf Tesla-Karten glaub ich da noch nicht dran. Man würde 48 Speicherchips benötigen. Das Layout möchte ich nicht entwerfen. :D

Es steht ja auch nur: unterstützt bis zu 6GB, muss es ja nicht gleich bei Release geben. 2GBit GDDR5 wirds wohl auch bald mal geben. Da dümpeln die Hersteller schon ziemlich lange bei 1GBit rum.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Habe ich heute hier nicht schon etwas Offizielles von einer Karte mit 8 GB Speicher gelesen??? ,)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

bensen schrieb:
Auf jeden Fall, das kann kein Mensch bezahlen. Selbst auf Tesla-Karten glaub ich da noch nicht dran. Man würde 48 Speicherchips benötigen. Das Layout möchte ich nicht entwerfen. :D

Es steht ja auch nur: unterstützt bis zu 6GB, muss es ja nicht gleich bei Release geben. 2GBit GDDR5 wirds wohl auch bald mal geben. Da dümpeln die Hersteller schon ziemlich lange bei 1GBit rum.

Nur 2 Gbit? Wäre doch ein wenig mager...;)

Ich schrieb schon gestern: Hört sich alles spektakulär an, aber Nvidia kocht auch nur mit Wasser.
Auch wenn sie mehr Know-How als ATI/AMD besitzen, werden sie, mit ihrem GT300, eine HD 5890 2GB auch nicht ohne weiteres einstapfen können.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

klar wird es für tesla die 6gb geben. dass die karte dann in der herstellung meinetwegen 50,- € mehr kosten wird, interessiert bei einer tesla keinen. da wird von ganz anderen beträgen gesprochen und da werden große speichermengen auch gebraucht.

was anderes ist es bei reinen spielekarten, also der geforce-reihe. hier ist mit 3gb schon reichlich speicher vorhanden. meist werden wohl 1,5 gb vollkommen ausreichen.

ps: bei 384bit sind 2gb speicher eher unwahrscheinlich ;)

@Arbiter Elite: speichergröße hat nur bedingt was mit geschwindigkeit zu tun. wenn der speicher ausreicht, nützt eine vergrößerung gar nichts mehr.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Arbiter
Verstehe den Witz nicht. :confused_alt:

@Lübke
Wer spricht von 2GB mit 384bit SI?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hab mal ein Vergleich der Streaming-Multiprozessoren bei den Nvidia-GPUs aus Schaubildern von Realworldtech zusammengebastelt:

fermi_vs_gt200eabq.png


Quellen:
- http://realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=7
- http://realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5

Der GT200 hat 30 solcher Streaming-Multiprozessoren, Fermi hat 16 SMs.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Einhörnchen hat noch eine interessante info aufgetan:

Taiwan-based suppliers of graphics cards have accused ATI, graphics business unit of Advanced Micro Devices, and Nvidia Corp. of creating shortages on the market of discrete desktop graphics processing units (GPU). Meanwhile, both ATI and Nvidia have shifted their inventory policies, which does not allow their partners to receive huge discounts when buying graphics chips in large quantities on the last day of a quarter.

Quelle: http://www.xbitlabs.com/news/video/...a_of_Creating_Shortage_on_the_GPU_Market.html

daraus lässt sich imho schlussfolgern, dass fermi-waver in ähnlichen mengen wie cypress-waver produziert werden. zwar werden weniger fermi-gpus daraus entstehen, da diese eine größere fläche haben uns somit weniger je waver vorhanden sind und auch die yields niedriger ausfallen dürften, aber auf der anderen seite bedeutet das auch, dass die wahrscheinlichkeit, dass erste fermi-karten noch 2009 in den läden stehen werden, sehr hoch ist.

einen haken hat die sache trotzdem: durch die geringe verfügbarkeit können die händler sehr hohe preise für die karten verlangen.


edit: hab jetzt einfach mal ein paar taktraten, angelehnt an die schätzungen von theorist in meine tabelle eingetragen. die gpu der gtx360 hab ich mal vorsichtig etwas reduziert, da nvidia ja angedeutet hat, dass für diese karte nicht die vollen 512 shader zur verfügung stehen sollen.

15ed9av.jpg


hat jemand andere ideen wie die werte aussehen könnten?

hier noch mal was interessantes zu den features des fermi:
http://en.hardspell.com/doc/enshowcont.asp?id=7137&pageid=5989
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Also die Karte will ich haben,die 1,000 Terraflops schafft^^ Du meinst wohl gigaflops! (in deiner tabelle steht Tflops Lübke)

Der neue G300 wird auch keine rops mehr haben,sondern sogenannte shadercores,höchste ausbaustufe: 32 Shadercores mit jeweils 16 1D Shadereinheiten,bis zu 6 speicherkontroller,mit einer 64bit anbindung,versorgen das ganze. (6 mal 64bit= 384bit)
 

Anhänge

  • Nvidia-Fermi-GT300-GPU-02.png
    Nvidia-Fermi-GT300-GPU-02.png
    111 KB · Aufrufe: 513
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke
In deiner Tabelle hast du die Zeilen "ROPs" und "TMU/TAU" vertauscht.

Ich persönlich erwarte 512 Shaderunits sowie eine ~50% höhere Pixel- und Texelfüllrate der GTX 380 (wenn sie denn so heißt) im Vergleich zur GTX 285. Die Speicherbandbreite wird bei 384bit je nach Speichertakt (2000-2400MHz) bei 192 bis 230GB/s liegen.

@Tkohr
Berechnet sich dann die Pixelfüllrate durch Shadercores*GPU-Takt? Bisher lies sich diese ja durch ROPs*GPU-Takt ermitteln. Das würde ja heißen, dass der G300 bei ähnlichem GPU-Takt wie der GT200 keine höhere Pixelfüllrate hätte?!
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Richtig,es ändert sich im prinzip nichts,nur das rops nun keine mehr sind,sondern als Shadercores zusammengefasst sind,dies ist ja auch der Grosse vorteil des chips,da dadurch erst der modulare aufbau ermöglicht wird.

Ein beispiel,Eine GTX 260,besitzt den selben Core,wie eine GTX 280,nur das ebend shadereinheiten weggelasert wurden,also deaktiviert wurden,deswegen war ein chip für die GTX260,im endeffekt genauso teuer in der herstellung wie ein GTX280 chip.

Dies entfällt bei den G300chips,da hier sehr einfach kleinere chips produziert werden können,nur ebend mit weniger shadercores,die cores sind also ergo einzelne kerne,und nicht mehr starr an den chip gebunden,wie die rops in aktuellen Gafikkarten.

Die pixelfüllrate wird dennoch steigen,da ja auch die effizients der gesamten Architectur erhöht wurde.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke: Zu deiner Tabelle, sieht ja schonmal ganz gut aus, schon wesentlich mehr Werte als beim letzten mal.
Ich wundere mich gerade über ein paar Werte.
1200 GHz Speichertakt? :freak:
Dann gabs bei der GTX 380 doch noch die 6GB Version oder hat sich da was geändert?
Zudem kann man schon etwaige Schätzungen über den Verbrauch eintragen, 1x 6Pin + 1x 8Pin sind mit dem PCI-E Slot maximal 300W, ich schätze den Verbrauch auf ca. 250W.
Dann denke ich wird die Differenz beim Chiptakt nicht nur 50Mhz zur GTX 360 betragen.
Die GTX 360 wird sich dann hoffentlich mit 2x 6Pin Anschlüßen begnügen und somit maximal 225W Verbrauchen, wenn sie tatsächlich mit 2x 6Pin Anschlüßen auskommt, denke ich wird sie auch ziemlich an der Grenze davon liegen, so ca 210W halte ich für realistisch.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ne geändert hat sich nichts, nur es lässt sich falsch interpretieren. ;)
Der Chip kann bis zu 6 GB verwalten. Nur heißt das ja nicht, dass eine "GTX380" so viel Speicher bekommt. Ne GTX280 gibts auch nicht mit 4GB.

Ist ja auch total am Markt vorbei, 6GB sind für Games einfach unütz. Diverse Quadro und Tesla Karten werden wohl früher doer später damit kommen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Tkohr schrieb:
[...]
Der neue G300 wird auch keine rops mehr haben,sondern sogenannte shadercores,höchste ausbaustufe: 32 Shadercores mit jeweils 16 1D Shadereinheiten,bis zu 6 speicherkontroller,mit einer 64bit anbindung,versorgen das ganze. (6 mal 64bit= 384bit)

Was für ein Schwachsinn :rolleyes:

Natürlich hat Fermi noch ROPs, nämlich genau 48.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das ist korrekt,habe hier nicht richtig aufgepasst,natürlich sind noch ROPs vorhanden,dummer fehler meinerseits.


P.S. Ein freundlicher hinweis hätte übrigens gereicht,aber hier ist mann ja gewohnt gleich angefahren zu werden,und bezichtigt zu werden schwachsinn zu schreiben,danke.

630 Beiträge,und immer noch nicht gelernt sachlich zu bleiben w0mbat? Traurige sache das
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

...um nochmal an der Gerüchteküche zu kurbeln... hatte nV Fuad nicht zugesagt, ihm den Fermi-Prototypen für Fotos zu zeigen, um zu beweisen, daß sie eine lauffähige Fermi-Karte haben?

Wo sind diese Fotos eigentlich geblieben?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Tkohr: schau mal genau hin, da ist ein komma hinter der 1 ;)

@|MELVIN|: oh dann muss ich das beim nächsten update tauschen... danke^^

@datvader: das ist eine frage, mit welcher angabe man arbeitet. du kannst den wert auch verdoppeln, um auf den effektiven wert zu kommen. siehe 4890 und 5800-werte.
und zu den 6gb: die sind wohl nur für die quadro und tesla-modelle vorgesehn, nicht für die geforce-modelle.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@fortissimo: jap, das haben sie. es hieß sie geben ein paar tage nach der gtc fotos eines engineeringboards an die presse raus. bis heute hat man davon noch nix gesehen und ich denke auch fuad wird da nicht noch mal nachgehakt haben.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben