News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

tnoay schrieb:
...
ps: schreib doch ein programm um sowas zu erkennen und zu zeigen, dann kann es computerbase in ihren test aufnehmen ;)
Jetzt sollen andere schon deine haltlosen Behauptungen belegen. Rofltastisch
 
Faultier schrieb:
Der Ram halbiert sich doch wieder bei Dual GPU und der 384er Bus ist nicht mehr zeitgemäss.
Lieber ne R390X in 8GB wenn Sie erscheint, stehe eh nur auf Singel GPU Lösungen bei Grafikkarten alles andere suckt irgendwie total wie Microruckler, Ram Menge, Bus ect.

Mann das ist ne SINGLE GPU.....:grr:
 
Nicht aufregen! :streicheln:
 
Wenn die Titan X nun ca. 350GB/s erreicht, was hier ja in den Raum geworfen wurde. Dann kann sich jeder vorstellen das sie für 12GB wesentlich länger braucht als das Verfahren bei AMD mit HBM. denn 8GB mit 600GB/s lassen sich schneller füllen als auch lesen. Bei genau 12GB wäre der HBM bei 600GB/s fast doppelt so schnell mit der Datenrate durch.

Daher wird es, wenn diese Karten draußen sind, etwas finster für Karten mit geringerer Anbindung. Denn dann kommen irgendwann Entwickler und nutzen diese Bandbreite für ihre Texturen und Filter aus. Spätestens dann hinkt jeder GDDR5 hinterher. 4kBit zu 384Bit ist einfach ein über den Faktor 10 größerer Durchsatz bei selber Taktrate. Man bedenke, aktuell nimmt man an, der HBM bei AMD wird vorerst mit 1750MHz rennen. Man denke sich die Bandbreite bei 6-8GHz. Da ist genug Luft nach oben.
 
Wenn ..... dann ...
Warten wir es ab. Zur Zeit wird ja von 4GB ausgegangen, weil die Technik noch gar nicht so weit ist^^
Mir sind 12GB langsam lieber als 4GB ultraschnell.
 
Wenn man sich in der EN Wikipedia die Ansätze zu HBM durchliest, dann sind Module mit 1GB die für 4GB benötigt würden, erst der Anfang.
In diesen angenommenen Modulen stecken 5 Dies. 4x DRAM mit je 2x128Bit macht 1024Bit per Modul und 1x I/O Interface Chip. Die höchste Ausbaustufe für HBM kann jedoch auch 9 Dies bedeuten. 8x 128Bit DRAM und 1x I/O Interface. Dadurch kann man recht einfach bei jedem Modul den Speicher verdoppeln und kommt jedes Mal auf 1024Bit für das HBM Modul.

Zudem besteht bei der HBM Technik kein Zwang, das die einzelnen 128Bit Kanäle Synchron laufen müssen. Es entfällt bei der Zugriffszeit also das ständige Warten auf Synchronisation.

Das nutzten von true Vias (ein Via ist in der Halbleitertechnik nichts anders als ein kleines Loch im Chip meist mit einem Durchmesser weniger nm) in den Chips erhöht zudem die Geschwindigkeit und verbessert die Wärmeabfuhr. Gleichzeitig verbrauchen HBM Module weniger Strom.
 
smilefaker schrieb:
Da beide GPU´s jeweils ein Bild berechnen, verdoppelt sich die Bandbreite eben nicht, es sind wie gesagt 2x 384bit oder bei Radeons 2x 512bit.

Und hättest du jetzt erst einmal nachgedacht, dann hättest du erkannt, dass man mit 2x384Bit doppelt so viele Daten pro Sekunde übertragen kann wie mit 1x384Bit. Also verdoppelt sich die Bandbreite. Sonst wäre es ja auch nicht möglich, dass die Leistung einer Dual-GPU um 100% über der einer Single-GPU liegt.

smilefaker schrieb:
Das Niveau sinkt schon wieder sehr tief aktuell und kisser mischt mal wieder mit, wer hätte das gedacht.:rolleyes:

Keine Argumente aber beleidigend werden: DAS ist das allerunterste Niveau!!
 
Mir sind 12GB langsam lieber als 4GB ultraschnell.
Mir auch, vor allem das PCIe Interface bleibt ja gleich langsam, DDR3 vielleicht DDR4 macht auch keinen Unterschied wenn der Vram überläuft. Es kommt zu den aller gleichen Nachladeruckler wie bei jeder anderen 3,5 oder 4GB Karte.
Sonst wäre es ja auch nicht möglich, dass die Leistung einer Dual-GPU um 100% über der einer Single-GPU liegt.
Genau so schauts aus, zb. eine Titan Z gibt 40FPS wobei die Karte eigentlich 2x20FPS ausspuckt, wobei jede dieser 20 FPS die volle Bandbreite einer GPU zur Verfügung hat. Und eine Titan X gibt auch 40FPS, die aber mit ca. der Hälfte der Bandbreite auskommen muss. Darum sprechen wir bei dual GPU auch immer von Fake FPS, es sind nicht 40FPS sondern 2x20FPS.

Daran erkennt man auch schön das es keinen Bandbreiten Krüppel gibt. Bis auf die 970 mit ihren verkrüppelten Interface die gleich mal Bandbreiten und Vram Krüppel in einer Karte zusammenfasst. (bezieht sich auf die 3,5GB+ Auslastung)

Was die 390X aber haben könnte ist eine bessere Rohleistung gegenüber der Titan X, damit rechne ich zumindest. Mit der Speicherbandbreite könnten ein paar% mehr Rohleistung raus springen. Das hilft der Karte aber auch nicht weiter wenn die Leistung nur bis 4GB Vram anliegt. Klassischer Bugatti Veyron im Stau bzw. in der Ortschaft. Keine Spur von 400Km/h.
 
Zuletzt bearbeitet:
Candy_Cloud schrieb:
Wenn die Titan X nun ca. 350GB/s erreicht, was hier ja in den Raum geworfen wurde. Dann kann sich jeder vorstellen das sie für 12GB wesentlich länger braucht als das Verfahren bei AMD mit HBM. denn 8GB mit 600GB/s lassen sich schneller füllen als auch lesen. Bei genau 12GB wäre der HBM bei 600GB/s fast doppelt so schnell mit der Datenrate durch.

Daher wird es, wenn diese Karten draußen sind, etwas finster für Karten mit geringerer Anbindung. Denn dann kommen irgendwann Entwickler und nutzen diese Bandbreite für ihre Texturen und Filter aus. Spätestens dann hinkt jeder GDDR5 hinterher. 4kBit zu 384Bit ist einfach ein über den Faktor 10 größerer Durchsatz bei selber Taktrate. Man bedenke, aktuell nimmt man an, der HBM bei AMD wird vorerst mit 1750MHz rennen. Man denke sich die Bandbreite bei 6-8GHz. Da ist genug Luft nach oben.

Es sind 336 GB/s, falls die geleakten Bilder ohne Kühler von der Titan waren, das weiß ich nicht auf Anhieb. Da waren die 7Gbps Chips (3500 MHz) von Hynix drauf. AMD wird wohl nicht viel mehr als 500 GiB/s erreichen. Die 1. Gen spezifiziert Hynix mit 500 MHz (ich weiß nicht wo du die 1750 MHz hernimmst), das macht 512GB/s. In der SiSoft Datenbank gab es Einträge mit 1,25 GHz (=625 MHz; SiSoft bezieht DDR mit ein), man weiß aber erstens nie, ob die überhaupt richtig ausgelesen wurden und zweitens können das nur Testläufe im Grenzbereich sein. Auch wäre ein solcher Takt wohl schlicht nicht nötig.
beachte 'bei selber Taktrate'. GDDR5 geht aktuell bis 4 GHz, HBM bis 0,5!. Erst mit Hynix' 2. Generation geht dann vorerst 1 GHz, bei weitem nicht nicht deine 6-8.


Bei 2 Chips kann man das SI natürlich nicht einfach verdoppeln
 
SirBerserk schrieb:

Das ist dein Beleg? Ein einzelner Forumsbeitrag?

Wenn ich das schon lesen "kann sich wie eine 7xxbit Karte verhalten." Ich sehe da keine Begründung.

Wo wird denn Bandbreite benötigt? Um Daten von zwischen GPU und Speicher (vRAM) zu kommunizieren. Und da bei einer Dual GPU Karte in beiden Speichern die identischen Daten liegen, haben beide GPUs auch dieselbe nutzbare Bandbreite. Bei der Titan-Z halt 384bit, multipliziert mit Taktrate ein paar 100GB/s. Nicht mehr.

Das finde ich doch logisch.

Wenn das so wäre, müsste die GTX 690 doch wesentlich schneller sein, als zwei GTX 680 bzw. als eine Titan Black. Zumindest müsste man doch in irgendwelchen (bandbreitenlimitierten) Benchmarks einen Vorteil der Dual GPU Karte sehen (sind ja nur 256bit bei der 690). Das wirst du aber nicht.
 
Zuletzt bearbeitet von einem Moderator:
Der heise Verlag hat wohl iwo mal 1350 in den Raum geworfen. Ich halte nen Preis >1000€ für realistisch oder vllt 999€! Da drunter wird wohl leider nicht viel passieren!
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Sieht man auch manchmal, aber nur ein paar% und extrem selten, eben viel zu wenig als das man von irgend einer Karte von einem Bandbreiten Krüppel sprechen kann.

wird man aber wenn man titan Z mit titan X vergleichen wird. #bandwithgate
 
nurmalkurz schrieb:
Und da bei einer Dual GPU Karte in beiden Speichern die identischen Daten liegen,

Ein Teil der doppelten Bandbreite geht natürlich für den Zugriff auf die gleichen Daten drauf, die Framebuffer beider GPUs sind aber separat. Der Begriff Bandbreite steht aber für die Menge an übertragenen Daten pro Sekunde (oder pro Taktzyklus) und der ist bei Dual-GPU genau doppelt so hoch wie bei einer Single-GPU.
 
SirBerserk schrieb:
wird man aber wenn man titan Z mit titan X vergleichen wird. #bandwithgate

Die Titan Z wird trotzdem schneller bleiben. Ist ja kein Wunder. Eine Dual GPU Karte der letzten Gerneration wird nicht geschlagen durch eine Single GPU Karte der Nachfolgergeneration. Und das liegt ja wohl nicht an der "höheren" Bandbereite, sondern schlicht daran, dass man da zwei GPU vs. eine vergleicht.

Das war bei der 590 und 690 schon so.
Ergänzung ()

kisser schrieb:
Ein Teil der doppelten Bandbreite geht natürlich für den Zugriff auf die gleichen Daten drauf, die Framebuffer beider GPUs sind aber separat. Der Begriff Bandbreite steht aber für die Menge an übertragenen Daten pro Sekunde (oder pro Taktzyklus) und der ist bei Dual-GPU genau doppelt so hoch wie bei einer Single-GPU.

Das ist meiner Meinung nach ein Irrtum in deiner Logik. Ich weiß sehr wohl, was"GB/s" bedeutet. Mit Einheiten kenne ich mich bestens aus. Aber ich bezweifel, dass du einfach "2x" die Bandbreite nehmen kannst bei einer Dual GPU Karte. Warum habe ich ja schon aufgezeigt.

Du siehst die Mehrleistung einer Dual GPU nicht wegen deiner komischen Bandbreite, sondern weil eben zwei GPUs an deinem Bild rechnen statt einer.

Nenn' mir doch mal einen Artikel, der belegt, dass sich die effektive Bandbreite bei Dual GPU Karten verdoppelt oder annähernd verdoppelt. Das habe ich noch nie gesehen.
 
Zuletzt bearbeitet von einem Moderator:
OK, das wäre aber der Vergleich innerhalb einer Generation. Aber es hat sich ja wohl gezeigt, dass Maxwell Shader effizienter sind, als Kepler Shader. Daher brauch es da keine verdoppelte Anzahl an Shader um dieselbe Leistung (=FPS) zu erreichen. Und auch kein verdoppeltes SI. Sonst wäre die GTX 960 ja nicht so schnell wie eine GTX 760.
(Zudem würde das bedeuten, dass das alles linear skaliert, und das tut es ja auch nicht. Es kommt auch drauf an, was jetzt wie stark ausgelastet wird (Bandbreite oder Shader?). Bin mir nicht sicher, ob eine 780 Ti durch ein verdoppeltes SI auch doppelt so schnell wäre. Eher nicht).

Und noch mal zu den Dual GPU Karten, ich wiederhole mich da noch mal:
Es müssen doch nach wie vor dieselben Daten übertragen werden, da in beiden Speichern ja dieselben Daten liegen. Effektiv ändert sich die Bandbreite dann doch nicht. Ich halte das für logisch.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben