News Nvidia Pascal: Erste Grafiklösung ab Ende Mai mit GDDR5-Speicher

Zotac2012 schrieb:
Wenn das denn so sein sollte, wer bitte soll dann diese Grafikkarte kaufen?

Ich denke es wird nicht direkt Maxwell 2.0 sein und die Architektur wird durchaus "Pascal" nennen dürfen. Ein direkter Shrinke wäre unlogisch, weil die 980 GTX TI gibt es nun mal nicht mit 8 GB GDDR5 und man könnte eigentlich wieder von einem 256Bit Si ausgehen (!?).
Was ich eher denke, Pascal basiert auf der Maxwell GPU des X1 Tegra. Da hatte NV schon angefangen 1 Gflops zu schreiben, wobei es dort um 16Bit (half-P)FPU Performance handelte. Pascal soll eine mixed Precision sein und laut Spekulation(Gerücht) soll sich das auf 16/32/64 (Faktor1/2/6)Precision beziehen.
Dazu kommen dann noch Features, die man mit Maxwell bereits einfügen wollte, aber vllt auch Features von Volta, welche ja quasi nach später verschoben wurden, welche ja noch mit HMC beworben wurde. Übrigens frage ich mich, ob es einen Grund gab, wieso NV eine Präsentation abgehalten hat, wo die Probleme HBMs in den nächsten Jahren aufgezählt wurde. Vllt kommt Volta in paar Jahren dann doch noch mit HMC ?

Ich sehe Pascal als das, was es offensichtlich ist, eine Generation die zwischen Maxwell und Volta eingeschoben wurde. Ursprünglich hätte ja virtuell Memory und NV Link (da bin ich mir jetzt nicht ganz sicher) bereits mit Maxwell eingeführt werden sollen.

Somit vllt ist Pascal im Endeffekt ein Maxwell 3.0 und wenn das so ist, kann es sehr gut sein, dass Maxwell 3.0 weiter weniger Shader als AMD Karten haben wird und eher auf geringere Packdichte, dafür auf höhere Taktrate setzen wird. Eventuell spielt der 16nm FinFet Verfahren von TSMC auch zu.
AMD in Relation könnte sehr auf Packdichte konzentrieren und auf Async Compute und niedrige Taktrate setzten.

Man darf gespannt sein, wie sich das weiterentwickelt.


VORSICHT => Ist eine Vermutung und Einschätzung von mir. Basiert auf News die ich quer durch das Internet gelesen habe und teils auch auf Gerüchte basiert.
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
na das ist aber mal sehr kurz gedacht....oder denkst Du das alles Besitzer diese Karten im Einsatz haben?
Ich habe z. B. eine GTX780, ich könnte so ein update machen, wenn die Karte gut ist und einen angemessenen Preis hat!
Nur um mal das offensichtlichste Beispiel zu nennen!

Kann ich nicht wirklich Glauben, bei jedem neuen DX12 Game würden Dir ja die AMD Grafikkarten auf und davon Rennen, weil ja AC dann auch weiterhin nicht implementiert wäre. Ich bleibe dabei, so eine Grafikkarte wäre nur ein Lückenfüller für kurze Zeit, da nutzt Dir das bisschen Effizienz und der Speicher gar nichts. Und wenn man davon ausgeht, das der Chip wie vermutet auf einem Package von 37,5x37,5mm sitzt, stellt sich die Frage wo der Chip dann seine Speicherbandbreite hernehmen soll, wenn man dann noch davon ausgehen kann, das auf einem solchen Package noch ein kleiner Chip sitzt, dann wird der GP 104 maximal ein Speicherinterface von 256 Bit DDR GDDR5 mit 8.GB/Vram haben oder Nvidia Spezial Feature Speicherinterface 320 Bit DDR GDDR5 mit 5. oder 10.GB/Vram.

@pipip
Aber so eine Grafikkarte wäre doch als Nachfolge für eine GTX 970/980 völlig uninteressant, das ist zumindest meine persönlich Meinung, ich sehe da keinen wirklichen Mehrwert.
 
Zuletzt bearbeitet:
II n II d II schrieb:
Hätte nicht gedacht, dass NVidia so schnell am Markt sein könnte.



Wen juckt's!?
NVidia hat eine sehr effektive Softwarelösung - sie nennt sich GameWorks. Es bleibt abzuwarten wieviele DirectX12 Titel mit dem grünen Logo und dafür ohne AC erscheinen werden.

Ich glaube AC wird erst relevant, wenn NVidia die passende Hardware am Start hat.
... rein zufällig natürlich...
Genau das ist leider die Realität.
Man darf nicht die Marktmacht von Nvidia mit 70% Marktanteil unterschätzen.
NV wird weiterhin die großen Titel mit ihrer Gameworks Integration kaufen.
Ich bin ja höchst gespannt, wie die DX12 Integration von Rise of the Tomb Raider wird...
 
Leute ... bisher hat 1 Game in Alpha oder Beta Status AC gezeigt und sonst keins.
Entspannt euch mal etwas.

Klar reitet nVidia aktuell nicht auf der Fame-Well daher mit ihren Verfehlungen der letzten 1-2 Jahre, aber was solls.
Man muss sowieso abwarten und brauch sich nicht hier die Köpfe einschlagen.
 
8-GByte-Design solle im zweiten Halbjahr folgen. Damit wären High-End-Lösungen mit bis zu 32 GByte Speicher möglich – Pascal für den HPC- und Server-Bereich ist laut früheren Nvidia-Roadmaps mit bis zu 32 GByte angesetzt.
8GB für die kleinen Modelle ist so erwartet von mir. Aber wenn sie bei der Pascal Titan über 16GB gehen würde mich das schon wundern. Gut 2017 wären 20GB Vram im Soll Bereich, aber mehr als 24GB kann ich mir bei einer 2017er Desktop GPU nicht vorstellen. Das wäre das erste mal überhaupt das der Vram soll überschritten wird. Das wird NV mit ihrer Gewinnmaximierung nicht machen. 32GB wirds nur für Tesla und Quadro Karten geben.

Genau das ist leider die Realität.
Man darf nicht die Marktmacht von Nvidia mit 70% Marktanteil unterschätzen.
NV wird weiterhin die großen Titel mit ihrer Gameworks Integration kaufen.
So ähnlich sehe ich das auch. NV wird sich niemals die Butter vom Brot nehmen lassen. (Siehe DX 10.1) Am Ende wird eine NV GPU wie üblich ordentlich da stehen. Es sei denn man hat einen Vram Krüppel gekauft, dann kann euch keiner mehr helfen.
 
Zuletzt bearbeitet:
hamju63 schrieb:
1080 mit dann nur einem 8-Pin Anschluss kann ich mir eigentlich beim besten Willen nicht vorstellen.

Oder sind die wirklich dermaßen effizient, dass die eine Leistung oberhalb der 980er (würde ich an Hand der Nomeklatur erwarten) mit einem Verbrauch deutlich darunter hinbekommen?
Ich bin ehrlich gesagt verwundert, dass das ein 8er und nicht nur ein 6er ist. Ich hab mit
viel weniger als 225 Watt gerechnet, eher 150 Watt oder weniger, da Nvida ja die doppelte
Performance pro Watt angekündigt hat. http://wccftech.com/nvidia-pascal-geforce-gtx-1080-gp104-gpu/
Für die Leistung einer 980 müssten dann also nur noch 82,5 Watt aufgewendet werden wenn
diese wie im Artikel (bzw von Nvida) angegeben 165W braucht. Selbst wenn die Perfomance
auf 980 Ti Niveau läge, müssten 150W via 6Pin dicke ausreichen, oder etwa nicht? ;)

Der neue schnelle Grafikspeicher vom Standard HBM wird demnach erst zum Ende des Jahres Einzug halten.
Das ist komisch, denn viele Webseiten haben unabhängig voneinander berichtet, dass die Karte
im Juni vorgestellt wird. http://wccftech.com/nvidia-pascal-gtc-2016-launch-june/ Und dann
sollen die Karten erst etliche Monate später gefertigt und ausgeliefert werden nachdem Juni 2015
bereits der Tape Out war? Irgendwie liest sich das etwas komisch. Liegt das wirklich nur an Samsung?
 
Kaffeejunky schrieb:
Leute ... bisher hat 1 Game in Alpha oder Beta Status AC gezeigt und sonst keins.
Entspannt euch mal etwas.
Alpha oder Beta Status? Im letzten CB Artikel stand das auf technischer Seite das Spiel im Grunde fertig ist und nur noch minimale arbeiten daran ausgeführt werden.

Dazu ist mein Wissensstand das die Konsolentitel fleißig Asynchronous Shader nutzen um eben entsprechend die Hardware zu nutzen. Bei Konsolenports also die AS nicht mehr zu nutzen wäre sinnbefreit.
 
borizb schrieb:
Ich bin ehrlich gesagt verwundert, dass das ein 8er und nicht nur ein 6er ist. Ich hab mit
viel weniger als 225 Watt gerechnet, eher 150 Watt oder weniger, da Nvida ja die doppelte
Performance pro Watt angekündigt hat.

Um es genauer auszudrücken:
Pascal will feature 4X the mixed precision performance, 2X the performance per watt, 2.7X memory capacity & 3X the bandwidth of Maxwell. Nvidia’s CEO went on to state that all in all Pascal is Maxwell times ten.
Quelle: http://wccftech.com/nvidia-pascal-gpu-gtc-2015/#ixzz42adtmRj9

Milchmädchenrechnung, Kunden Milking, Illuminati confirmed :D

Interessant find ich in diesem Bezug die erste Polaris Präsentation:
https://www.youtube.com/watch?v=H9ZIcztgcNY

(Gesamtsystem)
85W (mit Polaris 10) vs 145W (mit GTX950)

mfg,
Max
 
Zuletzt bearbeitet:
@borizb

Stimmt, aber nvidia hatte januar nicht mal eine fertige karte (die chips waren da). Das kann man aus der Import-/exportdatenbank der indischen Behörden herauslesen. HBM2 Wird ja auch noch nicht so schnell in so großen Mengen produziert (sehen wir ja schon bei den 4gb Hbm Stacks). Desshalb gehe ich davon aus, dass wir es hier mit einer Karte wie der 970/980 zutun haben. Die werden als Ultra-high-end vermarktet sind aber in reality nur Performance-Klasse. Und ich denke (Als geschichtsabiturient), dass es so sein wird wie früher: Die neuen Karten (also die ersten) werden die Alten Enthusiasten karten nicht überholen und wenn nur an ihnen kratzten. Das sieht man ja bei der 780ti (ok schlechtes beispiel) bzw. titan black zu der 980 (klar jetzt ist das durch die treiber ein bisschen anders).
Das macht auch intel so. Erstmal mit dem neuen verfahren testen und dann am ende die dicksten geschütze ausfahren. Den Höhepunkt gibts halt, wie imemr im leben, erst später, ausser man setzt alles auf eine Karte.

Und natürlich, dass wir den Chip noch nie gesehen haben (der Trick mit den Maxwell chips auf der PX-2).
 
Habe ich was verpasst? Ist schon die neue Generation an Grafikkarten drausen oder wieso schlagen sich hier schon die ersten Personen gegenseitig die Köpfe ein mit Leistungsdaten, Stromverbrauch, Effizienz und Speicherauslastung?
 
pipip schrieb:
VORSICHT => Ist eine Vermutung und Einschätzung von mir. Basiert auf News die ich quer durch das Internet gelesen habe und teils auch auf Gerüchte basiert.
Ist immerhin mal eine gut begründete Vermutung und so ein "wird eh nur Schrott weil NV" wie man es von anderen hier liest.
Ich bin auf die neue Generation gespannt, v.a. auf die 1060.

borizb schrieb:
Ich bin ehrlich gesagt verwundert, dass das ein 8er und nicht nur ein 6er ist. Ich hab mit
viel weniger als 225 Watt gerechnet, eher 150 Watt oder weniger, da Nvida ja die doppelte
Performance pro Watt angekündigt hat.
Die 225W beziehen sich ja nur darauf was die Karte laut Spezifikation max. ziehen könnte. letztendlich wird es sicher deutlich darunter sein, da etwas Puffer nicht schadet.
 
Borizb, weniger wccftech lesen wenn du noch minimalen wert auf Journalismus legst. Die ziehen doch alle Informationen aus dem arsch heraus.
 
Wenn Pascal 30% mehr FPS gibt als die 980 Ti Upgrade ich, wird aber eher auf 1-5% rauslaufen
 
DAs einzig gute ist das Nv nicht einen mittelweg beim VRam mit 6GB einschlägt sondern gleich 8Gb verbaut.
Und das die Karte 225 Watt ziehen kann ist kein Beinbruch den was bleibt den als alternative.Nur 6 pin und pci express wird wohl mit 150W etwas zu wenig sein,daher bleibt nur dieser Weg.
Wie nah die 1080 dann an den 150 oder 225 W liegt müssen wiederum Messungen belegen.

Alles andere als das die 1080 auf einem niveau mit der 980Ti und Titan liegt wäre eine Entäuschung und wenn sie da auch auf den oc Karten mit nur 8 Pin auskommt wäre das absolut in Ordnung.
Bei der 1070 sollte die 980 auf jeden Fall klar überflügelt werden.

Aber schön das sich hier doch so früh schon was bewegt auch wenn es evtl nur nen Paperlunch ist.
Vielleicht hat NV aber auch Angst das AMD wirklich die absoluten Hammerkarten hat und will hier ein halbes Jahr vorher noch ein paar Kunden zum kauf bewegen bevor AMD den Markt beherrscht :D
Ich hoffe ja auf eine AMD die AMD typisch etwas mehr Speicherbandbreite anbietet als den standard von 256 bit und somit die 490 evtl. mit 320 bit und 10Gb Vram kommen,was aber leider den bisherigen effizienzanspruch den AMD bei dieser Generation hat nicht entsprechen würde.

Das Problem wird halt wie immer das die neuen Karten wohl gut perforamncen und sparsam sind aber eben auch preislich sich so positionieren werden.
Bei der 1070 gehe ich von 400€ aus und bei der 1080 traue ich Nv sogar 600€ zu.

Ps.: Obwohl ich eher Nv zugeneigt bin als Käufer bin ich dieses Jahr absolut nicht scharf auf die neuen Karten von Nv, sondern mich interessiert eher was AMD hier zaubern kann.
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Das Vernünftigste wird sein, wie immer, sich nicht gleich auf das erstbeste Produkt der neuen Generation zu stürzen (egal ob nvidia oder AMD), sondern das ganze zu beobachten und auf Nachfolgeprodukte (innerhalb derselben Generation) zu warten.

Meist sind die später eingeführten Produkte einunderselben Generation ausgereifter als die ersten Produkte oder bringen neue Features mit, ohne unbedingt schneller sein zu müssen.

Ich gehe sogar soweit zu sagen, daß die so verhaßten Rebrands letztlich den höchsten Grad an Ausgereiftheit mit sich bringen. Und sei es, ein paar Watt weniger zu verbrauchen oder als Beispiel bei AMD, eine höhere GCN-Version mitzubringen wie bei der R9 380X. :p

Würde ich auch so sehen. Je später die Produkte, desto ausgereifter ist die Hardware, Produktion, Treiber usw.

Das nutzt freilich wenig, wenn man immer das Neuste haben will oder haben muss....

Ansonsten sind das wenig Überraschungen, dass High-End erst am Jahresende 2016 bedient wird, war auch mehr oder weniger klar. Nun gibt es erstmal Mittelklasse a la 960-970. Wer die schon hat, wird wenig Gründe zur Aufrüstung finden. Eventuell die 8 GB RAM, je nach Spiel und Auflösung.
 
Zuletzt bearbeitet:
Wenn man die Strukturgröße kennt kann man sich das meiste auch ausmahlen zumahl es ja schon andere Chips in den größen gibt und somit deren verhalten kennt.

Aber grob gesagt verdoppelt sich die Transistorenzahl bei gleicher Fläche wovon man auszugehen ist das diese auch beibehalten.
Bei gleichem Takt heisst das doppelte Leistung bei ähnlichem Verbrauch da Grafikkarten ja von natur aus Parallel ausgelegt sind.
Wenn aber jetzt noch den Takt runterschraubt kommt der Teil zum tragen das niedrige Taktraten deutlich weniger Strom benötigen. (Bsp CoreM der mit 1Ghz 4Watt ggü Core I mit ~2,5Ghz 15Watt und als Desktop I3 mit nochmal 1Ghz mehr schon über 30Watt brauch)

Würde jedenfalls eine Grafikkarte mit doppelter Transistorenanzahl mit halben takt laufen wäre sie ungefähr gleichstark bei weniger als der Hälfte des Stromverbrauchs.
 
Ich glaube das wird nur ein GTX980 rebrand mit 8GB Speicher um mit der 390X gleich auf zu sein.

Die richtigen Pascal bekommen ein neues Namensschema
 
II n II d II schrieb:
Wen juckt's!?
NVidia hat eine sehr effektive Softwarelösung - sie nennt sich GameWorks. [...]

Diese 'effektive Softwarelösung' sorgt leider in keinster Weise für ein tatsächliches Leistungsplus auf nVidia-GPUs. Sie behindert lediglich die Konkurrenz, das allerdings tatsächlich effektiv. Daher ist GameWorks in seiner jetzigen Form für alle Seiten nichts mehr als eine Belastung.
 
Zurück
Oben