News Nvidia Pascal: Nachfolger für GTX 970, GTX 980 und GTX 980 Ti im Juni

Kasmopaya

Sowohl CF als auch SLI sind am sterbenden Ast, wenn kommende APIs wie DX12 oder Vulcan MGPU sowieso MGPU-Setups nativ unterstützen.
Mit aktueller Software unter DX11 hast du aber sicherlich recht, dass man da deutlich mehr an Treiber abhängig ist.
 
Tyler654 schrieb:
Das war lediglich bis kurz nach dem Verkaufsstart der Fall.
Also in der Zeit, wo die Gewinne erwirtschaftet wurden. Aus betriebswirtschaftlicher Sicht also die einzig relevante Zeit.

Die Hardware von den GCN basierten GPUs ist Kepler aufgrund des größeren Speicherausbaus, der höheren Speicherbandbreite, der höheren Computeleistung und der ACE-Einheiten von Anfang an bei weitem überlegen gewesen.
Aus welcher Perspektive meinst du das? Rein technisch? Da will ich dir gar nicht widersprechen. Ansonsten war das wohl eher ein Griff ins Klo für AMD.

Zunächst hat man davon in der Praxis nicht viel bemerkt, aber im Laufe der Zeit wurden die Treiber seitens AMD mehr und mehr optimiert, Nvidia hingegen hat die Keplerkarten mit ihren Treibern (ab Maxwell) und Gameworks zunehmend ruiniert.
Da waren die Karten schon verkauft. Wen interessierts?!

Zudem limitieren die mickrigen 2GB Grafikspeicher von Kepler unabhängig davon sowieso extrem
Klingt so, als ob alle Keppler nur 2GB hätten, was ja Blödsinn ist. Es gab welche mit 2, 3, 4 und 6, wenn ich keine vergessen hab.

und die heutige Software nutzt die architektonischen Vorteile von GCN auch aus (DX12, Vulkan).
Um mal bei den Fakten zu bleiben: die Anzahl der DX12 Spiele auf dem Markt ist heute noch einstellig. Bei den DX11 Spielen sind aktuelle nVidias besser, bei den wenigen DX12 Spielen holt AMD auf und ist stellenweise leicht besser als nVidia.

Heute wischt Tahiti mit GK104 den Boden, wenn man mal richtig hinschaut.
Was interessieren denn heute Kepplerkarten?! Maxwell ist aktuell und Pascal schon fast da.

Deshalb ist es wichtig, dass Pascal endlich mal die richtige Architektur und Speicherausbau mitbringt
Die Architektur wird sich wohl kaum von Maxwell unterscheiden und wo ist dein Problem mit dem Speicherausbau? Maxwell gibt es doch mit bis zu 12 GB, oder?
 
Tja Tests abwarten und Preise beobachten...
Würde gerne Ende des Jahres meine Titan 1 in Rente schicken, mal schauen wie der 980Ti Nachfolger wird.

€dit:
@DP Performance,
als Nvidia noch die dicken Fermi Chips hatte, die nicht kastriert waren, war dass das größte Übel, weil groß, Stromfresser und heiß.
Nvidia hat bis heute abgespeckt und alles fürs Gaming uninteressante rausgeworfen und ist heute sehr gut, was Stromverbrauch und Effizienz betrifft.
Aber was man damals bei Nvidia geschimpft hat, ist heute bei AMD toll?
Vor allem für wen?
Der Profisektor wird anders bedient.
Die paar privaten Bitminer die einen Vorteil hätten, liegen wohl eher im niedrigen einstelligen Prozentbereich der Käufer, auf die kann kein wirtschaftliches Unternehmen Rücksicht nehmen.
 
Zuletzt bearbeitet:
pipip schrieb:
Sowohl CF als auch SLI sind am sterbenden Ast, wenn kommende APIs wie DX12 oder Vulcan MGPU sowieso MGPU-Setups nativ unterstützen.

Naja, das ist ein wenig unglücklich formuliert von Dir. CF/SLI werden im allgemeinen Sprachgebrauch als Synonym für ein Multi-GPU Setup verwendet. Und genau solche Setups erfahren für DX12/Vulkan/VR einen Schub, wie Du selbst richtig festgestellt hast.
 
pipip schrieb:
Dazu kommt, dass AMD 14nm FinFet Prozess von Samsung&Gf nützt, der etwas weniger Fläche benötigen soll.

Muss kein Vorteil sein, haben wir beim A9 schon gesehen. TSMC ist hier gut unterwegs..

--

P100 ging jetzt doch schneller mit Liefertermine als man denkt (mich eingeschlossen), aber erst noch mit geringen Dosen, aber lieferbar in Kürze. Da scheint einer heimlich HBM 2 gesichert zu haben..wie war das noch mit dem Vorteil von AMD durch Fury mit HBM? Jetzt ist doch wieder NV erster mit HBM in ausreichender Speicherausstattung (abgesehen von Intel mit MCDRAM..).

pipip schrieb:
Sowohl CF als auch SLI sind am sterbenden Ast, wenn kommende APIs wie DX12 oder Vulcan MGPU sowieso MGPU-Setups nativ unterstützen.

Deshalb arbeiten alle auch kräftig an NVLink und co. Außerhalb von langweiligen Games oder wenn die Architektur an die Grenze von DX 12 stößt spielt das doch noch eine gewichtige Rolle. Auch Intel ist mit Omnipath kräftig im Geschäft.
 
Zuletzt bearbeitet:
bazooExcalibur schrieb:

Ich weiß gar nicht, was hier manche Leute mit 2 PCs immer anstellen. Mir reicht einer. Dafür hat der dann 2 Grafikkarten :D

Zurück zum Thema: Ich finde die Spekulation sehr interessant, dass mit Pascal (und der 14nm Lithografie) bereits die BaseClock des Chips bei ca. 1.500 MHz liegen soll. Das ist doch mal eine Ansage!
 
cdo schrieb:
Also in der Zeit, wo die Gewinne erwirtschaftet wurden. Aus betriebswirtschaftlicher Sicht also die einzig relevante Zeit.

cdo schrieb:
Ansonsten war das wohl eher ein Griff ins Klo für AMD.

cdo schrieb:
Da waren die Karten schon verkauft. Wen interessierts?!

Den Kunden interessiert das.

Es ist völlig unerheblich, was Nvidia daran verdient, denn die geben davon nichts zurück. Nahezu alles, was die machen ist proprietär, voller Einschränkungen und überteuert: Allen voran G-Sync & die meisten Karten selbst.

Deren Grafikkarten sind Eintagsfliegen. Aufgrund der subobtimalen, veralteten Architekturen und dem zu kurz geratenen Speicherausbau muss man unnötig oft aufrüsten. Nur damit die nächste Nvidia-Karte schon wieder veraltet ist und nicht die nötigen Features mitbringt.

cdo schrieb:
Klingt so, als ob alle Keppler nur 2GB hätten, was ja Blödsinn ist. Es gab welche mit 2, 3, 4 und 6, wenn ich keine vergessen hab.

Der Punkt ist, dass die

GTX 670 4GB
GTX 680 4GB
GTX 760 4GB
GTX 770 4GB
GTX 780 6GB

quasi von Anfang bis Ende preislich absolut uninteressant waren.

cdo schrieb:
Um mal bei den Fakten zu bleiben: die Anzahl der DX12 Spiele auf dem Markt ist heute noch einstellig. Bei den DX11 Spielen sind aktuelle nVidias besser, bei den wenigen DX12 Spielen holt AMD auf und ist stellenweise leicht besser als nVidia.

Das ist doch kein Argument, solche Spiele werden folgen. Das ist der selbe Unfug, wie sich eine Karte mit der Hälfte des maximal möglichen Speicherausbaus zu kaufen. (Es sein den der Aufpreis ist zu hoch)

Quasi nach dem Motto: "Jetzt reichen XY GB doch völlig aus!"

cdo schrieb:
Was interessieren denn heute Kepplerkarten?! Maxwell ist aktuell und Pascal schon fast da.

Falsch.

Dort geht das Trauerspiel von künstlicher, böswilliger Verknappung doch nahtlos weiter, siehe GTX 970 3,5GB bzw. Maxwell unter DX12 allgemein.

cdo schrieb:
Die Architektur wird sich wohl kaum von Maxwell unterscheiden und wo ist dein Problem mit dem Speicherausbau? Maxwell gibt es doch mit bis zu 12 GB, oder?

Wer kauft sich bitte für tausend Euro eine Grafikkarte?

In den preislich attraktiven Regionen hat man bestenfalls echte 4GB (GTX 980).
 
Zuletzt bearbeitet: (Typo)
Faust2011
Finde ich nicht, weil CF und SLI im Endeffekt für DX11 nur ein Workaround ist, weil DX11 MGPU-Systeme nicht nativ unterstützten kann.

strex
Was den A9 angeht, wissen wir, dass Apple am Anfang den Chip nur bei TSMC fertigen lassen wollte und der Chip auch an TSMC angepasst/optimiert wurde. Auch hat man bei Samsung, falls ich mich nicht täusche den Early 14nm Prozess genützt. Müsste ich aber nachlesen. Aber ja, selbst wenn ein Vorteil gegeben wäre, wäre das relativ gering. Oder sprichst du selbst rein von der "Die-Size" auf die ich mich bezogen hatte.

SavageSkull
Keiner hat DP-Performance hier hochgelobt. Eher ging es darum, dass NV ab Kepler den Weg gegangen ist, die DP-Einheiten für Gaming Karten wegzulassen. Das wurde nicht "bewertet" sondern begründet, wieso die Kepler Karten wesentlich schlanker sind als die zu dem Zeitpunkt neu eingeführten GCN Architektur von AMD.
Frag aber cdo, der kennt sich laut Aussagen super aus und weiß, dass GCN Mist ist. Deshalb gruppiert NV neulich ihren Pascal Chip dessen SM selbst mit 64 Alus und verwendet für 16Bit Berechnung dann auch Mixed-P wie AMD nur eben kann eine solche Unit 1x 32 und 2x 16 Bit Berechnungen laut NV berechnen. Sprich, etwas was bei AMD mit deren CUs dann eventuell auch nicht unmöglich ist. Aber das kann uns jetzt cdo genau erklären oder ? Wäre aber eine Möglichkeit, wie AMD selbst die Shader-Auslastung der GCN CUs besser auslasten könnte.
 
Zuletzt bearbeitet:
cdo schrieb:
Das ist ja Blödsinn. Nur bis zu GTX570 (GF110) stimmt das. Die 600er Reihe hatte ja gar keine Oberklasse.

Blödsinn ist das sicherlich nicht, da brauchst Du Dir nur einmal die Mühe zu machen per Suchmaschine oder in älteren CB Threads zu buddeln:

http://alt.3dcenter.org/artikel/2007/10-09_a.php

http://www.tomshardware.de/grafikkarten-die-grosse-thg-kaufberatung,testberichte-980-13.html

https://www.computerbase.de/forum/threads/geforce-900-klassifizierung-zu-amd-klassifizierung.1484657/

Die 4 Klassen (Einsteiger-/Value-, Mittel-/Mainstream-, Performance-/Oberklasse-, und Enthusiast-/High-End-Klasse) gibt es schon eine ganze Weile, die GTX 600er Serie ist eine Ausnahme, weil es dort nur Oberklasse-Karten (bis zur GTX 680) und eben keine High-End-/Enthusiasten-/Luxus-Karten seitens nVidia gab. Wenn Du generell die Einsteiger-/Value-Klasse unterschlagen willst, ist das Dein Problem, aber die Karten-Klasse gibt es immer noch.
 
pipip schrieb:
Was den A9 angeht, wissen wir, dass Apple am Anfang den Chip nur bei TSMC fertigen lassen wollte und der Chip auch an TSMC angepasst/optimiert wurde. Auch hat man bei Samsung, falls ich mich nicht täusche den Early 14nm Prozess genützt. Müsste ich aber nachlesen.

Alles Spekulation nichts davon ist bestätigt. Andere sagen wieder anders, da wir keine Informationen von Apple erhalten kann man das nicht sagen. Wenn wir nach der Bezeichnung gehen, war der A9 erst für Samsung geplant und wurde später für TSMC ausgelegt. Sonst wäre kein massiver Typ Sprung in der Bezeichnung zwischen Samsung APL0898 und TSMC APL1022. Auch die interne Bezeichnung ist geringer bei Samsung, müsste bei Apple typisch auf ein früheres Model verweisen. Damit müsste der erste sogar eher geplant und optimiert worden sein, sprich bei Samsung und TSMC erst später dazu gekommen sein. Aber genau so Spekulation wie deines..

Was wir nur sicher wissen ist, dass von der Effizienz der TSMC Prozess bis dato besser lief als bei Samsung. Wie es zukünftig sieht, wissen wir später. Laut anandtech ist A9 14nm LPP von Samsung wie auch die neue GPU Generation, wo bei sich hier die Quellen wieder nicht einig sind. Vom iPhone SE weiß man auch nichts genaues. Samsung gibt für LPP 2015 an, würde also passen. Aber, wissen wir wieder nichts..Also gehen wir mal von LPE mit den 15% besser aus, käme man bei A9 auch nur in die Region des Prozesses von TSMC. Somit geben sich beide Prozess nichts.

Nur den Samsung/GF Prozess jetzt besser darzustellen wie er bei aktueller Lage ist, ist einfach falsch. Es ist nicht gesagt was besser ist oder wird. Also dann auch nicht spekulieren. Legt man dem A9 zu Grunde geben sich beide überhaupt nichts.
 
Zuletzt bearbeitet:
cdo schrieb:
Versteh ich das richtig, dass sowohl die Mittelklassekarten 970 (GM204) und 980 (GM204), als auch die Highendkarte 980Ti(GM200) als Nachfolger Mittelklassekarten auf Basis des GP104 bekommen?! Woran liegt das? Ist es wie damals bei Keppler, als AMD so miese Karten hatte, dass nVidias Mittelklasse (GK104) ausgereicht hat um AMDs Highendmodelle zu schlagen und nVidia in der Generation gar keine Highendkarte (GK100) auf den Markt gebracht hat? Ob nVidia jetzt schon weiß, dass Polaris ein totaler Reinfall wird? Schade, ich wollte mir eigentlich zwei Pascalkarten mit GP100 kaufen.

Um mal noch gesondert drauf zu sprechen zu kommen: Es passt nicht so besonders gut zu dem Anspruch auf Wissenheit und Ahnung und Deinem Ton, den Du hier anschlägst, wenn Dir entgangen zu sein scheint, dass Polaris 11 und Polaris 10 weder High-End-Chips sind, noch in irgendeiner Weise so groß wie ihre direkten Kontrahenten - Polaris 10 wird nach einem Eintrag eines AMD-Ingeneurs auf einem Jobportal bei 232mm^2 und nicht bei 290 - 300mm^2 gehandelt, wie die nVidia-Konkurrenz. Ob Du älter bist als ich oder nicht spielt keine Rolle, wenn Deine Argumente dünne sind und Du unter die Gürtelline gehst, darauf wollte ich hinweisen. "Ich hab aber den längeren" hat in einer Diskussion nichts verloren, höchstens in einer Zur-Schau-Stellung der eigenen "Qualitäten".

Edit: Und noch zu den GCN 1.0-Karten: man muss eben einfach sehen, dass AMD zusätzlich zu dem nicht unbedingt besten Chip Tahiti nicht die Kapazitäten wie nVidia zum Treiber entwickeln hat, das hat die Leistung zum Launch auch maßgeblich beeinflusst.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
hm denk ich nicht. Die GTX 980 Ti is dann ja ~1 Jahr alt und ein Big DIE Ableger. Eine 8 GB GTX 1080 TI wäre also etwa 25-40% schneller, genug für eine neue Gen und mit einsprechend hoher Marge.

Da geb ich dir Recht. Spekulatius sagt ja bei beiden das die aktuellen Topmodelle von den kleineren Chips geschlagen bzw. erreicht werden. Jedoch vermute ich persönlich das Vorgehen wie 780ti --> 980.
Und wenn ich mal schau wie teuer ne 980 damals verkaufte wurde, lohnt sich das alleine schon für ne 1080.
Startpreis 630-660€ für ne 980, fast so teuer wie ne ti :freak:
 
Ich bin vor allem mal gespannt, was die Verringerung der Strukturbreite auf 14/16nm dann real bringt. Bei Intel war das damals ja eher ein mäßiger Schritt. Man schaue sich nur den 2600k vs 4770k an. Kann gut sein, dass das doch sehr gut ausgereizte 28nm Verfahren den Sprung etwas relativieren wird. Aber einfach mal bis Mitte des Jahres abwarten, spätestens dann wissen wir auch mehr genauere Details.

Ich denke mit meiner 980ti werde ich diese Gen aber relativ gelassen überspringen können, solange die Anforderungen der Spiele nicht drastisch steigen. Andererseits bleibt abzuwarten, wie der Trend bei AMD in Richtung dx12 weitergeht, gibt ja immer noch Gerüchte, dass Pascal auch keine ACE's besitzen soll.
 
Zuletzt bearbeitet:
Werden die neuen Karten über hbm2 verfügen?
 
strex schrieb:
Laut anandtech ist A9 14nm LPP von Samsung wie auch die neue GPU Generation, wo bei sich hier die Quellen wieder nicht einig sind. Also wissen wir wieder nichts.

Was aber gegen anandtech spricht:
http://wccftech.com/samsung-14nm-lpp-finfet-amd-x86-zen/
The Samsung/GlobalFoundries 14nm LPP process with FinFETs is a very important node for PC enthusiasts – because everything so far points to it being the host process for the upcoming Zen processors. It would appear that progress on the node is being made on-schedule since a report by Benchlife.info confirms that Samsung has started the ramp to mass production on its 14nm LPP node. As many of you would undoubtedly know, the 14LPP node, unlike the 14LPE node, can be used to fabricate high performance ASICs with even lower power requirements.

Read more: http://wccftech.com/samsung-14nm-lpp-finfet-amd-x86-zen/#ixzz45ePOBmNx

Die News war vor 3 Monaten, also kann ich mir nicht vorstellen, dass Apple den LPP Prozess nützt.

Außerdem, mir ging es ja nicht um die Performance bei meiner Aussage, sondern dass die jeweiligen Konkurrenz-"Gaming"-Chips von AMD und NV in der Generation relativ gleich groß ausfallen könnten. Vom Verbrauch selbst habe ich nichts gesagt ^^
 
@pipip

Wie gesagt die Aussagen sind widersprüchlich, auch innerhalb der anandtech Reports. Samsung gibt selbst 2015 für LPP an. Wenn man hier die 15% dazu rechnet, geben sich beide Prozesse bei Verbrauch und Performance überhaupt nichts. Lediglich 10% mehr Fläche muss bei TSMC produziert werden, dass kann NV aber locker durch die höhere Abnahme zu AMD kompensieren.

Somit ist hier Quasi Gleichstand, bei Preis und Fertigung. Bei Gaming. Beide besitzen hier keinen Vorteil. Im HPC sieht es wieder anders aus, das NV mit der P100 wieder AMD kräftig in die Seite fährt und alle möglichen Kunden wieder durch frühere Auslieferung gewinnt dürfte AMD wieder stark ärgern. Damit bleibt neben der KNL wieder keinen Platz für einen weiteren, weil dann die Argumente fehlen. Wieder zu spät..hier hat AMD kräftig geschlafen, wenn man doch so viel Erfahrung mit HBM hat.

Man kann alles gegen NV sagen was man möchte, Zeitpunkt und Marketing passen immer, um etwa die zahlungswillige HPC Branche zu akquirieren, also mich :D
 
Zuletzt bearbeitet:
PC Games Hardware schreibt, dass es vielleicht 1080, 1070 und 1060 werden. GP104-400 wäre also der Nachfolger der 980, und nicht der 980Ti. Das klingt viel plausibler.
 
nVidia Karten haben bis zu 12 GB. Was hat die FuryX? 4GB
amd-firepro-s9300x2-15-840x472.jpg


Nein AMD Grafikkarten gibt es bis 32 GB :O

Siehst, ich kann auch Birnen und Äpfel-Vergleiche machen.

Wenn es rein um die GB ginge, dann dürften die meisten sich wohl eine R9 390X mit 8 GB oder die TitanX mit 12 GB kaufen und nicht die 980 GTXTI oder R9 390. Du siehst, die GB VRAM Größe ist nicht ausschlaggebend, wenn die GPU Performance zu VRAM Größe und der angebotene Preis nicht zusammen passt.
Bisher hat man die Argumentation immer gegen die Fury wegen des 4GB VRAM gelesen, aber selten nennt jemand Beispiele, wo denn die 4GB HBM so derart limitiert. Kannst du dazu wenigstens Quellen nennen ?

Bisher wird nämlich immer nur angenommen, dass es in Zukunft der Fall sein dürfte und stellt die Zukunftssicherheit in Frage. Macht man das aber bei NV Karten Bsp Async Computer, whatever, verweist man gerne auf die nächste Generation. Selbe Diskussion mit Kepler, kam dann die Argumentation von dir, jetzt ist aber Maxwell und bald Pascal.
Wenn es um 4k Material geht, wird sowieso Fury und GM200 schnell die Puste ausgehen.

Am Ende lesen wir dann in paar Jahren, dass das eventuell doch kein so großer Unterschied zwischen Fury(X) und 980 GTX TI gibt und man doch eine Nano, Fury ect hätte nehmen können. Bin schon gespannt.
 
Zuletzt bearbeitet:
Zurück
Oben