News Nvidia GeForce GTX 1080: Pascal-OC-Benchmarks deklassieren Titan X

@alQamar
Performance ist NICHT GLEICH Geschwindigkeit in FPS!
Das verstehts Du wohl nicht ;) .. und ich dachte es läge nur am Schmalz, sorry

Das Verhältnis fps/W ist doppelt so hoch, bzw.. soll so sein.
Ich warte ja auch auch die echten Benchmarks.
 
Zuletzt bearbeitet:
Die Leistung in Bezug auf VR-Anwendungen der GTX 1080 interessiert mich eindeutig nicht. :)
 
Die tests kommen morgen. Mal sehen was für features diesmal mit dabei sind :D

Das multi projection das angeblich die 1080 doppelt so schnell wie ne titan x machen soll wird sich wohl ziemlich schnell ins land der kinderträume verziehen.

Trotzdem wenn vega nicht bald kommt wirds wohl ne 1070 oder 1080 werden müssen wenn man hohe ansprüche und auflösung und ein bisschen kleingeld hat.

Lg
 
@etoo
Müssen muss niemand. Wenn man schon ein (noch) aktuelles Top-Modell benutzt und VR noch in weiter Ferne liegt weil man auf bessere Headsets wartet, ist auch noch genug Zeit um auf Vega zu warten. Wenn man objektiv einkauft.
Leidenschaft ist nichts schlimmes, solange man sich nicht verschuldet, oder Jahresurlaub mit den Kindern dabei flachfällt.

(@)HeinzNeu muss sich den Kopf wohl erstmal nicht zerbrechen, auch wenns mir schwerfiel die Sig zu lesen ;) :schluck:
 
Zuletzt bearbeitet:
Nö, mein Entschluss steht schon fest.

P.S. Wieso fällt es schwer, die Sig. zu lesen?
 
Ich finde, mit einer GTX 1080 würde meine Sig. uncool aussehen. Außerdem kann ich mit 12 GB VRAM bei meinen Kumpels auf dem Schulhof besser angeben.;)
 
HeinzNeu schrieb:
Ich finde, mit einer GTX 1080 würde meine Sig. uncool aussehen. Außerdem kann ich mit 12 GB VRAM bei meinen Kumpels auf dem Schulhof besser angeben.;)
12gb vram braucht fast keiner und ob uncool oder nicht, billiger, schneller, besser :D
 
Andregee schrieb:
Hier sind aber nicht Autos das Thema sondern Unterhaltungselektronik, bei welcher es üblich ist, das die Nachfolger einer Generation mehr Leistung zum gleichen Preis bieten. Ein Galaxy A aus 2016 kostet nicht 699 Euro, weil es die Leistung eines eigentlich höher klassifizierten S6 aus 2015 übertrumpft.

Die gleichen Mechanismen sind jedoch übertragbar auf die Halbleiter-Branche. Warum Halbleiter in neuen Fertigungsprozessen in Zukunft teurer werden steht im mir verlinkten anandtech Artikel, Stichwort Skalierung. Ganz abgesehen von Inflation oder Wechselkurs Mechanismen.

Andregee schrieb:
Aber so ist das wenn das Markt durch ein Duopol geleitet wird und der mündige Kunde Marketingstrategien unreflektiert akzeptiert

Mir wäre es neu, dass es bei Halbleiter ein Duopol gibt, Samsung, TSMC, GF, Intel,.. und auch dort werden die Preis für neue Produkt im neuen Verfahren teurer. Das wird auch bei anandtech nicht unreflektiert betrachtet sondern genau analysiert. Aber das scheint dir zu hoch zu sein.

Chismon schrieb:
Naja, warten wir ab, wie die ComputerBase Redaktion so getestet hat und zu welchem (Preis-Leistungs-)Urteil man dort kommt (auch in Bezug auf Langlebigkeit/DX12 Support und vermutlich immer noch fehlende/unechte AsyncCompute Unterstützung in Pascal-Karten); hoffentlich ist es Dienstag dann so weit mit dem Testartikel.

Wenn du schon die Leaks verlinkst und dann aber wiederum nichts zu AS sagst ist das wohl etwas einseitig. Nun gut, glaubt man den Leaks und den verlinkten Folien, kann Pascal ohne Switch Compute und Graphics wie AMD auch zur selben Zeit auf unterschiedlichen Shaders. Nämlich dynamisch an Hand der verfügbaren Tasks ohne Idle dazwischen:

NVIDIA-GeForce-GTX-1080-Pascal-Dynamic-Load-Balancing.jpg

Zudem wird von einer bis zu 1,7x bessere Bandbreitenausnutzung gesprochen gegenüber einer 980. Womit die 320GB/s bis zu 380GB/s entsprechen würden, dann wäre auch der Kritikpunkt der geringen Bandbreite zur Rohperformance gegessen. Ergibt bei der 980 44,8GB/s pro Tflops zu 46,3GB/s pro Tflops womit das Verhältnis sogar gesteigert wurde.

Die Fury X hat trotz HBM auch nur 59,5GB/s pro Tflops und somit nur 28% mehr. Den Wert hat unteranderem auch die 980 TI und knapp darunter die Titan X mit 54,19GB/s pro Tflops wie alle Big Chip Modelle. Womit die 1080 wieder in das Verhältnis einer kleineren Klasse passt und somit perfekt abgestimmt wurde.

NVIDIA-GeForce-GTX-1080-Pascal-Bandwidth-Reduction.jpg
 
Zuletzt bearbeitet:
Gibt es solche "Benchmarks" auch schon irgendwo, wo man noch die Vorgängerserie mit den 700er Karten sehen kann? Ich würde gerne ohne herumrechnerei mal sehen, wie das ganze im Vergleich zu meiner 770er aussieht.
 
Warte mal noch so 10,5h ;-)

Der damalige Maxwell-Test kam 4:30 Uhr.
 
strex schrieb:
Nun gut, glaubt man den Leaks und den verlinkten Folien, kann Pascal ohne Switch Compute und Graphics wie AMD auch zur selben Zeit auf unterschiedlichen Shaders. Nämlich dynamisch an Hand der verfügbaren Tasks ohne Idle dazwischen:

Das mag sein (wie angedeutet in den Folienabbildungen), aber vor ersten Tests die das untermauern, würde ich mich nicht darauf verlassen, denn nVidia ist schon mächtig still geblieben was diesen doch seit Monaten kursierenden Kritikpunkt (AsyncCompute) an Karten/Architektur der Maxwell Generation angeht (bzw. Leistungseinbruch unter Dx12 im Vergleich zu AMD Karten der letzten GCN Chip-Generationen). nVidia steht eigentlich nicht im Verdacht so etwas zu unterschlagen bzw. marketingtechnisch nicht auszuschlachten, wenn, ja wenn sie AsyncCompute denn unter Pascal mit Nutzen (also nicht einbrechenden fps und auch nicht gleichbleibenden fps unter DX12) einsetzen können.

strex schrieb:
Zudem wird von einer bis zu 1,7x bessere Bandbreitenausnutzung gesprochen gegenüber einer 980. Womit die 320GB/s bis zu 380GB/s entsprechen würden, dann wäre auch der Kritikpunkt der geringen Bandbreite zur Rohperformance gegessen. Ergibt bei der 980 44,8GB/s pro Tflops zu 46,3GB/s pro Tflops womit das Verhältnis sogar gesteigert wurde.

Die Bandbreitenausnutzung spielt unter Full HD (selbst mit der GTX 960 ist da nVidia nicht großartig - wie von einigen damals aber vorhergesagt - mit dem klein dimensionierten Speicherinterface (128Bit) auf die Nase gefallen bei 112GB/s maximaler Speicherbandbreite) und meist auch unter WQHD i.a. keine so große Rolle und ob es bei UHD/4K Auflösung damit knapp werden wird, bleibt abzuwarten.

Das hängt sicherlich auch an den Entwicklern ab und wie sehr diese den relativ neuen DX12 "Baukasten" ausnutzen werden, Texturgrößen dimensionieren werden, etc. ... wieviel also insgesamt berechnet und durchgesetzt werden muss. Bisher hat man Bandbreite/Speicherinterface ja ein wenig vernachlässigt und selbst wenn das bei der GTX 1080 auf den ersten Blick nicht üppig dimensioniert sein wollte, so traue ich nVidia doch zu das notfalls per Treiberanpassung regeln/optimieren zu können.

Ob die Vorgängerkarte (GTX 980) hier der richtige Vergleichsmaßstab ist - zumal diese (auch OCed) unter UHD/4K oft nur sehr eingeschränkt zu nutzen ist (von 5K ganz zu schweigen), ist wieder eine andere Frage (der Anforderungen).

strex schrieb:
Die Fury X hat trotz HBM auch nur 59,5GB/s pro Tflops und somit nur 28% mehr. Den Wert hat unteranderem auch die 980 TI und knapp darunter die Titan X mit 54,19GB/s pro Tflops wie alle Big Chip Modelle. Womit die 1080 wieder in das Verhältnis einer kleineren Klasse passt und somit perfekt abgestimmt wurde.]

Im Bezug auf die Maxwell Chips ist das vielleicht noch der Fall, aber wie es in etwa 2 Jahren aussieht (erwartungsgemäß dauert es immer eine Weile und benötigt oft Extrembeispiele um abzusehen, ob die Bandbreite ausreichend dimensioniert worden ist oder am falschen Ende gespart wurde - die GTX 970 mit dem effektiv zu knapp bemessenen Speicher ist da eine Ausnahme, weil schnell klar war, dass 3.5 GB irgendwann ein Problem sein werden), bleibt abzuwarten und nicht ohne Grund wird die Bandbreite wohl bei AMDs kleiner Vega (10) Klasse - die in direkter Konkurrenz zur GTX 1080 steht - und bei den großen Chips beider Hersteller (Vega 11 und Big Pascal) wohl weiter ausgebaut werden bzw. durch HBM2 größere Reserven existieren. Falls wider Erwarten doch irgendwann die GTX 1080 Probleme mit der Bandbreite bekommen sollte, wird das eh kaum einen mehr interessieren und es wird vermutlich versucht werden das unter den Tisch zu kehren oder als Ausnahme darzustellen.

Natürlich schmälert das auch den Unternehmens-Gewinn etwas, da HBM2 teurer als GDDR5X sein wird, aber als Kunde bekommt man (mittel- bis langfristig) in dieser Hinsicht wohl mehr für das angelegte Geld geboten (wenn man von den kleinen Vega 10 Karten ausgeht). Entscheidend ist aber natürlich das Gesamtpaket, warten wird es ab, aber beindruckend finde ich es sicherlich nicht (auch wenn es nVidia Geld spart bzw. deren Profit erhöht), dass die neue GTX 1080 des Marktführers immer noch deutlich (um knapp 30%) hinter den (Enthusiast-)Karten der Vorgängergeneration liegt.

Das wirkt also irgendwie nicht stimmig, wenn man vorher groß die Werbetrommel rührt und behauptet (mit den Milliarden-Investitionen (?) in die Pascal Architektur) X-mal besser als die Spitzenkarte (Titan X) der Vorgängergeneration zu sein ... somit ist vieles Marketing-BlaBla von dem am Ende vielleicht nicht so wirklich viel übrig bleibt (die angekündigte 2-fache Leistung einer Titan X - mit Ausnahme von VR vielleicht und Kartenvergleich OCed (GTX 1080) gegen nicht OCed (Titan X) in ausgewählten Szenarien - konnte man ja auch schon direkt zur Zeit der Huang Präsentation knicken bzw. ist wohl als Marketinglüge entpuppt worden), welches aber dem ein oder anderen schon reichen dürfte um vorbehaltslos/blauäugig die GTX 1080 vorzubestellen und sich dann selbst dafür zu feiern.
 
Zuletzt bearbeitet:
Chismon schrieb:
Das mag sein (wie angedeutet in den Folienabbildungen), aber vor ersten Tests die das untermauern, würde ich mich nicht darauf verlassen, denn nVidia ist schon mächtig still geblieben was diesen doch seit Monaten kursierenden Kritikpunkt (AsyncCompute) an Karten/Architektur der Maxwell Generation angeht (bzw. Leistungseinbruch unter Dx12 im Vergleich zu AMD Karten der letzten GCN Chip-Generationen). nVidia steht eigentlich nicht im Verdacht so etwas zu unterschlagen bzw. marketingtechnisch nicht auszuschlachten, wenn, ja wenn sie AsyncCompute denn unter Pascal mit Nutzen (also nicht einbrechenden fps und auch nicht gleichbleibenden fps unter DX12) einsetzen können.

Das kann man nicht wirklich ausschlachten, wenn man mit AMD nur gleichzieht. Das käme schlecht an beim Marketing. Die Folie, wenn sie den echt ist, lässt aber kein Zweifel das beides nun möglich ist. Wäre ein Switch dabei, wäre bei der Verwendung ein Idle Part notwendig.

Chismon schrieb:
Ob die Vorgängerkarte (GTX 980) hier der richtige Vergleichsmaßstab ist - zumal diese (auch OCed) unter UHD/4K oft nur sehr eingeschränkt zu nutzen ist (von 5K ganz zu schweigen), ist wieder eine andere Frage (der Anforderungen).

Da die 980 der direkte Vorgänger ist, ist sie auch für die Einordnung der richtige Vergleich. Ich vergleiche ja auch keine Dual Core CPU mit einem einem x Kern Server CPU. Oder einem großen Power8+ mit einem E3.

Chismon schrieb:
Im Bezug auf die Maxwell Chips ist das vielleicht noch der Fall, aber wie es in etwa 2 Jahren aussieht (erwartungsgemäß dauert es immer eine Weile und benötigt oft Extrembeispiele um abzusehen, ob die Bandbreite ausreichend dimensioniert worden ist oder am falschen Ende gespart wurde - die GTX 970 mit dem effektiv zu knapp bemessenen Speicher ist da eine Ausnahme, weil schnell klar war, dass 3.5 GB irgendwann ein Problem sein werden), bleibt abzuwarten und nicht ohne Grund wird die Bandbreite wohl bei AMDs kleiner Vega (10) Klasse - die in direkter Konkurrenz zur GTX 1080 steht - und bei den großen Chips beider Hersteller (Vega 11 und Big Pascal) wohl weiter ausgebaut werden bzw. durch HBM2 größere Reserven existieren. Falls wider Erwarten doch irgendwann die GTX 1080 Probleme mit der Bandbreite bekommen sollte, wird das eh kaum einen mehr interessieren und es wird vermutlich versucht werden das unter den Tisch zu kehren oder als Ausnahme darzustellen.

In 2 Jahren werden den meisten neuen Karte, egal welcher Hersteller, die Puste bei 4k mit max. Details ausgehen. Das scheitert dann aber nicht am Speicherinterface sondern an der Speichermenge oder der Rohleistung. Ist es doch heute nicht anders.

Chismon schrieb:
Natürlich schmälert das auch den Unternehmens-Gewinn etwas, da HBM2 teurer als GDDR5X sein wird, aber als Kunde bekommt man (mittel- bis langfristig) in dieser Hinsicht wohl mehr für das angelegte Geld geboten (wenn man von den kleinen Vega 10 Karten ausgeht). Entscheidend ist aber natürlich das Gesamtpaket, warten wird es ab, aber beindruckend finde ich es sicherlich nicht (auch wenn es nVidia Geld spart bzw. deren Profit erhöht), dass die neue GTX 1080 des Marktführers immer noch deutlich (um knapp 30%) hinter den (Enthusiast-)Karten der Vorgängergeneration liegt.

HBM ist nicht direkt ein Mehrwert, reicht die Rohperformance nicht aus bringt dir auch HBM nichts denn die Übertragungsbandbreite ist hier kein Engpass. HBM ist nur dort interessant, wo trotz G5X das Speicherinterface limitiert und eine Karte mit höheren Speichertakt massiv an Leistung gewinnen werden würde. Das haben wir bis auf die APUs und welche mit DDR3 aber noch nicht wirklich gesehen. Das wird auch bei der 1080 kaum der Fall sein. Für den kleinen Chip aber eine gute Entscheidung auch bezüglich der Veröffentlichung. Wer will den einen großen mit HBM verkaufen, wo er max 1500 verlangen kann, wenn ihm die Karten als P100 für 12.500 aus den Händen gerissen wird.

Karten mit HBM werden nicht billig, auch nicht von AMD. Dann muss man schauen ob die nicht doch von beiden über der 1080 preislich liegen. Damit hätte sich die 1080 perfekt, wie von NV gewollt, eingeordnet. Denn HBM und neuer Prozess ist ein Garant für hochpreisige Karten.

Chismon schrieb:
Das wirkt also irgendwie nicht stimmig, wenn man vorher groß die Werbetrommel rührt und behauptet (mit den Milliarden-Investitionen (?) in die Pascal Architektur) X-mal besser als die Spitzenkarte (Titan X) der Vorgängergeneration zu sein ... somit ist vieles Marketing-BlaBla von dem am Ende vielleicht nicht so wirklich viel übrig bleibt (die angekündigte 2-fache Leistung einer Titan X - mit Ausnahme von VR vielleicht und Kartenvergleich OCed (GTX 1080) gegen nicht OCed (Titan X) in ausgewählten Szenarien - konnte man ja auch schon direkt zur Zeit der Huang Präsentation knicken bzw. ist wohl als Marketinglüge entpuppt worden), welches aber dem ein oder anderen schon reichen dürfte um vorbehaltslos/blauäugig die GTX 1080 vorzubestellen und sich dann selbst dafür zu feiern.

Du vergisst das die Investitionen in die Pascal Architektur geflossen ist. Das sind nicht nur 1080 und 1070, sondern P100 und alles was da noch so kommt.
 
Zuletzt bearbeitet:
strex schrieb:
Die gleichen Mechanismen sind jedoch übertragbar auf die Halbleiter-Branche. Warum Halbleiter in neuen Fertigungsprozessen in Zukunft teurer werden steht im mir verlinkten anandtech Artikel, Stichwort Skalierung. Ganz abgesehen von Inflation oder Wechselkurs Mechanismen.



Mir wäre es neu, dass es bei Halbleiter ein Duopol gibt, Samsung, TSMC, GF, Intel,.. und auch dort werden die Preis für neue Produkt im neuen Verfahren teurer. Das wird auch bei anandtech nicht unreflektiert betrachtet sondern genau analysiert. Aber das scheint dir zu hoch zu sein.



]

Wenn man den Intellekt anderer schon anzweifelt, sollte der eigene unstrittig sein. Wenn die aus Kundensicht negative Preisentwicklung der Gpu Sparte im Vergleich zu anderen Sparten zur Debatte steht, mit der Begründung des Duopols, sollte wohl klar sein, das sich diese auf die Grafikkartenhersteller bezieht. Und komm mir jetzt nicht mit Matrox.
Wenn man bedenkt das Intel im Vergleich zu AMD im CPU Sektor deutlich besser dasteht, als NVIDIA gegenüber AMD im Gpu Sektor, muss man konstatieren, das die Intelseitige Preisgestaltung noch sehr moderat ist im Vergleich, denn abseits der Wechselkursschwankungen hat sich da nicht sonderlich viel getan. Und auch die Smartphonebranche hält im jährlichen Rhythmus an den typischen Preisen fest trotz neuer Nodes, einfach weil die Konkurrenzsituation bedingt durch deutlich mehr als 2 verfügbare Hersteller deutlich ausgeprägter ist
 
strex schrieb:
Das kann man nicht wirklich ausschlachten, wenn man mit AMD nur gleichzieht. Das käme schlecht an beim Marketing. Die Folie, wenn sie den echt ist, lässt aber kein Zweifel das beides nun möglich ist. Wäre ein Switch dabei, wäre bei der Verwendung ein Idle Part notwendig.

Warten wir 'mal die Tests diesbezüglich ab, natürlich ist es schon eine kleine Schmach an sich, wenn der Marktführer da erst nachziehen muss, aber ohne echtes AsyncCompute wäre die nVidia Pascal Archtiektur zum derzeitigen Zeitpunkt der AMDs wohl unterlegen im Hinblick auf DX12, auch wenn die breite Einführung von DX12 Spielen noch bis 2017 (bei einigen evt. bis 2018) auf sich warten lassen wird. Spätestens mit der Volta Generation wäre ich sowieso davon ausgegangen, dass nVidia es auch unterstützt und selbst ohne würden sich die Pascal Karten immer noch gut genug verkaufen ohne dass die Marktführung wohl gefährdet wäre (dazu macht AMD in Sachen Marketing einfach zu viel falsch und hat aber generell in einem stärker umkämpften/schwierigeren Markt zu überleben, wenn man etwa den CPU Sektor mit dem Automobil-Chipsektor vergleicht).

strex schrieb:
Da die 980 der direkte Vorgänger ist, ist sie auch für die Einordnung der richtige Vergleich. Ich vergleiche ja auch keine Dual Core CPU mit einem einem x Kern Server CPU. Oder einem großen Power8+ mit einem E3..

Das ist schon klar, nur auf Basis dessen ist der Leistungszuwachs eher wenig beindruckend, wie ich finde, insbesondere wenn man den Doppel-Shrink berücksichtigt und natürlich seitens nVidia alles auf stückweise Gewinnmaximierung ausgelegt hat, denn dem Kunden wird bei nVidias Maxwell und jetzt auch Pascal meist nur noch das allernötigste geboten (Speicherausbau, Bandbreite, etc.), es sei der Kunde legt Geld für ohnehin preislich überzogene Enthusiasten-Karten hin, dann wird auch 'mal etwas mehr spendiert (siehe 12 GB bei der Titan X).

strex schrieb:
In 2 Jahren werden den meisten neuen Karte, egal welcher Hersteller, die Puste bei 4k mit max. Details ausgehen. Das scheitert dann aber nicht am Speicherinterface sondern an der Speichermenge oder der Rohleistung. Ist es doch heute nicht anders.

Bis auf die (semi-professionelle) Radeon Duo Pro hat keine Karte momentan auf dem Markt (die GTX 1080 wird somit die zweite Karte sein, die erste mit Single GPU) genügend Power um 4K/UHD mit 60fps durchgehend zu stemmen. Klar, bei der Radeon Duo Pro ist es nur eine Frage der Zeit, bis dieser der Speicher dafür ausgeht bzw. die Anforderungen steigen. Natürlich wird in 2 Jahren auch keine Pascal Titan oder GTX 1080i oder Fury 2x mehr reichen, wenn die 2. PC VR Generation womöglich mit 4K/UHD Displays nach mehr Leistung lechzt. Abseits von VR dürfte die richtige Karte (bei Ausbau mit 12+ GB, also Big Fury und Big Pascal) aber schon eine ganze Weile (ich gehe eher von 3+ Jahren aus, für 5+ Jahre sicherlich nicht mehr, denn dafür ist die bevorstehende Entwicklung zu rasant bzw. der Aufholbedarf zu den Displaytechnologien zu groß) für vernünftig programmierte Spiele (abseits gewisser Ubisoft, WB oder Microsoft Titel) unter UHD/4K und hoch-detaillierten Auflösungen ausreichen.

Daher kann ich aber auch verstehen wieso viele sich damit versuchen anzufreunden nur noch Mittelklasse-Karten zu kaufen oder gar überlegen sich generell umzustellen und noch mehr Jahre mit Full HD und wahlweisem Downsampling auszukommen, anstatt die Early Adopter Preise für überteuerte neue Performance- oder High End-Karten und Monitore alle paar Jahre zu zahlen.

strex schrieb:
HBM ist nicht direkt ein Mehrwert, reicht die Rohperformance nicht aus bringt dir auch HBM nichts denn die Übertragungsbandbreite ist hier kein Engpass. HBM ist nur dort interessant, wo trotz G5X das Speicherinterface limitiert und eine Karte mit höheren Speichertakt massiv an Leistung gewinnen werden würde. Das haben wir bis auf die APUs und welche mit DDR3 aber noch nicht wirklich gesehen. Das wird auch bei der 1080 kaum der Fall sein. Für den kleinen Chip aber eine gute Entscheidung auch bezüglich der Veröffentlichung. Wer will den einen großen mit HBM verkaufen, wo er max 1500 verlangen kann, wenn ihm die Karten als P100 für 12.500 aus den Händen gerissen wird.

Karten mit HBM werden nicht billig, auch nicht von AMD. Dann muss man schauen ob die nicht doch von beiden über der 1080 preislich liegen. Damit hätte sich die 1080 perfekt, wie von NV gewollt, eingeordnet. Denn HBM und neuer Prozess ist ein Garant für hochpreisige Karten..

Doch, das ist es, Du vergisst die bessere Adressierung bzw. Optimierung/Auslastung unter HBM im Gegensatz zur GDDR-Speicher-Architektur (zu welcher auch noch GDDR5X gehört). Dazu kommt der geringere Energieverbrauch und der kleinere Platzbedarf (Interposer), so dass mehr Technik/Leistung auf die Karte gepackt werden kann neben der erfreulichen, weit höheren Bandbreite, eben der AMD Ansatz, an den sich vermutlich nVidia aber annähern wird, sonst wäre nicht die Rede davon, dass bei Big Pascal auch HBM2 zum Einsatz kommen würde (obwohl auch Zweifel darüber kursieren und einige meinen, dass nur GDDR5X für Big Pascal kommen wird, zumal dann nVidia wieder den größeren Reibach durch den im Einkaufspreis deutlich günstigeren Speicher machen könnte und die z.T. blauäugige Klientel nimmt/kauft es sowieso ohne Fragen zu stellen oder mit der evt. besseren Konkurrenz zu vergleichen).

Dass die Gewinnmarge in dem Karten-Bereich bei AMD vermutlich kleiner als bei nVidia ausfallen wird (nicht basierend auf den Verkaufszahlen, sondern der gebotenen Technik), da würde ich Dir vollkommen zustimmen, aber wenn man dadurch wieder Marktanteile zurück gewinnen kann (wie sonst, wenn man sich anguckt wie einige Leute nVidia immer noch hinterher laufen, hypen und danke sagen, selbst wenn Sie z.T. von oben bis unten beschissen wurden, z.B. bei der GTX 970) und Begeisterung (im Falle überlegener Leistung) erzeugt, wird es sich lohnen.

strex schrieb:
Du vergisst das die Investitionen in die Pascal Architektur geflossen ist. Das sind nicht nur 1080 und 1070, sondern P100 und alles was da noch so kommt.

Nur sprach Herr Huang nicht von der P100 bei der Vorstellung der neuen Performance-Karten (somit kann das wohl als auf die Consumer Karten bezogen gedeutet werden, insbesondere wenn einige hier schon anfangen die fragwürdige Aussage zur zweifachen Leistung der Titan X mit der GTX1080 nur für VR gelten zu lassen) und wieviel wirklich in die P100 gewandert ist, dürfte schwer nach zu vollziehen sein (zumal nVidia nur so viel wie unbedingt nötig meist investiert, auch wenn der Aufholbedarf gegenüber AMD im professionellem Markt wegen DP bestand, wofür die Maxwell SP Architektur nicht getaugt hat und weil man mit Kepler sonst langsam den Anschluss verloren hätte), mehrere Milliarden aber bestimmt nicht, zumal Pascal bisher eher wie ein leicht optimierter Doppel-Shrink im Vergleich zu Maxwell aussieht und wohl größere Architektur Verbesserungen im Consumer Markt erst wieder mit dem folgenden Volta Chip zu erwarten sind.
 
Zuletzt bearbeitet:
Sorry alQamar. Aber evtl sind deine Englischkenntnisse begrenzt oder Du willst es nicht hören. Er hat eindeutig 2 mal Tiitan X Performance auf VR Anwendunbgen bezogen.

Bitte schreib mir nochmal wo das explizit gesagt wird. In den von mir genannten Passagen jedenfalls nicht. Danke dir.

Performance ist NICHT GLEICH Geschwindigkeit in FPS!
Das verstehts Du wohl nicht .. und ich dachte es läge nur am Schmalz, sorry

von FPS hab ich noch gar nicht geredet. Andererseits hat er ja auch gesagt es würde jedes Spiel maxed out flüssig laufen. Alles sehr relativ.
 
Zuletzt bearbeitet:
die GTX 1080 wird somit die zweite Karte sein, die erste mit Single GPU die genügend Power um 4K/UHD mit 60fps durchgehend zu stemmen

Im Lebtag nicht. Und selbst 2 übertaktete FURY X oder 2 980 TI bekommen das nicht gebacken. Und ich stelle ernsthaft in Zweifel das das 2 1080 in Ultra schaffen. Bei meinem Kumpel brechen sich gerade zwei Titans bei der Star Citizen Apha einen ab.

Jenseits allen Fanboygeschwafels finde ich die Leistungssteigerung bei den Preisen wirklich eher mäßig. Vorrausgesetzt die 20% kommen hin. Und wenn die Karte AS nicht beherrscht, ein Grund mehr die Finger davon zu lassen. Im Moment sehe ich nur viel heisse Luft. Allerdings scheint die entsprechende 400er Serie von AMD auch nicht der Burner zu sein.

Für Leute mit 4K Kisten bleibt eigentlich nur die Hoffnung auf die neuen Titans und Furys. Ich habs ja schonmal geschrieben, ich denke ich hole mir 2 390er oder 2 Furys zum Übergang und spiele erstmal auf meine Zweitmoni mit 2560 x 1080. Vielleicht reichts da ja wenigstens für Ultra.
 
Ja echt mässig... 20 bis 30% mehr Performance ggü Titan X für 200 Euro weniger lächerlich. 3 fache Leistung und 100 Euro (plus zwei aktuelle Spiele und die Oculus Rift als Beigabe) hätten mindestens drin sein können...
 
Wann fällt das NDA heute, kennt jemand die genaue Uhrzeit?

Grüße
 
15 uhr heute
 
Zurück
Oben