News Nvidia Turing: Angeblich drei Grafikkarten mit 120 bis 180 Watt geplant

@Locuza

Nein ich ignorier das Argument gar nicht, versuche tatsächlich da ein paar verifizierbare Zahlen zu finden. Denn einfach zu sagen Marge steigt, lässt ein bisschen viel Spielraum warum das so ist. Dafür bräuchte man schon eine Auflistung der Herstellungskosten im Verlauf.

@Wadenbeisser

Ich glaube wir reden mittlerweile einander vorbei. Ist aber sich egal; ich bin bei den meisten Punkten ja bei dir. Worüber ich mich z.B. sehr aufrege ist das Gemelke mit der Founders Edition. Wäre schön, wenn NVIDIA damit bei Turing auf die Schnauze fällt. Könnte ja sich passieren wenn das Mining noch platzt und genug Karten auf den Markt gebraucht kommen.
 
Wir müssen es aber auch nicht tiefgreifend akademisch betrachten und uns um ein paar Prozent prügeln.
Die letzten Quartale lag der Umsatzanteil von Nvidias Gaming-Sparte bei 50-60%:
NV-Geschaeftszahlen-pcgh.png


Und seit 2012 konnte Nvidia ihre Bruttomarge von grob 50% auf 60% erhöhen.
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/profit-margins
https://ycharts.com/companies/NVDA/gross_profit_margin

Das hätten sie nicht geschafft, wenn von 50-60% des ganzen Umsatzes die Marge flach geblieben wäre.
 
  • Gefällt mir
Reaktionen: Galatian
Ist ein Logischer Schritt, bei vielen ist es einfach noch nicht angekommen das wir immer mehr in Resourcen Knappheit rutschen, da wird nach immer billigeren und schnelleren Grafikkarten gerufen, und keiner hier ist sich wohl bewusst wie Kritisch die Lage auf dem Markt wird, einige Metalllegierungen die noch zwingend für Schaltkreise auf Platinen benötigt werden, sind bereits so selten und Teuer geworden, das sich die Entwicklung auf einigen Gebieten sogar Verzögert, weil nach Alternativen gesucht werden muss.

Ich finde auch das Computerbase mal langsam anfangen sollte Umweltschutz und unseren Verschwenderischen Umgang mit Resourcen mehr zu Thematisieren, um eine Sensibilisierung zu Fördern. Allein der Wahnsinn mit den Handys, jedes Jahr neue Modelle e.t.c. ,wir sollten wirklich anfangen nicht immer höher schneller weiter zu denken, sondern auch die enorm Negativen auswirkungen die ein solches denken und handeln zu folge hatt in das Bewusstsein der Menschen zu bringen, vielleicht ist es weniger schlimm als viele denken, wenn man seine Grafikkarte ebend nicht alle 2 Jahre neu kauft, sondern halt mal etwas länger benutzt.
 
  • Gefällt mir
Reaktionen: Blueline56
Wow, streitet ihr euch immer noch wegen der Fake-Gerüchte von WCCF-Clickbait-News? 21 Seiten+ ... mein lieber Mann...

Die Jungs dort sind unseriöser als die Bildzeitung! Was sie heute behaupten, widersprechen sie sich bereits in der nächsten News. War niemals anders! Schlimm nur wie sehr die restliche Qualitätspresse den Quark auch noch schön säuberlich im Copy&Paste-Verfahren übernimmt.

Über Turing weiß man quasi so wenig wie zuvor. Teilweise sind die Spekulationen überweit hergeholt, es ist nicht mehr auszuhalten! In etwa 4 Wochen wird Turing launch erwartet. Darüber hinaus weiß man absolut nichts! Bis dahin erfahren wir hoffentlich handfeste Informationen und nicht Hörensagen von Dritten "anonymen Quellen".
 
  • Gefällt mir
Reaktionen: Schultzie
Aber unterhaltsam ist es.
Und es wird garantiert so weitergehen die nächsten vier Wochen.
Streiten tut sich deswegen niemand. Schon gar keine 21 Seiten lang.
Das sind andere. ;)
 
  • Gefällt mir
Reaktionen: Schultzie
@Locuza

Ja super danke für die Info. Denke aber, dass z.B. die Ti Chips deutlich die Marge nach oben geschraubt haben. Letztlich kann NVIDIA durch den Verkauf von „Profi“ Chips an Consumer erstens einfach mehr von den Chips ordern und so bei den Profis die Marge bei gleichbleibenden Preis aber günstigerer Produktion erhöhen und zweitens können sie noch zusätzlich die Consumer melken. Ich glaube ja z.B. nicht das die 1080Ti letztlich 300$ mehr kostet als die 1070 z.B. Da wird auch viel Marge herkommen.

Würde ich also so gannnz ohne ein „ja, aber“ auch nicht stehen lassen ;-)

Aber ist am Ende auch nur Glaskugelleserei.
 
  • Gefällt mir
Reaktionen: Locuza
@Galatian

Die feinen Details bekommt man nicht heraus, aber wenn Nvidia einen 200mm² Chip für ~320€+ verkaufen kann, dann bleibt die Bruttomarge nur flach, wenn ein 14/16nm Wafer über doppelt soviel kostet im Vergleich zu 28nm während einer vergleichbaren Laufzeit.
Nvidia hat Maxwell als GM204 mit ~400mm² für ~320/540€ verkauft.

Die Kostenanalysen und Abschätzungen würden den Schluss sogar zulassen:
4937e8eb_WaferCostComparison.png


Aber hier kennt man nicht die feinen Details, die echten Kosten und Vertragsabstimmungen und mehrere Analysehäuser und auch Zahlen von IHVs widersprechen sich gerne mehrmals.
 
  • Gefällt mir
Reaktionen: Galatian
... ich gebe grundsätzlich nicht mehr als maximal 350 EUR für eine Grafikkarte aus - das war so in der Vergangenheit, und das wird auch in der Zukunft so sein!
Doch davon abgesehen, wird es meine 4GB PowerColor Radeon RX 570 Red Devil noch eine ganze Weile tun, und bis dahin gibt es garantiert wieder neue Karten, die für mich interessant genug sind.
Und sollte es in der Zukunft tatsächlich nur noch Gaming-Karten jenseits der 500 EUR-Schwelle geben, ist mir das auch egal, da ich dann halt weiterhin ältere Spiele nutze und ansonsten auf den neuen Kram komplett verzichte ...
 
  • Gefällt mir
Reaktionen: Schultzie
Cronos83 schrieb:
Das wären rechnerisch sogar 69% wenn man die 1080 als Basis nimmt...

...Not gonna happen

Die 1080 war auch 60% schneller als die 980. Warum sollte das nicht so kommen? Kleinerer Prozess, höherer Takt, etwas größerer Chip, damit läuft das Ding. Wenn dadurch der Verbrauch etwas höher ist, fände ich persönlich das nicht als "kriegsentscheident".
 
Weil der Shrink prozentual gesehen weniger stark ausfällt, es nur ein Refresh zu sein scheint und die TDP tendenziell eher gesenkt denn gesteigert wird.

Ich glaube einfach nicht an knappe 70% Leistungszuwachs
 
Cronos83 schrieb:
Weil der Shrink prozentual gesehen weniger stark ausfällt, es nur ein Refresh zu sein scheint und die TDP tendenziell eher gesenkt denn gesteigert wird.

Der Shrink an sich ist nicht so groß wie der Sprung von 28nm zu 16nm FinFET, das ist klar. Dennoch sind Verbesserungen enthalten, die Nvidia sicher mitnehmen wird. Für einen Refresh sollte man die kommende Generation nicht halten. Dafür scheint zu viel unter der Haube geändert. Turing wird garantiert viel von Volta übernehmen und die Erfahrungen in den Gamingbereich übertragen.

Änderungen in der Architektur können viel ausmachen. Bestes Beispiel ist was Nvidia mit Maxwell im nahezu gleichen 28nm-Prozess ohne großen DIE-Shrink hinbekommen hat.

Generell unterschätzen viele meiner Meinung nach auch die Verbesserungen durch GDDR6. Die technischen Details werden ganz sicher spannend.

Cronos83 schrieb:
Ich glaube einfach nicht an knappe 70% Leistungszuwachs

Das Ratespiel mit den exakten Prozent ist ja auch eine persönliche Glaubenssache. Ich tendiere seit einem Jahr zwischen 40-60% Mehrleistung - je nach Laune. Die Frage ist nach wie vor was sich genau ändert. Der neue Fertigungsprozess ist ein Faktor, dann kommt der veränderte Speicher hinzu. Der Rest ist definitiv abhängig wie stark sich die Architektur in welchen Punkten genau ändert.

Die Kombination dieser Verbesserungen sollte sich diesmal stark addieren. Wo die Karten in Benchmarks landen, hängt stark vom Szenario ab. Ob da am Ende jetzt 5-10% mehr oder weniger herauskommen, macht letztendlich keinen großen Unterschied. Hauptsache endlich Fortschritt bei den Grafikkarten! Die alte Generation kann doch keiner mehr sehen!
 
Zuletzt bearbeitet:
An die die meinen das games nach gpu herstekller optimiert werden liegen sehr weit weg von der realität
Spiele werden auf directx standard erstellt
nur gibt es bei amd und nvidia grundlegende unterscheide wie die gpu funktionieren beide können dx vulkan und opengl
Nur hat nvidia einen software sheduler und amd einen hardware sheduler
technisch können nvidia gpu auch hardwae sheduler (ist vorhanden wegen gpgpu)
Nur der Treiber macht es möglich das dieser den Entwicklern bei games die rescourcen Aufteilung zu optimieren
Amd dagegen sagt meldet uns die Fehler wir bügeln diese aus. oder anders der Entwickler muss sein game an moderne hardware anpassen.
AMD optimiert da garnix

Was die neue gpu gen angeht
meine vermutung ist die überraschung klar eine 7nm volta gamer gpu als gtx1180ti

35sm=4480shader (1sm (Shadermodul) =128shader )
84rop
288tmu
16gb gddr6 256bit 3,5gb/s 14ghz ramtakt

das macht allein der shader menge ~20% mehr Leistung gegenüber gtx1080ti
darunter wird umgelabelt
beim takt wird wohl titan v als vorbild sein und min 1,6ghgz erreichen tendenziell höher bis1,9ghz
5120shader vs 4480

als gtx1180 wird der bisherige gp102 verwurstet 3584 shader
als gtx1170 den gp104 2560 shader
als gtx1160 den gp104 abgespeckt 2304 shader

das würde mehr Sinn machen als eine Serie zu produzieren die vor 2017 nicht bekannt war und volta funktioniert nur in 7nm profitable
den gv104 wird mitte 2019 kommen sowie der gv106
preise nun wird sich nichts ändern
gtx1160 350€
gtx1170 500€
gtx1180 700€
gtx1180ti 1300€ nvidia exklusiv vertrieb

zum start der kleineren volta und der konkturrenz zu navi10
gtx2060 280€ gv106 2560 shader 8gb vramnavi10 gegner amd hbm2 basierende 4096shader auf 7nm
gtx2070 600€ gv104 3584 shader 11gb vram
gtx2080 800€ gv104 3840 shader 12gb vram
gtx2080ti bzw titan v2 volta Vollausbau 1500€ ab Mitte 2020 gv102 5120 shader 16gb vram
neueste feature ab dieser serie tensor cores und dxr

amd gegenschlag kommt erst 2021 gpu next derzeit genannt vermutlich mcm design
Nvidia ampere mcm gpu wird vor 2022 nicht kommen in gaming gpu (fehlende api) in HPC kommt diese mitte 2019
damit ist der unterschied HPC und gaming gpu schon min 3 Jahre Tendenz steigernd
Und das alles wegen dem cpu limit
Die flucht in 4k geht auch nicht ohne OS Anpassung und das ist immer noch extrem schlecht
Vieles am Desktop pc basiert auf hardcode 96dpi
Und eine generelle Portierungsoftware gibt es nicht. Dazu noch die spectre lücke
Es ist eben gerade die beste zeit sich mal über x86 Gedanken zu machen und generell auf eine ganz andere Architektur zu wechseln. hardwaebasierend neuen code mit neuer programiersprache die effizienter ist und genauer
Derjenige der es schafft x86 software in eine andere architektur zu portieren würde die Erfindung des Jahrhunderts machen.
Die intel x88 architektur existiert seit 40 Jahren neben der immensen Taktsteigerung von 1mhz auf derzeit max 5000mhz
und diverser fpu erweiterungen ursprünglich co prozessoren und die geniale aber leider anfällige out of order konzept was derzeit die schwachstelle bei intel cpu ist (meltdown und co)
hat sich außer standards beim I/O nichts geändert
ein Rückschritt zu in order würde zu viel software wegen dem i/o limit nicht ausführbar machen
Und ein paralleles arbeiten an Programmen und Hintergrundsysteme würden nicht gehen ohne extreme Wartezeiten
Daher muss ein neues Konzept her und das dauert
ich glaube zu 50ten wird etwas neues geben ab 2028
Bis dahin werden wir Katz und Maus bei spectre erleben.
 
  • Gefällt mir
Reaktionen: GenjuroKibagami und Schultzie
syfsyn schrieb:
An die die meinen das games nach gpu herstekller optimiert werden liegen sehr weit weg von der realität
Spiele werden auf directx standard erstellt
nur gibt es bei amd und nvidia grundlegende unterscheide wie die gpu funktionieren beide können dx vulkan und opengl
Nur hat nvidia einen software sheduler und amd einen hardware sheduler
technisch können nvidia gpu auch hardwae sheduler (ist vorhanden wegen gpgpu)
Nur der Treiber macht es möglich das dieser den Entwicklern bei games die rescourcen Aufteilung zu optimieren
Amd dagegen sagt meldet uns die Fehler wir bügeln diese aus. oder anders der Entwickler muss sein game an moderne hardware anpassen.
AMD optimiert da garnix
Die Games werden je nach Hardware optimiert, weil du du selber es sagt es Unterschiede gibt wie GPUs funktionieren und wie schnell sie je nach Funktion sind.
Doom z.B. verwendet Uniform Buffers für Nvidia und SSBOs für AMD (Seite 25):
https://de.slideshare.net/TiagoAlexSousa/siggraph2016-the-devil-is-in-the-details-idtech-666

Und wie man auch herauslesen kann werden viele Designentscheidungen aufgrund der vorliegenden Hardware
getroffen, viele Entwickler nehmen dazu die GCN2 Baseline von den Konsolen zugrunde.

Bezüglich des "Hardware-Schedulers" Meme bei AMD/Nvidia rate ich zur folgenden Ausführung:
https://www.computerbase.de/forum/t...-wow-und-bei-hdr.1813364/page-2#post-21520779

AMD optimiert übrigens natürlich ihre Treiber für Spiele.

Was die neue gpu gen angeht
meine vermutung ist die überraschung klar eine 7nm volta gamer gpu als gtx1180ti

35sm=4480shader (1sm (Shadermodul) =128shader )
84rop
288tmu
16gb gddr6 256bit 3,5gb/s 14ghz ramtakt
Die ROPs passen nicht zum Speicherinterface, aktuell sind diese bei Nvidia abhängig an die Memory-Controller gebunden.
84 ROPs lassen sich nicht symmetrisch auf ein 256-Bit Interface verteilen.
288 TMUs passen auch nicht, pro bisherigen 128 Shader SM sind aktuell 8 TMUs verbaut = 280 TMUs bei 35SM.
 
Ich bleibe gespannt was daherkommt.

Wenn es nicht so prickelnd ist, irgendwo eine 1080ti im Abverkauf kaufen und damit freuen.
 
Wadenbeisser schrieb:
Das mag sein aber warum hat dann ausgerechnet der das Monopol inne? :confused_alt:
Die minderwertigen Sachen sind doch die die schneller kaputt gehen oder obsolent sind.
Genau Pipi Langstrumpf :lol:
 
@highwind01

Was dagegen?
Von grob geschätzt 15 Radeons in meinem Umfeld ist sind 2 im laufe ihrer Betriebszeit gestorben. Eine habe ich beim Umbau auf nen Wasserkühler geschrottet und bei einer ist der Spannungswandler nach ca. 6 Jahren hops gegangen. Der Rest läuft noch klaglos oder wurde zwischenzeitlich ausgetauscht und eingemottet. Die durchschnittliche Nutzungszeit lag bei ca. 4 Jahren.
von 5 Geforce Karten starb eine pünktlich am Ende der Garantie (Pixelbrei), die anderen wechselten nach ca. 1-2 Jahren den Besitzer. Bei einer Geforce wurde bei der Installation des Treibers DirectX zerschossen, bei de Radeons gab es bestenfalls Grafikfehler wenn der Treiber ein Problem mit einem Spiel hatte.
Gab es da nicht auch zur Zeit um die Geforce 9000 Serie ein Problem mit dem Lot, wodurch die GPUs wegen Pixelfehlern durch fehlerhafte Löt Verbindungen vorzeitig starben? Wie schaut es heute damit aus? Stichwort Karten vorübergehend heile backen.

Zudem hat die Erfahrung gezeigt das die Geforce Karten der letzten Jahre nicht zuletzt aufgrund des Speicher Krüppel Designs (zu wenig Speicher/Speicherbandbreite) schlechter alter und deshalb eher ausgetauscht werden. War das nicht auch ein/der Grund für die schlechtere HDR Skalierung der jüngsten Zeit?

Ich weiss ja nicht wie es anderen geht aber ich habe was dagegen wenn ein Hersteller z.B. Ersparnisse durch Fertigungsfortschritte auf meine Kosten lediglich zur Gewinnmaximierung nutzt und sich damit auf seiner Marktdominanz ausruht.
 
Mich als Kunde interessiert nur das Produkt.

Und wenn ich zw. GTX 1080 und Vega 64 WÄHLEN könnte, wäre es V64.
Das Problem sind die Preise gewesen zu der Zeit als beide Grakas "relevant" waren.

Probleme hatte ich mit jeglicher Hardware irgendwann einmal.
Eine RX 480 die hier war, gab den Geist kurzerhand auf, eine GTX 1080ti nach 3 Wochen (war aber gebraucht von Amzn WHD) usw.

Der Rest (darunter Mining Rigs) läuft super, egal ob NV oder AMD ;)
 
Das ist ja auch noch eine gesunde Produktwahl im Gegensatz zu der "ich kaufe nur nvidia und AMD soll gefälligst deren Preise drücken und mir ist vollkommen egal was die dafür vernachlässigen müssten und ob das für die finanzierbar wäre" Fraktion. ;)
 
Naja das gilt aber für beide Seiten. Es gibt auch die AMD Jünger (genau wie die NV Jünger), die kaufen lieber Amd um +200€ bei gleicher Leistung anstatt eben NV.
Ich schaue auf mich, meinen Nutzen + Geldbeutel :p
 
  • Gefällt mir
Reaktionen: Schultzie
Zurück
Oben