News Founders Edition: Auslieferung der GeForce RTX 2080 Ti verzögert sich weiter

HerrRossi schrieb:
Es waren längst nicht alle Produkte bei MM und Saturn bei der Aktion dabei. Ich hab mir ein paar Monitore angesehen, da gab es nur ein, für mich uninteressantes, Modell mit dem Rabatt, auch die Kaffeemaschine, die mich interessiert, war nicht bei der Aktion dabei.

Die 1080ti und 2080er waren aber fast komplett in den letzten Stunden vor der Aktion gezielt raus genommen worden....


Egal. Eben Abholbestätigung für die 2080 von Asus für 775€ bekommen. Mal sehen wie laut sie unter Last ist. Soviel müsste ich für eine gute 1080ti ja auch hinlegen.
 
  • Gefällt mir
Reaktionen: Bright0001
Ist wohl doch nicht so einfach zu fertigen. Oder will NVIDIA noch warten, bis die Treiber und Games besser laufen?
Übrigens, wie war das nochmals mit dem Paperlaunch der ja keiner ist? ;)
 
  • Gefällt mir
Reaktionen: Smartcom5
iceshield schrieb:
Gibt's schon ein Termin fuer eine 2080ti Titan?

Macht keinen Sinn so eine Karte zu bringen - rein ökonomisch schon nicht.
 
@Smartcom5
ich sehe das etwas anders.

ich finde dass es naiv wäre zudenken dass bei nvidia keiner rechnen kann oder nicht genau planen kann was man zu welchem preis verkaufen/vermarkten kann oder was die fertigungskosten bzw. yieldraten konkret bedeuten.

viele kommentare hier strotzen geradezu von einer stark überzogenen erwartungshaltung nach motto "war immer so", "war damals nicht so teuer", "praktisch keine (kostenlose) mehrperformance", "effizienz hat sich nicht verbessert", "früher kam zuerst dies dann jenes" und gleichzeitig sieht man dass kaum einer davon sich auch annähernd zeit genommen hat die hintergründe nachzuvollziehen - sofern die infos verfügbar sind.
oder kurz: hier haben viele eine meinung, aber kaum fakten oder zumindest belastbare indikatoren.

aktuell schimpfen alle über raytracing welches doof ist und nix bringt, weil ja garkein game dieses ünterstützt. langfristig gesehen führt an raytracing nichts (mir bekanntes) vorbei wenn man auch die grafikqualität steigern will - irgendwann wird bloßes aufpumpen der auflösung nicht mehr reichen.
und irgendwann muss man mit neuer technologie anfangen - schon alleine um auf seiten der entwicklung erfahrungen zu sammeln, auch wenn das feature zunächst bestenfalls in kleinen dosen eingesetzt wird.
wir reden hier nicht von einem hier-hast-du-fertige-bibliothek-die-alles-macht feature, sondern von ziemlich krasser umstellung des renderingprinzips!!
irgendwann werden die entsprechenden einheiten in den gpu's leistungsfähiger und effizienter und es würde mich nicht wundern wenn in einigen wenigen jahren nicht games herauskommen deren engine die beleuchtung komplett via raytracing realisiert...

ja, die chips sind riesig, ohne frage und sicherlich trägt das einen nicht unerheblichen teil zu den kosten/preis bei.
dazu muss man aber auch wissen dass die leistungssprünge wie sie naiverweise von generation zu generation erwartet werden irgendwoher kommen müssen. man kann die einheiten verbessern, aber das bringt sicherlich nicht einfach so mal 30-40% mehr; wenn man durch architekturoptimierung 10% herusholt, dann wäre das schon enorm - vor allem wenn man das in einer 7. oder 10. generation/iteration schafft!
man kann die anzahl der einheiten erhöhen - ja, das braucht aber mehr platz.
man kann durch bessere ferigungsverfahren die gleiche oder größere menge an einheiten in einem chip unterbringen und diese dazu noch höher takten bei besserer oder gleichbleibenden energieeffizienz...
nur ist der sprung von 16nm auf 12nm eher ein bescheidener - insofern wundert es kaum dass die chips derart groß sind.
das ist jetzt spekulation meinerseits: wenn die gerüchte stimmen, so hat nvidia in letzter minute die entscheidung geändert: man wollte nicht mehr bei samsung in 10nm zu fertigen, sondern bei tsmc in 12nm.

ein weiterer, mmn. unterschätzter punkt, ist der gddr6 speicher, der relativ neu ist und sicherlich alles andere als "billig" zu haben ist. gerade wenn die preise bereits durch den chip so hoch ausfallen, kann ich verstehen das nvidia entschieden hat keine erhöhung vorzunehmen.
anmerkung: ich kann es, aus gründen der wirtschaftlichkeit nachvollziehen, d.h. aber nicht dass ich das gutheiße oder gar dass ich jetzt voller begeisterung zum händler renne und "nimm mein geld!" rufe..

aktuell habe ich den eindruck dass eine fraktion aus frustrierten "haben-wollens" alles an nvidia zerpflückt was möglich ist und dass die ratio und fairness komplett außenvor bleiben! man muss nvida nicht mögen. man muss deren produkte oder gar diese karten _nicht_ kaufen. nvidia hat genau wie jedes andere unternehmen nichts aus gutem willen zu verschenken, sondern will möglichst gut und viel geld verdienen.
die allermeisten derjeniger hier die ihre 1080ti jetzt verkauft haben oder verkaufen wollen/wollten, haben diese auch nicht zum schleuderpreis und aus "gamersolidarität" für 200€ ocken an den kumpel verkauft, sondern versuchen noch soviel geld wie möglich dafür zu bekommen...

ps: wenn jemand irgendwelche quellen/dokumente/folien zu den yieldraten der 16/14/12/10/7nm fertigungen bei samsung/tsmc finden, so würde ich mich _sehr_freuen wenn diese hier verlinkt werden. andernfalls ist die aufregung um die verzögerung aufgrund von zu geringen yieldraten reines hörensagen...
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Tock, DaniLt, Unnu und 2 andere
Gut das ich meine Ti schon letzten Samstag bekommen habe :)
 

Anhänge

  • 20180922_115637156_iOS.jpg
    20180922_115637156_iOS.jpg
    1,4 MB · Aufrufe: 534
  • Gefällt mir
Reaktionen: nargorn und Hord
PHuV schrieb:
Auf welcher Grundlage? :confused_alt: Ich wette gegen Dich und sage, vor Okt nächsten Jahres werden wir kein 7mn von Nvidia sehen bzw. tatsächlich kaufen können. Ich rechne erst gegen 2020 damit.

Er möchte nur, falls es doch Mai sein sollte, den Post hervorholen und allen zeigen, dass er richtig lag :D Da fällt mir ein, ich müsste ähnliche Posts bei sämtlichen RTX-News hinterlassen mit verschiedenen Monaten und dann am Ende den richtigen herauspicken
 
  • Gefällt mir
Reaktionen: Lübke82
Makso schrieb:
Kann es ein das AMD und Apple schuld sind weil die die meisten Kapazitäten gesichert haben.
Nein, ganz sicher nicht. Das hat recht sicher nVidia mal wieder selbst verzapft. Hat ja @Jethro aber bereits dargelegt.
Nulight schrieb:
Wundert mich schon ein wenig, dass die Karten trotz der Preise so gefragt sein sollen , oder einfach nur Strategie ?
Wahrscheinlich eine geniale Mischung aus beidem …
-Ps-Y-cO- schrieb:
Schön wärs... Nvidia nutzt aber sogar noch die 12nm Fertigung
10nm wär ja Mega!
… war aber ja eigentlich geplant, nicht?
cryoman schrieb:
in den USA sind die Lager leergefegt, was RTX Modelle betrifft - auch wenn man es kaum glaubt. . . ;):confused_alt:
Ganz kurioser Gedanke: Vielleicht waren sie nie wirklich voll – zumindest nicht von der neuen Generation?
grins15x18.gif

ZeroZerp schrieb:
Also die Lager bei Neuerscheinen von Pascal waren lange Zeit wie leergefegt.
Ja, weil nVidia offensichtliche Yield-Probleme hatte und das Gros der wartenden Kundschaft bis in das Frühjar des darauf folgenden Jahres warten mußte, um eine GTX 10x0-Karte zu ergattern. Das hat sich dann ja auch bei den Preisen wiedergespiegelt, die ja teilweise bei +1200,– US$ lagen.

Deswegen haben ja Viele statt zur nVidia zur AMD-Karte gegriffen und im Abverkauf ziemliche Schnäppchen ergattern können. Und das hat sich in Folge ja auch im Marktanteil wiedergespiegelt, der für AMD mit 23% respektive 30% nach oben schnellte – für nVidia jedoch im selben Zeitraum um 9% abrupt eingebrach.

Ud ja, auch damals schon haben Viele einen Paperlaunch vehement betritten, auch wenn sämtliche Zahlen und Anzeichen dagegen sprachen. Und wie gehabt, versucht nVidia dieses Jahr das Selbe noch einmal. Warum? Weil es schlicht funktioniert! Deswegen die Founder's Edition
Smartcom5 schrieb:

Die FE, dessen Existenz meiner vollkommen unmaßgeblichen Meinung nach geradewegs zweierlei [dreierlei] Zweck dienen, nämlich erstens a) zu vertuschen, daß man Fertigungsprobleme hat und überhaupt gar keine Stückzahlen liefern kann, b) durch künstliche Verknappung die Preise für maximalen Gewinn hoch zu halten und maximalen Profit zu sorgen und schließlich c) schlicht einen [evidenten] Paperlaunch zu kaschieren.
Das obige Zitat schrieb ich vor über zwei Jahren. Scheint, als könne ich hellsehen …
ZeroZerp schrieb:
Ja- Weil es vielleicht "trottel" gibt, für die 2000,-€ keinen besonderen Wert darstellen, weil diese so viel verdienen.
Dazu müsstest Du aber mal aus Deiner eingeengten Sicht raus und auch mal eine andere Perspektive einnehmen um zu kapieren, dass Dein Preisempfinden nicht für alle Menschen gilt.
Ach stimmt, dieses immer wieder so gern bemühte Cliché, nachdem das niedere Volk ja aufgrund geldwerter Unzulänglichkeiten a.k.a. Armut dazu verdammt ist, vom Billigheimer AMD Hardware zu kaufen – womit die prestige-trächtigen echten Premium-Produkte von Intel und nVidia dem Pöbel wegen akuter Geldknappheit prinzipbedingt vorenthalten bleiben. Danke für den Lacher, mir war‘s fast entfallen!
hhhum15x18.gif


Sag einmal …
Wenn‘s so wäre, dann dürften die ganzen Neureichen ja eigentlich nur die großen Threadripper kaufen, oder?!


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: russianinvasion, Cpt.Willard, s0UL1 und eine weitere Person
cypeak schrieb:
absolute zahlen sind schwierig - aber zumindEst relativ kann man die verbreitung sein einordnen.
die steam hw survey ist mit einer ordentlichen basis an nutzern (also auch datensätzen) ausgestattet, so dass das gebotene bild recht genau ist, obwohl in der auswertung auch laptops mit integrierten gpu lösungen erfasst werden..

gut das sind halt dann nur die gamer wobei die karten ja durchaus auch häufig in workstations verbaut werden. ja ja ich weiß quadro hier treiber support da aber das is nich die reale welt, da schrauben ziemlich viele leute sich ne geforce ins gehäuse weil billig und leistung ;)
 
Der Steam HW Survey ist vll. ein Anhaltspunkt, aber bei weitem keine vollständige Marktanalyse.

Das hat viele Faktoren, unter anderem muss man zum Steam Survey eingeladen werden und diesen dann akzeptieren. Dann sammelt Steam die Hardware-Daten.

Mein Steam Account ist jetzt fast 10 Jahre alt und ich wurde noch nicht ein einziges mal zum Survey eingeladen.

Hinzukommen aber noch dutzende Notebook-User die auf ihrem Notebook irgendwelche Indie-Games spielen, womit das ganze noch mehr verwaschen wird.
 
  • Gefällt mir
Reaktionen: s0UL1 und CBL
Smartcom5 schrieb:
PS: Man überlege sich nur einmal, was passiert, brächte AMD 2× Vega 56 per IF zusammen auf einem einzigen PCB – das Ganze im Sweetspot.

Das dürfte weder wirtschaftlich noch technisch aktuell sinnvoll sein, sonst wäre da AMD sofort dabei. Denke das Scaling wäre unterirdisch und dank Interposer und HBM auch nicht günstiger als der Monster Nvidia Chip.

Ich will meinen AMD weiß schon wieso man das nicht tut ;)

Edit: denke alle größeren Firmen überlegen sich gerade wie so ein Interconnect aussehen könnte. Raytracing entlastet da ggf auch da sehr viel einfacher ein Workload gesplittet werden kann. AMD nennt ihren Bus IF, aber es wird oft so getan als wäre dieser der heilige Gral.
Nvidia wird genauso über kurz oder lang mehrere Die schalten müssen, wollen, damit auch schon seit längerer Zeit planen. Ggf geht Nvlink iwann in diese Richtung. Genau wie bei IF ist das auch erstmal nur ein Name.
Interchip Kommunikation bei GPU 100% transparent für den Treiber und Rasterizing zu gestalten scheint sehr sehr viel komplexer als für CPU da schnell dreistellige, besser vierstellige GB/s gebraucht werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Dye schrieb:
Gut das ich meine Ti schon letzten Samstag bekommen habe :)

Angeber, du hast doch nur den Karton bei eBay bestellt, um ein Foto zu machen :evillol:
Ergänzung ()

snickii schrieb:
Warum bestellen sich so viele diese Schrott-Karten? Warum wartet man nicht auf mehr Customs?

Weil Customs bei der 2080 genauso "Müll" sind und sich nicht wirklich von der Serienkarte unterscheiden bis auf ein wenig bling bling und Lüfterchen. Die +3/+4% geschenkt.
 
  • Gefällt mir
Reaktionen: Lübke82 und Smartcom5
snickii schrieb:
Warum bestellen sich so viele diese Schrott-Karten? Warum wartet man nicht auf mehr Customs?

Die Board Partner dürfen doch nix mehr und die Referenz Karte soll doch bereits Recht leise sein.
 
RGB-LEDs geben +15 auf FPS und Panzerung. ;)

Aber mal Spaß bei Seite, ich gönne jedem seine 2000er Karte.
Ich werde mir keine kaufen. Aktuell finde ich kein passendes Spiel, für welches sich die Karte wirklich lohnen würde.
Um ehrlich zu sein, nur wegen RT sich die Karte zu kaufen empfinde ich als falsch, versteht mich richtig; RT sieht wirklich super aus, aber die aktuellen Spiele sind es einfach nicht. BF5 kommt, ist aber leider kein Battlefield mehr. Nur eine weiter Cash-Cow für EA ohne wirklich etwas neues zu bringen.
Das letzte "neue" Gaming-Feature war die King-of-the-Hill-Massiv-Multiplayer-Geschichte rund um PUBG und Co. Wobei hier Fortnite doch mehr Spaß machte.
Mir persönlich kommt es aufs Gameplay an, nicht wie hübsch es verpackt ist.

Deswegen lohnt sich zur Zeit auch keine neue Grafikkarte, da ich keine wirklich guten Spiele zur Zeit finde.

Bis dahin bleibe ich bei Commander Keen ;)
 
Offtopic
@Krautmaster Und warum nicht? Was genau spricht denn bitte dagegen?
Für mich führt in Zukunft absolut kein Weg an soetwas wie Infinity Fabric™ auch bei GPUs vorbei – da man ja eben nicht beliebig riesige Chips ewig weiter produzieren kann. Die Unmöglichkeit dessen demonstriert nVidia ja bereits schon seit etlichen Generationen … Und genau das hat ja AMD bereits angekündigt.

Gesetzt den Fall daß man die Shader-Cores vom Speicher-Interface trennt, also analog zu AMD's CCX. Da kann man im Falle dessen eine unbegrenzte Anzahl an sogenannten Graphics-Cores beliebig verschalten, welche dann wiederum gemeinsam an das Interface gelegt werden.

Dazu noch einen übergeordneten Taktgeber im Interface, nach denen jeweilige Graphics-Cores synchronisiert Daten verarbeiten und fertig ist die IF-GPU. Quasi eine GPU universalisiert und analog zu Prozessor-Kernen beliebig aneinander reihbar und verschaltbar. Selbst die eher 'primitive' Variante, daß man lediglich eine Dual-GPU-Karte auf Interposer-Level mit IF verbindet, dürfte bereits zu großen Teilen die typischen Schwierigkeiten Richtung Synchronisation eliminieren.

Erkläre doch bitte einmal, weswegen genau Du das weder als „wirtschaftlich noch technisch aktuell sinnvoll“ betrachtest. Hast Du dich überhaupt einmal mit dem Gedanken beschäftigt?! Es wäre wirtschaftlich in höchstem Maße sinnvoll, dies demonstriert AMD beim Ryzen seit jetzt fast zwei Jahren. Oder willst Du dem jetzt ernsthaft widersprechen?
Krautmaster schrieb:
Denke das Scaling wäre unterirdisch und dank Interposer und HBM auch nicht günstiger als der Monster Nvidia Chip.
Die jeweiligen einzelnen GPU-Dies wären um Faktoren günstiger zu fertigen als der momentane Die von Turing. Skalierung wäre Unterirdisch?! Du weißt, daß AMD Crossfire deutlich lüssiger als Nvidia ihr SLI hinbekommt, oder?


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: s0UL1 und Dimos
Smartcom5 schrieb:
Ach stimmt, dieses immer wieder so gern bemühte Cliché, nachdem das niedere Volk ja aufgrund geldwerter Unzulänglichkeiten a.k.a. Armut dazu verdammt ist, vom Billigheimer AMD Hardware zu kaufen – womit die prestige-trächtigen echten Premium-Produkte von Intel und nVidia dem Pöbel wegen akuter Geldknappheit prinzipbedingt vorenthalten bleiben. Danke für den Lacher, mir war‘s fast entfallen! [IMG]https://www.computerbase.de/forum/attachments/hhhum15x18-gif.711538/[/IMG]

Sag einmal …
Wenn‘s so wäre, dann dürften die ganzen Neureichen ja eigentlich nur die großen Threadripper kaufen, oder?!

Nö- Das war von mir auch ohne Unterton und völlich wertneutral gemeint. Die (traurige) Wahrheit ist, dass es nunmal einfach so ist. Der eine lacht über 2000 und für einen anderen ist es unerreichbar bzw. er müsste 2 Jahre drauf sparen.
Finde ich auch ein wenig problematisch, dass man für ein "Spielzeug" solche Summen mobilisieren soll.

Bei mir schrammt die 2080 RTX TI durch das Überschreiten der 1000€ Grenze am "Impulskauf" vorbei.
Ich denke es geht vielen wie mir. Irgendwas sträubt sich in mir, mehr dafür auszugeben, weil auch ich (das rein subjektive) Gefühl habe, dass die Dinger für unter 1000€ zu haben sein sollten.

Ob gerechtfertigt oder nicht ist erstmal egal. RTX und Tensor- Cores fallen in naher Zukunft als Argument ja vorläufig weg.
Ich kenne die Gesamtkosten für die Karten von nVidia nicht. Weiss aber, dass in Zukunft die Preise mit jedem Leistungssprung wahrscheinlich unangenehmer werden.

Ich warte jetzt erstmal ab und verkneife mir das Ding und das obwohl ich durch VR jedes einzelne Frame in höchsten Auflösungen mehr als brauchen kann und das Geld auf dem Konto parkt...

Ich habe einfach kein gutes Gefühl... Und das hat mich in den letzten 36 Jahren in Sachen IT selten getäuscht.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, CBL, MouseClick68 und 2 andere
na das läuft doch :_)
 
Was habt ihr alle mit 10nm? Es ist völlig egal, in was oder wie die Grafikkarten gefertigt werden.
Am Ende zählt Leistung zu Preis. Dazu kommt noch Stromverbrauch, Abwärme usw..
 
  • Gefällt mir
Reaktionen: Lübke82
Smartcom5 schrieb:
@Krautmaster Und warum nicht? Was genau spricht denn bitte dagegen?
Für mich führt in Zukunft absolut kein Weg an soetwas wie Infinity Fabric™ auch bei GPUs vorbei – da man ja eben nicht beliebig riesige Chips ewig weiter produzieren kann. Die Unmöglichkeit dessen demonstriert nVidia ja bereits schon seit etlichen Generationen … Und genau das hat ja AMD bereits angekündigt.

für mich führt an sowas wie IF auch kein Weg vorbei, imho wird es immer schwerer die Fertigung zu pushen, kleiner zu werden, billiger wird das nicht.
Deswegen ergänzte ich auch dass sicher schon alle Big Player dahingehend forschen. Ich seh ich bisher aber wenig Vorteil bei AMD, nur weil sie die aktuellen CPU Die mit IF koppeln. Es war der logische und richtige Ansatz von AMD das so zu realisieren, das zahlt sich jetzt auch aus.

Technisch ist das denke ich weniger das Problem, es muss aber frühzeitig eingeplant sein. Und aktuell haben die die Chips eher schon das Problem dass selbst auf einem Die die Skalierung schwer nahe linear hinzubekommen ist...
Vega hat zb selbst mit sparsamen HBM SI schon 2x mehr Transistoren als Hawaii und kommt auf ein Scaling von (im absoluten GPU Limit) von 180%, also Faktor 1,8. Dabei taktet sie aber auch noch 50% höher als der Hawaii Chip. Entsprechend schlecht ist das Scaling. Aus einer rein über Transistoren und Takt bezogenen Skalierng von 2,0 x 1,5 = 300% wird 180%.
Ich bezweifle stark dass zwei dieser Die da besser skalieren würden, eher noch schlechter.
(bei Nvidia quasi dasselbe, hier nur AMD als Beispiel)

Wäre Multi Chip Module bei GPU so der Durchbruch der da nun erfolgt ist würde AMD und auch vermutlich Nvidia schon lange direkt 2 oder mehr Die via Interposer verbinden - man hat sich bisher aber höchstwahrscheinlich aus wirtschaftlichen wie technischen Gründen für die "1-Die" Lösung entschieden.
Mit jeder neuer Fertigung und bei entsprechendem Druck der Konkurrenz wird da sicher neu abgewogen.

Ich glaube das kann man auch nur sehr bedingt mit CF / SLI vergleichen da die Sache komplett transparent als 1 Chip agieren müsste um eben besagte CF / SLI Probleme zu umschiffen.

Erkläre doch bitte einmal, weswegen genau Du das weder als „wirtschaftlich noch technisch aktuell sinnvoll“ betrachtest. Hast Du dich überhaupt einmal mit dem Gedanken beschäftigt?! Es wäre wirtschaftlich in höchstem Maße sinnvoll, dies demonstriert AMD beim Ryzen seit jetzt fast zwei Jahren. Oder willst Du dem jetzt ernsthaft widersprechen?

günstiger fertigen bringt in dem Fall wenig wenn das Resultat nicht von der Performance stimmt. CPU Kerne agieren da doch ganz anders, haben ein weit weniger verteilten Bedarf an Speicher.

Ich versuchs zu erklären (so wie es mir logisch erscheint). CPU Aufgaben haben meist ein fixes Set an Arbeitsdaten. Jeder Kern kann für sich unabhägig rechnen, bekommt den Speicher aus dem nageliegenden Bereich (deswegen gibst sowas wie Numa). Deswegen reicht da eine vergleichsweise kleine Bandbreite zum Speicher, über den aktuellen IF Aufbau bei Ryzen / Epyc realisiert das AMD auch gut. Aber auch hier gibt es schon Probleme wenn "chaotisch" Kern X über zwei andere Die auf den Ram zugreifen will. deswegen gibt es Gamemode, Windows Sheduler Probleme usw.

Und bei GPU passiert quasi genau das fortlaufend. Du hast quasi >4000 Kerne die chaotisch in den VRAM greifen wollen, mit enorm hoher Bandbreite. Latenzarm.
Genau deswegen haben weder CF noch SLI Systeme nie wie "eine GPU" agiert sondern immer versucht das Workset in der Application Layer zu trennen. Doppelte Datenhaltung (damit möglichst schnell von beiden GPU zugreifbar) und teilweise auch so dass wirklich einzelne Aufgaben, zb das Bild, gesplittet gerechnet wurde.

Ich sage nicht dass es nicht technisch gehen würde, aber solange eine einzelne Die besser funktioniert und finanziell genauso gut tragbar ist, geht man den Ansatz.

Nvidia zeigt ja gut wie hoch die Marge selbst bei ner 16nm 700mm² GPU ist. Der Chip wird dennoch kaum 250$ kosten.
Wenn ich im Gegenzug das ganze aus 2x400mm² Chips realisiert bekomme muss das aktuell nicht billiger sein, ggf ist es das dann aber in 3nm.

So etwas wie Interposer und mehrere Chips drauf gibt es nicht erst seit gestern. Auch das Verständnis von einem Bussystem dürfte bei IF nun keinen Breakthrough erreicht haben. Es hat schon seinen Grund weshalb das AMD bei CPU macht und bei GPU nicht.

Smartcom5 schrieb:
Die jeweiligen einzelnen GPU-Dies wären um Faktoren günstiger zu fertigen als der momentane Die von Turing. Skalierung wäre Unterirdisch?! Du weißt, daß AMD Crossfire deutlich lüssiger als Nvidia ihr SLI hinbekommt, oder?

ist dem so? Wie schaut es denn da aktuell aus? Also HB Bridge / NVLINK vs CF über PCIe? Haste da nen Test dazu?
Ich mein das sagt erstmal wenig aus, weil wie gesagt immernoch CF und SLI angewendet wird und das System hier nicht "einer GPU" gleich kommt.

Das wird auch mehr von dem betriebenen Aufwand in jener "Application layer" abhängen als vom GPU Design selbst.
 
Zuletzt bearbeitet:
Zurück
Oben