Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Es gab früher Grafikkarten von 200€ bis 600€, und die wird es auch nächstes Jahr geben. Inklusive mehr Performance. Keine Ahnung was eure Panikmache soll, erschließt sich wohl nur dir.
 
Natürlich wird es weiterhin bezahlbare Grafikkarten geben.

Offensichtlich hast du weder den Artikel noch meine Beiträge verstanden...:

High End meint Big Chips und sowas wird es nicht mehr für 600 Euro "wie damals" geben.

Der Post von Leonidas ist auch keine Panikmache sondern eine nüchterne Analyse der zugrunde liegenden Tatsache das 7nm teuer ist.

Dies wurde vor Jahren prognostiziert und tritt jetzt ein. Da hilft auch das allgemeine Gezeter nicht. Die alten Preise kommen nicht mehr zurück
 
Tja, jeder wie er meint. Für mich das Ende der "Diskussion".
 
Ja genau. Wenn es dir lediglich um Meinungen geht und nicht um Fakten ist dem tatsächlich nichts mehr hinzuzufügen.

Mal davon abgesehen das du ziemlich wirren Kram abgegeben hast. Ich habe geschrieben das die Zeiten von relativ bezahlbaren High End PC zu Ende sind und du verkündest das es weiterhin Karten ab 200 Euro gibt :freak:

Passt schon
 
tek9 schrieb:
Ja genau. Wenn es dir lediglich um Meinungen geht und nicht um Fakten ist dem tatsächlich nichts mehr hinzuzufügen.

Mal davon abgesehen das du ziemlich wirren Kram abgegeben hast. Ich habe geschrieben das die Zeiten von relativ bezahlbaren High End PC zu Ende sind und du verkündest das es weiterhin Karten ab 200 Euro gibt :freak:

Passt schon

wenn das mit intel klappt und gut läuft, wohl eher nicht :)
 
Ja bitte.

Wobei Konkurrenz lediglich sie Margen der Anbieter reduziert. Die Kosten für die Herstellung der Chips werden durch zusätzliche Mitbewerber nicht reduziert :-/
 
tek9 schrieb:
Mit 7nm steht uns der nächste Schritt nach oben bevor:

https://m.3dcenter.org/news/der-7nm-prozess-verdoppelt-die-fertigungskosten-auf-gleicher-chipflaeche

Die Zeiten in denen man sich für billiges Geld ein High End Rig zusammenstellen konnte sind vorbei und werden auch nicht mehr wiederkommen.
tek9 schrieb:
Das ist leider nicht zutreffend.

Lies den Artikel besser nochmal durch.

So war es es immer in der Vergangenheit und so wird es auch in Zukunft laufen:
Andererseits sind Grafikchip-Entwicklern gerade im Gegensatz zu den Prozessoren-Herstellern viel eher gezwungen, das maximal mögliche an Chipfläche zu investieren – immerhin führt bei Grafikchips kein anderer Weg zu zuverlässig mehr Performance als schlicht der Verbau von mehr Hardware-Einheiten, respektive mehr Transistoren.


Von daher ist es die Preislage der letzten zwei Jahre kein Ausreißer nach oben, sondern der neue Standard ;)

Finde den Artikel ein wenig oberflächlich. Grundsätzlich kann man aber zustimmen, dass der Trend zu immer kleineren Strukturen bei größer werdenden monolithischen Chips höhere Kosten verursacht.
Dabei spielen mehrere Faktoren eine Rolle:
  • steigende Entwicklungskosten eines Chips, welche in der Verkaufsphase wieder reingeholt werden müssen
  • Komplexität der Fertigung (d.h. die einzelnen Fertigungsschritte)
  • Chipgröße
  • damit zusammenhängend Yield und Reife des Fertigungsprozess
Was sagt überhaupt die Grafik von 3D-Center aus?
Steigende-Kosten-mit-jedem-neuen-Fertigungsverfahren.jpg


Es bezieht sich lediglich auf die Fertigungskosten eines 250mm² Chip in den unterschiedlichen Fertigungsverfahren. Und das "per yielded mm²", dh. abzüglich Ausschuss.
Die Grafik hat AMD übrigens als Anlass genommen die Chiplet-Strategie zu wählen und präsentieren.

Warum aber der große Sprung bei 7nm in den Fertigungskosten?
Siehe Punkt 2 meiner Liste. 7nm setzt noch auf herkömmliche Lithographie und zur Fertigung eines Chips bedarf es eine hohe Anzahl an kritischen Schritten und mehrfache Belichtung.

D.h. die Kosten pro Wafer steigen. Durch die hohe Komplexität steigt aber auch der Ausschuss und damit die Kosten pro Chip. Daher der steile Anstieg in der Grafik.

Was der Artikel meiner Meinung nach leider falsch wiedergibt es folgendes:
Leonidas schrieb:
Zwar bietet die mittels TSMCs verbessertem 7FF+ Fertigungsverfahren kommende EUV-Belichtung eine gewisse Kostenreduktion, da die neue Beleuchtungstechnologie (:confused_alt:) einige Fertigungsschritte deutlich vereinfacht. Doch trotz das erwartet wird, das (:confused_alt:)nVidia mit seiner ersten 7nm-Generation auf die Verfügbarkeit von 7FF+ wartet, bietet auch die EUV-Belichtung nur ein paar Prozente an Vorteil – und damit nichts, was einem Faktor 2 irgendwie nahekommen könnte.

Was der Herr Leonidas hier anscheinend verwechselt sind einerseits die Packdichte- und Performance-Vorteile von 7nm auf 7nm+ (was sich bei einem Shrink eines beliebigen Chips ein wenig auf die Diegröße, Energieverbrauch und oder auch Performance auswirkt) und andererseits die reinen Fertigungskosten aufgrund der Komplexität der einzelnen Fertigungsschritte.
09061753343l.jpg

Siehe 7nm auf 7nm+ . Da sind die erwähnten "paar Prozent".
Stichwort ist hier aber die EUV-Belichtung, bei der wir hinsichtlich der Komplexität auf einmal wieder auf dem Niveau von 20nm sind.
asml_20161031_04_investor_day_2016_euv_and_its_business_opportunity_hmeiling_5.png


Ich denke anhand dieser Grafik kann jeder eine Vorstellung davon bekommen wie wichtig EUV für die Halbleiterindustrie ist. 7nm+ mit EUV wird die Fertigungskosten stark senken. Da sich gleichzeitig die Yield verbessert, werden wir auch wieder 750mm² Chips sehen.
Die sind mit 7nm meiner Meinung nach nicht wirtschaftlich möglich.
Das wird sich auch positiv auf die Preise auswirken. In welchem Maße, kann ich natürlich nicht voraussehen, da Nvidia und auch AMD wohl auch eine höhere Marge gerne mitnehmen, da wo es möglich ist, zumal auch
die Kunden jetzt an ein höheres Preisniveau gewöhnt sind.

Was zu guter Letzt auch erwähnt werden soll: EUV ist ein Buschfeuer. Mit 5nm wird die Komplexität und damit die Fertigungskosten wieder steigen und die Entwicklungskosten/Chip sowieso.

Vielleicht ist 7nm+ der letzte Node zu günstigeren Grafikkartenpreisen und damit meine ich nicht 500$, sondern eher 749$ für eine 600mm² RTX 4080ti
Von daher gebe ich @tek9 hier letztendlich recht.

Man muss sich einfach nur mal anschauen, wann es zuletzt High-End für 500USD gab.
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_900_series
Da waren die Chips auch "nur" 500mm² groß. So groß ca. wie ne Vega64. Und die hat kaum Marge ;)
 
Rock Lee schrieb:
Ich denke anhand dieser Grafik kann jeder eine Vorstellung davon bekommen wie wichtig EUV für die Halbleiterindustrie ist. 7nm+ mit EUV wird die Fertigungskosten stark senken. Da sich gleichzeitig die Yield verbessert, werden wir auch wieder 750mm² Chips sehen.

Was du aber vergisst ist, dass die Bedingungen für die Produktion und die Entwicklung von 7nm EUV enorme Kosten bedeuten, die auf die Produktionskosten umgeschlagen werden. Du solltest mal nicht eine Werbefolie von ASML dazu verwenden um Rückschlüsse auf die tatsächlichen Gesamtkosten zu ziehen, das Belichten ist zwar ein wichtiger Teil, aber eben nur ein Teil der Kosten was auf die Hersteller zukommt.

GloFo hat ja nicht umsonst die Reißleine gezogen und ein Investor aus den Emiraten hätte mit Sicherheit kein Problem damit gehabt mehr Geld zuzuschießen, wenn die von dir prophezeiten "Senkungen" von Produktionskosten auch nur ansatzweise der Realität entsprechen könnten.

Die Probleme mit EUV beschreibt zum Beispiel dieser Artikel sehr gut, wobei natürlich nicht nur EUV ein Problem ist, sondern die immer kleiner werdenden Strukturen.
https://semiengineering.com/euvs-new-problem-areas/

Das sich der Yield dabei verbessern wird, ist letztlich auch nur Wunschdenken. Die Belichtungsschritte sind zwar weniger Komplex, jedoch ist mit den kleineren Strukturen jeder Fehler umso schwerwiegender.
 
Zuletzt bearbeitet:
Aber wenn eine Produktionsstrecke die hohen Anforderungen von 7nm (Reinheit, Positioniergenauigkeit etc) anbietet, sollte EUV in jedem Fall eine deutliche Senkung der Komplexität bringen. Also stimmt das Argument von Rock Lee, das den Vergleich zwischen 7nm+ mit EUV und 7nm ohne EUV bringt, schon.
 
  • Gefällt mir
Reaktionen: Rock Lee
Ich denke wir driften ein wenig ab, daher das Offtopic in Spoilern:
xexex schrieb:
Was du aber vergisst ist, dass die Bedingungen für die Produktion und die Entwicklung von 7nm EUV enorme Kosten bedeuten, die auf die Produktionskosten umgeschlagen werden.
Nicht wirklich vergessen, aber es ist klar, dass die Kosten für die neu oder umgebauten Werke auf die Produktionskosten umgeschlagen werden. Es handelt sich aber hier um einmalige Kosten, welche ab einer bestimmten produzierten Wafer-Menge den Break-Even Point erreichen und danach immer weniger ins Gewicht fallen. Die Nachfrage an Wafern von TSMC ist bisher immer gestiegen, daher haben sich die Investitionen auch gelohnt. Wovon ich rede sind die variablen Produktionskosten.

xexex schrieb:
Du solltest mal nicht eine Werbefolie von ASML dazu verwenden um Rückschlüsse auf die tatsächlichen Gesamtkosten zu ziehen, das Belichten ist zwar ein wichtiger Teil, aber eben nur ein Teil der Kosten was auf die Hersteller zukommt.
Komisch, es sind immer nur "Werbefolien" wenn die Zahlen einem nicht in den Kram passen ;)
Außerdem rede aber nicht nur vom Belichten sondern allen Schritten bei der Produktion. Das habe ich auch so mehrfach geschrieben :)
ich schrieb:
[...]und andererseits die reinen Fertigungskosten aufgrund der Komplexität der einzelnen Fertigungsschritte.
ich schrieb:
[...]und zur Fertigung eines Chips bedarf es eine hohe Anzahl an kritischen Schritten und mehrfache Belichtung.

xexex schrieb:
GloFo hat ja nicht umsonst die Reißleine gezogen und ein Investor aus den Emiraten hätte mit Sicherheit kein Problem damit gehabt mehr Geld zuzuschießen, wenn die von dir prophezeiten "Senkungen" von Produktionskosten auch nur ansatzweise der Realität entsprechen könnten.
Glofo hat die Reissleine gezogen, weil sie keine Kunden hatten für ihre Produkte und die Kapazität an 7nm-Produkten nicht ausgereicht hätte um profitabel zu sein. Aber ich hatte auch explizit von 7nm+ mit EUV gesprochen. Was hat der Ausstieg von GloFo mit den Produktionskosten von 7nm+ EUV zu tun?

xexex schrieb:
Die Probleme mit EUV beschreibt zum Beispiel dieser Artikel sehr gut, wobei natürlich nicht nur EUV ein Problem ist, sondern die immer kleiner werdenden Strukturen.
https://semiengineering.com/euvs-new-problem-areas/
Die Probleme durch EUV sind mir hinlänglich bekannt. Wäre es so einfach einzuführen, gäbe es schon seit 4-5 Jahren entsprechende Produkte zu kaufen. Tatsächlich sind wir aber im Vergleich zu damals einen Riesenschritt weiter. Oder anders gesagt. Ohne EUV würden wir bald gar nicht mehr weiterkommen. Der Artikel mutmaßt aber, dass diese Probleme wahrscheinlich erst bei 5nm auftauchen. Von günstigen 5nm-Produkten habe ich aber nicht gesprochen. ;)

xexex schrieb:
Das sich der Yield dabei verbessern wird, ist letztlich auch nur Wunschdenken.
So?
Anandtech spricht in diesem lesenswerten Artikel, aber mehrfach von verbesserten Yields durch EUV.
https://www.anandtech.com/show/1155...nm-plans-three-generations-700-mm-hvm-in-2018

Um mal wieder auf Nvidia-Chips zurückzukehren. Diesen RT- und Tensor-Core-Rucksack müssen sie jetzt erstmal mitschleppen. D.h. man wird nicht einfach beim Nachfolger darauf verzichten.
Ich weiss nicht, ob Sie sich damit einen Gefallen im Gaming-Bereich getan haben.
Denn selbst einen reinen Shrink in 7nm wäre bei einem TU102 schätzungsweise immer noch 450mm² groß, nur 25%-30% schneller, aber dennoch kaum bezahlbar.
D.h. fürs Highend-Segment wird man bis 7nm+ warten und es kommen meiner Ansicht nach erst wieder 2020 neue GPUs.

Ich bin mal auf den Midrange-TU116 gespannt. :)
 
Neue Atomic Heart preview:

Ist schon beeindruckend mehrere RTX Effekte zusammen zu sehen... Shadows, Reflections...
Das ganze mit global illumination, caustics. So ein Look war einfach bis jetzt nicht in Echtzeit möglich.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: kisser und xexex
Gibt's das auch irgendwo in 4K (und 60fps)?
1080p sind auf Youtube echt ungenießbar ... ist nur noch Artefakte-Brei.

Edit:
Ah, gibt's tatsächlich aus offizieller Quelle.
Diese beschissenen Low-Quality-Reuploads sollten verboten und mit einem Lifetime-Youtube-Ban bestraft werden.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Esenel
Danke für den Original-Link. Diese Demo sieht wirklich atemberaubend aus und sollte optisch das Ziel sein, das man mit Raytracing anstrebt. Ansonsten ist der Unterschied einfach zu gering. Ich würde wirklich gerne wissen, wieviel Leistung mit all diesen Effekten notwendig wird.
 
Und ich würde gerne wissen, wie weit man im direkten Vergleich ohne RT kommen würde, wenn man es denn ernsthaft versuchte.

Überzeugende Softshadows gab's schon vorher (Nvidia PCSS) und die Voxel basierte Ambient Oclusion (VXAO) ist ebenfalls sehr gut.

Und Screen Space Reflexions können deutlich besser aussehen als in der Demo.
Ich kann mich sogar an einen Artikel erinnern, der zeigte, daß auch Spiegelungen von Dingen möglich sind, die nicht im Sichtfeld liegen (vermutlich verbunden mit höherer Rechenlast ... dürfte bei RT aber nicht anders sein).


Ich will damit gar nicht sagen, daß RT nicht toll/besser ist.
Aber bei solchen Vergleichen sollte man vorsichtig sein. Das "RTX Off" zeigt nicht, wie Games ohne RT aussehen (können).
Und so grandios und neuartig finde ich die Demo nun nicht. Sie stellt die RT Effekte gut dar. Aber ich habe schon deutlich bessere Grafik gesehen.
 
USB-Kabeljau schrieb:
Und so grandios und neuartig finde ich die Demo nun nicht. Sie stellt die RT Effekte gut dar. Aber ich habe schon deutlich bessere Grafik gesehen.

Es ist auch keine Demo!
https://mundfish.com/en/

Grafisch ein absoluter Leckerbissen und in VR vermutlich ein Oberknaller.
 
Zuletzt bearbeitet:
Das Video ist natürlich eine RTX-Demo, die sogar auf den offiziellen NVidia-Kanälen läuft.

Und die Grafik finde ich auch in dem von dir geposteten Video jetzt nicht wirklich atemberaubend.
 
USB-Kabeljau schrieb:
Das Video ist natürlich eine RTX-Demo, die sogar auf den offiziellen NVidia-Kanälen läuft.

Die Grafik ist aber keine Demo, sondern das Spiel wie es mit RTX aussehen soll.. Eine Demo ist sowas hier!

Jetzt stelle man sich vor wie diese Demo mit realistischeren Schatten aussehen würde!
 
Zuletzt bearbeitet:
"Die Grafik" ist weder eine Demo noch ein Spiel.
Das Video ist eine Demo. Das Spiel ist ein Spiel.
Das Spiel hat die selbe Grafik wie die Demo.
 
USB-Kabeljau schrieb:
Und ich würde gerne wissen, wie weit man im direkten Vergleich ohne RT kommen würde, wenn man es denn ernsthaft versuchte.

Überzeugende Softshadows gab's schon vorher (Nvidia PCSS) und die Voxel basierte Ambient Oclusion (VXAO) ist ebenfalls sehr gut.
Man würde vermutlich genauso weit wie mit RT kommen, weil alle die von Dir beschriebenen Techniken bereits auf Raytracing in entsprechend niedriger Qualtät basieren ;)

Nur wäre, wenn man das auf gleiches QUalitätsniveau heben will, dann halt wieder im Gegensatz zur Berechnung mit RTX dann wieder unspielbar langsam. Deswegen macht man das ganze ja.

Und Screen Space Reflexions können deutlich besser aussehen als in der Demo.
Ich kann mich sogar an einen Artikel erinnern, der zeigte, daß auch Spiegelungen von Dingen möglich sind, die nicht im Sichtfeld liegen (vermutlich verbunden mit höherer Rechenlast ... dürfte bei RT aber nicht anders sein).
Siehe oben.

Und so grandios und neuartig finde ich die Demo nun nicht. Sie stellt die RT Effekte gut dar. Aber ich habe schon deutlich bessere Grafik gesehen.

Bei welchem Titel gabs denn schon solch eine Grafikqualität? DEUTLICH besser?

Grüße
Zero
 
USB-Kabeljau schrieb:
Das Spiel hat die selbe Grafik wie die Demo.

Was anderes habe ich auch nie behauptet, es macht aber schon einen riesigen Unterschied ob man gerade eine Szene aus dem kommenden Spiel zeigt oder eine speziell zu Demonstrationszwecken erstellte Szene. Die Szene aus Atomic Heart sieht für mich jedenfalls um längen besser aus, als das was 3DMark für ihr Benchmark gebaut hat.

Es mag schönere Demos geben, wie das von mir verlinkte, die Schatten und Reflexionen hat man aber so noch in keinem Spiel gesehen.
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben