News GDDR6: GeForce RTX mit Micron, Quadro RTX mit Samsung

jusaca schrieb:
Und die neue Generation von Nvidia, nach mehr als 2 Jahren Wartezeit, enttäuscht doch wirklich schon vor Start mit den Marketingzahlen, besser werden dann unabhängige Tests sicherlich nicht. Verständlich, dass da einige Kunden mehr erwartet haben. Und das auch noch bei den Preisen

Mich enttäuscht da gar nichts. Im Gegenteil. Es zeichnet sich ja nun anhand der Leaks deutlich ab, dass die Performance gegenüber Pascal im 1:1 Vergleich der Karten (1080 vs 2080 usw.) je nach Spiel/Benchmark bei ca. 25% bis 55% in der Spitze liegen wird... im Mittel erscheinen gute 40% realistisch, also sehr nah an nVidia's +50% "Marketingzahl".

Das ist für einen solchen Mini-Shrink von 16nm auf 12nm (~ 16nm+) mehr als ordentlich und das Gegenteil von Enttäuschung, nämlich sogar eine positive Überraschung, die mich in meiner Kaufabsicht nur noch bestärkt.

Es war aber vorauszusehen, dass die AMD Fanboys, die nunmehr seit Jahren wirklich allen Grund zur Enttäuschung haben, nun in jedem Thread ihr Gift und ihre Galle verspucken müssen.
Das war ja beim Pascal-Launch schon genauso, wo mit allen Mitteln versucht wurde, die Karten schlecht zu reden und den Interessenten ihren Kauf mies zu machen.

Ergebnis: Pascal war nach der legendären GTX 8800 Serie das Beste, was nVidia je abgeliefert hat und die Generation hat ihnen ein beeindruckenderes Rekordquartal nach dem nächsten beschert.

Insofern kann ich zu der Miesmacherei der AMD Fanboys nur sagen: Nice try. Try again. :D :p
 
  • Gefällt mir
Reaktionen: DaniLt, ZeusTheGod, Neo1179 und 3 andere
Moriendor schrieb:
Mich enttäuscht da gar nichts. Im Gegenteil. Es zeichnet sich ja nun anhand der Leaks deutlich ab, dass die Performance gegenüber Pascal im 1:1 Vergleich der Karten (1080 vs 2080 usw.) je nach Spiel/Benchmark bei ca. 25% bis 55% in der Spitze liegen wird... im Mittel erscheinen gute 40% realistisch, also sehr nah an nVidia's +50% "Marketingzahl".

Das ist für einen solchen Mini-Shrink von 16nm auf 12nm (~ 16nm+) mehr als ordentlich und das Gegenteil von Enttäuschung, nämlich sogar eine positive Überraschung, die mich in meiner Kaufabsicht nur noch bestärkt.

Es war aber vorauszusehen, dass die AMD Fanboys, die nunmehr seit Jahren wirklich allen Grund zur Enttäuschung haben, nun in jedem Thread ihr Gift und ihre Galle verspucken müssen.
Das war ja beim Pascal-Launch schon genauso, wo mit allen Mitteln versucht wurde, die Karten schlecht zu reden und den Interessenten ihren Kauf mies zu machen.

Ergebnis: Pascal war nach der legendären GTX 8800 Serie das Beste, was nVidia je abgeliefert hat und die Generation hat ihnen ein beeindruckenderes Rekordquartal nach dem nächsten beschert.

Insofern kann ich zu der Miesmacherei der AMD Fanboys nur sagen: Nice try. Try again. :D :p
"Sind alles Fanbois von AMD hurr durr"
Nur weil man etwas nicht gut heisst ist man gleich ein Fanboi.
Habe ne Nvidia Karte und find ich mega Lächerlich was da mit rtx bla abgezogen wird.

Ach ne bin AMD Fanboi ganz vergessen, uga uga.

Du bist einfach nur lächerlich und das ist schon traurig genug, also heul wo anders mit deinen beschuldigungen das jemand xyz ist weil er es nicht gut heisst.

Mongoloidi.
 
  • Gefällt mir
Reaktionen: qappVI
Ich finds schon schade, dass jegliche Kritik als Fanboy-Gelaber abgetan wird, egal wie berechtigt sie ist. Das wirft irgenwie immer den Verdacht auf, dass vielleicht eher derjenige, der solche Vorwürfe von sich gibt, besagter "Fanboy" ist...

Ich bin ganz bestimmt kein AMD Fanboy, die Karten von Nvidia sind immer noch besser als die von AMD. Aber gerade bei dem gigantischen Gewinn, den NVidia momentan einsteckt, war einfach mehr Fortschritt durch große Mengen Geld für R&D zu erwarten.
Und dazu kommen diese unverschämten Mondpreise, die für die 2000er-Serie aufgerufen wird. Ich würde ja sagen: Ach, sollen die Dummen eben kaufen, juckt mich nicht. Aber das Problem ist, dass es ja nicht besser wird, wenn der Hersteller merkt, dass er mit solch einer Dreistigkeit immer durchkommt! Und leider gibt es zunehmend Leute, die unreflektiert und in braver "Fanboy-Manier" absurde Summen ausgeben, komme was da komme... Verrückte Zeiten ;/
 
  • Gefällt mir
Reaktionen: Zaiphon, alkaAdeluxx, stevefrogs und eine weitere Person
Smartcom5 schrieb:
Na, das bedeutet ja dann wohl, daß die gesamte RTX-Generation de facto Null OC-Potenzial bieten wird – wie es ja schon der Launch der GTX 1070 damals gezeigt hat. Damals gab's ja bei den Modellen mit Speicher von Micron auch keine große Luft zur Übertaktung.

Schon seinerzeit bot der Micron-Speicher gegenüber den mit Speicher von Samsung bestückten Modellen praktisch nicht vorhandenes Übertaktungspotential, während solcher von Samsung teils massiv übertaktet werden konnte.

Die RTX-Generation glänzt hier wirklich!
  • RT-Funktionen praktisch obsolet (kein Mehrwert/leistungshungrig)
  • Kaum vorhandene Mehrleistung zur Vorserie GTX 10x0
  • Durch Micron-Chips sehr wahrscheinlich kein OC-Potential
  • Vollkommen überüberteuerte Wucher-Preise
  • Marketing um das alles zu rechtfertigen ✔✔
Das Einzige, womit die RTX-Karten im Moment glänzen, ist grandioses Marketing – um auch noch den größten Quatsch zu vollkommen überzogenen Taxen an den Spieler zu bringen …


In diesem Sinne

Smartcom

Du vergleichst GDDR5 mit GDDR6, Du kannst also überhaupt gar keine Auskunft darüber geben in wie weit sich der Speicher übertakten lässt. Ob ein Speicher OC überhaupt Sinn macht bei Turing kannst Du auch nicht wissen.

Ob die Karten kaum Mehrleistung haben, wobei man von 1070->2070 / 1080->2080 jeweils von 30% ausgehen kann und bei der Ti Version von 35%+, ist scheinbar Ansichtssache.

Die Preise sind für DICH teuer und Wucher, für andere nicht.

Marketing ist selbstverständlich das A&O bei einem Launch, alles andere wäre lächerlich.

Das Raytracing und DLSS obsolete Funktionen sind, kann wirklich nur jemand behaupten der außer Minecraft nichts anderes gespielt hat. Dass zumindest RT leistungshungrig ist, sollte klar sein und war auch klar. Raytracing ist in der 1. Generation ein nice to have um sich ein Bild von der Zukunft machen zu können. Dass nachfolgende Generationen das deutlich besser können werden steht außer Frage.
 

Anhänge

  • Taschentuch.JPG
    Taschentuch.JPG
    21,2 KB · Aufrufe: 544
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, lalelu, estros und eine weitere Person
Bleibt nur zu hoffen, dass Micron diesmal was besseres abliefert. Meine erste GTX 1070 musste ich tatsächlich zurückschicken, weil deren RAM trotz Firmwareupdate den Stocktakt knapp nicht schaffte.
 
t3chn0 schrieb:
Das Raytracing und DLSS obsolete Funktionen sind, kann wirklich nur jemand behaupten der außer Minecraft nichts anderes gespielt hat. Dass zumindest RT leistungshungrig ist, sollte klar sein und war auch klar. Raytracing ist in der 1. Generation ein nice to have um sich ein Bild von der Zukunft machen zu können. Dass nachfolgende Generationen das deutlich besser könen werden steht außer Frage.
Endlich mal jemand der es verstanden hat und nicht denkt, dass so etwas aufwendiges jetzt auf einmal in 4k mit 144 FPS laufen müsste.

EDIT: Ich finde es allgemein einfach nur traurig wie viele Leute denken, dass neue Produkte mindestens x% schneller, stromsparender und was alles sein MÜSSEN um nicht "gerechtfertigt" geflamet zu werden.
Die Hersteller bringen nun mal das raus, was sie zu der Zeit technisch in Masse produzieren können.
Wenn Nvidia eine neue Technologie releaset, warum beschwert sich dann jeder darüber? Oder wenn der Leistungszuwachs nur gering ist, dann besteht doch sowieso kein Bedarf es zu kaufen und man lässt es eben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut
t3chn0 schrieb:
Das Raytracing und DLSS obsolete Funktionen sind, kann wirklich nur jemand behaupten der außer Minecraft nichts anderes gespielt hat.

@T3chno

Bei deinen Posts frage ich mich oft, ob du vll. in der Marketing Abteilung von nVidia sitzt.

Raytracing mag die Zukunft sein, ist aber bei weitem noch nicht Marktreif. Da wurde vor ein paar Tagen noch von ein paar Experten im Forum gesprochen, dass Dice das bestimmt noch gut optimiert und man dann vll. wenigstens in 1440p mit 60 FPS spielen kann. Nun kommt die nächste Hiobs-Botschaft, die tollen RT Effekte müssen zurückgeschraubt werden, und das bei einer der besten Engines am Markt, was Leistung/Optimierung angeht.

DLSS würde ich skeptisch sehen, da die Screenshots in der Präsentation eins gezeigt haben: Qualitativ kann DLSS nicht mit nativem 4k Material mithalten, man sieht deutlich wie "verwaschen" das Bild wirkt.

Klar, wenn ich die Qualität so drastisch reduziere, wundert es mich nicht, dass sie plötzlich 20-30% mehr FPS rausholt. :daumen:
 
  • Gefällt mir
Reaktionen: ChuckBROOzeG, Muxxer und Smartcom5
Das können sie gerne machen wie sie wollen. Ich spiele BF5 eh nicht mit RT, da ich gerne ganz oben im Scoreboard bin. Genau so wenig interessiert mich 4K Gaming. Mich interessieren 160FPS bei 2560x1080P und Ultra Preset =). Ich werde mir aber Raytracing natürlich mal angucken. Ich fand auch das manche Oberflächen viel zu sehr geglänzt haben mit RT. Dafür gibt es andere Details, z.B. die Spiegelungen im Wasser etc. die ich sehr schön fand.

Ich sehe Raytracing eher im Bereich von Singleplayer Spielen wie Cyberpunk, Metro, Tomb Raider etc. , aber diese Spiele spiele ich halt nahezu gar nicht. Ich spiele competitive Shooter =). Deshalb sagte ich ja bereits, dass mein Kaufgrund primär ist, die schnellste Gaming Karte zu haben und die neusten Features, dass ich mir zumindest mal angucken kann in welche Richtung das geht und das First Hand. Der Rest ist mir egal.
 
  • Gefällt mir
Reaktionen: qappVI
FeelsGoodManJPG schrieb:
Ich finde es allgemein einfach nur traurig wie viele Leute denken, dass neue Produkte mindestens x% schneller, stromsparender und was alles sein MÜSSEN um nicht "gerechtfertigt" geflamet zu werden.
Die Hersteller bringen nun mal das raus, was sie zu der Zeit technisch in Masse produzieren können.
Aber genau das ist doch der Punkt, oder? Wie man sieht, resultieren die RT-Cores in einem aktuellen Fertigungsverfahren in ziehmlich großen Chips, was die Kosten natürlich enorm nach oben treibt. Gleichzeitig ist der Gewinn für den Kunden noch sehr überschaubar, da die Technik noch nicht so ganz praxisreif zu sein scheint.
Ich glaube fast jeder hier freut sich über neue Technik, Raytracing ist auch einfach verdammt cool. Und solange das nebenher und "ohne Aufpreis" kommt, ist selbst ein noch nicht gänzlich ausgewachsenes Feature schon nett zum Experimentieren, die nächste Generation Hardware kann es dann umso besser machen.

Aber dies ist ja hier nicht der Fall! Wenn man die Chip-Kapazitäten erstmal für mehr herkömmliche Cores genutzt hätte, dann wäre wenigstens die Rechenleistung ein ordentlicheres Stück gestiegen. Und mit kleineren Strukturen in der Zukunft könnten dann die ersten Versuche mit RT-Cores zu nicht solch wahnwitzigen Preisen gemacht werden. Ich vermute, dass bei NVidia einige sehr schlaue Leute sitzen. Daher frage ich mich ernsthaft, wieso diese Entscheidung getroffen wurde.
 
  • Gefällt mir
Reaktionen: Smartcom5
hehe... nur das sich nVidia weniger damit rühmen kann...:evillol:

naja... so schlecht sind die jetzt nicht und Samsung kocht auch nur mit Wasser, wie alle anderen...

Edit:
jusaca schrieb:
Daher frage ich mich ernsthaft, wieso diese Entscheidung getroffen wurde.
Vielleicht weil man gerade von der Konkurrenz nicht die Mega Leistungssteigerung erwartet, man eh schon Marktführer ist und eh mit jedem Mist durch kommt... ich fänd das einfach zu herrlich, wenn jetzt AMD aus dem nichts leistungsstarke Gamingkarten zu "fairen" Preisen raus haut und man bei nVidia merkt, dass man auf das falsche Pferd "Features" statt Leistung gesetzt hat...
 
jusaca schrieb:
Ich bin ganz bestimmt kein AMD Fanboy, die Karten von Nvidia sind immer noch besser als die von AMD. Aber gerade bei dem gigantischen Gewinn, den NVidia momentan einsteckt, war einfach mehr Fortschritt durch große Mengen Geld für R&D zu erwarten.

Aha. Welche Fortschritte sind das denn konkret? Bitte Details. Wie stellst Du Dir das ganz konkret vor, dass nVidia in langjährige Projekt- und Budgetpläne mal eben eingreift und im Handumdrehen alles umkrempelt, weil plötzlich mehr Geld da ist? Auch diesbezüglich bitte Details... insbesondere auch unter Berücksichtigung der Zusammenarbeit mit TSMC und deren langfristig ausgerichteten Produktionskapazitäten/Produktionsplänen.

Bin mal gespannt, welche Insidertipps Du an nVidia hast. Die sollten Dich wahrscheinlich unbedingt anstellen, da Du die Fortschritte offenbar aus dem Ärmel schütteln kannst.

Im Übrigen hat nVidia das R&D Budget über die Quartale und Jahre selbstredend ständig erhöht. Von 2016 auf 2017 stiegen die R&D Ausgaben um über $300 Mio. ($1,46 Mrd. vs. knappe $1,8 Mrd.). Im ersten Halbjahr 2018 wurden schon über $1,1 Mrd. für R&D aufgewendet, also dieses Jahr wird vermutlich die $2 Mrd. Marke bei R&D geknackt. Im ersten HJ 2017 waren es noch "nur" etwas über $827 Mio. - Wir reden also über knapp +40% YoY R&D Budgetzuwachs vom 1. HJ 2017 zum 1. HJ 2018.

Es bleibt natürlich jedem selbst belassen wie "enttäuscht" man nun zwanghaft sein möchte. Wenn sich, wovon aufgrund der Nähe der Leaks zum Datum des Release auszugehen ist, die Leaks bewahrheiten und im Großen und Ganzen +40% im 1:1 Vergleich zu Buche schlagen, dann ist das objektiv gesehen sehr ordentlich, da es im historischen Vergleich der Generationen untereinander absolut im gehobenen Rahmen liegt.

Man sollte immer bedenken, dass der Performancesprung Maxwell --> Pascal ein Sonderfall war, da der 20nm Schritt komplett ausgefallen ist.
Jedem der jetzt ernsthaft eine ständige Wiederholung solcher Sprünge erwartet, muss man leider jegliche Ahnung aberkennen.

Daher bleibe ich dabei: Wer wider besseren Wissens hier von "Enttäuschung" fabuliert, scheint mir eindeutig eine beleidigte AMD Leberwurst zu sein. Denn jeder der Ahnung hat, kann hier unmöglich eine echte Enttäuschung erkennen.
Wir erleben hier einen ganz normalen Mini-Shrink sowie architektonische Verbesserungen und dafür ist das mutmaßliche Ergebnis von ca. +40% Performance im Mittel sehr erfreulich.
 
  • Gefällt mir
Reaktionen: DaniLt, ZeusTheGod, Neo1179 und eine weitere Person
Moriendor schrieb:
Daher bleibe ich dabei: Wer wider besseren Wissens hier von "Enttäuschung" fabuliert, scheint mir eindeutig eine beleidigte AMD Leberwurst zu sein. Denn jeder der Ahnung hat, kann hier unmöglich eine echte Enttäuschung erkennen.

Also du scheinst mir hier eher die beleidigte nVidia Leberwurst zu sein, wenn dich die Kritik an nVidia so hart trifft.

Du erzählst uns was von Mini-Shrink mit minimalen Architektonischen Anpassungen, dabei handelt es sich laut nVidia um die größten Änderungen jemals. Eine völlig neue GPU Generation mit Tensor-Cores etc. pp.

Anscheinend hast du bei der Präsentation nicht gut zugehört.

Zudem scheinst du immer noch nicht zu verstehen um was es in den Diskussionen überhaupt geht. Die Chipgröße und Herstellungskosten explodieren, weil nVidia unbedingt Tensor-Cores auf den Die packen will, zusätzlich wird dabei aber nur die Schrottverwertung von den Profi-Karten vorangetrieben. Anstatt den besagten Minishrink mit 30-40% Leistungszuwachs und kleinerem Chip, dementsprechend "günstig" anzubieten, zwingt man dem Kunden Tensor-Cores auf, die keine Marktreife besitzen. Erhöht dabei auch noch "wohlwollend" die Preise und feiert dieses neue Feature. Nun kommen halt die ersten schlechten Nachrichten nach und nach raus. :freak:
 
  • Gefällt mir
Reaktionen: Chismon, stevefrogs, Smartcom5 und 2 andere
jusaca schrieb:
Aha, und wenn bei deinem neuen Auto nach einem halben Jahr plötzlich ein Motorschaden auftritt, dann sagst du auch einfach nur: "Tcha, ich kanns ja selber auch nicht besser, da kann ich mich nicht beschweren..." :confused_alt:

Mal ernsthaft, wenn Hersteller mit Produkten nicht den Erwartungen entsprechen, darf man sich doch mal darüber beschweren. Man muss ja nicht alles hin nehmen. Und das hier ist eben ein Forum, da tut nunmal jeder der mag seine Meinung kund.
Und die neue Generation von Nvidia, nach mehr als 2 Jahren Wartezeit, enttäuscht doch wirklich schon vor Start mit den Marketingzahlen, besser werden dann unabhängige Tests sicherlich nicht. Verständlich, dass da einige Kunden mehr erwartet haben. Und das auch noch bei den Preisen :freak:
Kann man nur hoffen, dass AMD nächstes Jahr was ansatzweise Konkurrenzfähiges liefern kann...

Natürlich hast du recht, dinge zu kritisieren ist richtig und wichtig, aber der ton macht die musik.
 
Moriendor schrieb:
Man sollte immer bedenken, dass der Performancesprung Maxwell --> Pascal ein Sonderfall war, da der 20nm Schritt komplett ausgefallen ist.
Jedem der jetzt ernsthaft eine ständige Wiederholung solcher Sprünge erwartet, muss man leider jegliche Ahnung aberkennen.
Ist eine Sache, wenn der Performancegewinn nicht so hoch ausfällt. Ist eine andere Sache, wenn man für den gleichen Performancegewinn plötzlich mehr zahlen soll... Das Thema Entwicklungskosten wird immer wieder angeführt, nur interessiert das keinen Kunden. 1. haben wir da eh keinen transparenten Durchblick über die Gewinnspannen und 2. haben die mit dem P/L-Verhältnis der Karten nichts zu tun. Letzteres ist, worüber sich alle aufregen (ich sehe zumindest weniger Leute die den Performancegewinn bemängeln) und eben das schlechte P/L-Verhältnis lässt sich auch mit Herstellungskosten nicht wegdiskutieren. Die mögen der Grund für den hohen Preis sein, aber 1. wissen wir das wie gesagt nicht wirklich und 2. ist das völlig egal...
Produkt A leistet 140% von Produkt B und kostet 80% mehr, hat also das schlechtere P/L-Verhältnis und das wird auch nicht besser, wenn du mir sagst, dass Produkt A aber teurer herzustellen war.
 
  • Gefällt mir
Reaktionen: Chismon
Smartcom5 schrieb:
Das Einzige, womit die RTX-Karten im Moment glänzen, ist grandioses Marketing

Welches (zumindest hier im Forum) zu 95% von den Usern betrieben wird.

Sind immer die gleichen. Gäbe es nicht schon die NDF (Nintendo defence force), wäre das hier die NDF (Nvidia.....)
 
  • Gefällt mir
Reaktionen: Smartcom5
NV oder auch AMD müssen den Speicher nunmal so laufen lassen das er nahe des Sweetspots läuft und effizient als auch leistbar ist. Dazu muss der Speichertakt auch auf allen Karten 100% garantiert werden können. Ansonten könnten ja alle Hersteller einfach mal auf HBM2 mit 1000GB/s schwenken und hier für 2-3 Gens die Bandbreitenlimiterung aushebeln.
Wenn das mit dem Speicher so einfach wäre , sollte es ja auch mehr Markenhersteller geben die hier ansetzen, aber komischerweise trauen sich selbst asus,msi ,evga und co bei ihren high end modellen nur an läppische 25MHz mehr, wenn überhaupt. Dürfte also doch nicht so einfach sein das ganze auch 100% save laufen zu lassen und eine Garantie dafür anbieten zu können.

Und immerhin steigt die Bandbreite um 1/3 an das ist nicht so wenig wie ich finde ,wobei der Faktor Kompression unklar ist.
Die 9 und 11gbps Versionen bei der GTX1060 und GTX1080 haben mich nun nicht vom Hocker gerissen, ausser das sie preislich ordentlich zugelegt haben.
Ja ich übertakte den Ram auch weil es gratis Leistung ist, aber wenn es gar nicht mehr möglich wäre würde für mich nun auch keine Welt zusammenbrechen.

Wer Angst hat das der Speicher zu sehr limitiert kann ja zu AMDs Vega greifen :evillol: .

@Alphanerd
Ich gründe heute offiziel das NDS - Nvidia defence Squad :cool_alt:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ChuckBROOzeG
GTX 780Ti 336 GB/s
GTX 980Ti 336.5 GB/s
GTX1080Ti 484 GB/s
Vega HBM2 484 GB/s

RTX 2080Ti 616 GB/s :cheerlead:
 
Zuletzt bearbeitet von einem Moderator:
Scythe1988 schrieb:
und wo ist das problem? Speicher OC bringt weder auf Grakas, noch auf Mainboards etwas.....und bitte bitte sucht jetzt nicht den einen Artikel wo in Anwendung xy bei Aktion yz 10% Vorteil beschrieben sind, das halte ich für überaus lächerlich.

:lol::lol:
Fast jede Pascal karte hängt im speicher Limit.
Gibt genug tests wo VRAM OC mehr gebracht hat als Core....
Sogar bei Vega bringt es mehr den Core auf 1500-1550 (+UV) zu lassen und HBM auf 1200 zu prügeln, hier aber wegen verbaucht und abwärme vorteilen, verglichen zu 1650-1750Mhz Core....
 
sich steam spiele kaufen und über fortschritt klagen: der klassiker 2010 wie heute!
 
Zurück
Oben