News „Enttäuschend“: Nvidia-CEO lästert über AMD und Radeon VII

pietcux schrieb:
Wegen DXR hat Microsoft mit Sicherheit AMD und Nvidia an einem Tisch gehabt. NVidia und AMD haben versprochen DXR Hardware zu liefern um das Feature zu etablieren. AMD hat offensichtlich noch nix gemacht. Daher hat nun Nvidia die Kosten und den Hass der Spieler. Daher ist Jensen sauer. AMD hat sich einfach nicht angestrengt, sondern nur einen besseren Prozess Shrink abgeliefert. Für DXR hätten sie halt auch neue Hardware Strukturen liefern müssen.

Nun, Vega10 war eine Feature bombe, und hat kein Support gefunden, was auch für die meisten GPUs zuvor gilt.
Man schaue sich an wie sich NV gegen DX12 und Vulkan gewehrt hat, haben sie ja zu anfängen von DX11 genauso gemacht.
Turing hingegen hat in ersten 3 Monaten mehr DLSS Spiele als Vega bis heute für PS, sowie Wolfenstein mit MeshShaders.
Ich würde nicht mehr mit rechnen das AMD am PC noch überhaupt was pushen wird, DXR sowieso nicht bis zur ersten Chiplet GPU in Konsolen, alle Neuerung werden wohl die kommenden jahre mitm Hauptaugenmerk für Konsolen APUs und GPGPUs kommen.
Was Vega und imho. wohl auch Navi bei PC Games leisten ist zweitrangig, was auch der Takt von 1800MHz zeigt, wie immer Shit Happens. :)

imho.
Ich glaube immer noch nicht das PS bei Vega7 in Treiber funktioniert für DX11 Anwendungen.
Der Großteil der zusätzlichen Leistung zu V64 kommt von der Tierischen Bandbreite, Shrink und Optimierungen (128ROPs??Oo).
Die Karte wird auch nicht so schnell Billiger da es keine vergleichbare für diesen Preis gibt, die 16GB HBM und 1TBs und OpenCL dampf werden für sorgen.
 
Zuletzt bearbeitet von einem Moderator:
Hallo zusammen,

@ SIR_Thomas_TMC

SIR_Thomas_TMC schrieb:
Kann man auch anders verstehen, war - für mich zumindest - auch anders zu lesen.

Wenn man die Dinge eher Oberflächlich überfliegt, will ich das gerne Einräumen. Nicht jedoch wenn man sich auch noch mit der Materie richtig beschäftigt. Vor allem was die Verwandschaft zu der Instict MI50 angeht.

Aber es ist natürlich auch nicht Abzustreiten, daß man wirkliche Sicherheit in dem Sinn erst voll umfänglich hat, wenn die GPU im Handel und somit Real erhältlich ist. Keine Frage.

So long...
 
pietcux schrieb:
AMD hat offensichtlich noch nix gemacht.
AMD liefert seit 2013 GPUS, die für High End und Enthusiasten unattraktiv sind und hechelt nur noch hinterher, zum Leidwesen des Angebotsportfolios.


Ich freue mich auf die Kaufberatungsthreads "R7 oder 2080". Das wird Popcornkino :D
Ergänzung ()

Sennox schrieb:
Genau wie die 2080 ¯\_(ツ)_/¯
Exakt. Nur wurde nvidia hier gebasht, bei AMD ist das okay, die drittschnellste GPU mit Performance ohne neue Feautres von vorgestern für lächerliche 699 Referenztaler auf den Markt zu hauen. Jau, ist ne CC Karte, Nö, wird Nvidias Thron weiterhin nicht gefährden.
Das zeigt deutlich die Ausrichtung der Computerbase Forumsfraktion. Die sieht rot, sieht man ja wortwörtlich in diesem Thread :D

last hope: Navi
 
  • Gefällt mir
Reaktionen: xexex, indy1138, FCK-THIS und 2 andere
Laphonso schrieb:
Nvidias Thron weiterhin nicht gefährden.

Bei Preisleistung hat volta verloren, die MI60 ist gerade mal eine 331mm² DIE, würde mich nicht wundern wenn man bei der Anschaffung 4xMI60 gegen einen V100 stellen kann und dabei immer noch genug Geld über ist für Strom.
Und wenn du Glaubst das ALLE nicht auf preise schauen die in diesem Umfeld tätig sind liegst du sehr falsch.
Einzig die Frage nach der Software-Kompatibilität spricht noch für V100 und seinen Preis, und natürlich das er früher erschien.
 
Was hat der denn eigentlich geschluckt? Aber sein schlechter Stil passt ja zu den Geschäftspraktiken der Firma...
 
kisser schrieb:
Nein, das war überwiegend nur Marketing. Hat aber offensichtlich funktioniert.

PS, RPM, HBCC?
Nur weil es nicht genutzt wird seitens der game-defs ist es nicht da....aber kk. :)
RPM und HBCC sind zwar Features die auch in Spielen Performance bringen können, in erster Line waren sie aber fürn GPGPU Part wichtiger.
 
Chismon schrieb:
Also wenn, dann musst Du fairerweise Referenzkarten miteinander vergleichen und die vorgestellte Radeon VII ist erst einmal im Referenzdesign gezeigt worden fuer den angegebenen Preis und die RTX 2080FE kam mit 799 US$ zum Marktstart daher, siehe hier, bevor Du falsche Fakten verbreitest oder Rosinenpickerei mit guenstigeren RTX 2080 Custom-Modellen betreibst ;).

Das schrieb ich auch, dass man erste Tests abwarten muss, aber eines ist klar wie Klosbruehe, durch die deutlich kleinere Fertigungsgroesse in 7nm zahlt man eben nicht wie bei den 12nm Turing RTX Grosschips wegen der teueren Fertigung/grossen Chips ueberproportional als Kunde drauf.

Alleine aus dem Grund und der stagnierenden Speichermenge wird die (erste) nVidia Turing/RTX Generation sich nicht blendend verkaufen und uebersprungen oder ein Teil der Kundschaft wandert zur Konkurrenz, die mit Radeon VII (und vermutlich auch noch dieses Jahr mit Navi) deutlich mehr fuer das angelegte Geld bieten koennen.

Diese (7nm) Option hatte nVidia auch gehabt, hat es aber vorgezogen die Kunden per Gewinnmaximierung schon vorher gross bei 12nm zur Kasse zu beten und ich denke Huang hat das auch begriffen, dass die Rechnung nicht aufgegangen ist und die potentielle Kundschaft nicht auf diesen zusaetzlichen "Melkschritt" angesprungen ist, weil RTX Turing im Vergleich zu Pascal einfach ueberteuert ist und zu wenig an "mehr" bietet, insbesondere die stagnierende Speicherbestueckung bei nVidia ist ein Trauerspiel.

Die Radeon VII ist die allererste Grafikkarte von AMD/RTG, die fuer einen 4K-Einstieg geeignet ist (ebenso fuer WQHD-Highframe-Gamer), so gesehen machen die 16 GB da auch Sinn, aber ich haette 12 GB auch fuer insgesamt sinnvoller erachtet (wettbewerbstechnisch und ebenso ausreichend), selbst auf eine Nutzdauer von 4+ Jahren gesehen (stagnierende 8GB, wie bei nVidia, waeren dafuer zu wenig gewesen).

Viele (zu denen ich mich auch zaehle) kaufen mit einer Neupreiskarte auch ein wenig Langlebigkeit/Reserve und nicht nur das jetzt und hier, so dass morgen oder bevor man es glaubt nicht die Karte urploetzlich dann schon wieder veraltet ist, weil der Speicher nicht mehr reicht (wie absehbar bei einer RTX 2060 3, 4 oder 6GB bspw.).

Des Weiteren sollte die Radeon VII - aehnlich wie eine Titan V - aufgrund der massiven Leistungsressourcen auch ohne RT-Kerne RT-Raytracing zu einem gewissen Level packen koennen, auch wenn sie dafuer nicht primaer ausgelegt worden ist ... speicher- und bandbreitentechnisch duerfte sie jedenfalls kaum ueber Ihre Nutzungsdauer Probleme bekommen.

Nochmal, die RTX 2080 gab es von Anfang an für 699$ und wurde auch so vorgestellt:
1547250525474.jpeg

https://www.computerbase.de/news/grafikkarten/nvidia-rtx-2080-ti-rtx-2080-rtx-2070-preise.64652/

Starting at $699

So schwer zu begreifen? :rolleyes:

Lediglich die FE, bei welcher es sich seit dieser Generation um eine übertaktete Custom handelt werden 799$ (damit sogar mit die teuerste Custom) veranschlagt. Nochmal für dich: seit Tag 1 gab es die RTX 2080 ab 699$. Keine Ahnung weshalb man den teuersten Preis zum Vergleich nimmt und mich dann der Rosinenpickerei beschuldigt :rolleyes:
Du beherrschst das offensichtlich sehr gut :evillol:
Aber typisch, wenn man selbstverständlich im Unrecht ist.

Erst schreibst du RTX wären aufgrund der 12nm teurer in der Fertigung und darauf schreibst du „hat es aber vorgezogen die Kunden per Gewinnmaximierung schon vorher gross bei 12nm zur Kasse zu beten“ ...
Was denn nun? Wenn 12nm teurer in der Fertigung ist, was so stimmt, weshalb sollte die 12nm Fertigung im Vergleich zur 7nm Fertigung zur Gewinnmaximierung dienen. Das widerspricht sich und ist absoluter Schwachsinn, tut mir Leid :rolleyes:

Und nein, 8GB limitieren weder heute unterhalb 4k, noch werden sie dies die nächsten Jahre tun. Grafikblockbuster auf dem PC als Lead Plattform werden seit Jahren vermisst und da nahezu alle Spiele auf aktuelle und kommende Konsolen optimiert werden, wird sich das auch nicht so schnell ändern. Keine Ahnung wie du zu der Schlussfolgerung kommst.
Dass es bei 4k mit 8GB eng wird, ist selbstverständlich, das hatte ich bereits geschrieben. Da diese Grafikkarten beide jedoch maximal für 60Hz geeignet sind und 4k sowieso eine absolute Minderheit darstellt, dürften die 16GB für 99% der Käufer kein Kaufargument darstellen, es sei den man hat grundsätzlich ein Fetisch für große Zahlen - das sind dann auch die Nutzer, die 64GB Ram verbauen und ihren PC darauf nur für Gaming nutzen :daumen:

„Massive Leistungsresourcen“? Und das macht sie auf einmal Raytracing geeignet? Falsch.

Laut AMD hat die Radeon VII übrigens im Schnitt 7% weniger Leistung in Spielen zum selben Preis. Für 4k würde ich ebenfalls zur Radeon VII greifen, dort verliert die RTX 2080 aufgrund mangelndem VRAM - darunter, wo sich nun einmal 99% der Käufer befinden (mich eingeschlossen) sind die zusätzlichen 8GB einfach irrelevant.

Nochmal: Eine Radeon VII mit 8GB für 599$, für alle die aktuell noch nicht an 4k interessiert sind, wäre ein deutlich attraktiveres Angebot gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und Grestorn
Luxmanl525 schrieb:
Wieviel mehr das ist inkl. Mehrwertsteuer, spielt keinerlei Rolle. Jedenfalls nicht, solange sich Vega 7 am Ende vom Preisgefüge her in der Nähe der meisten Custom RTX 2080 findet. Und das wird nun wirklich nicht sonderlich schwierig werden, wenn man sich mal anschaut, wie da die Preise derselben sind.

Der Endpreis macht eben doch einen gewaltigen Unterschied! Wenn AMD in derselben Preisregion ansetzt, müssen sie auch entsprechend etwas dafür bieten. Vom Höhrensagen her nicht immer dieselbe Leistung bei gleichem oder höherem Preis ist in der Regel kein Verkaufsschlager. Für 700€+ sollten keine Kompromisse mehr gemacht werden müssen.

Ist das bei AMD anders oder messen wir generell mit zweierlei Maß?

Luxmanl525 schrieb:
Persönlich Glaube ich sogar, daß Vega 7 Druck auf die hochpreisigen Custom Modelle der RTX 2070 Ausüben wird. Und diese dann am Ende erheblich im Preis nachlassen müssen. Aber egal wie oder was, für uns Verbraucher wird es sich eher nicht Negativ auswirken und genau darum geht es. Um nichts anderes, schonmal gar nichts Farbenmotiviertes.

Die Hochpreisigen RTX2070er Customs enden meistens bei 600€. Außer du meinst vielleicht die Unsinnkarten von ASUS für immer 200-300€ mehr für das Logo ausgeben muss. Ich kann dir fast garantieren, VegaII wird wesentlich höher ansetzen. Der weiterhin unuasgereifte 7nm-Prozess und teurere HBM2 in 16GB werden keinen Preisschlager aus der AMD-Karte machen.

Technisch ist sie sogar für ihre Aussattung anch momentanem Stand eine richtige Enttäuschung.

Luxmanl525 schrieb:
Das hat auch mit der Verwandschaft zu der Instinct MI50 zu tun. Nochmals für dich, Vega 7 ist im Kern eine Instict MI50, mit Anpassung an den Consumer Markt.

Soso, Verwandtschaft also? Ich erinnere hier an den ganzen Ärger, den die Besitzer der Vega:Frontier Edition mit den Treibern und dem Gamingmode hatten. In Sachen Hybridkarten hat AMD da keine gute Bilanz. Die von dir gepriesene "Anpassung" muss sich erst zeigen.

Luxmanl525 schrieb:
Eine Instict MI50 zieht deutlich unter 300 Watt Strom. Da eine Vega 7 höher getaket ist, braucht man kein Wahrsager zu sein um die kommende Vega 7 in Verbrauchshemisphären von Vega 64 anzusiedeln, mindestens. Das bedeutet dann ganz klar, daß die Effizienz deutlich gesteigert sein wird, sehr deutlich sogar.

Die Profikarten von AMD takten für gewöhnlich wesentlich niedriger als die Gaming-Derivate. Fall AMD den Takt wirklich auf 1800MHz Core geprügelt hat, wird der Chip wieder eine kreischende Energieschleuder. Effizienz wird nach momentanem Stand einzig nur durch den Einsatz von HBM2 und neuer 7nm-Fertigung erreicht.

Technisch gesehen ist das sogar eine herbe Enttäuschung. Sollten wir das Wunschdenken sein lassen, müsste ich den Rest deines Posts einfach ausblenden.

Es ist sehr auffällig wie sich viele User sich bei den Aussagen vom Nvidia CEO geradezu persönlich beleidigt fühlen. Das nimmt geradezu paranoide Züge an.
 
  • Gefällt mir
Reaktionen: Berliner
Mrs. Merciless schrieb:
beim Monitor muss ich dann schauen. :D Die Hz wären vor allem erstmal wichtig, weil da ist mein echter recht "lahm". ^^
Ich habe mit meinem FreeSync AOC sehr gute Erfahrung gemacht und überlege gerade auf "2k" mit 144Hz umzusteigen.
Habe da schon was feines von AOC gefunden was auch bereits bei 30Hz Freesync Minimumrange anfängt.
Wenn du magst kann ich dir meine Erkenntnisse zukommen lassen:daumen:
 
Ohne Worte!
Kauf Mich! (Toten Hosen)
 
Verkaufsschild im Elektronikmarkt eures Vertrauens und wie ein Dau es interpretiert.
Das Geld musste in diesem Fall nicht erarbeitet werden, sondern wurde aus Geschenken über das Jahr hinweg zusammengespart.

Bald ist es so weit, dann kann man mit dem Neukauf endlich wieder das Ego aufm Schulhof boosten.
Der Tag der Entscheidung steht an und man ist endlich im Laden angekommen.

nVidia RTX 2080

- Bla Bla Bla Features die der Dau nicht kennt.
- Architekturbezeichnug die der Dau nicht kennt.
- GPU Takt (mehr immer besser!)
- Speicherbandbreite 0,5 TB/s (mehr immer besser?)
- 8 GB Vram (mehr immer besser!)
- ~ 700 €


AMD VII

- Bla Bla Bla Features die der Dau nicht kennt.
- Architekturbezeichnug die der Dau nicht kennt.
- GPU Takt (mehr immer besser!)
- Speicherbandbreite 1 TB/s (mehr immer besser?)
- 16 GB Vram (mehr immer besser!)
- ~ 700 €

Die Lederjacke weiß, dass nicht bei jedem das "aber kein nVidia" Argument zieht... schon garnicht, wenn Pappa und Mamma noch mitreden dürfen!

Die sehen die Preise, rollen mit den Augen und entscheiden dann ggf. wegen den markierten Stellen für AMD. Der Nachwuchs hat in diesem Fall nur ein Argument... "es ist aber keine nVidia" und den Eltern ist das sowas von Egal bei dem Preis!

Und genau aus diesem Grund ist der so sauer und benimmt sich seiner Hauptzielgruppe entsprechend.
Lisa ist da gerade mit nem LKW voller Salz vorgefahren und hat den in seine Instantsuppe entleert...

Ob AMDs Schachzug aufgeht und wie sehr das "keine nVidia" Argument zu gewichten ist, kann ich nicht beurteilen... nach seiner Reaktion zu urteilen aber wohl mehr als manche wahr haben wollen.

EDIT:

Die meisten hier leben in so einer derben PC-Nörd-Blase... normale PC Nutzer können 95% des hier geschriebenen nicht mal verstehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18, SIR_Thomas_TMC, Sennox und eine weitere Person
bdb schrieb:
Achso :p Dann einfach mal bitte hier gucken:

Klick mich

Ob man sein Verhalten gut findet oder nicht, die Masse im Bereich Gaming kauft Nvidia und das weiß er auch. Es ist schon seit Jahren lustig hier zu lesen ... Nvidia vs AMD ... Intel vs AMD :D


Und inwiefern hast du jetzt sein Argument entkräftet? Im Gegenteil, du hast ihn sogar noch bestätigt, indem du eine Umfrage zeigst, aus der eindeutig hervorgeht, dass die 3 häufigsten GraKas mit einem Marktanteil von ~30% bereits alle im Bereich <300€ liegen.
Es wurde nie behauptet, dass AMD in diesem Bereich die Oberhand (gemessen am Marktanteil) hat, aber dass AMD dort einfach besser ist, ist Fakt. (habe leider kein schönes P/L-Diagramm gefunden wie es in manchen GraKa-Tests vorliegt)
 
  • Gefällt mir
Reaktionen: Mcr-King
Ist doch gut, dass AMD gut aufgestellt ist, in dem Marktbereich, wo am meisten abgesetzt wird. Das sollte alle freuen.

Man kann nur hoffen, dass AMD dort auch noch eine gute Marge hat. Das ist im Niedrigpreissektor immer schwer, zumal wenn man die Konkurrenz nur über den Preis auf Distanz halten kann. Das war schon immer AMDs Problem, auch bei Ryzen. Der ist zwar besser als alles andere, was AMD seit Jahren machen, aber letztlich auch nur deswegen gegen Intel konkurrenzfähig, weil man mehr Kerne / € bekommt.

Und billiger produzieren als Intel oder NVidia werden die aller Wahrscheinlichkeit auch nicht können...
 
@Bonanca

Sag ich absolut nichts dagegen, trotzdem kauft die AMD Karten zum Zocken kaum wer. Wollte nicht mehr und nicht weniger anmerken.

Wurde hier im Forum schon 10000 mal diskutiert, der geneigte Forenleser und Benchmarkvergleicher stellt nicht die breite Masse der Gamer dar.
 
FCK-THIS schrieb:
Aber typisch, wenn man selbstverständlich im Unrecht ist.
Erst schreibst du RTX wären aufgrund der 12nm teurer in der Fertigung und darauf schreibst du „hat es aber vorgezogen die Kunden per Gewinnmaximierung schon vorher gross bei 12nm zur Kasse zu beten“ ...
Was denn nun? Wenn 12nm teurer in der Fertigung ist, was so stimmt, weshalb sollte die 12nm Fertigung im Vergleich zur 7nm Fertigung zur Gewinnmaximierung dienen. Das widerspricht sich und ist absoluter Schwachsinn, tut mir Leid :rolleyes:
Und nein, 8GB limitieren weder heute unterhalb 4k, noch werden sie dies die nächsten Jahre tun. Grafikblockbuster auf dem PC als Lead Plattform werden seit Jahren vermisst und da nahezu alle Spiele auf aktuelle und kommende Konsolen optimiert werden, wird sich das auch nicht so schnell ändern. Keine Ahnung wie du zu der Schlussfolgerung kommst.
Dass es bei 4k mit 8GB eng wird, ist selbstverständlich, das hatte ich bereits geschrieben. Da diese Grafikkarten beide jedoch maximal für 60Hz geeignet sind und 4k sowieso eine absolute Minderheit darstellt, dürften die 16GB für 99% der Käufer kein Kaufargument darstellen, es sei den man hat grundsätzlich ein Fetisch für große Zahlen - das sind dann auch die Nutzer, die 64GB Ram verbauen und ihren PC darauf nur für Gaming nutzen :daumen: Und das macht sie auf einmal Raytracing geeignet? Falsch.
Laut AMD hat die Radeon VII übrigens im Schnitt 7% weniger Leistung in Spielen zum selben Preis. Für 4k würde ich ebenfalls zur Radeon VII greifen, dort verliert die RTX 2080 aufgrund mangelndem VRAM - darunter, wo sich nun einmal 99% der Käufer befinden (mich eingeschlossen) sind die zusätzlichen 8GB einfach irrelevant.
Nochmal: Eine Radeon VII mit 8GB für 599$, für alle die aktuell noch nicht an 4k interessiert sind, wäre ein deutlich attraktiveres Angebot gewesen.

Selbstverstaendlich bin ich (stets) im Unrecht :D ... Einbildung ist eben auch eine Bildung, nicht ;).

Es ist egal wie Du es Dir schoen malst, die Founders Edition ist seit jeher das Referenzmodell von nVidia - egal ob es nun mit besserem Kuehlansatz (Vapor Chamber und ohne Blower-Luefter) daher kommt, denn genau das gleiche gilt fuer die Radeon VII (man schaue sich nur 'mal die Karte aus Lisa Sus CES 2019 Praesentation an), die auch besser als die altehrwuerdigen Blower-Referenzmodelle ausgestattet sein wird.

Somit ist die zum Marktstart 799 US$ RTX 2080FE nVidia Referenzkarte (also die von nVidia stammende Kartenreferenz) direkt mit der AMD/RTG Radeon VII Referenzkarte fuer 699 US$ zu vergleichen, ob Dir das nun passt oder nicht.

So wurde es in der Vergangenheit - quer durch alle einigermassen glaubwuerdigen Fachmedien - gehandhabt und ich sehe keinen plausiblen Grund das jetzt urploetzlich zu aendern, weil ansonsten Deine Argumentationsbasis darunter leidet (weil die RTX 2080FE einfach einen 100er teurer zum Marktstart war als es die Radeon VII Referenz aller Wahrscheinlichkeit nach im kommenden Februar sein wird).

Natuerlich bietet es sich fuer Dich an die Billigstmodelle der RTX 2080 als Rosinen herauszupicken, damit sie preislich auch mit deren Marktpreisen vergleichbar zur Radeon VII dastehen, aber das ist kein fairer Vergleich sondern Maerchenstunde und entbehrt jeglicher Grundlage eines Vergleich nVidia gegen AMD/RTG Referenz.

Ach ja und erzaehle bitte keinen peinlichen Bloedsinn von wegen die Founders Edition sei eine Custom-Karte :freak:, also "pippi-langstrumpfe" bitte woanders ;).

Vielleicht machst Du Dir erst einmal klar, was ueberhaupt Referenz(-karte) heist (mit Werksuebertaktung hat das per Definition gar nichts zu tun) und welche zuerst auf den Markt kommt, aber das scheinst Du bisher noch nicht begriffen zu haben :rolleyes:, Custom-Karten kommen per Definition nur von den Boardpartnern und folgen der Referenzkarte vom Chipentwickler in den Markt.

Beides, denn es schert nVidia nicht die Kunden einmal in 12nm mit dem unausgegorenen RTX Turing Karten zu melken und deutlich spaeter erst in 7nm halbwegs geeignete GPUs zu bieten (und die Kundschaft dann erneut zu melken), die die RTX Funktionen preis-leistungstechnisch (ganz zu schweigen vom Speicherausbau) verdienen koennten (somit kassiert man doppelt ab durch den durchwachsenen, vergleichsweise teuren 12nm Zwischenschritt).

Ergo, anstatt wie AMD/RTG ein paar Monate zu warten und direkt auf 7nm zu setzen und den Kunden etwas ausgereifteres fuer Ihr Geld zu bieten mit nicht ueberdimensionierten, wenig effizienten neuen Chips, werden 12nm Karten in teurer Fertigung/mit grossen, nicht effizienteren Chips auf die Kunden losgelassen und die sollen dafuer und fuer die aktuell fragwuerdigen RTX Features die Zeche zu zahlen.

Da hat der nVidia CEO aber im nachhinein erkannt, dass er die Rechnung ohne den Wirt/Kunden gemacht hat, der sich in den meisten Faellen nicht zweimal in kurzer Zeit dafuer abkassieren lassen will mit halbgaren und ueberteuerten Produkten und das spiegelt sich in den RTX Turing Verkaufszahlen wohl wieder.

Vielleicht hast Du es ja auch jetzt verstanden, aber ich habe da meine Zweifel bei jemanden der scheinbar schon grosse Probleme hat Referenz- von Custom-Karten zu unterscheiden. Ansonsten ist da wohl Hopfen und Malz verloren (evt. moechtest Du es ja auch nicht verstehen :lol: ).

Viele kaufen die Grafikkarte nicht fuer den Moment/ Nutzung nur jetzt, sondern auch vorausschauend (mit Langlebigkeit/Reserve im Hinterkopf), auch wenn Dir das selber vielleicht befremdlich erscheinen mag.

Genau fuer diese Interessenten, die nicht spaestestens alle 2 Jahre eine neue Karte (zu noch hoeheren Preisen) fuer den Rechner kaufen wollen (und somit eben nicht als regelmaessiger Preistreiber fungieren) sondern erst einmal mittel- bis langfristig Ruhe haben wollen (in nachhaltiger Manier) lohnt sich so eine Karte mit 12-16GB Speicher aktuell.

Wie erwaehnt haette ich 12 GB auch besser gefunden, weil man dann vielleicht im Preis noch tiefer/staerker im Markt sich haette positionieren koennen, aber 16 GB ist ein Rundumsorglospaket in Sachen Speicherausbau, dass nVidia im Gaming-GPU-Bereich eben nicht bietet bzw. bieten will (die Titan V mit ebenfalls 16 GB HBM2 ist wohl kaum als Mainstream-Gaming-GPU anzusehen).

Wie sich Speichermenge und Bandbreite in Zukunft entwickeln werden, ist schwer voraus zu sagen, aber da AMD/RTG wohl wieder die Konsolenchips der naechsten Generation stellen wird und im SOC wohl auch den Speicherausbau empfehlen wird und bei den Navi GPUs evt. mehr als 8 GB bieten duerfte, waere ich mir da nicht so sicher, dass 8GB bei WQHD-Aufloesung eine feste Bank fuer die kommenden Jahre bleiben werden (zumindest nicht im Hinblick auf anspruchsvolle Neuerscheinungen).

Durch die Eigung fuer den 4K/UHD-Gaming-Einstieg bleibt die Radeon auch fuer Early Adopter Bastler und Enthusiasten interessant und natuerlich ist man auch da im Texturbereich die 16 GB gut bedient, da hast Du recht. Das ist aber aktuell der kleinere Teil der Interessenten und eher als Nische einzustufen.

RT-Raytracing - wie es schon vielfach von der Mehrheit der Foristen in mehreren Threads dieser Tage herausklang - macht in der aktuellen "Qualitaet" mit diesen RTX-Karten kaum bis keinen Sinn und ich wuensche Dir und der Handvoll anderer Mitstreiter viel Glueck dabei andere davon in naher Zukunft zu ueberzeugen und es sich schoen zu schreiben.

Die Mehrheit nimmt lieber die relevantere, bessere Hardware fuer den verlangten Kartenpreis mit und die bietet fuer den vergleichbaren Preis scheinbar leider die Radeon VII eher als die RTX 2080(FE), aber warten wir doch vernuenftige Tests ab (und die nachfolgende Preisentwicklung), anstatt schon im Voraus die neue Radeon VII Grafikkarte schlecht zu reden ...

... aber Moment, das mache ich (im Gegensatz zu Dir) ja gar nicht :p, somit belasse ich es erst einmal bei meiner Einschaetzung und Du kannst gerne (alleine) weiter damit fortfahren Haare in der Suppe zu suchen ;).

AMD/RTG muss bei dieser Ausstattung eben leider auch etwas verdienen und daher ist die Karte wohl nicht als 599US$ Wunschkonzert-Version auf den Markt gekommen, aber wer weiss, vielleicht kommt ja noch eine Version mit 8GB oder mit einem etwas staerker beschnittenen Vega20 Chip auf den Markt, ausschliessen wuerde ich es jedenfalls nicht :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Snoopy., Marflowah, tek9 und eine weitere Person
Ich denke dass die 16GB der VII n langes Leben bescheren werden. Wer das zu nutzen weiß mit Textur-mods u.Ä. Der wird sich drüber freuen. Neuere spiele werden ja auch nicht weniger sondern eher mehr VRAM fressen und n ffxv packt ja jetzt die 8GB schonmal schnell voll. Meine Grafikkarten gehen normalerweise in der Familie/bei Freunden rum und die freuen sich wenn die dann keine nachladeruckler produziert. Bei gleichem Preis und Leistung würde ich persönlich also ne VII bevorzugen, kann aber auch Leute verstehen die ne RTX für BFV haben wollen.

Nur so aussagen wie von Jensen, die kann ich nicht verstehen und lassen mich nur den Kopf schütteln.
 
  • Gefällt mir
Reaktionen: Mcr-King
Eine Sache fällt mir hier wieder ganz besonders auf:

Die Sache mit den "Features, die nett zu sein scheinen, aber keine Relevanz besitzen" führt hier seit spätestens DirectX12 dazu, daß von AMD-Fans gegen nvidia und von nvidia-Fans gegen AMD geschossen wird.
 
Ja nur ist auch eins Fakt, wenn du sagst was DSSL ist und es ist nix anderes als Fake Auflösung klar etwas schöner, aber trotzdem im Prinzip dass was Konsolen haben nur in etwas schöner. Genau so wenn du sagst dass DXR auch ein DX12 Zusatz ist der mich jetzt nicht vom Hocker reißt.
 
@All

Warten wir mal ab bis unsere Hardware Folterknechte diese Sachen auf ihrer Streckbank haben und diese zu einer Aussage gezwungen wurde, dann werden wir sehen in wie fern welche Aussage / Voraussage zutrifft oder sich Aussagen / Voraussage als richtig erweisen. Bis jetzt ist alles Kaffeesatz lesen oder Glaskugel schauen. Seit doch froh das sich ordentlich was im Hardware Sektor bewegt.
 
Zurück
Oben