Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

wal schrieb:
Wenn das weiter so geht und 20% Mehrleistung pro Generation mit 10% Mehrpreis beaufschlagt werden gehören wir zu den letzten Glücklichen die es sich leisten konnnten PC Gaming als Hobby zu betreiben.

ich denke so extrem wird es nicht sein - es ist eine frage der erwartungshaltung.
wenn ich den anspruch habe jedes jahr oder alle 18 monate einen nennenswerten performanceschub zu erhalten für mehr oder minder gleichbleibenden preis, so werde ich sicherlich enttäuscht.
evtl. muss man sich darauf einrichten seine hardware schlicht länger zu betreiben bevor sich ein upgrade wieder lohnt.
evtl. wird in 5 jahren keiner mehr raytracing infrage stellen, weil es zum defacto standard geworden ist und der kampf um die beste rt-architektur im vollen gange ist...

...
 
Am Ende heißt es wie immer erstmal abwarten un Tee trinken bis die ersten wirklichen Tests da sind und vorallem sich der wirkliche Straßenpreis zeigt. Im Moment sehe ich da auch noch nicht wie der wirkliche Kaufreiz entstehen soll. Die Kunden die bereit sind soviel Geld auszugeben haben doch schon entsprechende Hardware.... Es wird sich kaum zur bestehenden Vega Klasse in der Leistung abgesetzt und der Preis ist mMn einfach etwas hoch angesetzt. Aber wir werden sehen!

Mfg
PaWel
 
  • Gefällt mir
Reaktionen: wal
Also ich hab nicht alle Kommentare gelesen, aber das interessanteste ist das ähnliche GPU/CPU Technik in kommenden Xbox/PS5 verbaut wird. Das bedeutet das die Spiele auf diese Hardware zugeschnitten sein werden.

Die Frage ist wieviel vorteile das AMD bringt und ob es dann in diesen Spielen extreme Nachteile für NV geben wird
 
Heschel schrieb:
Wozu? Auf der 2060 funktioniert RT auch - aber mehr schlecht als recht. Die älteren Karten können das auch - aber auch wiederrum mehr schlecht als recht. Wozu also RT in dieser Klasse anbieten?
Das Raytracing wird in den Spielen nachwievor laufend verbessert. Eine 2060 ist alles andere als zu langsam für Raytracing auf Ultra (z.B. Battlefield V)

Hier werden immernoch die Falschinformationen von 1080p und 30FPS mit RT weiterverbreitet.

Insofern hätten eben auch die Navis wohl durchaus von RT profitieren können. Schade - Wird dann erst Mitte nächsten Jahres was draus.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
Janami25 schrieb:
Selbst wenn die Marktpreise für die 5700XT/5700 fallen dürften, die Custom Designs werden noch einmal eine Ecke teurer (50-80 Euro). Und wenn die Gerüchte zum Stromverbrauch (225W oder darüber) stimmen sollten, haut mich das auch nicht vom Hocker. Wenn man das schon nicht einmal bei der Präsentation als positiven Aspekt bringt, kann das wirklich nicht so toll sein. Bis jetzt haben die ganzen Leaks ja gestimmt.
Glaskugel? Oder denkst Du der AMD Vapourchamber Kühler auf der Referenzkarte ist gratis?
Der Kühler ist schon ein Upgrade zu dem was es früher gab.

Janami25 schrieb:
Eine kleine Chipfläche, die viel Strom verbraucht, ist ausserdem schwer zu kühlen.
Deswegen Vapourchamber... aber gibt genug technische Möglichkeiten auch diese gut zu kühlen.

Janami25 schrieb:
Trotz 7 nm Fertigung und angeblich neuer RDNA Architekur sehe ich als leicht AMD Zugeneigter hier keinen Vorteil. Mit der GCN Architektur in 7 nm wäre das bestimmt auch gelungen. Ich hatte mir hier deutlich weniger Stromverbrauch erhofft, oder wenigstens auf gleichem Level wie Nvidias 12 nm Turing Karten. Aber selbst Pascal ist hier immer noch effizienter.
Also Anti-Lag und Image Sharpening (Fidelity FX) finde ich sehr wohl als großen Vorteil. Wer will denn nicht, daß die Bildqualität besser wird? Im Unterschied zu Raytracing, das unter einer GTX 2080 sinnfrei ist und DSLL was meist nur in Flimmern ausartet hat nieVida das imho schlechtere Featureset.

Janami25 schrieb:
Sicher, es gibt hier eine Verbesserung gegenüber der Vorgänger, aber das ist in meinen Augen nur 7 nm geschuldet.
Siehe oben. Das AMD das SDK frei veröffentlicht hat, ist imho noch das Tüpfelchen auf dem i.

Janami25 schrieb:
Wenn man vorher von Polaris Nachfolger spricht, und man diesen Nachfolger auch als Mittelklasse/Oberklasse einstuft, stimmt eindeutig der Preis nicht. 280-300 Euro für die 5700 und max 380 Euro für die 5700XT wären eine Kampfansage und viele würden über den Stromverbrauch und die fehlenden RTX / Tensor Cores ganz sicher hinwegsehen, aber so denke ich nicht, das man hier überhaupt viele Vorteile hat.
Lieber Janami25, jahrelang hat AMD genau das gemacht... Kampfpreise und sogar schnellere GPUs produziert als nieVida, man denke nur an die glorreiche 48xx Serie zurück. Was haben die dummen Kunden gemacht? Schlechtere nieVida Karten gekauft...
Und jetzt sagt AMD "fickt euch" und Du regst Dich auf? Du hättest jahrelang die Möglichkeit gehabt AMD zu unterstützen. Die Geforce 4 Ti 4200 war meine erste und letzte nievida Karte. Seit dem Schrott habe ich nur AMD gehabt und habe es nie bereut.

Janami25 schrieb:
"Der Markt regelt das schon" ist für mich da kein Argument. Der zukünftige Käufer macht sich schon vorher seine Gedanken, und dann wird auch ganz schnell ein Urteil gefällt, und nicht 2-3 Monate nach Veröffentlichung, wenn es zu spät ist. Das Produkt muss direkt "einschlagen", wenn nicht technisch dann vom Preis her.
Der Markt regelt gar nichts, solange alle Leute meinen sie müssen nieVieda kaufen, weil die hat 10fps mehr und verbraucht 30W weniger.
Tatsache ist, auch Polaris ist besser als ihr Ruf. Schau Dir mal "God of War" auf der PS4 Pro an... ne poppeliges Radeon 570 äquivalent stellt 4k in 30fps dar. Wenn die Developer zu faul zum Optimieren sind ist das natürlich mehr als traurig. Aber AMD geht den richtigen Schritt und stellt sein SDK Open Source zur Verfügung, das sollte auch die Entwickler motivieren mehr zu tun.

Janami25 schrieb:
Klar, ich werde ganz sicher unabhängige Tests dazu abwarten, aber es wird wohl wieder bei mir eine Nvidia Geforce werden, da für mich (und sicher für viele andere) der Stromverbrauch/die Kühlung und somit die Lautstärke bezogen auf die Leistung ein ganz wichtiges Merkmal sind. Und dafür zahle ich auch etwas mehr. Hätte ich auch bei AMD gemacht, aber hier sehe ich kaum bis gar keine Verbesserung, ausser die Änderung des Herstellungsverfahrens und die damit sowieso einhergehenden Vorteile.
Wenn Du überteuerten Marketingschrott kaufen willst, dann nur zu. Darfst Dich aber nicht wundern, daß diese Karten immer teurer werden.
AMD könnte auch sagen, wir scheissen auf den PC Markt, weil den brauchen sie in Wirklichkeit nicht. AMD regiert die Konsolen, AMD regiert die Cloud, denn Google denkt sich auch etwas, wenn sie AMD kaufen.

Janami25 schrieb:
Ich persönlich bin enttäuscht, da ich hier in den ganzen Jahren keine Verbesserung der Architektur selber bei AMD sehe, insbesondere mit den Vorteilen auf den Stromverbrauch.
Dank Dir und vieler anderer hatte AMD nie genug Geld vernünftig zu entwickeln. Sie haben sich zuerst auf Ryzen konzentiert und das war auch wichtig und richtig. Jetzt kommt mit Navi die erste Generation einer neuen Architektur. Und schon raunzen die User wieder. War Maxwell gut? Nein, nicht wirklich. War halt die erste Generation. Und schon die zweite Generation Pascal war wesentlich schneller und engeriesparender.
Schon mal ausgerechnet wieviel Geld das mehr verheizt so ein 25-35W Unterschied? Macht das Kraut nicht wirklich fett, außer Du spielst 24h/Tag. Nochdazu hat man bei AMD mit Wattman ein nices Tool um die Voltage runterzuregeln :) (Oh Gott, da muß der geneigte User selbst Hand anlegen). Ansonsten ist der Stromverbrauch meist überbewertet. Es regt sich komischerweise auch niemand auf, daß der Stromverbrauch einer i9-9900K von den 95W meilenweit entfernt ist... außer man regelt die Boards auf die Intel Specs runter, wie es nur OEMs machen, mit der dann entsprechender Leistung, die im Keller darnieder liegt. Aber Du kannst das ja ausgleichen mit einer 65W Ryzen CPU und einer 5700XT, dann ist der Gesamtverbrauch ident mit einem i9-9900k und einer Gefurz RTX 2070.

lg,
Ergänzung ()

BiGfReAk schrieb:
Mich haben die Karten nicht überzeugt.
Gerade weil RT fehlt. Egal wie gut/schlecht es geklappt hätte, das muss einfach da rein.
Außerdem ist der Preis zu hoch. Mit einer Vega 64 im Angebot kommt man hier deutlich besser weg.
Oder man setzt auf eine 2070 und bekommt mehr Features.

Wer braucht bitte RT?
kein Mensch, wenn es derart hohe Performanceeinbrüche beschert.
Deswegen eine gute Entscheidung es wegzulassen.
Fidelity FX und Anti-Lag sind viel interessanter Features, die auch jeder sofort nutzen kann.
Beides Features die nieVieda nicht bietet.
Ergänzung ()

BiGfReAk schrieb:
Spätestens wenn es für die Next Gen Konsolen da ist, wird man sich ärgern, dass die 5700er es nicht unterstützen. Denn mit der Verbreitung der Konsolen wird Raytracing eine echte Rolle spielen.
Für einige wird das sicherlich nicht schlimm sein, weil sie jährlich die Hardware aufrüsten. Aber ein extrem großer Teil der Gamer nutzt die Hardware viele Jahre.

Die NextGen Konsolen basieren schon auf Navi2 ... was nicht heißt, daß Raytracing mit expliziten Hardware Units durchgeführt wird.
Kannst Dir nen R9-3900X gönnen und hoffen, daß die Spiele DXR unterstützen und dann ist es egal ob das die Grafikkarte kann oder nicht.
Ergänzung ()

domian schrieb:
Wenn man bedenkt, was im Vorfeld für günstige Preise kursierten und wie die Realität nun ausschaut, sind die Karten nun doch nicht so der bang for the buck.

Früher hat AMD alles unterboten und obwohl viele GPUs besser als ihre nieVieda Pendants waren, hat sie keiner gekauft.
Und jetzt regst Dich auf, nachdem nieVieda die Preise massiv erhöht hat und AMD sich denkt, es wird Zeit mal mit den GPUs auch Geld zu verdienen damit man eben Geld für Forschung hat?!
Solltest mal ein bisschen nachdenken wie so ne "Wirtschaft" funktioniert.
Viele User kaufen doch sowieso nieVieda und lassen sich von dieser Firma verarschen... also warum soll AMD die Karten "verschenken"?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardStyler3, Rockstar85, The-Beast und 5 andere
franzerich schrieb:
Ja, ich habe doch schon begründet warum. Der einzige wirkliche "Sprung", der jetzt stattfindet in der Technologie, ist das Raytracing. Und der Hardwaresupport dafür steckt jetzt in der RTX-Reihe drin. Damit ist die Hauptanforderung für die Zukunft erstmal abgedeckt. Alles was sich sonst in den Jahren zuvor geändert hat, war lediglich dass vielleicht die Anzahl Shader-Kerne jede Generation mal ein bisschen hinaufgeblubbert ist. Und da steht die RTX 2060 auch noch sehr gut da (da quasi GTX 1080 Niveau).

Es ist aber ein Unterschied ob du die Anzahl an frei programmierbaren Shadern erhöhst oder explizite Funktionseinheiten dazu baust.
Und da sehe ich eben gewisses Potential für vorzeitiges Altern. Stellt NV nämlich fest, dass es effizientere Rechenwege gibt so sind diese spezialisierten Chips ziemlich schnell obsolet.


franzerich schrieb:
Nehmen wir mal die GTX 960 vom Jahre 2015 (also 4 Jahre alt). Die GTX 960 ist sehr ähnlich zu einer 1050Ti. Die 1050Ti habe ich ziemlich lange verfolgt in Benchmarks, und die schlägt sich immer noch gut in FHD Auflösung und oft noch "hohe Einstellung" (wenn auch nicht Ultra) und 30-60fps. Also ja, die reisst sehr wohl noch was, und muss sich überhaupt nicht in den minimalsten Einstellungen verkrümeln.

Wenn sie ähnlich sind dann maximal im Preis der dafür verlangt wurde
Die 960 hat 2GB Ram, nicht einmal in FHD reicht ihr das bei modernen Spielen.


franzerich schrieb:
Nanana, jetzt werd mal nicht zu optimistisch. Nvidia "verdoppelt" so schnell gar nichts. Die haben schon immer nur gerade soviele neue HW-Einheiten hinzugefügt, wie nötig ist, um die Konkurrenz auszubooten. Man denke z.B. auf dem Notebookmarkt sind zwischen 750Ti, 860m, 960m, 1050 (non-Ti) die HW Einheiten dieselben geblieben. Also über Generationen hinweg dieselbe Anzahl HW Einheiten. Und selbst wenn dann mal HW Einheiten dazugefügt wurden, war es meist sehr sparsam

Äpfel und Birnen.
Der billigste weg, die RT Leistung zu steigern ist die Verdoppelung der entsprechenden Recheneinheiten. Da diese ja auch nicht Teil der restlichen Architektur sind kann das ja entkoppelt zu allem anderen erfolgen.
Das wäre aber noch der pessimistische Ansatz. Viel eher ist davon auszugehen dass Berechnungsalgorithmen die Rechenleistung erhöhen und somit nicht zwingend zusätzliche aber andere RT Cores erforderlich sind

franzerich schrieb:
Wo widerspreche ich mir? Raytracing ist schon möglich auf Karten ohne RT-Kernen, wie der GTX 1060/1660/Ti, aber die versagen wirklich komplett bei Global Illumination (dümpeln bei 10fps herum). Ohne die hardwareseitige Unterstützung kann man sich diese Form von Raytracing abschminken. Diese Karten schaffen nur weniger anspruchsvolle Formen von Raytracing (wie z.B. nur Reflektionen in Battlefield5 oder nur Schatten bei Tomb Raider). Das geht noch im flüssigen Bereich. Aber für GI, was letztlich wohl angestrebt wird, sind diese Karten eindeutig zu schwach. Nicht jedoch die RTX2060 - die packt das schon sehr gut (wie man an Metro Exodus sieht) - und nicht nur mit minimalen Effekten.
Du wiedersprichst dir in dem du einerseits den Leuten glaubhaft machen willst dass mindestens eine 2060 gekauft werden soll wenn RT ein Thema ist aber andererseits RT eh auf jeder DX12 Karte geht (auch vega)

franzerich schrieb:
Wie war das mit der Anschuldigung, dass ich mir widerspreche? Du bist es doch, der sich widerspricht. Behauptest du willst mir nicht ins Gewissen reden, aber im nächsten Satz redest du mir ein, dass meine Entscheidung schlecht ist...
Musste jetzt wohl noch ein kleiner Angriff zum Schluss sein. Nehms dir nicht übel und unterstelle dir gar nichts und ich wiederspreche dir auch nicht. Sehr wohl r spektiere ich deine Kaufentscheidung. Gleichwohl darf ich aber auch der Meinung sein dass es keine gute Entscheidung gewesen ist. Da schließt sich nichts aus und wiederspricht sich auch nichts ;)
 
incurable schrieb:
Die hatten beide Dank vorausgesetzer Abwärtskompatibilität keine Wahl, weil bei Intel die GPUs nicht rechtzeitig fertig sind und Nvidia keine x86-Lizenz hat, gab es für die nächste Generation unabhängig von den angebotenen IP-Blöcken mit AMD nur einen möglichen Anbieter.

Sie hätten auch ARM oder VIA (mit einer x86 Lizenz) nehmen können, wenn sie gewollt hätten. Aber die wollen gar nicht, weil die Zusammenarbeit funktioniert und sie vernünftige Preise bekommen. M$ hatte doch mit nieVieda damals verhandelt zur ersten Xbox. Jetzt hat AMD eben bei den Konsolen und in der Cloud ein Monopol. Und was vor allem Sony aus einem Polaris Äquivalent an Grafikleistung rausquetschen konnte (Horizon Zero Dawn, God of War) ist schon beeindruckend.
 
ZeroZerp schrieb:
Das Raytracing wird in den Spielen nachwievor laufend verbessert. Eine 2060 ist alles andere als zu langsam für Raytracing auf Ultra (z.B. Battlefield V)
1. Raytracing auf Ultra ist falsch, es ist "nur" medium"
2. GPU Memory Restriction ist "on", bedeutet qualität wird verringert.
3. FPS gehen auf 50 FPS runter(!)

Nee, dann lieber kein Raytracing.
PS: Dein Beitrag bestätigt eigentlich dass RT(X) "noch" nichts taugt.
 
  • Gefällt mir
Reaktionen: eXe777, Heschel, modena.ch und eine weitere Person
Tinpoint schrieb:
Das bedeutet das die Spiele auf diese Hardware zugeschnitten sein werden.

Die Frage ist wieviel vorteile das AMD bringt
Kannst du an den aktuellen Konsolen ablesen, beide sind mit gcn ausgestattet und es hat quasi keine Auswirkungen auf den PC Markt
 
  • Gefällt mir
Reaktionen: konkretor
Mir gefallen die neuen Grafikkarten und CPUs, werde mir wohl ein RX 5700 holen und meinen Ryzen 5 1600 auf einen Ryzen 7 3700 upgraden
 
  • Gefällt mir
Reaktionen: Orok91 und Edelgamer
domian schrieb:
Strukturverkleinerungen sind ein alter Hut und dass die Kosten hierfür überpoportional steigen halte ich für ein Gerücht. Schliesslich steigt auch die Ausbeute. Es sind börsennotierte Unternehmen mit Gewinnerzielungsabsicht --> da liegt wohl eher der Hase im Pfeffer

Ob Du das für ein Grücht hältst oder nicht ist vollkommen Banane.
Es ist nunmal eine Tatsache.
Du müßtest Dich nur mal auf spezialisierten Seiten kundtun.
Ergänzung ()

incurable schrieb:
Das hat mehr damit zu tun, dass Jim Parker / AdoredTV scheinbar ein öffentlichkeitsgeiler Veröffentlicher von offensichtlich fehlerhaften Informationen ist.

Ich würde Jim nicht unterstellen, daß er wissentlich falsche Informationen veröffentlich hat. Ich würde meinen, daß Dr. Lisa Sue einfach genug hatte von Kampfpreisen. Wenn ihr gute Leistung haben wollt, müßt Ihr dafür eben bei uns genauso zahlen wie bei der Konkurrenz. Was die Marketingabeteilung haben wollte, ist eben nicht das, was der CEO haben wollte :)
Ergänzung ()

v_ossi schrieb:
Und so sehr ich NVidias Preistreiberei auch missbillige, nachzulesen unter den entsprechenden Turing Tests, dort haben die Ingenieure mit RT und Tensor Cores zumindest wirkliche Neuerungen in die GPU eingebaut (über deren Sinn oder Unsinn separat diskutiert werden darf), während AMD eine 'recht konservative' GPU vorstellt, bei der ein (Groß)Teil der Verbesserungen durch TSMC kommt.

Die auch mit AntiLag und Fidelity FX auch nice Features haben, die vernachlässigenbar Leistung kosten im Gegensatz zu brach liegenden RT und Tensor Cores. Dieses Silzium hätte man sich bei der 2060 und 2070 sparen können.
 
Zuletzt bearbeitet:
Mir gefällt die aktuelle Entwicklung :) Und selbst wenn man "nur" auf Augenhöhe mit der RTX 2070 ist, so ist der Fortschritt anerkennenswert. Ich für meinen Teil werde AMD für einen stärkeren Wettbewerb unterstützen und für deren Bemühungen "belohnen".
 
  • Gefällt mir
Reaktionen: konkretor, wolve666 und Edelgamer
Wenn man sich aktuelle US-Preise anguckt, lassen sich die Preise für die 5700/5700XT schon besser einordnen.
Nach pricewatch.com ist das günstigste Modell der 2060 (Asus Phoenix) aktuell mit 349.99 $ gelistet und bei der 2070 ist es die Zotac AMP für 493.99 $
(die Gigabyte Windforce steht da zwar auch für 449.99 $ drin, aber trotz Filter auf "new" ist das nur eine gebrauchte für diesen Preis).

Aus dieser Perspektive sehen die 449 $ für die 5700XT nicht ganz so mies aus, bei der 5700 lässt man sich dann aber doch den Speicher und den den größeren Leistungsvorsprung bezahlen.

Bin mal gespannt, ob der europ. UVP nicht doch niedriger ist als der MSRP (also < 379 € / 449 €).
 
"Beide neuen AMD-Grafikkarten setzen auf die Navi-10-GPU. Diese wird im 7-nm-Prozess bei TSMC gefertigt und kommt bei einer Größe von 251 mm² auf 10,3 Milliarden Transistoren. Damit ist Navi 10 etwas größer als der Mittelklasse-Vorgänger Polaris 10, bietet aber auch fast die doppelte Transistorenanzahl."

7nm scheint wieder Dynamik zu bringen, endlich.

AMD täte gut daran noch einen großen Chip nachzulegen. Es klingt gut, aber für Besitzer von 980TI, 1070 oder 1080 z.b. würde sich ein Wechsel nicht lohnen. Nvidia wird weiterhin die mit abstand stärkste GPU haben und diese weiterhin zum Phantasiepreis anbieten.... und warum auch selbst auf 7nm wechseln.... es reicht ja (so wie zu Haswell-zeiten bei Intel)


 
Eli0t schrieb:
Die auch mit AntiLag und Fidelity FX auch nice Features haben, d

nette,,,,das heißt nette oder von mir aus auch schöne und nicht "nice"...boah geht mir diese Unsitte mittlerweile auf den Senkel.
 
simosh schrieb:
Ich frag mich weshalb AMD im CPU Markt das Gegenteil gemacht hat, etwas das die meisten sich auch für den GPU Markt wünschen -> den Markt geflutet mit ähnlich guten / leicht schlechteren Produkten wie der andere Monopolist, aber dafür günstiger. Jetzt in der 3ten Gen der CPUs versucht AMD hier ein paar Stufen höher zu kommen, obwohl die Preise im Vergleich zu Intel immer noch gut bis stark besser sind, dagegen ist absolut nix einzuwenden. Da wird richtig rangeklotzt.

Weil Dr. Lisa Sue eine 45% Bruttomarge bei allen Produkten haben will. Schließlich braucht AMD auch Kohle um Forschung betreiben zu können.

simosh schrieb:
Im GPU Markt geht das nicht weil...... ? Ich dachte die Vega's wären hinfällig, werden tatsächlich ersetzt. Damit wäre der teure HBM vom Tisch und beim derzeitigen Markt ab ~275€ einiges rein zu holen. Im CPU Bereich labert der Karohemd-Typ noch was von den "affordable CPUs" von 200 - 250 USD, das gleiche Argument zählt bei den GPUs aber nicht. AMD hat EIGENTLICH derzeit ein so geiles Lineup, statt darauf aufzubauen und Marktanteile und Präsenz und Werbung zu schaffen wird hier den Geiern wieder eine Notlösung zum Fraß vorgeworfen.

AMD kann nur so und soviele Wafer bei TSMC in Auftrag geben. Worauf konzentriert man sich da wohl? Auf CPUs die jetzt auch endlich die Unterstützung der Mainboard-Herstellern hat wie sie Intel schon immer hatte oder auf GPUs, wo man weiß, daß selbst das bessere Produkt (HD 48xx Serie z.B.) vom Kunden sowieso nicht gekauft wird?!

simosh schrieb:
RDNA ist doch wieder GCN, die sollen mich doch nicht für dumm verkaufen.
Die werden nicht die Teile rauswerfen, die gut funktionieren oder? Da AMD nicht die Kohle wie nieVieda hat, müssen sie eben kleinere Brötchen backen. Und daran sind eben alle Schuld die aus Prinzip nur nieVieda kaufen, weil die Karten doch ach so toll sind...

simosh schrieb:
Und wenn sich die Preise angleichen, Markt usw, das ist mir Wurst. Hier und jetzt zählt der MSRP und die damit verbundene Aussage, und das ist für uns Konsumenten Mist. Nicht ganz so eine üble Sache wie NV letztes Jahr, aber knapp davor. Ich sehe eigentlich nicht, das NV jetzt mit "Super" oder so nachlegen müsste wegen AMD, das wäre nur weil die eigenen RTX grundsätzlich zu teuer angesetzt waren und deswegen nicht so gut laufen.
Die legen nach, weil sie können :D Und wenn die alten Karten billiger werden, heißt das doch nur, daß AMD auch billiger werden muß. Also jammere doch nicht dauern nur rum.

simosh schrieb:
Die Kaufberatungen müssten seit geraumer Zeit und auch zukünftig eigentlich so sein: Lass es und kauf dir ne Konsole. Vielleicht soll PC-Gaming auch nicht mehr ein Massenmarkt sein. Mittlerweile hoffe ich auch nicht mehr auf Intel mit GPUs, das wird genauso laufen.
Gute Idee, an der Konsole verdient AMD immer :D
 
  • Gefällt mir
Reaktionen: simosh
Eli0t schrieb:
Vega 56 kosten zwischen 229,- und 269,- ... Das sollte als Update doch völlig ausreichen.

Wenn Du eine in der Größe und mit maximaler TDP von 75 Watt siehst, kannst mir ja Bescheid geben. ;)
 
RedDeathKill schrieb:

Blöd nur, daß pcgamesn.com das Bild mit AntiLag OFF genommen hat. Mit AntiLag ON waren es um die 44ms.
Ergänzung ()

v_ossi schrieb:
Und überhaupt, was soll ich kaufen, wenn ich weniger als 350€ ausgeben will?
Ne RTX 2060 oder zumindest ne 1660Ti?

Ich meine, wie lange wird es Vega noch zu kaufen geben?

Und was wird aus der RX 590?
Eine Strixx Vega 56 OC gibts um 269,-
Würde ich schnell kaufen, wenn ich Du wäre...
Nicht mehr sehr lange...
Wen kümmert die RX590?
 
Hm, da tun die 670€ für die V7 auf einmal viel weniger weh. :rolleyes:
Vorausgesetzt AntiLag und RIS kommen noch nach.

Finde die Karte jetzt auch nicht die Wucht.
Ich kann zwar nachvollziehen das AMD sich nicht genötigt fühlt Navi zu verramschen da sie von der leistung genau da rein pass wo auch NV sitzt.
Aber ~450€ ist bei weiten zu hoch gegriffen für 250mm² trotz 7nm und 8 GB GDDR6.

btw. die XT shroud schaut übertrieben aus ^^"

simosh schrieb:
Die Kaufberatungen müssten seit geraumer Zeit und auch zukünftig eigentlich so sein: Lass es und kauf dir ne Konsole. Vielleicht soll PC-Gaming auch nicht mehr ein Massenmarkt sein.

Sollte die PS5 und Scarlett 60fps halten, ja. Ich Würde nicht mehr Highend kaufen. 4K war mein persönlich größter griff ins Klo. :D
 
Zuletzt bearbeitet von einem Moderator:
lucdec schrieb:
"Nutzlos" ist hier vielleicht das falsche Wort, aber ich verstehe was damit gemeint ist.

Selbst mit einer 2080Ti zieht Raytracing in BF V oder Tomb Raider unglaublich viel Leistung für einen Effekt, der kaum sichtbar ist. Der optische Gewinn steht einfach in keinem Verhältnis zur notwendigen Leistung. Ich lasse den Effekt in jedem Spiel aus.

Was natürlich nicht bedeutet, dass Raytracing nicht die Zukunft ist. Ich gehe davon aus, dass sich die Technik über die nächsten Jahre durchsetzen wird und AMD muss da natürlich mitziehen. Man kann dieses Feature ja nicht einfach auslassen - vor allem bei dem Hype im Moment.

Aber realistisch betrachtet kann man die Technik (meiner Meinung nach) im Moment nicht wirklich sinnvoll einsetzen. Vor allem in der Mittelklasse / oberen Mittelklasse, wo man nicht mit Leistung um sich werfen kann, halte ich andere Effekte (z.B. Downsampling) für "ergiebiger". Das wird wohl auch die nächsten ein bis zwei Generationen so bleiben - ähnlich wie bei den ersten DX10 Karten. Jeder hat auf das erste DX10-Spiel gewartet und als Lost Planet da war, war die Leistung der GeForce-8-Serie (auch) grottig. Es dauert halt...

Schön daß du nieVieda die Entwicklungsabteilung finanzierst mit Silizium das niemand braucht, weil es nieVieda einfach nur in den Markt reindrücken wollte. Aber die meisten Entwickler scheissen halt drauf. So wie DLSS auch nichts bringt, außer viel flimmern :D
In Navi2 wird es etwas vergleichbares geben, also geduldige dich halt noch ein Jahr. Wenn es die Konsolen bringen, kommts auch auf den PC. Aber die Implementierung wird die von AMD sein.
Ergänzung ()

Revan1710 schrieb:
Das Ziel hieß laut AMD im Vorfeld aber immer: Marktanteile in der Zielgruppe MidRange. Das verfehlt man hier (zumindest zum jetztigen Standpunkt aus) mit den ersten beiden Navi-Karten mMn schon recht deutlich.

Aber immerhin sind es auch nicht die 399 / 499 $ geworden, die vor ein paar Wochen die Runde gemacht haben. Evtl. hat Amd die UVP auch sehr kurzfristig nochmal nach unten korrigert.

Das Ziel gilt schon lange nicht mehr. Dr. Sue fährt ne andere Schiene. Marktanteile ja, aber nicht zu jedem Preis. Und das ist auch richtig so. Marktanteile haben AMD bis jetzt noch nie etwas gebracht.
 
Zuletzt bearbeitet:
Zurück
Oben