Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

Eli0t schrieb:
Die hatte auch kein GDDR6 und das ist nunmal wesentlich teurer als GDDR5.
7nm ist auch wesentlich teurer vor allem wenn es ein "neuer" Prozess ist.
[...]
Doppelte Leistung bei doppelten Preis ist doch super. Mit Inflation gerechnet, ist die Leistung pro € doch sogar gestiegen....[...]

Verzeih mir die Wortwahl, aber was für ein Kraut hast du eigentlich geraucht?

Als ob GDDR5 und 14nm immer so günstig gewesen wären. Als die RX480 kam war das auch brandneue und teure Technik.

Ist doch der normale Gang der Technik, das Bekanntes billiger wird und neues den alten (Premium) Platz einnimmt.

Vergleich nur mal die Anzahl der Kerne bei CPUs oder Speichermengen und Anbindung (SATA vs. PCIe) bei SSDs. Oder sogar Technik und Diagonalen bei Fernseher, statt 42 Zoll Plasma in 2009, kann ich für's gleiche Geld heute 55 Zoll OLED kaufen.

Und doppelte Leistung zum doppelten Preis sind super? In welcher Welt? Geht dein Gehalt auch so hoch?

Sind 2022 dann 900$/€ für die doppelte Leistung super?

Wenn Nvidia die 3000er in 7nm bringt, ist die Ti für über 2.000$/€ dann auch ein super Preis?
 
  • Gefällt mir
Reaktionen: Cpt.Willard und stevefrogs
Tinpoint schrieb:
Ja, aber wie alt ist das und wie weit wurde das damals schon fokusiert
Es wurde schon zur ps4/Xbox one kolportiert das jetzt alles besser wird. Auch wenn Synergien aus dem Konsolen Geschäft mehr als wünschenswert sind, würde einfach nicht all zu viel erwarten. Konsole ist immer noch Konsole das fängt mit anderen api's an und geht über bessere Optimierung weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tinpoint
rg88 schrieb:
werden die das nirgends selbst fertigen lassen können ohne AMDs Einverständnis.

gut, dass du weist, wie der neue ps5 chip aus sehen wird.

aktuell würde ich jeden die shot glauben, weil ich null plan habe, incl. einem dreifach chip design auf einem abgewandelten am4 sockel oder auch wie früher mit southbridge, graka und cpu kernen.

falls in die konsolen die selbe art und weise hardware auf einen "chip" zu pressen wandert - wie in die google maschinen, die für stadia gedacht sind - werden wir alle viel spass haben und es ergibt aktuell keinen sinn, darüber zu reden.

mMn sind die benches durch, man hat jetzt einen entwicklungs rahmen für welche hardware man software baut und ob dann ein, zwei oder drei chips gebaut werden, kann auch noch keiner sagen. schon gar nicht, ob die auf einem gemeinsamen "sockel" verlötet werden. ← ich gehe von early 2020 für die erste "fertige" ps5 aus. und selbst die wird dann noch optimiert.

die ersten zen2 basierenden apu´s könnten einen einblick geben.....leider sind die auch bisher nur auf dem papier vorhanden. :evillol:

mfg
 
Da wirds überhaupt keinen Sockel geben. Das ist Embedded-Hardware. Sowas wird verlötet.
Ob AMD eine APU entwickelt die aus einem Die besteht oder auf ein Chipletdesign setzt, weiß niemand offiziell. Das ist auch vollkommen egal. Und, dass es ein SoC sein wird, ist auch klar.
Aber sicher ist, dass AMD die fertigen Custom-Chips verkaufen wird und nicht nur das Design einmalig lizenzieren wird. Das wäre schlicht dämlich.
 
thepusher90 schrieb:
Vor allem worüber keiner redet: Das sind die Referenzkarten. AMD hat also mit 500€+ für Custom Karten gerechnet. In was für einer Welt leben wir gerade?! Unglaublich. Und die Fanbois rechtfertigen das auch noch...

Edit: Auch wenn der Mann gerne als Schwätzer abgetan wird:

Das ist die Psychologie hinter dem Ganzen

Wir werden uns sowieso nicht dagegen wehren können, wenn wir solche GPU's in PC's weiter nutzen wollen. Ausser eben nicht kaufen. Macht der eine höhere Preise, zieht der andere nach. Von Nvidia habe ich hier kaum Vernunft erwartet, von AMD habe ich sie mir erhofft.

Und alle aus jeweils dem anderen Lager kritisieren gegenseitig das Preisgefüge, nur um dann im gleichem Kontext die affinere Firma dafür zu verteidigen. Einfach absurd.

Sowohl AMD als auch Nvidia sind in Zukunft wohl dahingehend zu teuer, und wenn das so weitergeht, wird es noch viel teurer werden. Die können das ja dann zukünftig immer in Relation zum Vorgänger sehen, und die Kosten und "Vorteile" darlegen, warum Ihre Produkte so viel "Wert" sind. ;)

Schöne, neue GPU Welt. Ich verzichte und werde mir wohl in Zukunft nur noch eine GPU im unteren Segment kaufen. Das Zocken wird sowieso immer weniger und uninteressanter für mich, und für die Videobearbeitung tut es auch eine deutlich günstigere Karte, weil die eh alle (fast) die gleiche Video Engine haben, egal welche Consumer Karte (Hersteller spezifisch gesehen).

Allgemein gesprochen, wer dann die "teure" zukünftige Entwicklung finanzieren soll, wird sich zeigen. Viele sind jetzt schon nicht bereit, das zu bezahlen, was gefordert wird.

Schönen abend noch.
 
  • Gefällt mir
Reaktionen: Schranz0815 und thepusher90
ZeroZerp schrieb:
Hier werden immernoch die Falschinformationen von 1080p und 30FPS mit RT weiterverbreitet.

Hast du wirklich erwartet, dass die ständigen CB-Nörgler ihren geistigen Horizont erweitern und freiwillig, obwohl sie Raytracing als nutzloses Gimmick betrachten, das Thema weiterhin verfolgen?

Es ist doch klar, dass Raytracing, weil es anfangs bei 30fps lag auch jetzt noch bei 30fps liegen muss, obwohl die Entwicklung schon weiter fortgeschritten ist.

Eine RTX2060 mit 8GB wäre das weitaus interessante und rundherum gelungenere Produkt in Bezug auf Little Navi. Da muss man sich auch nichts schön reden.
 
  • Gefällt mir
Reaktionen: KlaraElfer, .Sentinel. und Ben81
Bis auf die CPU war der E3 Stream für die Tonne und den 16C ja am Ende angehängt das man sich den restlichen Schwachsinn ansieht.

GPU Wahnsinn, sehr schlecht
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Was mich persönlich sehr stört ist, dass ich als Käufer einer Grafikkarte im Segment 200 Euro null von diesem Release profitiere. Mittelklasse scheint jetzt bei 350 Euro loszugehen
 
  • Gefällt mir
Reaktionen: eXe777, stevefrogs und ProWein
Eli0t schrieb:
Wozu auch? Wenn da schon 180W und 225W steht, ist das halt nicht so berauschend.

Mal schön langsam mit den jungen Rössern.
Die 180W TDP der NV 2070 sind bei TH im Game gemessene 190W und die Custom OC Modelle sind bei 215W.

Die 225W bei AMD sind nich TDP, sonder TBP also das was das Board im Stande ist. Das heisst nicht,
das die Karte soviel verbraucht. Das müssen erst die Tests zeigen. Davon ab das 10-20W mehr oder weniger bei einer Karte die schneller ist keinen Unterschied macht. Schon die Diskussion darüber ist komplett lächerlich.
 
  • Gefällt mir
Reaktionen: Schranz0815
v_ossi schrieb:
Verzeih mir die Wortwahl, aber was für ein Kraut hast du eigentlich geraucht?
Keines.

v_ossi schrieb:
Als ob GDDR5 und 14nm immer so günstig gewesen wären. Als die RX480 kam war das auch brandneue und teure Technik.

Welches Kraut hast Du geraucht? :D GDDR5 gibts seit 2008. Das ist quasi schon Steinzeit. Die Fertigung in 14nm war bei GloFo immerhin erst seit einem Jahr am Start :) Aber 14nm Masken sind wesentlich günstiger als 7nm Masken.

v_ossi schrieb:
Vergleich nur mal die Anzahl der Kerne bei CPUs oder Speichermengen und Anbindung (SATA vs. PCIe) bei SSDs. Oder sogar Technik und Diagonalen bei Fernseher, statt 42 Zoll Plasma in 2009, kann ich für's gleiche Geld heute 55 Zoll OLED kaufen.

Würde es nach Intel gehen, würde es immer nur noch 4 Cores für Desktops geben...
Und wenn neue Technologie Produkte billiger macht, heißt das nicht, daß das immer gilt. Neue Technologie macht auch Dinge anfangs teurer.
GDDR6 ist recht neu und ist teurer. 7nm Fertigung ist teurer. Und AMD will auch Geld verdienen.

v_ossi schrieb:
Und doppelte Leistung zum doppelten Preis sind super? In welcher Welt? Geht dein Gehalt auch so hoch?
Die Autos aus 2016 sind mittlerweile auch billiger geworden? Nein. Und fahren die doppelt so schnell? :)

v_ossi schrieb:
Sind 2022 dann 900$/€ für die doppelte Leistung super?

Mit Inflation und neuen Features könnte das durchaus sein. Kommt immer darauf an. Wenn Raytracing wirklich funktioniert z.B. könnte dem so sein.

v_ossi schrieb:
Wenn Nvidia die 3000er in 7nm bringt, ist die Ti für über 2.000$/€ dann auch ein super Preis?

nieVieda hatte noch nie Superpreise. Die RTX Karten haben für mich überhaupt keine Existenzberechtigung weil Raytracing und DLSS nicht wirklich sinnvoll einsetzbar sind. Und warum denkst Du, daß nieVieda keine $2000 für die GTX 2180/GTX 3080 Ti verlangen wird? Die werden sicher die Leistung der RT und Tensor Cores verdoppelen und an den Algorythmen schrauben :) Der Lederjackentyp wird's den Leuten als das beste nach geschnittenem Brot verkaufen. Und die User werden sich darauf stürzen. :D

Als AMD den Leuten ihre Grafikkarten nachgeschmissen haben, hat's niemand gekauft. Und jetzt haben Sie ein gutes Produkt und alle jammern wie teuer das ist. Hätten alle AMD gekauft, würdest heute nicht jammern. :)
 
Zuletzt bearbeitet:
Janami25 schrieb:
Wir werden uns sowieso nicht dagegen wehren können, wenn wir solche GPU's in PC's weiter nutzen wollen. Ausser eben nicht kaufen. Macht der eine höhere Preise, zieht der andere nach. Von Nvidia habe ich hier kaum Vernunft erwartet, von AMD habe ich sie mir erhofft.

Und alle aus jeweils dem anderen Lager kritisieren gegenseitig das Preisgefüge, nur um dann im gleichem Kontext die affinere Firma dafür zu verteidigen. Einfach absurd.

Sowohl AMD als auch Nvidia sind in Zukunft wohl dahingehend zu teuer, und wenn das so weitergeht, wird es noch viel teurer werden. Die können das ja dann zukünftig immer in Relation zum Vorgänger sehen, und die Kosten und "Vorteile" darlegen, warum Ihre Produkte so viel "Wert" sind. ;)

Schöne, neue GPU Welt. Ich verzichte und werde mir wohl in Zukunft nur noch eine GPU im unteren Segment kaufen. Das Zocken wird sowieso immer weniger und uninteressanter für mich, und für die Videobearbeitung tut es auch eine deutlich günstigere Karte, weil die eh alle (fast) die gleiche Video Engine haben, egal welche Consumer Karte (Hersteller spezifisch gesehen).

Allgemein gesprochen, wer dann die "teure" zukünftige Entwicklung finanzieren soll, wird sich zeigen. Viele sind jetzt schon nicht bereit, das zu bezahlen, was gefordert wird.

Schönen abend noch.

Sehe ich genauso. Ich werde wohl ab jetzt nur noch bei der aktuellen Generation zugreifen, sobald die neue Generation releast wird um dann eben günstiger kaufen zu können. Mein Problem ist nur, dass jetzt scheinbar meine Vega 56 innerhalb der nächsten 2 Jahre nur noch für 1080p gut sein wird. Habe ich überhaupt nicht mit gerechnet, dass die Spiele so schlecht optimiert werden, dass sie auf der V56 nur schwerlich noch auf 60 FPS in 1440p laufen oberhalb mittlerer Settings. Man schaue sich Anno und Metro Exodus an. Das grenzt schon an Frechheit. Ich hatte gehofft das "auf mittlere Settings runterstellen in 1440p" trifft erst in 3-5 Jahren ein.
 
modena.ch schrieb:
Mal schön langsam mit den jungen Rössern.
Die 180W TDP der NV 2070 sind bei TH im Game gemessene 190W und die Custom OC Modelle sind bei 215W.

Die 225W bei AMD sind nich TDP, sonder TBP also das was das Board im Stande ist. Das heisst nicht,
das die Karte soviel verbraucht. Das müssen erst die Tests zeigen. Davon ab das 10-20W mehr oder weniger bei einer Karte die schneller ist keinen Unterschied macht. Schon die Diskussion darüber ist komplett lächerlich.

Es ging nur darum, daß die Werte nicht berauschend sind im Vergleich zu einer CPU die 8 Kerne und 16 Threads aufbietet und trotzdem eine TDP von nur 65W hat. Für mich spielt der Verbrauch nur eine untergewordene Rolle weil ein paar Watt mehr oder weniger sind imho belanglos. Warum sich die Leute so an ein paar Watt aufhängen, weiß ich auch nicht, aber überall liest man das AMD doch gar sooooo viel verbraucht, auch wenn es nicht stimmt...
 
major_tom111 schrieb:
Du bist aber auch recht sparsam mit den Argumenten wieso es eine NV und keine AMD sein soll

Nun ja, ich dachte das wäre logisch erschließbar.
(Achtung! Nicht mein Argument falsch verstehen! Hier geht es um die Verkaufszahlen und deren Erklärung, NICHT um eine Empfehlung/Kaufberatung)

1050ti vs 470: Die TI lag die meiste Zeit bei 150€, die 470 bei 200€. Welche Karte verkauft sich wohl öfter? Welche Karte wurde für Mining Zwecke eher missbraucht (und taucht damit nicht bei Steam auf)?
1070/80 vs Vega: Wann war Release der Nvidia Karte, wann war Release der AMD Karte? Welche Karte verkauft sich wohl öfter? Die, die am Markt existiert oder die, die erst fast ein Jahr später rauskommt?
1060 vs 480: Wer war am Anfang billiger, brauchte weniger Strom, war kühler und war auch noch leicht schneller (Und hatte nicht dieses PCIe Strom-Debakel)?
2060/70 vs 5700er: Welche Karte war eher am Markt? Welche Karte hatte schon zig Sonderangebote?

Also die Steam Ergebnisse mit "Nvidia Käufer sind dumm" erklären zu wollen (ist natürlich ne Übertreibung).....
Da ist AMD selber Schuld, wenn sie immer erst viel später nen Konter bringen. Die Verkaufszahlen sind somit auch gerechtfertigt. Auf Argumente, welche Karte nun besser/schlechter ist brauche ich ja nicht eingehen, da der Releasezeitpunkt der Karten diese Marktverteilung eh gut genug erklärt.

Das Argument "Jeder will AMD nur als Preisdrücker, um ne NV Karte zu kaufen" wäre nur gültig, wenn AMD auch mal ne Karte hätte und nicht immer ein halbes - ein ganzes Jahr Nvidia das Feld überlässt.

Hinzu kommt, dass der Hersteller mit der schnellsten Karte natürlich auch besseres Marketing für die unteren Leistungsklassen betreiben kann.

major_tom111 schrieb:
Schon mal daran gedacht das Sparschwein stärker zu füttern? Denn scheinbar wird es in absehbarer Zeit für dich kein passendes Produkt geben. Aber wenn du sie sofort brauchst wirst du wohl da oder dort einen Abstrich in Kauf nehmen können.

Keine Sorge, mit nem 4k 144Hz Monitor kam eh nur eine Karte in Betracht. Und mit 900€ hab ich sogar ein relativ gutes Angebot erwischt.
Aber es geht hier auch nicht um mich, sondern die 200€ Käuferschicht, die viel relevanter ist als meine Nische.

major_tom111 schrieb:
AMD hat kein Problem mit schlechten Produkten, denn die haben sie nicht, AMD hat ein Problem mit schlechtem Image

Ich würde dem zustimmen. Zusätzlich haben sie aber auch noch das Problem, dass fast nie rechtzeitig Karten da sind (480 war ne Ausnahme)
 
  • Gefällt mir
Reaktionen: KlaraElfer
Aber ich finde es schön das Amd das Preisgefüge das durch Nvidia hoch gesetzt wurde dankendangenommen wurde, von wegen Amd der Samariter Bund (Wie es von Fans die letzten Jahre immer dargestellt wurde).

Vorbei die Zeit des Preiskampfes ala GTX 4xx und HD 58xx, was aber nicht mehr ist kann noch werden freue mich schon wenn Intel mit einsteigt. :grr:
 
thepusher90 schrieb:
Vor allem worüber keiner redet: Das sind die Referenzkarten. AMD hat also mit 500€+ für Custom Karten gerechnet. In was für einer Welt leben wir gerade?! Unglaublich. Und die Fanbois rechtfertigen das auch noch...

Edit: Auch wenn der Mann gerne als Schwätzer abgetan wird:

Das ist die Psychologie hinter dem Ganzen
Wer sich eine fucking halbe Stunde Rant über die Navi anguckt, der hat sowieso die Kontrolle über sein Leben verloren. Kauft euch ne Vega 56 und gut ist, werden aktuell ständig für ~260€ angeboten. Best bang for the buck heißt die Redewendung im Englischen.
 
modena.ch schrieb:
Die 180W TDP der NV 2070 sind bei TH im Game gemessene 190W und die Custom OC Modelle sind bei 215W.
Und bei CB gemessenne 168W bzw. 186W mit OC.
Kommt aber halt auch auf die Spiele an die man zum Testen nimmt.

modena.ch schrieb:
Die 225W bei AMD sind nich TDP, sonder TBP also das was das Board im Stande ist. Das heisst nicht,
das die Karte soviel verbraucht. Das müssen erst die Tests zeigen.
Die TBP hat AMD soweit ich weiß nur eingeführt, weil die internen Sensoren eben nur den Verbrauch des Chips messen und ausgeben, bei Nvidia stimmt der ausgelesene Wert mit dem Verbrauch der Karte überein.

Die TBP ist also was die komplette Karte verbraucht, nicht zu was sie im Stande ist, ansonsten könnte man OC ja vergessen und würde keine 450W aus einer Vega64 raus quetschen können.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Taxxor schrieb:
Und bei CB gemessenne 168W bzw. 186W mit OC.
Kommt aber halt auch auf die Spiele an die man zum Testen nimmt.

Nur dass Igor eben messen kann, inklusive Spitzenleistungs Spikes im Millisekundenbereich,
welches hier als allgemeingültiger Verbrauch angesehen wird.
Das hat mit Spieleverbrauch im Schnitt nichts zu tun.
 
  • Gefällt mir
Reaktionen: stevefrogs
L1TerminalFault schrieb:
Die erste Generation Raytracing überspringe ich komplett, dabei ist es irrelevant ob Nvidia oder AMD drauf steht. Das ist noch nicht wirklich toll, da warte ich auf 2020.

Daher ist im Moment Raytracing vollkommen uninteressant!
Problem ist nur, dass Nvidia bereits in der zweiten oder dritten Generation sein wird, bis AMD endlich mal mit der ersten Generation daher kommt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Eli0t schrieb:
[...]Aber 14nm Masken sind wesentlich günstiger als 7nm Masken.
[...]GDDR6 ist recht neu und ist teurer. 7nm Fertigung ist teurer.

So wie du die Preise verteidigst, kannst du das sicher auch mit Quellen untermauern.

Preis pro GB GDDR5 in 2016 vs. Preis pro GB GDDR6 in 2019 oder Preis pro 7nm Die in 2019 vs. 14nm in 2016.

Eli0t schrieb:
Und wenn neue Technologie Produkte billiger macht, heißt das nicht, daß das immer gilt. Neue Technologie macht auch Dinge anfangs teurer.

Aha, wann war das bei Grafikkarten oder Computerhardware in den letzten 10, 15 Jahren derart krass der Fall, dass sich die Preise in der gleichen Kategorie verdoppeln?

Max. beim RAM von absolutem Hoch- zum absoluten Tiefpreis, aber da greift eher der Schweinezyklus.

Eli0t schrieb:
Die Autos aus 2016 sind mittlerweile auch billiger geworden? Nein. Und fahren die doppelt so schnell? :)

Schlechter Vergleich, denn Autos gehen nicht innerhalb von 5 Jahren vom oberen ans untere Ende der Skala.

Eine 5 Jahre alte S Klasse ist immer noch ein Premium Wagen, ein 5 Jahre alter 911er ist immer noch ein guter Sportwagen, eine 4 Jahre alte 980Ti wird heute von einer 1660Ti geschlagen, bei halbem Verbrauch.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Selten so unbeeindruckt und irgendwie enttäuscht.
Vielleicht erklärt es aber warum im neuen GeForce Treiber 435.xx eine Latency Einstellung hinzugefügt wurde. Soll das möglicherweise eine Alternative zur Antilag funktion sein?
 
Zurück
Oben