News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
Tommy Hewitt schrieb:
Kann mich jetzt irren, aber basiert RDNA1 nicht noch teilweise auf GCN?
Wird leider oft durcheinander geworfen, jemand von AMD hatte es in einem schönen Reddit Post mal erklärt, nur ob ich den noch finde?^^

Im Grunde muss man zwischen der Mikroarchitektur der GPU und dem instruction Set unterscheiden.
Bei GCN hieß halt beides gleich, was jetzt zur Verwirrung führt.
Denn die Mikroarchitektur der RX5000 Serie ist komplett neu und hat nichts mit GCN zu tun.

Das Instruction set, was eher den Softwareteil behandelt heißt aber immer noch GCN und dürfte es auch mit Navi 2x noch tun.
Ist auch eigentlich egal wie es heißt weil es sowieso immer erweitert wird.
Erst wenn CDNA kommt, könnte sich hier was ändern
 
  • Gefällt mir
Reaktionen: Blekota, Mcr-King und Verak Drezzt
Tommy Hewitt schrieb:
nVidia hat bereits den GA100 in 7nm, der dürfte deutlich größer/komplexer als die Gaming-Ableger sein. Zumal auch nVidia auf den von ihnen bestellten Node optimieren wird. Hat bei Pascal ja auch sehr gut geklappt, seh also hier keine allzu großen Stolpersteine.
Es gab auch einen GV100 der bestenfalls auf der ca. 3000€ teuren Titan V in die Nähe des Desktop Marktes kam und dort auch nur in gestutzer Form. Selbst die RTX Titan mit ihrem vollen TU102 geht bei nvidia für ca. 2800€ über die Ladentheke.
Der GA100 wird in der Herstellung vor allem eines sein und das ist teuer, weshalb wir den wohl ganz sicher nicht im Desktop Umfeld sehen werden.
Selbst ein kostenoptimierter und kleinerer GA102 dürfte weiterhin ein teurer Spass sein, weshalb man sich getrost die hier geposteten Wunschvorstellungen aus dem Kopf schlagen kann. Mich würde es noch nicht einmal wundern wenn Modelle mit dem Chip erst Monate später auf den Markt kommen und wie bei anderen Shrinks erstmal nur die Modelle mit dem noch kleineren 104er Chip starten. Die sollten schließlich schnell genug sein um die alte Generation abzulösen. OK, eine 3000€ teure Titan mit gestutzten 102er Chip sollte natürlich etwas früher auch noch drin sein. Dagegen erscheinen dann die Ti Modelle dann auch nicht mehr so teuer wenn sie kaum langsamer sind und dennoch die 1500€ Marke reißen würden.
Ergänzung ()

Tommy Hewitt schrieb:
Jaaaa, das war vielleicht etwas salopp ausgedrückt. Natürlich gab's da rundherum auch einige Verbesserungen, aber es blieb weiterhin eine Vega-Karte mit GCN5. Für's Gaming war die Karte eigentlich nicht entwickelt worden und holte ihre Mehrleitung auch nur durch das ordentliche Plus an Speicherbandbreite und mehr Takt raus.
Die Karte schon aber der Chip nicht wirklich und das die VII eher ein Schnellschuss war und nicht von langer Hand geplant war merkt man ihr leider auch an, vor allem beim Kühlsystem. Das ist zwar qualitativ sehr hochwertig aber vom Design her ziemlich vermurkst da der Luftstrom teils erheblich behindert und dadurch ein Großteil der erhitzten Abluft wieder eingesaugt wird.
Ergänzung ()

Taxxor schrieb:
Also meinst du, wenn die 3070 die Leistung der 2080ti bringen sollte, kommt eine 3070 für 1300€? Und dann? Eine 3080 für 1500€ und eine 3080Ti für 1800€?

Oder, wenn die 3070 langsamer, aber die 3080 etwas schneller als die 2080Ti ist, kommt eine 3070 für 1100€, eine 3080 für 1300€ und eine 3080Ti für 1500€?

Dann geb ich die Frage, wovon du Nachts träumst, gerne zurück^^
Ich denke das du dich eher darauf einrichten solltest das erstmal bei einer 3080er schluss ist und die 3070er bereits bei ca. 800€ liegen dürfte.
Ca. 3 Monate später könntest du mit einer ca. 3000€ teuren neuen Titan rechnen und ca. 6 Monate danach mit den Ti Modellen.

Warum ich mit diesen Ablauf und diesen Preisen rechne?
Der Ablauf orientiert sich an dem der nur allso gern beispielhaft genommenen Geforce 10 Serie (1070er) und die Preise an den aktuellen Modellen wie der aktuelle RTX Titan die bereits ca. 2800€ kostet und die neue Variante wohl kaum deutlich im Preis fallen sondern eher weiter steigen wird. Die dient dann als Anker für die Preisgestaltung der Ti Modelle bei denen ein halbierter Preis bei kaum weniger Performance ja fast schon günstig erscheint....auch wenn das Teil dann 1500€ kosten würde. Genau diese Taktik wird am Ende bereits seit Einführung der Titan Serie verfolgt und damit die Preise der restlichen Modelle hoch gezogen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cpt.Willard, Rockstar85 und Mcr-King
Warcraft 3 - Reforged (Worst-Case Szenario)
https://pclab.pl/art83305-5.html

...bei NVIDIA würden sich unzählige User direkt melden und über das Problem berichten.
Die User sprechen im Nvidia-Forum offen und direkt alle probleme an und auch Vulkan wurde oftmals angesprochen. Ich kann nur sagen, danke !

Ohne die User aus dem NV Forum wäre der Text komplett anders :

https://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Performance-Grafik-Tuning-1351418/

PCGH schrieb:
Insbesondere Nvidia war in den letzten Monaten sehr auf eine Verbesserung der Vulkan-Performance bedacht. Offenbar waren die Bemühungen in vielerlei Hinsicht erfolgreich, viele aktuelle Vulkan-Titel laufen auffällig gut auf Nvidia-Grafikkarten, insbesondere den jüngeren. Wir können in nicht wenigen Titeln aber auch Zuwächse für die älteren Pascal-GPUs verzeichnen - so auch in Doom 2016: Die GTX 1080 hat beispielsweise seit unseren letzten Benchmarks beträchtlich zulegen können, Gleiches gilt für die GTX 1070, welche die zuvor weit vorauseilende Vega 56 nun zumindest in Schlagdistanz halten kann.


Wo soll man sich melden wenn es probleme bei AMD gibt ? Es gibt kein "richtiges" Forum und viel zu viele User die alles akzeptieren bzw. probleme versuchen mit aller macht totzuschweigen (Fanboys)

AMD ist doch die Mutter Teresa der Grafikkarten und zeigen mit dem Finger auf andere, meistens auf NVIDIA ! :)

Angebrachte kritik ist von großem Nutzen aber das scheinen hier viele nicht zu begreifen, leider.
Ich bin jetzt aus dem Thread raus und wünsche euch allen noch viel Spaß beim spekulieren.

Good Night :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chripa
@sialickiz

Ich finde es ja faszinierend wie du hier mit einer Multicore Krücke nach der anderen antrabst nur ist das Problem nicht die Hard sondern die Software. Die genutzte API ist ganz einfach nicht in der Lage heutige CPUs effizient zu nutzen und genau deshalb werden am Ende entsprechend schnelle GPUs unterfordert, sofern man nicht wie im Fall von nvidia rumtrickst um diesen Flaschenhals zumindest teilweise zu umgehen.

Am Ende bleibt es aber dabei das die veraltete und ineffiziente API das Problem ist.
 
  • Gefällt mir
Reaktionen: eXe777, Rockstar85 und Mcr-King
moRphh schrieb:
1. kannst du offensichtlich keine statistiken lesen
2. hast du nicht genau gelesen, was ich geschrieben habe
3. ist es nicht allzu lange her, dass 75 - 80 watt in der mittelklasse angesiedelt gewesen ist. in die richtung gibt es eine negative entwicklung, die man nicht gut heißen sollte, insbesondere dann nicht, wenn die kw/h bei 32 cent liegt.
1. Hast du dir offenbar nicht mal eine Statistik angesehen, darum hier für dich:
FireShot Capture 033 - Steam-Hard- & Softwareumfrage - store.steampowered.com.png
Eine 80er-Karte auf Platz 6, eine 80-Ti-Karte auf Platz 13, Platz 24 + 25 für die noch teureren 80er und 80-Ti der neuesten Gen und auch sonst sind da noch einige teure Karten mit über 400 € in der Liste.

Selbst wenn du nur die 80 Ti-Karten zählst, hast du davon zwei Stück relativ weit oben. Zudem darfst du nicht vergessen, dass die Marge für Nvidia bei diesen Modellen am größten sein wird und der Marketing-Effekt ebenso. Also nein, Enthusiast ist durchaus wichtig.

2. Na dann raus mit der Sprache.

3. Zeigt deine Reaktion auf den Beitrag von @KuestenNebel, dass du da ganz offensichtlich etwas nicht verstanden hast.
moRphh schrieb:
naive analyse. die effizienz entwickelt sich negativ. bei dieser "logik" wird die verhältnismäßigkeit ignoriert. aber das ist heutzutage in allem so... is gibt genauso viele weniger fähige ingenieure wie politiker , technicker, handwerker etc.
Aber das ist schnell abgehandelt, ohne dir etwas über Chipfertigung erklären zu müssen:
Picken wir uns mal eine alte Mittelklassen-Karte raus, die tatsächlich 75 W TDP hat(te).
https://www.computerbase.de/preisvergleich/eu/powercolor-radeon-hd-3650-r63b-pe3f-a309536.html
Aha, 174 GFLOPs. Jetzt noch eine moderne Karte, nehmen wir mal eine, die als Stromfresser bekannt ist:
https://www.computerbase.de/preisve...ga-64-oc-gaming-90yv0b00-m0nm00-a1664657.html
13,03 TFLOPs und 295 W TDP.
GFLOPs/Watt der Radeon HD 3650: 2,32
GFLOPs/Watt der Vega 64: 44,17

Die neuere Karte ist also Faktor 19 so effizient wie die alte aus 75 W - TDP-Zeiten.

Aber keine Sorge, auch für dich gibt es etwas: Moderne, effiziente Karten mit 75 W TDP existieren, GTX 1050 ti oder GTX 1650 bspw. - nur nennt man das dann nicht "Mittelklasse" sondern "Low-End". Greif ruhig zu. ;)
 
  • Gefällt mir
Reaktionen: Rockstar85, adAstra und cookie_dent
Wadenbeisser schrieb:
@sialickiz

Ich finde es ja faszinierend wie du hier mit einer Multicore Krücke nach der anderen antrabst nur ist das Problem nicht die Hard sondern die Software.


Ja, ja jetzt sind die Spiele schuld. :hammer_alt:

Es interessiert niemanden da draußen warum zb. Modern Warfare 2, Mafia 2 - Remastered, Half Life - Black Mesa usw. usw. auf AMD so schlecht performen.
Die leute sehen die Benchmarks und entscheiden sich für NV, verständlicherweise.

So gut wie niemand wird sich die Frage stellen, liegts jetzt an der Hardware oder der Software, hmmm ?

Viele Spiele laufen sehr bescheiden auf AMD-Gpu´s, end of the Story.

AMD hatte lange zeit nachzubessern und nichts ist passiert !
Der Overhead ist immer noch stark präsent.
DX11 gibt es nicht seit gestern.
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
Die Kundschaft ist nie das Problem, sondern immer die Qualität des Angebots, stimmt sie, wie bei Zen 2, wird bis zur Vergasung gekauft, stimmt sie nicht so wirklich (5700/5700XT) oder gar Radeon VII, wird eben weniger Stückzahl als bei der Konkurrenz abgesetzt.

Die Radeon Karten unterstützen nicht mal die Kernfeatures der nächsten Directx Generation und kamen deutlich später auf den Markt, zudem mit relativ häufigen Treiberproblemen, wie Blackscreens und Signal losses.
Da die Schuld bei den Käufern zu suchen, ist lachhaft.



Das ist eine urban legend, bzw eine plumpe Verschwörungstheorie.



Angebot und Nachfrage, ganz einfach.
Nee nicht ganz so einfach sage nur Name und Image macht auch viel im Preis. Vom IPhone und Samung gibt es auch viel und trotzdem viel zu teur. 😉
Ergänzung ()

sialickiz schrieb:
Ja, ja jetzt sind die Spiele schuld. :hammer_alt:

Es interessiert niemanden da draußen warum zb. Modern Warfare 2, Mafia 2 - Remastered, Half Life - Black Mesa usw. usw. auf AMD so schlecht performen.
Die leute sehen die Benchmarks und entscheiden sich für NV, verständlicherweise.

So gut wie niemand wird sich die Frage stellen, liegts jetzt an der Hardware oder der Software, hmmm ?

Viele Spiele laufen sehr bescheiden auf AMD-Gpu´s, end of the Story.

AMD hatte lange zeit nachzubessern und nichts ist passiert !
Der Overhead ist immer noch stark präsent.
DX11 gibt es nicht seit gestern.

DX11 ist kacke und veraltet genauso wie Vulkan noch nicht da ist wo DX12. 1 (Ultimate) jetzt ist.

Wirklich sehen werden wir es mit den neuen Konsolen und mit PCIE4 was beide GPUs können. Naja Intel bleibt dann leider aussen vor.

Also abwarten und Tee trinken. 😉
 
  • Gefällt mir
Reaktionen: Rockstar85
Wadenbeisser schrieb:
Mangels technischer Konkurrenz.
Nö das setzte schon vorher ein als absehbar war das ohnehin nicht bei der Konkurrenz gekauft wird.
Mein persönlicher Meilenstein ist dafür die GTX970

Da war AMD schon mächtig im Hintertreffen, verkaufte Elektroheizungen die nebenher, quasi wie ein Hobby, noch ein paar Pixel verschoben.
 
  • Gefällt mir
Reaktionen: adAstra
Tommy Hewitt schrieb:
Dass die Ampere-Karten aber nochmals merklich teurer werden bezweifle ich, der Peak ist langsam erreicht.

Wir reden, wenn die Ampere Karten kommen. Der Punkt ist erst erreicht, wenn keiner mehr kauft. Schau dir die Absatzzahlen an, dann wirst du Merken, der Punkt ist noch lange nicht erreicht. 3080 849€ das ist mein Tipp. Und sollte die 3080Ti wirklich alleine stehen, wird sie 1500€ Kosten. Prestigeobjekte zahlen Leute gerne mehr Aufschlag.
 
  • Gefällt mir
Reaktionen: eXe777, Chismon, Mcr-King und eine weitere Person
sialickiz schrieb:
Ich sprach von Mafia 2 und du kommst mit einem uralten Benchmark zu Wolfenstein ?
https://www.pcgameshardware.de/Mafi...s/Definitive-Edition-Test-Benchmarks-1350369/
Was machst du hier eigentlich mit deinen ständigen Links zu PCGH, ohne Verweis auf die Tests hier auf der Webseite? Wenn man sich den CB-Test von Mafia 2 anschaut dann liegt die VII 36% vor der 1070!!! Und das in der völlig unsinnig gewählten Auflösung von FullHD, die man bei der VII eh nicht sinnvoll verwenden kann. Also der Vorwurf des Cherrypickings ist bei dir mehr als angebracht.

Ich sage gern "Schön, dass Nvidia die Leistung in Vulkan steigert", aber weiß nach wie vor nicht, was das hier mit dem Thema zu tun hat.
Taxxor schrieb:
Der Sprung ist ja rein von Prozess und Architektur ähnlich groß wie Maxwell 2.0 zu Pascal und da hat man es mit 1070 vs 980Ti eben so gesehen.
Wenn ich das richtig in Erinnerung habe, war Maxwell 2.0 in 28 nm, und Pascal in 16 nm.

TSMC sagt dazu "Compared to TSMC's 20nm SoC process, 16/12nm is 50 % faster and consumes 60% less power at the same speed." Und "Compared to its 28nm node, the 20nm process provides 15% better performance and can reduce total power consumption by a third." Also insgesamt 1.15*1.5=1,725.

72,5% mehr Leistung alleine durch den Shrink. Das Vergleich mal zu den +25%, die jetzt durch den Sprung auf 7 nm kommen.
KlaraElfer schrieb:
Navi ist von der Architektur her ziemlich veraltet, insofern kann auch die IPC keineswegs höher sein.
Wenn es nicht die IPC ist, wie erklärst du dir dann die +1%? Bessere Speicherkompression? Höhö.
Das einzige Argument gegen RDNA1 ist die Energieeffizienz, da dafür bereits der Sprung auf 7 nm "verbraucht" wurde. Aber genau da wissen wir ja, dass RDNA2 zulegen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Cronos83 schrieb:
Kommt immer drauf an, was man als High-end bezeichnet...

Ich hab 1996 (glaube ich) bereits über 800 Mark nur für zwei 3dfx Diamond Monster 3d hingelegt (die dann zusammen 8Mb Vram hatten).

2003 hab ich 750€ für RAM gezahlt!

Rechne da Mal die Inflation mit rein.....
Für 1000€ hat man noch nie einen Rechner bekommen, der meinem(!) Verständnis von High-End entspricht.

Genau! Weitere Beispiele:

1997:
2MB Matrox Mystique: 200DM + 6MB Miro Highscore 3d: 500DM
1998:
Pentium II 400MHz = 1400DM
1999:
17" Samsung SyncMaster = 900DM

dann später ab Anfang der 2000er wurden die Preise niedriger wegen der Finanzkrise 2001/2002:

2002:
64MB Geforce4 Ti 4200 = 180€

um ab Mitte der 2000er wieder anzusteigen:

2004/2005:
256MB Geforce 6800 GT = 425€
256MB X850XT PE = 515€

dann die Finanzkrise 2008/2009 und die Preise fielen wieder:

2008/2009:
Geforce GTX260 = 150€
2010:
Geforce GTX460 = 190€
2012:
Geforce GTX660 = 200€

ab hier nur noch langsamere Schritte bei CPUs, dafür preislich immer weiter nach oben bei GPUs:

2014/2015:
Geforce GTX970 = 300€

2016/2017:
Geforce GTX1070 = 400€

2019/2020:
Geforce GTX2070/S = 400-500€

Einzig erfreulich ist die Entwicklung, dass man heutzutage mit einer 160€ CPU super bedient wird und schon 6 Kerne sowie 12 Threads hat, während das vor 10 Jahren in Form eines X5660 oder i7-970 noch 800-100€ waren...
Ergänzung ()

4ndroid schrieb:
Wenn Microsoft die neue Xbox als leicht modifizierte Desktop-Lösung "Surface Series X" mit Win10 herausbringen würde - zu einem akzeptablen Preis - wäre ich sofort dabei und AMD würde das System verkaufen wie warme Semmeln.

Wer wäre dabei?

Genau daran hab ich auch gedacht! Machbar wäre es sicher bzw. man holt sich nen Adapter, um Maus und Tastatur an die PS5 oder XBOXX anschließen zu können.. Allerdings mehr wie spielen und max. browsen kann man damit ja nicht..

Vielleicht könnte man es XBOX X Desktop Edition nennen, dazu alle nötigen Anschlüsse ran und Windows 10 drauf. Wäre platzsparend und würde jeden Gamer PC überflüssig machen.

Jedoch ist der Mensch ein Individuum und je mehr Ahnung/Erfahrung er hat, desto mehr Selbstbestimmung möchte er, in dem Fall die Komponenten selber aussuchen und einen PC zusammenstellen, OS aussuchen, keinen alternativlosen Store auf dem PC haben wo die Spiele überteuert sind und dazu noch jährlich eine Pauschale berappen, nur um online spielen zu können.

Von der Anschaffung wäre so ne Box als Desktop billiger, über die Jahre gesehen durch die weiteren Kosten kommt es aufs selbe hinaus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4ndroid
Beitrag schrieb:
... wenn es einem Hersteller gelingen würde ein MCM-Design wie Zen auf GPUs umzumünzen. Die berechnen ja eh höchstgradig parallelisierbare Aufgaben, dementsprechend würde man einen Quantensprung in bei Leistung und Preis machen können. Aber das scheint wohl ziemlich schwierig zu sein, sonst gäbe es das sicher schon längst. Multi-GPU-Grakas waren ja auch eher ein Flop.

Warten auf Raja/Intel ;), der hat als erster MCM bei GPUs ins Spiel gebracht und kommt damit (Ponte Vecchio) hoffentlich noch vor nVidia mit heraus.

Allerdings koennte MCM vorerst nur im Serverbereich und bei Supercomputern zum Einsatz kommen, ob das auch direkt fuer Gaming GPUs implementiert wird, wer weiss?

Intel koennte noch die grosse Ueberraschung werden, denn Intels Xe Grafik in den Tiger Lake APUs scheint wohl der optimierten Vega Grafik der Renoir APUs leicht voraus zu sein.

Dass aber zwangslaeufig die Preise sinken werden, falls Intel als dritter Entwickler bei Desktop-Gaming-GPUs einsteigt, dahingehend waere ich mir nicht sicher .... momentan sehe ich auf absehbare Zeit nur noch steigende Preise bei PC Hardware, es sei denn die Weltwirtschaft crasht spuerbar (als Nachbeben der Pandemie oder im Falle eines neuen kalten Krieges zwischen USA/Westen und China).

Wenn sich der Preis bspw. bei nVidias GeForce Grafikkarten offensichtlich dann von Pascal 80Ti zu Ampere 80Ti fast verdoppeln sollte (schade, dass so etwas bei Gehaeltern i.d.R. nicht auch passiert), dann duerfte fast jedem klar sein, dass es Mondpreise sind bzw. die Preisentwicklung bei Grafikkarten keiner gesunden Relation mehr entspricht und ja, vielleicht resultiert dann daraus eine weitere Flucht in Next-Gen Konsolen.

Ich fand/finde die Turing (Refresh/"Super") GPU Preise immer noch abartig hoch und von den angeblichen/gemunkelten Preissenkungen ist noch nicht wirklich so (spuerbar) viel im Handel angekommen, um die Lager vor dem Ampere Marktstart leeren zu wollen und wer kauft jetzt noch die preis-leistungstechnisch eher (im Vergleich zu den vorherigen nVidia Generationen) enttaeuschenden Turing (Refresh/"Super") GPUs, wenn in einigen Monaten Ampere neben den Big Navi RDNA2 GPUs der Konkurrenz angekuendigt werden duerften.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Iguana Gaming schrieb:
Karten Preise nach 4 Wochen release am Beispiel der MSI Gaming Modelle:

980Ti: 750€
1080Ti: 810€
2080Ti: 1300€
3080Ti: 1500+€ ???
Man darf aber nicht vergessen, dass sich die Käuferschaft über die Jahre verändert hat. Die armen Kids von gestern die sich eine Grafikkarte zum zocken gekauft haben gibt es fast nicht mehr. Die zocken heute auf Konsole oder schauen andern beim Spielen zu.
Die PC-Gamer sind älter und damit auch kaufkräftiger geworden und können sich die neuen Preise leisten. Das wissen auch die Hardwarehersteller.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ob AMD nun mit "BIG Navi" die 3080ti + in der Leistung überholen kann ist mir persönlich fast Egal.
Ich würde ihnen dieses Halo Produkt jedenfalls wünschen, damit sie mal wieder mehr in den Markt herein kommen.
Selbst wenn es kaum liefer- und bezahlbar wäre, wäre es für AMD schon wichtig.
Viel zuviele Käufer schauen schlicht in die Benchmarklisten; und wenn dann oben ein unbezahlbares Produkt von Herstelle X steht, wird halt ein bezahlbares Produkt von Hersteller X gekauft. Auch wenn das P/L Verhältnis schlechter ist schaut Hersteller Y in die Röhre.

Für mich wäre es wichtig das eine 3700XT das 50% mehr Leistung / Watt Versprechen einhält.
Wenn ich mir den 3D Center UHD Index anschaue, käme dieser Chip dann ziemlich genau auf dem Level einer 2080ti FE heraus. Das sollte für meine Ansprüche vollauf genügen und der Geldbeutel wird nicht allzu hoch belastet.

Wenn es diese Leistung dann für ~500€ zu kaufen gibt, habe ich alles was ich mir wünsche. :)

Und ihre diversen Plattform und Softwareprobleme dürfen sie bis dahin auch gerne lösen. Sonst wird das Nix.
Meine Hoffnung wäre ja noch, das sie z.Zt. mit der maximal möglichen Manpower an der neuen Generation arbeiten und deshalb die aktuelle etwas schleifen lassen.

Wenn die nächste Generation, auch besonders auf der X570 Plattform, nicht bedeutend fehlerärmer wird, sind sie mich jedenfalls erst einmal los.
 
Zuletzt bearbeitet: (Ergänzt + Korrigiert)
  • Gefällt mir
Reaktionen: Mcr-King
Summerbreeze schrieb:
Für mich wäre es wichtig das eine 3700XT das 50% mehr Leistung / Watt Versprechen einhält.
Wenn ich mir den 3D Center UHD Index anschaue, käme dieser Chip dann ziemlich genau auf dem Level einer 2080ti FE heraus. Das sollte für meine Ansprüche vollauf genügen und der Geldbeutel wird nicht allzu hoch belastet.

Wenn es diese Leistung dann für ~500€ zu kaufen gibt, habe ich alles was ich mir wünsche.

Big Navi mit 2080Ti Leistung für 500€ ?
 
Lass ihn doch träumen, AMD wird die Karten schon verschenken
 
  • Gefällt mir
Reaktionen: adAstra und Verak Drezzt
SirSilent schrieb:
Man darf aber nicht vergessen, dass sich die Käuferschaft über die Jahre verändert hat. Die armen Kids von gestern die sich eine Grafikkarte zum zocken gekauft haben gibt es fast nicht mehr. Die zocken heute auf Konsole oder schauen andern beim Spielen zu.
Die PC-Gamer sind älter und damit auch kaufkräftiger geworden und können sich die neuen Preise leisten. Das wissen auch die Hardwarehersteller.
Daran glaube ich nicht, zumal PCs früher (85-95) deutlich teurer waren im Verhältnis zu Einkommen und Kaufkraft und es weit weniger Auswahl gab an unterschiedlichen Leistungsklassen, und trotzdem war der Markt da. Die heutigen Preise für Highend Komponenten sind meiner Einschätzung nach mehreren Umständen geschuldet: Auf der Nachfrageseite durch Mining, Computing und ein größeres Preisband und im Angebot mangels echtem Wettbewerb, aber “Kiddies” zocken damals wie heute, haben gemessen an der Kaufkraft etwas mehr Geld. Hier wird gerne vergessen das eine 2080ti am Markt vollkommen irrelevant ist gemessen am Käuferanteil und dass das Gesamtpaket PC an anderer Stelle dafür günstiger wurde (RAM, CPU, MB, Soundkarte & Netzwerkkarte raus,...). Außerdem hat sich die Bedeutung der Grafikkarte im Gesamtsystem klar verschoben Richtung GPU, ich denke da an Physikberechnung, Sound, KI, etc. .

Wenn Intel in den Mainstream dGPU Markt einsteigt kommt hoffentlich wieder etwas Bewegung in das Preiskarussell
 
Taxxor schrieb:
... aber bewusst, dass die 3080Ti zeitgleich erscheint oder?
Und ich gehe nicht davon aus, dass man hier die Leistungssteigerung 1:1 in eine Preissteigerung umwandelt und die Karte bei 50% Mehrleistung für 2000€ UVP anbietet.

Sie wird ebenfalls irgendwo bei den 1200-1300€ landen, damit muss die 2080Ti zwangsläufig günstiger werden, da es ihre Leistung fortan in Form einer 3070 für irgendwo um die 600€ geben wird.
So z.B. geschenen bei 980Ti (740€ UVP) gegen die gleich starke 1070(499€ UVP)

Und jetzt soll AMD mit einer Karte auf dem Niveau so einer 3070 für 1000€ kommen?

Wer behauptet denn, dass Big Navi "nur" auf RTX 2080Ti(/RTX 3070(Ti)) Niveau erreicht und nicht RTX 3080 Niveau, was durchaus noch plausibel/realistisch erscheint, wenn RDNA2 gelingt?

Dann sind die 1000(+) Euro in jedem Fall moeglich und wenn man damit kurz vor nVidia auf den Markt/in den Handel kommen sollte sowieso (wenn auch nur kurzzeitig), da man dann kurzzeitig die Leistungskrone haette (vorausgesetzt, man vergleicht das RDNA2 Flaggschiff nicht mit einer exorbitant teuren und nicht mehr als Gaming-GPU vermarkteten RTX Titan).

Moeglich (und mitunter gerechtfertigt) waeren die kolportierten 1000(+) Euro fuer eine Halo RDNA2 Grafikkarte schon, natuerlich koennte das Timing da auch mitentscheidend sein ;).

Wie lange sich die Preise halten koennen bzw. was das Arsenal auf beiden Seiten hergibt ("GHz Version" oder ein Navi20 "noch groesser" Chip oberhalb von Navi 21; 3080Ti "Super" oder Black/Gold Edition (mit Ampere RTX Titan Chipvollausbau)), wird man sehen muessen; ich wuerde ein moegliches Ass im Aermel behalten, aber ob das RDNA2 hergeben wird (das waere schon eine mordsmaessige Ueberraschung, an die ich nicht wirklich glaube)?
 
Kann mal bitte jemand in seine Glaskugel schauen und mir sagen, dass nach dem erscheinen der RDNA 2 die aktuellen Karten günstiger werden?
 
  • Gefällt mir
Reaktionen: Rockstar85
Status
Für weitere Antworten geschlossen.
Zurück
Oben