News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Bin schon gespannt wie ein Flitzebogen auf die neuen Karten :)
Aber ich habe trotzdem "gesunde" niedrige Erwartungen und erhoffe nichts.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Mcr-King und Onkel Föhn
RT ist doch aktuell schon "zweigleisig" Nvidia's exklusives Rtx Gedöns und dann die Erweiterung in Dx12 als Update in Form von DX12 Ultimate.Gäbe es aktuell Software in Dx12 mit Rt wären Vergleiche der Leistung machbar aber da wieder verschiedene Suppen köcheln guckt wie immer der Kunde in die Röhre.Mit Pech für alle Nvidia Jünger wird die RT Implementierung ein ähnliches Schicksal erleiden wie ehemals PhysX sofern sich die Branche mal wieder nicht auf einen Standard einigen kann.Wird aber wie so oft Studios geben die den its meant to be played Slogan in ihrem Intro bevorzugen.Wie man Stand heute RT so bejubeln kann bei einer handvoll Games ist mir schleierhaft.
 
  • Gefällt mir
Reaktionen: MurphysLaw, han123, Blekota und 5 andere
Deater schrieb:
RT ist doch aktuell schon "zweigleisig" Nvidia's exklusives Rtx Gedöns und dann die Erweiterung in Dx12 als Update in Form von DX12 Ultimate
Was du meinst ist DXR. Und guess what? DXR nutzt die RTX RT Cores und die Games nutzen DXR. Damit ist der Rest deiner "Argumentation" und der hinkende PhysX Vergleich vom Tisch.

Deater schrieb:
Wie man Stand heute RT so bejubeln kann bei einer handvoll Games ist mir schleierhaft.
Probiers doch einfach mal aus. Vielleicht ändert sich dann deine Meinung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FLCL, yummycandy und RogueSix
Am ende des Tages, warten wir einfach noch 9 Tage.

Währenddessen überlege ich mal, was mit Einführungen neuer GPU´s bahnbrechend für die allgemeine Performance war... ich meine jetzt nicht irgendwas wie T&L etc. sondern Features die sich auf alles ausgewirkt haben.

1996 - Tilebased Deferred Renderer (heute HSR) (Super Populär mit der Kyro 2 im Jahr 2001)
1998 - S3TC (heute DXTC)
1998 - 3dfx SLI
1999 - DDR RAM (Geforce 256)


macht mal jemand weiter ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User, Mcr-King, Onkel Föhn und 2 andere
Ich war mit AMD (ATI) immer sehr zufrieden. Gute Treiber,Leistung und ein unschlagbarer Preis vs Nv..der andere Laden... OC und UV waren immer besser als das Konkurrenzprodukt und ehrlich jetzt ; 20 oder mehr Watt und etwas weniger FPS und meist sogar P/L bei weitem besser( ihr könnt wirklich 80 von 100 fps unterscheiden?) haben mich immer treu zu AMD stehen lassen. Es gab kein spiel das es rechtfertigen konnte zu (dem anderen Laden) zu wechseln. Meiner meinung nach macht AMD alles richtig. Auch hier wird wieder Leistung,verbrauch und wie immer P/L das bessere Angebot sein. Nicht nur bei den Grafikbeschleunigern sondern auch bei den CPU´s. Davon abgesehen sollten alle mal nutzungsdauer und anwendungsbereich für solche Technik sehen. AMD wird auch hier dem normalen und casual User das beste bieten ohne dabei zum Abzocker zu werden wie andere mitbewerber.
( POPCORNHOL :) )
 
  • Gefällt mir
Reaktionen: Kodak, han123, Mcr-King und 2 andere
Cpt.Willard schrieb:
Der Fake hieß aber 699€, klar (ab), doch bis auf die ersten Klicker, die Glück hatten für diesen Preis die Karte zu bekommen - sehe ICH die Nummer als naja an.

Mag sein, dass sich viele an den Nvidia-Preisaufschlag gewöhnten, irgendwo muss ja das Megaplus an Gewinnen bei NV herkommen, ich mache es nicht und verarschen lasse ich mich auch nicht - die Küchenpräsentation war großes Kino, die mich sogar gehyped hat, am Ende war aber doch alles leicht übertrieben und wie gesagt, der Preis - lol.
Das war in meinen Augen nur ein anködern, um überhaupt vor dem AMD Livestream was anbieden zu können. Oder glaubt ihr alle ernsthaft, Nvidia hätte sich zu so etwas hinreisen lassen, wenn sie nicht wüssten, was AMD zu bieten hat?

Genauso könnte man sich auch fragen, warum sie die 3070 um zwei Wochen nach hinten geschoben haben. Richtig, um erst mal zu sehen, wo AMD leistungsmäsig überhaupt liegt und dann vieleicht mit dem Takt nach zulegen, sollte die 3070 doch etwas im Nachteil sein.

Ach ja, noch was zu der verfügbarkeit der 3080/90. Die wird natürlich erst besser, wenn dann die "TI" mit doppelten Speicher kommen.
Oder habt ihr wirklich geglaubt, das Nvidia was zu verschenken hat?
Nee nee, die wussten ganz genau was da kommt. Aber hey, das ist nur meine persönliche Meinung, die niemand teilen muss. Aber wollen wir mal ehrlich sein, wann hatte sich Nvidia das letzte mal zu so etwas hinreisen lassen? Also ich kann mich da nicht drann erinnern.
:schluck: :daumen:
 
peterX schrieb:
Genauso könnte man sich auch fragen, warum sie die 3070 um zwei Wochen nach hinten geschoben haben. Richtig, um erst mal zu sehen, wo AMD leistungsmäsig überhaupt liegt und dann vieleicht mit dem Takt nach zulegen, sollte die 3070 doch etwas im Nachteil sein.
Klar und das ganze innerhalb eines Tages? Nach der Logik hätten sie die 3070 einige Wochen nach hinten schieben müssen.
Ergänzung ()

peterX schrieb:
Ach ja, noch was zu der verfügbarkeit der 3080/90. Die wird natürlich erst besser, wenn dann die "TI" mit doppelten Speicher kommen.
Ja klar, die 3090 kommt ganz bestimmt Ende des Jahres mit 48GB. In riesen Mengen.
 
  • Gefällt mir
Reaktionen: Mcr-King
ZeroStrat schrieb:
Ist es aber nicht. Die DLSS Implementierung in Death Stranding ist top.

nur solange man keine schnelle bewegungen hat... dann gibts artefakte... wie immer bei DLSS(2.0)... wird sich wohl auch so schnell nicht ändern.
 
  • Gefällt mir
Reaktionen: Mcr-King
Benji18 schrieb:
AMD hat so gut optimiert, das eine 5GHZ CPU schlicht nicht notwendig war um Intel zu schlagen, man hat sich schlicht für effizienz entschieden 🤷🏻‍♂️ also warum du daraus einen strick drehst? ....
Trotzdem ist immer ein höherer Takt erstrebenswert. Takt schlägt eben immer vor mehrere Kernen.
 
  • Gefällt mir
Reaktionen: Mcr-King
wäre schon sehr toll, wenn die leistungsaufnahme stimmt
vor allem im günstigeren bereich
die leistung einer 2080TI mit 11GB bei weniger stromverbrauch zum preis einer 3070 wäre schon sehr nett
 
Ein Launch der RDNA2-Karten vor Mitte November würde mich sehr überraschen.
Dafür sind die ganzen "Leaks" zu unspezifisch

Dafür dass sich die ganzen "Leaks" entsprechen gibt es 2 Erklärungen:
  • Sie sind Leaks und basieren auf derselben Hardware
  • Es sind Gerüchte die zirkulieren und denen werden nach und nach weitere Nuancen hinzugefügt.

Che-Tah schrieb:
Deswegen gebe ich auf Gerüchte schon einiges... wenn sie von den richtigen Leuten kommen die auch in der Vergangenheit richtig gelegen haben.

Aber um auf deinen Punkt zurückzukommen... NDAs sind jetzt nicht unbedingt wirkungsvoll.

Richtig. Die NDAs bringen nichts, deswegen musste auch jeder schon im August was Nvida veröffentlicht und deshalb haben alle müde gelächelt als Nvidia die 3000 vorstellte.
Und wir wissen bereits alle wie genau AMD die schmale Speicheranbindung kompensiert.

Ironie off/
Außer der geschützen Bezeichnung "Inifinity Cache", einer Zahl und einem Patent ist hier ziemlich Funkstille. Dabei passt das Patent nicht zu geschützten Bezeichnung. Dass gerade zu diesem sehr interessanten Thema nicht konkretes kursiert, ...

MIWA P3D schrieb:
Gibt auch das Gerücht das es keine Partner Karten geben wird so wie bei Vega VII und man einfach nur ganz schnell auf die 7000 Serie gehen möchte weit bevor nvida kontern kann
Die man soeben aus dem Hut zaubert?

Wenn die 7000-Serie was wirklich neues ist, kann sie entweder auf einen neuem Node oder einem neuen Design basieren. Beides braucht Zeit.
  • RDNA1 => RDNA2: ca. 16 Monate
  • Neuer Node soweit ich weiß mindestens ein halbes Jahr, aber es müsste schon 5-nm sein, damit es wirklich weiterhilft. Aber ist das realistisch Mitte 2021 mit einem so großen Chip ind die 5-nm-Produktion zugehen?

Ganz davon abgesehen kostet der Produktanlauf viel Geld und bindet Engineering-Kapazitäten. Das Geld muss eingespielt werden. AMD kann es sich nicht leisten Mal soeben 100 bis 200 Millionen in den Sand zu setzen.

Ergo: Viele Gerüchte sind keine Gerüchte, sondern schlicht Blödsinn.

Maxminator schrieb:
Die Frage wäre auch berechtigt:

warum braucht man solch hohe Taktraten?

Wie jeder weiß für eine hohe Performance.

Das Problem mit dem Steigern der Taktraten ist:
  • der Verbrauch steigt ab einer gewissen Frequenz überproportional
  • irgend wann funktioniert die GPU nicht mehr.

Die Frage ergibt nur einen Sinn, wenn man 2 Leistungen vergleichen. Das können wir momentan nicht.

just_fre@kin schrieb:
Meine Meinung:

Warten wir doch einfach mal die ersten handfesten Tests ab. Ich sehe AMDs Zukunft bei den Grafikkarten eigentlich nicht im Highend-Segment. Warum auch? Nvidia rundet sein Portfolio ja nur noch lieblos nach unten hin ab und gerade die breit gefächerte Preisklasse von 149€ bis 349€ ist meiner Meinung nach eine sehr Attraktive, wo AMD relativ leicht einen Fuß in die Tür setzen könnte, beziehungsweise dies schon getan hat.

Das Highend zu ignorieren, kann in einem Markt mit 2 oder 3 Teilnehmern nicht funktionieren.
Dass AMD auch im Segment 149 € bis 349 € nicht wirklich was reißt, zeigt der Marktanteil bei Grafikkarten. Natürlich muss hier AMD der Preis/Leistungssieger sein. Trotzdem verkauft Nvidia mehr Karten.

Das kann AMD nur ändern, indem sie Nvidia im Highend unter Druck setzen.

eLw00d schrieb:
Seit Monaten werden derartige Dinge aus Insiderkreisen berichtet.
Die Gerüchte decken sich und die bislang zuverlässigen Quellen, die bereits bei RTX 3000er Serie etc richtig lagen, werden auch diesmal Recht behalten.

So oder so, in 10 Tagen wirst du sehen wie falsch du liegst. Es gibt einen Grund warum in der PS5 und Xbox AMD Chips verbaut sind.
Ob die Leaker wirklich Insider sind, wird man sehen. Es ist wie mit den Wahrsagern, man erinnert sich nur an die zutreffenden Vorhersagen.

Vor allem sind seit dem 8. Oktober die ganzen "Leaks" verschwunden, dass AMD nur an die 3070 rankommt.
Da war es über 2 oder 3 Wochen "Stand der Dinge" dass AMD von Nvidia ausgekontert wurde.

Mich wundert bei den ganzen Tabellen und Gerüchten wie Chipkennung und Grafikkartennamen vermischt werden. Da will sich wohl keiner zu weit aus dem Fenster lehnen.

Sly123 schrieb:
Wäre vielleicht besser wenn Computerbase den Hype nicht so mitmacht.
Das ganze erinnert schon leicht an Vega.
Trotzdem hoffe ich, dass die Gerüchte ansatzweise stimmen.
Das Problem bei Vega war, dass AMD suggeriert hat, sie könnten die 1080 packen.
In Realität konnten sie die 1080 nicht ganz erreichen, obwohl die Taktschraube überdreht wurde und der Verbauch in die Höhe schoss.

Dem würde entprechen, wenn die schnellste von AMD veröffentliche Karte bei 4K keine 60 Hz-Bildrate liefert und deutlich hinter der 3080 liegt.

Was in den "Leaks" und Gerüchten rausgehauen wird, dafür kann AMD nichts.

Und das Geschwätz mit "3090 übertreffen" kommt nicht von AMD.

Krautmaster schrieb:
Verfügbarkeit dann wohl zum Weihnachtsgeschäft. AMD stellt die Karten am 28. ja nur vor. Bei Zen 3 startet der Verkauf etwa 1 Monat danach, möglich dass es bei der RX6000 auch so ist. Cool wäre natürlich wenn beides zusammen am 5.11. startet.
Cool ja, aber unwahrscheinlich. Speziell die Redaktionen würden es AMD nicht wirklich danken.
Aber auch AMD muss 2 Launches parallel erst Mal hinbekommen. Und zwei Launches bringen mehr News als ein Doppellaunch. Da AMD ein kleines Marketingbudget hat, ...

Inxession schrieb:
Da Computerbase sich ja zum Ziel genommen hat, nur Gerüche zur verbreiten die (laut Redakteueren) auch ein gewisses Maß an Wahrheit beinhalten, bin ich guter Dinge was RDNA2 betrifft.

Da wird zu viel hineininterpretiert. Guter Dinge kann man wegen dem Teaser sein, alles andere ist Spekulation.

Wenn ich es richtig verstanden habe, wurden bei Ryzen 5000 die Redaktionen am selben Tag eingeweiht.
Ich denke, dies wird auch bei RDNA2 so gehandhabt. Die Redaktionen bekommen ihre Infos mit einem kurzen Vorlauf.

Inxession schrieb:
Stand jetzt kann man AMD auf jeden Fall nichts vorwerfen. Sie beteiligen Sich kaum bis gar nicht an Spekulationen, schüren keine Erwartungen oder ähnliches.

Das stimmt nur, wenn sie mit der schnellsten Karte im Bereich der 3080 sind. Wenn sie deutlich mehr als 10 % dahinter sind, wird man den Teaser nicht mehr so positiv sehen.

Inxession schrieb:
Alles was man bisher gezeigt hat, ist ein Video welches die Performance einer unbekannten RDNA2 Karte gezeigt hat.

Eigentlich nicht Mal gezeigt, eher angedeutet. Ich denke AMD wollte den Leaks eine Richtung geben.
Ins Bodenlose darf man die Erwartungen auch nicht abstürzen lassen.

Inxession schrieb:
Für mich kann AMD eigentlich gar nicht enttäuschen. nVidia hat nicht umsonst so vorschnell, und katastrophal released.
Das ganze weiß man erst, wenn alle Karten auf dem Tisch liegen.
Ich denke Nvidia war es wichtig, dass AMD zu keiner Zeit die schnellste Gamingkarte hat.
Dafür haben sie den Vorteil aufgegeben, reagieren zu können. Nvidia ist gleich in die Vollen gegangen.
Das ist besser als AMD den Triumph zu gönnen, die 2080 Ti gewätig zu übertreffen. Um dann kurze Zeit später nur knapp vorbei zu ziehen.

nospherato schrieb:
Alle schön auf den Hypetrain aufspringen...
Und wehe es sind am Ende 100Mhz weniger hier oder etwas weniger Leistung dort... Dann wird wieder geflamed 'abba abba AMD hat doch gesagt'... Tjo AMD hat halt gar nichts gesagt :D

Die Taktfrequenz als Selbstzeck ist vollkommen uninteressant. Was zählt sind die Benchmarks. Wenn in denen die 6090 mit der 3080 in etwa gleichauf ist, interessiert niemanden die Taktrate. Sollte AMD schlechter abschneiden, dann wären Taktraten die niedriger als erweartet sind eine Erklärung. Aber auch dann steht die schlechter als erwartete Performance an erster Stelle.

Bierliebhaber schrieb:
Dass Leute immer noch nicht raffen, dass diesmal die Leistung und die Effizienz gut vorherzusagen sind und behaupten, RDNA2 muss ein Flop werden, weil alle anderen großen Karten von AMD auch Flops waren... aber Zen ist ja auch kacke, weil Bulldozer mies war.
Ich sehe es ähnlich. Die aktuelle Situation mit RDNA2 kann nur bedingt mit dem Lauch der Vega verglichen werden.
Mit Navi sit in Punkto Effizienz dran. Allerdings nur in der gehobenen Mittelklasse.

Bierliebhaber schrieb:
Diesmal baut man auf einer sehr guten vorhandenen Karte auf, die schon effizient war und wird nochmal 50% mehr Perf./Watt bringen und etwa auf 3080-Niveau liegen, wenn man nach AMDs bisherigen Aussagen geht, und AMD hat seit Zen1 nicht mehr zu viel versprochen.

Es wäre sehr entäuschend wenn der Teaser in die Irre leitet und die andekündigte Effizeinzsteigerung nicht eintrifft. Aber hier ist meiner Meinung nach Navi 22 der Maßstab.

Aber die große Unbekannte ist, ob die Leistung bei RDNA2 besser als bei GCN mit der Anzahl der CUs skaliert. Hieran hängen alle Zahlenspiele.

SV3N schrieb:
Ich glaube, man sollte die Kirche mal im Dorf lassen.

Dann hätte man die Leaks viel kritischer beleuchten müssen.
Um es höflich auszudrücken, ich finde die ganzen Specs komisch.

SV3N schrieb:
Bei Erstauflage von RDNA konnte AMD mit der RX 5700 XT gerade einmal mit der RTX 2070 Super mithalten, die RTX 2080 war ein wenig schneller, die RTX 2080 Super unerreichbar und die RTX 2080 Ti auf einem ganz anderen Level.

Darauf wurde schon geantwortet aber trotzdem. Es ist nicht "gerade einmal mithalten" sondern mit den vergleichbaren Produkten mithalten.

Es ist allerdings klar, dass AMD kein Konkurrenzprodukt zur 2080S brachte. Schon gar nicht zur 2080 Ti. Dass AMD dies nicht aus Gefälligkeit für Nvidia unterlassen hat, versteht sich von selbst. Sie konnten mit Navi kein Konkurenzprodukt bereitstellen.

SV3N schrieb:
Eine grobe Richtung der Leistung hat AMD ja bereits mit den Benchmarks bei der Präsentation von Ryzen 5000 gezeigt. Nehmen wir an, sie haben die Katze noch nicht ganz aus dem Sack gelassen, dann schlummern da ggf. noch 10 Prozent Leistung und man wird sich also maximal leicht oberhalb der RTX 3080 platzieren können und das auch nur im Best Case.

Genau: AMD hat mit dem Teaser am 8. Oktober ein Hinweis gegeben und ganz bewusst keinen Benchmark veröffentlicht. Auch haben sie in den Gesprächen am Rande einige Nebelkerzen gezündet.
Deshalb finde ich in Ordnung davon zu sprechen "liegt im Bereich der 3080". Wie nahe genau, das bleibt der Spekulation überlassen.

Es ist eines, etwas im Stillen zu hoffen. Aber etwas ganz anderen es laut auszusprechen. Spekulationen darüber anzustellen die schnellste 6900-Karte würde die 3090 überholen, befeuert nur den Hypetrain. Es wäre eine sehr sehr große Überraschung.

SV3N schrieb:
Die beiden Flaggschiffe für Gaming werden zukünftig wohl RTX 3080 20 GB und RX 6900 XT 16 GB sein und leistungstechnisch auf Augenhöhe operieren. Alles andere wäre eine Überraschung, wenn auch nicht ausgeschlossen.

Das sehe ich ebenso.

Aber macht Nvidia wirklich ein neues Board mit 20 Chips, mit allen Problemen. Oder wartet Nvidia bis die 2GByte-GDDR6X lieferbar sind?

5hred schrieb:
Hmm, für Nvidia wird die 3070 wohl das umsatzstärkste Produkt im Portfolio werden, also die Brot-und-Butter-Karte. Wie soll man nun die Verschiebung der Produktvorstellung auf einen Tag nach der Vorstellung der Radeon-Karten deuten?

Am 29. ist der Launch nicht die Produktvorstellung. Die ist schon vorbei.
Nvidia kann beim Launch der 3070 nicht darauf reagieren, was AMD am Tag zuvor vorstellt.
Sie können es nur kommentieren

Gründe für die Verschiebung:
  • Die Redaktionen beschäftigen (mit Tests), damit sie nicht so viel über AMD berichten.
  • Dem AMD-Termin etwas entgegen stellen. Harte Fakten gegen Ankündigungen setzen.
  • Gegenüber dem zu erst geplanten 15. Oktober 14 Tage mehr Zeit um GPUs und Grafikkarten zu produzieren und auszuliefern.

Im übrigen hat die 3070 einen kleineren Chip und deshalb ist es zu erwarten, dass die Liefersituation erheblich besser ist.

PS. Als Navi rauskam hieß es überall, dass AMD nur wegen der 7-nm-Strukturbreite aufgeholt hat. Jetzt ist Samsung Schuld, dass R3080 so viel verbraucht. Warten wir es ab.
 
  • Gefällt mir
Reaktionen: foo_1337
Krautmaster schrieb:
Das ist aber bei Nvidia auch nicht anders oder? .
Keine Ahnung aber du fragtest ja nach einem Auto updater, das würde für mich bedeuten dass die Version automatisch installiert wird.

Bei AMD hast du 2 Optionen, automatisch auf neue Version checken und dir anzeigen dass es was neues gibt und automatisch die neue Version runterladen sodass du im Treiber nur noch auf Update klicken musst
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Krautmaster und Mcr-King
PHuV schrieb:
Trotzdem ist immer ein höherer Takt erstrebenswert. Takt schlägt eben immer vor mehrere Kernen.

du meinst also die paar MHZ mehr machen also soo einen gewaltigen Unterschied? Zen 3 hat eine deutlich gesteigerte SC wir werden es sehen ;-)
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Markenbutter und Onkel Föhn
SV3N schrieb:
@Laphonso ich glaube, wir sind eine der wenigen deutschsprachigen Seiten, die die Version „einer unglaublichen Nachfrage“ deutlich in Frage gestellt haben....
Sven hat auch in den Kommentaren hier die Sache auch schnell als Paperlaunch benannt. (ja war zu dem Zeitpunkt vielleicht noch seine persönliche Meinung... Aber er hat sie hier auch geteilt..
Ich kann also nicht sehen das CB hier unkritisch gewesen ist...
Und Sven weist auf was wichtiges hin. Das Karten zu wenige da waren - das war keine neue Information - der Grund wieso war in der Situation das entscheidende....
Und da lieferte NV ja eine Behauptung ab. Die zu wieder legen ist aber nicht so einfach..
 
  • Gefällt mir
Reaktionen: SVΞN, Benji18, Mcr-King und eine weitere Person
foo_1337 schrieb:
Das wäre ungefähr so, wie wenn du AMD dafür blamen würdest, dass sie am Smartphone Markt kein Interesse haben.
Du weißt schon das AMD und Samsung an einer GPU für Android dran sind?
 
  • Gefällt mir
Reaktionen: Kodak und Mcr-King
XTR³M³ schrieb:
nur solange man keine schnelle bewegungen hat... dann gibts artefakte... wie immer bei DLSS(2.0)... wird sich wohl auch so schnell nicht ändern.
Das stimmt so nicht- Deliver us the moon+ Wolfenstein youngblood haben diese Bewegungsartefakte z.B. nicht.

PHuV schrieb:
Trotzdem ist immer ein höherer Takt erstrebenswert. Takt schlägt eben immer vor mehrere Kernen.
...vorausgesetzt die IPC bleibt gleich.

Onkel Föhn schrieb:
IPC schimpft sich der "heilige Grahl" !
Kommt auf die Workload an. IPC heisst ja auch nicht pro Takt, sondern per Cycle.
Und der kann sich je nach Architektur und Rechenoperation auch auf mehrere Takte erstrecken.
 
  • Gefällt mir
Reaktionen: KlaraElfer, PHuV, Cpt.Willard und 2 andere
Deater schrieb:
RT ist doch aktuell schon "zweigleisig" Nvidia's exklusives Rtx Gedöns und dann die Erweiterung in Dx12 als Update in Form von DX12 Ultimate.Gäbe es aktuell Software in Dx12 mit Rt wären Vergleiche der Leistung machbar aber da wieder verschiedene Suppen köcheln guckt wie immer der Kunde in die Röhre.Mit Pech für alle Nvidia Jünger wird die RT Implementierung ein ähnliches Schicksal erleiden wie ehemals PhysX sofern sich die Branche mal wieder nicht auf einen Standard einigen kann.Wird aber wie so oft Studios geben die den its meant to be played Slogan in ihrem Intro bevorzugen.Wie man Stand heute RT so bejubeln kann bei einer handvoll Games ist mir schleierhaft.
Es führt gar kein Weg an Raytracing vorbei, das weiß jeder der sich mit 3D auskennt. Was hat AMD da eigentlich zu bieten? Würde mich wundern, wenn AMD kein "RTX" und kein DLSS bietet, das sind eigentlich die 2 wichtigsten Features der nächsten Jahre.

Nur mal so die nächsten Games die ich spiele, Battlefield (jetzt schon), Watch Dogs (Ende Oktober), Cyberpunk (weiß jeder) unterstützen alle RTX. GTA 6 wird sicher auch auf RTX setzen, sowie alle anderen hochwertigen AAA Titel. Selbst für Indiestudios ist es kein großer Aufwand RTX - Effekte reinzukloppen, daher sehe ich den Untergang von RTX absolut nicht, ganz im Gegenteil der Spass fängt jetzt erst an :)

AMD hinkt in diesen Bereichen wohl hinterher...
 
Könnte sich hier auch eine größere Notebookgrafik anbahnen? Das fknde ich auch cool.
 
Vendetta schrieb:
Die Leute jubeln aktuell, wenn sie 1900 Dollar für ne 3090 zahlen und die endlich mal zugestellt wird. Zeiten ändern sich. 500 Euro ist in meinen Augen für das Gebotene auch völlig angemessen.

AMD wird auch nicht viel billiger sein, vielleicht 10% Mehrleistung für den gleichen Preis oder 450 Euro, dann fehlen aber Features wie DLSS und das Raytracing muss sich auch erst noch beweisen, vor allem bleibt die Frage ob es überhaupt kompatibel mit "RTX" von Nvidia wird... (in neuen games wahrscheinlich weil die nextgen konsolen ja auf AMD bauen aber die Games bis dato?)
Die Leistung ist dafür erstmal recht egal denn dabei geht es eher um die finanziellen Mittel der Käufer.
Besagte Brot und Butter Kartenbewegen sich eher im Preisbereich bis ca. 300€, eher noch darunter und davon ist der bisher bekannte Preis für eine 3070 weit entfernt.
Und natürlich wird AMDs RT Umsetzung nicht zu nvidias RTX kompatibel sein da herstellerspezifisch, zu den Weg über die standardisierten APIs hingegen schon.
Ergänzung ()

FatalFury schrieb:
Um die 380 bis 450 Watt schön zureden.
Warum? hier geht es doch nicht um Ampere.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben