News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

iNFECTED_pHILZ schrieb:
Aber mit dem nächsten großen Wundertreiber springt meine Vega64 bestimmt auf 2080 Niveau. Bestimmt...

Also ich lass mich mal einfach überraschen was AMD am Ende liefert. Die 3080 sieht schon lecker aus, aber gegen ein bisschen Konkurrenz im top segment hat sicher niemand was.
Das war seinerzeit übrigens die 1080FE an der sie knapp gescheitert war und die sie heute teils deutlich überrundet.
 
  • Gefällt mir
Reaktionen: Novasun und Rockstar85
@Laphonso ich glaube, wir sind eine der wenigen deutschsprachigen Seiten, die die Version „einer unglaublichen Nachfrage“ deutlich in Frage gestellt haben.

Das deutsche Händler sowie Boardpartner nichts sagen dürfen, kann man uns nicht vorwerfen.

In meinen Kommentaren zu den Meldungen habe ich ebenfalls mehrfach darauf hingewiesen, dass beispielsweise der Großhandel keine Grafikkarten hat.

Man schon das gesamte Bild sehen und nicht nur eine einzige Headline.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Obi_Wan_v_Knobi, derSafran, Novasun und 10 andere
"Unglaubliche Nachfrage" ist doch da. Ihr habt das NV Marketing nur falsch verstanden...
 
  • Gefällt mir
Reaktionen: ComputerJunge
Fighter1993 schrieb:
Egal ob das Spiel anspruchsvoll ist oder nicht man kauft doch keine 5600XT für 4k...
Von Full HD auf 4k werden in etwa die 4 fache Menge an Pixeln berechnet, da bringt es nichts wenn die Karte doppelt so schnell ist das ist immer noch zu langsam.
Genau deshalb ist so ein Feature wie DLSS der Trumpf überhaupt.

Wenn selbst eine 3090 in RDR2 4K Ultramax mehr oder weniger stabil gerade mal über 60 fps (von dreistelligen frames ist eine 3090 da auch so weit entfernt wie Schalke von einer Meisterschaft) in einem "last gen" Spiel stemmt, dann sieht man, dass 4K Gaming unter der Prämisse "ich kann meinen 144/165/240 Hz Monitor fluten" unfassbar weit entfernt ist, und evtl niemals den Effekt und Feature catchup schafft ,denn Raytracing prügelt direkt wieder die fps weg.

DLSS ist für mich die wichtigste (R)Evolution hier.
 
  • Gefällt mir
Reaktionen: KlaraElfer, LäuftBesser2000 und foo_1337
Averomoe schrieb:
Vergebene Lebensmühe, Wolfgang ist leider dagegen, habe ihn mehrmals darauf angesprochen (erhielt dafür dutzende Likes als Unterstützung). Dabei steigt Monat für Monat die Zahl an 21:9 Monitoren im Preisvergleich. Aber das sei mit zu viel Aufwand verbunden.
Ich habe selbst einen 3440x1440 Pixel Monitor, ich orientiere mich einfach an den 4k Ergebnissen und rechne 30% auf, dann kommt man ca. hin.

Ist zwar schade, dass CB die Auflösung nicht testen möchte aber gibt genug andere die es mittlerweile tun, wenn man es wirklich genau wissen will.
 
Averomoe schrieb:
Hi, wieso genau Vorschusslorbeeren? Ich lese da nichts weiter als geleakte bzw. vermutete Hardwarespezifikationen ohne Leistungseinordnung.

Hat Sven eigentlich schon darauf geantwortet?
 
SV3N schrieb:
Man schon das gesamte Bild sehen und nicht nur eine einzige Headline.

Liebe Grüße
Sven
Vielleicht bin ich hier überkritisch, Sven und vielleicht nicht ganz fair! Nehme ich auf meine Kappe.

Und siehe oben, an Computerbase/Euch kommt redaktionell bei Techniktests nix vorbei m.E: :)

LG
 
  • Gefällt mir
Reaktionen: SVΞN
Schon krass, wie bei Intel. Die mussten den Stromhahn öffnen wegen Lisa. Und jetzt Nvidia?!
 
Bin gespannt... 10 Tage noch. Ob RT nur der größten Radeon vorbehalten ist und natürlich wie sich die Karte in RT dann schlägt. brauche eine KArte für 3840x1080 da ist die RX5700Xt trotzdem das minimum.
 
Watt/Leistung mehr interessiert mich nicht, da versagt Intel und da versagt neuerdings auch Nvidia.
Die Brechstangen sind ausgepackt, ich bin gespannt.

Kann AMD aber trotzdem nicht kaufen im GPU Bereich da Sie keine vernünftige NVENC Konkurrenz anbieten (schlägt halt einfach x264 @medium).
 
  • Gefällt mir
Reaktionen: Benji18
engineer123 schrieb:
^^jo, eigentlich ist der Titel des Artikel purer shit, nichts mehr.

"Vorschusslorbeeren", das ich nicht lache :lol:

im Gegenteil eher:

Wenn der neue AMD Wunderchip wie die drei Benches aus dem AMD Teaser gezeigt haben
"nur" knapp an einer 3080 dranliegt, und dafür benötigt der Chip auch
noch irgendwas um die 2300 bis 2400 Takt plus 6 GB VRAM mehr...

dann ist der Chip an sich eher eine Enttäuschung und muss halt mit soviel Mhz wie möglich
vollgepumpt werden, um auch nur annähernd konkurrenzfähig zu sein.
Jetzt mal ernste Frage: Was soll die Größe des VRAMs mit der Geschwindigkeit zu tun haben? Solange der VRAM ausreicht macht es keinen unterschied. Wo 10GB reichen ist es egal ob da jemand 16GB hat. Was die reine Performance angeht ist das also wurscht. Wenn man aber mehr wie 10GB braucht dann wäre es ein echter Vorteil.

Und das mit dem Takt verstehe ich auch nicht ... Ampere hat laut Nvidia immerhin doppelt so viele Kerne (Cuda Cores) wie die kolportierte größte Navi 21.
Man könnte genauso gut anders herum argumentieren, dass es extrem Schwach von Nvidia sei, wenn AMD mit 20% mehr Takt (die 3080 takten ja oft an die 2000MHz oder lass es 1800HMz sein dann sind es ca 30% Unterschied) genauso schnell wie Nvidia mit der doppelten Kernanzahl (also 100% mehr) ist.
 
  • Gefällt mir
Reaktionen: Taxxor und v3locite
Ich denke, dass AMD dieses Mal ein heißes Eisen mit RDNA2 haben wird. Nvidias zwanghafter Move noch mehr Leistung aus einer 3080 pressen zu wollen, indem sie einfach 50W mehr dafür opfern, passt nicht zu dem Nvidia der letzten Jahre. Auch hat Nvidia bislang mit keinem Konter das Argument für mehr VRAM aufgeführt. Auch hätte Nvidia der 3080 mit Sicherheit wieder lieber den 104er Chip verpasst, wenn sie könnten.

Big Navi ist seit einer gefühlten Ewigkeit wieder eine GPU, die AMD bewusst an Enthusiasten und an das High-End adressiert. Bei Navi auf Basis der RDNA1 Tech, haben sie die GPU von Anfang an für das Midrangesegment adressiert.

Big Navi wird Nvidia in Bezug auf Rasterization Performance Paroli bieten.
In Bezug auf RT und DLSS wird AMD das Nachsehen haben.

Sollte die 6900XT wirklich an der 3080 kratzen oder sie je nach Titel auch überholen (so Paradebeispiele dafür wären Battlefield oder auch COD, bei denen die Engines AMD GPUs einfach lieben) und die RT-Performance zwischen Turing und Ampere liegen, wird es für mich seit einer gefühlten Ewigkeit mal wieder eine AMD GPU.
Hoffentlich kommen dann aber auch zeitnah Wasserblöcke für die Karten von Aqua Computer und Watercool.

Aber erst einmal wird am 5. November der 5950X bestellt. :D
 
  • Gefällt mir
Reaktionen: Rockstar85, danyundsahne, s0UL1 und eine weitere Person
Volkimann schrieb:
Fakt: Nvidia hatte schlicht für PS4 und Xbox kein passendes Produkt im Portfolio und haben es für PS5 & Co noch immer nicht.
Ist ohne X86 schwer. Und X86 macht die Portierung Zwischen PC und Konsolen sehr einfach
 
  • Gefällt mir
Reaktionen: Rockstar85, yummycandy und foo_1337
ActionNews schrieb:
Jetzt mal ernste Frage: Was soll die Größe des VRAMs mit der Geschwindigkeit zu tun haben? Solange der VRAM ausreicht macht es keinen unterschied. Wo 10GB reichen ist es egal ob da jemand 16GB hat. Was die reine Performance angeht ist das also wurscht. Wenn man aber mehr wie 10GB braucht dann wäre es ein echter Vorteil.

Und das mit dem Takt verstehe ich auch nicht ... Ampere hat laut Nvidia immerhin doppelt so viele Kerne (Cuda Cores) wie die kolportierte größte Navi 21.
Man könnte genauso gut anders herum argumentieren, dass es extrem Schwach von Nvidia sei, wenn AMD mit 20% mehr Takt (die 3080 takten ja oft an die 2000MHz oder lass es 1800HMz sein dann sind es ca 30% Unterschied) genauso schnell wie Nvidia mit der doppelten Kernanzahl (also 100% mehr) ist.
Das du dir überhaupt die Mühe gibst und darauf antwortest - einige Menschen haben einfach nur den Intellekt einer Amöbe.
Das der Vergleich unterschiedlicher Architekturen teilweise ein Vergleich zwischen Äpfel und Birnen ist verstehen nicht alle.
 
  • Gefällt mir
Reaktionen: Andre Prime und Rockstar85
  • Gefällt mir
Reaktionen: Cyberwiesel, SAUBAUER, Cpt.Willard und eine weitere Person
Skjöll schrieb:
Ach, das soll Sven heißen?! Ich habe das immer als Es-Vau-Drei-En gelesen.....)

D4nn b!57 du 3!nf4ch n!ch7 1337 93nu9.
 
  • Gefällt mir
Reaktionen: Cyberwiesel, Haldi, derSafran und 10 andere
SKu schrieb:
D4nn b!57 du 3!nf4ch n!ch7 1337 93nu9.
Das kann ich nicht entziffern.... Wird aber etwas nettes sein...
 
  • Gefällt mir
Reaktionen: s0UL1
[wege]mini schrieb:
Abwarten, die Games machen den Unterschied für den 0815 user. Bei professionellen Anwendungen glaube ich aktuell nicht an AMD.

dafür gibt es ja dann CDNA die für Professionelle Anwendungen gedacht ist, AMD macht jetzt das was NV vor einigen Gens gemacht hat, man Trennt Gaming und Profi Segment komplett von einander und versucht nicht wieder die "eierlegendewollmilchsau" zu erschaffe, komischerweise geht Nvidia gerade den Umgekehrten weg.

FatalFury schrieb:
Schon krass, wie bei Intel. Die mussten den Stromhahn öffnen wegen Lisa. Und jetzt Nvidia?!

Ne, Nvidia setzt mit Ampere scheinbar den "fokus" richtung Profi Anwendungen und hat halt eine Architektur entwickelt die sich scheinbar wieder hin zu AMDs GCN entwicklet also etwas was Compute und Game kann.

eSportWarrior schrieb:
Kann AMD aber trotzdem nicht kaufen im GPU Bereich da Sie keine vernünftige NVENC Konkurrenz anbieten (schlägt halt einfach x264 @medium).

Warte ab, vielleicht bringen Sie diesesmal was Konkurrenzfähiges auf den Markt für das Entcoding, AMD hat ja jetzt mehr Budget nach dem Zen gut läuft.
 
1337 = Leet = Bezeichnung für diesen Sprach-Schreibstil
 
  • Gefällt mir
Reaktionen: Rockstar85 und Skjöll
Ahhh, ich bin gespannt. Wär so cool, wenn AMD das gebacken bekommt!

Ehrlich gesagt glaube ich es aufgrund der CPU Erfolge und der Entwicklungsdauer von "Big Navi'.

Mega ist einfach der Wettbewerb, der wieder da ist :)
 
  • Gefällt mir
Reaktionen: UncleMilton
Zurück
Oben