News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

300 W und das für RTX 3090 Niveau, und die liegt bei 350 W oder nicht ?

Na ich bin mal auf die Messergebnisse gespannt...und auf das OC-Potential der 6900 XT...ich vermute mal da geht noch einiges nach Oben wenn man die TBP auf nVidia-Niveau von 350 W anhebt.
 
Wegen Raytracing:


Ab Minute 14:48 spricht er über Raytracing.


Ab Minute 18:50 sagt er was von morgen auf der Homepage gibt es mehr Informationen.

Ergänzung ()

Na hoffentlich gibt das nicht noch ein böses Erwachen, mit der Leistungsaufnahme.

AMD.jpg


Schaut euch mal das Video an, da wird ser Unterschied zwischen Nvidia TGP und AMD TGP erklärt.

Das wird aber bei den Tests ans Tageslicht kommen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: darkspark und .Ake
Müritzer schrieb:
Wegen Raytracing:


Ab Minute 14:48 spricht er über Raytracing.


Ab Minute 18:50 sagt er was von morgen auf der Homepage gibt es mehr Informationen.


Öhmmm Herr Egon Olsen, Du weißt schon, dass Dr. Lisa Su eine Frau ist, oder doch keinen Plan?!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SSD960
@xXcanwriterXx

Das Video nicht geschaut oder vielleicht die Brille nicht aufgesetzt?
Aber vielleicht hat Dr. Lisa Su ja auch schnell mal eine Geschlechtsumwandlung hinter sich gebracht. :mussweg:

SIE spricht erst wieder ab Minute 20:25, also ich brauch kein Plan um Männlein oder Weiblein zu unterscheiden.
AMD.jpg
 
Zuletzt bearbeitet:
@Müritzer: Also wenn schon farbig einrahmen, dann bitte authentisch in rot bleiben!! :D

Aber Du hast recht, ich habe das Video nicht angeschaut, sondern nur die Startgrafik des Videos. 🙃

Apropos Egon Olsen. Ich liebe die Filme der Olsen-Bande auch. Bis heute Kult!! :)
 
  • Gefällt mir
Reaktionen: Müritzer
Rot wäre dir vielleicht nicht sofort ins Auge gefallen, deshalb die Konkurrenzfarbe.

Ja die Filme sind absoluter Kult und Egon war ja der frühe McGyver, die Melodie ist sowieso ein Ohrwurm, den kriegste so schnell nicht wieder weg.
 
  • Gefällt mir
Reaktionen: xXcanwriterXx
Alleine die Klamotten. Z.B. die Hochwasserhosen und die gelben Socken von Benny!! :D

Aber R.I.P. Morten Grunwald . Werde Dich immer im Herzen tragen!! 💖
 
  • Gefällt mir
Reaktionen: Müritzer
Müritzer schrieb:
Wegen Raytracing:


Ab Minute 14:48 spricht er über Raytracing.


Ab Minute 18:50 sagt er was von morgen auf der Homepage gibt es mehr Informationen.

Ergänzung ()

Na hoffentlich gibt das nicht noch ein böses Erwachen, mit der Leistungsaufnahme.

Anhang anzeigen 984997

Schaut euch mal das Video an, da wird ser Unterschied zwischen Nvidia TGP und AMD TGP erklärt.

Das wird aber bei den Tests ans Tageslicht kommen.


Dir ist schon klar, dass AMD Angaben zur TBP gemacht hat, also Angaben dazu, wieviel die komplette Grafikkarte benötigt?
 
Backet schrieb:
Und da ist er wieder mit seinem unglaublichen Insiderwissen 😅🤣😂😂
Bist du zufällig Horn12 aus dem 3DC?🤭🤭

Selbst wenn AMD mit der Leistungsaufnahme an NV rankommt ist das ein Riesenerfolg. Niemand hat doch wirklich geglaubt das AMD das mit 250 Watt hinbekommt.
Meine 4 Jahre alte Titan P @2GHz verbraucht ja schon fast so viel wie eine 3080 Stock.

Jaein man darf einfach nicht aus den Augen verlieren das AMD das ganze augenscheinlich immer noch nur mit dem besseren Node schaft
Was Nvidia aber mit dem schlechteren node hier präsentiert sollte einfach nicht aus den Augen verloren werden, inklusive DLSS node compensation.

Es ist das gleiche Spiel was wir schon bei Intel vs AMD low power APUs am Anfang gesehen haben Intel nutzte immer ihren schrink Advantage um vor AMDs Internal GFX zu stehen und wir sehen ja wie das irgendwan endet wenn man sich zu lange auf diesem Vorteil ausruht, wenn er dann mal weg ist.

"Raja muss es jetzt richten"

Nvidia hat das nie vergessen und wird es auch nicht sie werden sich nie nur auf einem Node Vorteil ausruhen

Mit diesem Vorteil das noch nicht tun zu müssen haben sie 30% prozent an kosten pro Wafer eingespart, während AMD es geschaft hat augenscheinlich aufzuholen, das haben sie aber nicht gänzlich.

Natürlich ist das was sie geschaft haben beachtlich, bedenkt man wo sie vor RDNA gestanden haben.
Aber wir alle wissen das es schon mit der 5700/XT abzusehen war wo sie heute stehen würden ;)

Und sie stehen nicht vor Ampere (wie sie das versuchen jetzt schon darzustellen) die jetzigen Daten sprechen schon eine eindeutige Sprache ohne die Main reviews die sie alle noch verfestigen werden.

Vor allem sollte man sich hier die PURE 6800 (Navi 21) genau gegen die 3070 (GA104) anschauen
und einfach mal versuchen sich die 6800 mit 8 GB vorzustellen.

Das ist der interesanteste Direktvergleich was die komplette scaling effizienz betrifft inklusive AMDs infinity cache workaround vs Nvidias Compression efficiency und die RA Cores innerhalb des CU complex vs RT Cores.

Wenn man fair ist ist AMD sehr sehr nahe an einer putt situation sie stehen aber nicht vor Nvidia

RDNA2 Navi21/XT verfestigt ihre Scalare Aufholjagd, etwas das einige damals schon mit Fury GCN erwartet haben aber bitter enttäuscht wurden vs Maxwell/Pascal.

Aber jetzt können wir mal anfangen das Lied so langsam einzustimmen :D

Besser spät als nie :D


Trotzdem Congratulations

2x Performance achievement UHD

Nvidia
1080 (GP104)->3070 (GA104)

AMD
5700/XT (Navi 10)->6800 (Navi 21)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXcanwriterXx
Cru_N_cher schrieb:
Aber jetzt können wir mal anfangen das Lied so langsam einzustimmen :D

Also dann "Looking for Freedom", wenn man sieht, welch hohe FPS-Zahlen einem das Gefühl von Freiheit vermitteln!! :D
 
Habe selbst eine 1080ti, 2080 lohnte sich nicht, 3080 habe ich wieder storniert weil nicht Lieferbar.. Nun warte ich auf die ersten Benchmarks von der 6800/6900
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bikkje
Und wehe wir sehen kein Comeback von Ruby Finally

Mit all ihrer Haarpracht in glorius TressFX 4.1

Wir warten ja immernoch auf Ilfonics Demo, sollte die nicht nach Fury Zeitsprung Rechnung diese Woche released werden ? ;)

The Old King ist einfach nicht good old Ruby

Aber ich glaube die Zeiten sind vorbei wenn man sieht das Nvidia alle Female Demos als nie existent verschwinden hat lassen und es hat blitz gemacht.

Trotzdem ich gebe sie noch nicht auf und wenn ich die Demo selber machen muss :D
AMD-Catalyst-Omega-Driver-14.50_Ruby.jpg
 
Zuletzt bearbeitet:
Ja, die "Rote Zora" stand immer für AMD als Maskottchen. Schon für die Ati 9800 Pro. Und man erinnere sich, dass genau diese Graka mit der 8 Bit Pixelpipeline damals ein oder das erste Leistungswunder überhaupt war, wo Nvidia noch in die Schlangenleder-Stiefel von Django gepinkelt hat.

Also warum sollte AMD sich nunmehr künftig nicht die Krone aufsetzen dürfen, wenn sie dazu noch beweisen, dass sie einen Real-Launch zum Stichtag gewährleisten können?!
 
xXcanwriterXx schrieb:
Ja, die "Rote Zora" stand immer für AMD als Maskottchen. Schon für die Ati 9800 Pro. Und man erinnere sich, dass genau diese Graka mit der 8 Bit Pixelpipeline damals ein oder das erste Leistungswunder überhaupt war, wo Nvidia noch in die Schlangenleder-Stiefel von Django gepinkelt hat.

Also warum sollte AMD sich nunmehr künftig nicht die Krone aufsetzen dürfen, wenn sie dazu noch beweisen, dass sie einen Real-Launch zum Stichtag gewährleisten können?!


Ich bin einer derer die von 9800 pro zu Nvidia wechselten ich bin mitten ins Fermi disaster gefallen und danach habe ich das licht gesehen ;)
Aber dann zog plötzlich mehr und mehr schatten herüber und das licht funkelte nur noch im Hintergrund.

Die Krone Aufsetzen ich hab gesehen wohin das führt ein gebrandmarkter geek torn apart between his morality.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bikkje
Cru_N_cher schrieb:
Vor allem sollte man sich hier die PURE 6800 (Navi 21) genau gegen die 3070 (GA104) anschauen
und einfach mal versuchen sich die 6800 mit 8 GB vorzustellen.

Das ist der interesanteste Direktvergleich was die komplette scaling effizienz betrifft inklusive AMDs infinity cache workaround vs Nvidias Compression efficiency und die RA Cores innerhalb des CU complex vs RT Cores.

Warum sollte man sich eine kastrierte 6800 mit 8 GB gegen eine so designte 3070 anschauen ? Um was genau zu zeigen ?

Abgesehen davon geb ich dir recht dass ein gleiche CU vs SM Vergleich mal ganz interessant wäre bei gleichem Takt.
 
Zu dem Thema hohe FPS und freiheit ich bin da sehr sehr skeptsich was dieses Topic angeht setze mich schon lange mit Temporal und Spatial Perception ausseinander und für mich ist eine ordentliche Balance wichtiger zwischen beidem.

Deswegen bin ich hin und hergerissen von DLSS nach alten standards is es eher cheating aber nach neuen standards ist es eine revolution.

Schaltet DLSS ein und AMD RDNA2 sieht momentan nur noch die rücklichter von Amperes Design locked die FPS von DLSS und AMDs 7N Node sieht auch wieder alt aus.

Superresolution alone ich bin sehr skeptisch, allerdings bin ich auch dort für balance und pros/cons als developer sind wichtiger allerdings wird Nvidia bald DLSS aus der Beta in die Public entlassen und weitaus mehr Entwicklern zugänglich machen als nur Exklusiven.

Vor allem werden sie versuchen in jedes Indie Unreal Game zu kommen was man auf Steam finden kann.

Und im Vergleich zu jedem anderen cheat und seinem impact ist DLSS einfach gigantisch mit bis zu 30 FPS reden wir hier von 2 GPU Hardware Generationen oder eine Gute + gutes Overclocking potential, das hat es so noch nie gegeben der overhead gewinn pro frame ist einfach gigantisch und für den Enduser nur 1 click entfernt zu entscheiden ob er ihn möchte oder nicht und wie gesagt viele kennen den ECO mode von DLSS noch garnicht, der eine extreme rolle in den Notebooks spielen wird.
Und wir sehen wie es den Node unterschied zwischen Navi 21 und GA104 praktisch neutralisiert inklusive Memory problems.

Allerdings bin ich auch sehr gespannt auf Sonys Custom Geometry Engine Ergebnisse in der Zukunft
 
Zuletzt bearbeitet:
Cru_N_cher schrieb:
Deswegen bin ich hin und hergerissen von DLSS nach alten standards is es eher cheating aber nach neuen standards ist es eine revolution.

Schaltet DLSS ein und AMD RDNA2 sieht momentan nur noch die rücklichter von Amperes Design locked die FPS von DLSS und AMDs 7N Node sieht auch wieder alt aus.

Wenn man DLSS schon nicht als "Cheaten" einstuft, kann man genauso gut Fidelity FX mit CAS verwenden...die Unterschiede zu DLSS sind mit der Lupe zu suchen.

Performt ähnlich gut, liefert ähnliche gute BQ und ist ebenfalls mit RT kombinierbar. Und RT ON ist wegen der angeblich so überragend besseren Darstellung, welche aber unbedarften Laien selbst in Vergleichsbildern und OHNE zusätzliche Erläuterungen kaum auffällt ja so wichtig. Der damit einhergende Performance-Drop ist ja der Hauptgrund warum man DLSS (und Konsorten, wenn man mal FFX CAS dazu zählt) überhaupt in Erwägung zieht..
 
  • Gefällt mir
Reaktionen: xXcanwriterXx
Ja die 30 FPS overhead nutzt du für Hybrid Raytracing und 30 FPS das ist ein kompletes AAA budget was du plötzlich zusätzlich nutzen kannst darum geht es ja es ist egal was der overhead ist, du hast einfach mehr headroom durch einen click zur Verfügung.
Was die leute aber vergessen die Skalierung der RT und Tensor balanciert das ganze aus deswegen ist die 6800 auch nicht langsamer als die 3070 in RT die genauso wie die 2080 TI Performt.
Diese Skalierung nutzt Nvidia hauptsächlich als neue Berechnungsgrundlage ihrer Performance (Lineups) es geht nicht mehr um die reine Raster performance es geht um die Balance zwischen Shader,RT,Tensor.
Um hier höhere Skalierung zu erreichen war es auch nötig das komplette Power Management für den G102 im spezielen general zu überholen da die anderen cores mit der 2080 Ti noch mit zu wenig Strom gleichzeitig versorgt wurden wenn sie concurent liefen dann ist schon langsam ein sichtbarer fight ausgebrochen um Energie Resourcen.

Nvidia hat diesmal allerdings ihre Effizienz opfern müssen (Samsung 8N) oder hat sie absichtlich so ausgelegt und berrechnet an der Grundlage von RDNA1 zu 2 maximum predictions (jeder schlaue Engineer hätte gerechnet sie schaffen 2x) um sich mal ebenso 30% kosten zu sparen.

Der Deal mit Samsung ist eh so eine sache immerhin hatte Nvidia vorher einen wichtigen Patent Lawsuit gegen Samsung verloren, da bot sich das ganze ja förmlich an vor allem für Samsung mal ein bischen zu schauen was da geht ;)

mit TSMC gehe ich stark davon aus würden wir jetzt eine 3070 (G104) mit 150-180 Watt sehen anstelle von jetzt 220 Watt
und die 220 Watt wie gesagt kann man mit DLSS um ~80 Watt runterdrücken genau dieser unterschied der Node differenz ;)

Es ist auch ziemlich Sonnenklar das Nvidia sich so nicht geschlagen gibt bei der 3070 vs 6800 und den G102 jetzt herunterbohrt auf ene 250 Watt Target Karte mit einer etwas höheren Skalierung (~180W DLSS).

Mit dem selben Verbrauch der alten 1080/2080 TI den Weg den AMD mit der 6800 gegangen ist und effizient mit einem +x% matchen wollte und es diesmal auch 100% geschaft hat im TSMC Node und mit einem cleveren workaround.

Ich kann es nicht erwarten bis Igor es komplett auseinanderreist und die wichtigen daten liefert, die nur er liefern kann ;)
 
Zuletzt bearbeitet:
Zurück
Oben