News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Backet schrieb:
Mal schauen ob die Xt oder XTX die 80 CUs

Nein auch die XT hat den voll Ausbau nur XTX ist sowas wie die Titan(RTX3090) nur in rot.

Saga nur HBMe2. 😉
 
  • Gefällt mir
Reaktionen: Haldi und Cpt.Willard
@.Sentinel.

Hat nicht mal wer eine entsprechende Karte mit dem BIOS ausgestattet und nachgemessen? Wäre mal interessant was dann real auf dem Multimeter steht. :freaky:
 
RaptorTP schrieb:
Und dann nochmal 70 Watt mehr bei einer RTX 3080 z.B. kann ich in keinster Weise mehr vertreten.

Du kannst mit ca. 10% Leistungsverlust die 3080 auf 250 Watt drücken:
1603222734143.png


...und hast dann immernoch fast die doppelte Leistung Deiner 1080 TI. Und wenn Du bei den 75Hz Deines Monitors Capst oder Vsyncst verbraucht die 3080 nochmal weniger....

Wird auch einer der interessanten Punkte, wieviel es braucht um die Big Navis in ihren Sweetspot zu rücken.
 
  • Gefällt mir
Reaktionen: ComputerJunge, McFritte, RaptorTP und 2 andere
Mcr-King schrieb:
Nein auch die XT hat den voll Ausbau nur XTX ist sowas wie die Titan(RTX3090) nur in rot.

Saga nur HBMe2. 😉
Wäre ne feine Sache - aber ich lass mich nicht triggern... :P
 
Mcr-King schrieb:
Nein auch die XT hat den voll Ausbau nur XTX ist sowas wie die Titan(RTX3090) nur in rot.

Saga nur HBMe2. 😉


Und da ist er wieder mit seinem unglaublichen Insiderwissen 😅🤣😂😂
Bist du zufällig Horn12 aus dem 3DC?🤭🤭

Selbst wenn AMD mit der Leistungsaufnahme an NV rankommt ist das ein Riesenerfolg. Niemand hat doch wirklich geglaubt das AMD das mit 250 Watt hinbekommt.
Meine 4 Jahre alte Titan P @2GHz verbraucht ja schon fast so viel wie eine 3080 Stock.
 
Wadenbeisser schrieb:
Im damaligen Test war die 2070 lediglich ca. 1-2% schneller als die 2060 Super, also kaum der Rede wert.

Das ist die langsamste RTX 2070 mit den anfänglichen non A Chips, die anderen sind etwas schneller, etwa 2 bis 3%.
 
  • Gefällt mir
Reaktionen: foo_1337
.Sentinel. schrieb:
Wird auch einer der interessanten Punkte, wieviel es braucht um die Big Navis in ihren Sweetspot zu rücken.
Das ist ja alles noch nicht klar. Igors Kalkulation ist eine Schätzung, nicht die Wahrheit.

Ich denke, dass Big Navi deutlich effizienter sein wird...
 
  • Gefällt mir
Reaktionen: Mcr-King
Cpt.Willard schrieb:
Ich wünsche mir, dass wenn Tests rauskommen, ein UV-Test und eine Gegenüberstellung von Ampere und RDNA2 durchgeführt wird.
Ohh ja, das wär mal geil. @SV3N @Wolfgang
GROSsES BITTE!?
Muss ja nicht direkt zum Release sein.
🐶 Große Hundeaugen!
 
  • Gefällt mir
Reaktionen: Mcr-King und Cpt.Willard
KlaasKersting schrieb:
Meint ihr ernsthaft, AMD hat den heiligen Gral entdeckt?
Die IPC-Gewinne, die im Paper zum InfinityCache stehen, sind nicht schlecht, bis +23% in bestimmten Anwendungen. Allerdings kann keiner beurteilen, ob das in Spielen greift. Das würde auch im gleichen Node für ordentliche Sprünge sorgen. Außerdem scheinst du zu vergessen, dass die Vega 8 im Renoir auch gewaltige Sprünge (60%?) gemacht hat, obwohl der Node nur +25% verspricht. Damals war Lisa Sus Aussage, dass man das gelernte in höhere Taktraten für RDNA2 stecken wird. Zusammen sehe ich da die versprochenen +50% P/W im gleichen Node. Eine sehr beeindruckende Leistung, wenn es so eintrifft.
Nvidias 3080 hat de facto +10% P/W im ausgelieferten Zustand, auch wenn es deutlich besser ginge.
Taxxor schrieb:
Weil es ziemlich sicher nicht der gleiche Fertigungsprozess sein wird, entweder wird es N7P oder N7+ sein.
Navi war doch schon in N7P, wurde Anfang des Jahres auf der ISSCC bekannt gegeben. Die Grafikkarten bekommen früher die besseren Prozesse, wie die MI60 den N7 schon 2018 bekommen hat. Vielleicht sehen wir nächsten Sommer schon Grafikkarten in N5, aber wahrscheinlich sind es dann welche mit CDNA. Ob Big Navi N7+ sein wird, wird interessant.
Wolwend_the_Orc schrieb:
Da ich immer das bestmögliche Bild möchte kommt für mich nur Nativ in Frage.
Wenn du das beste Bild möchtest, brauchst du nur die Schärfefilter zu aktivieren OHNE die Auflösung zu reduzieren. Die funktionieren ganz exzellent um die Bildqualität zu verbessern, besonders bei matschigem AA:
Colindo schrieb:
Falls du einen Vergleich sehen möchtest, hier zwei Screenshots. Als AA habe ich Downsampling und SMAA, also ist es schon recht scharf. Trotzdem sieht man einen Unterschied.

CAS off:
Anhang anzeigen 821598

CAS on:
Anhang anzeigen 821597

Das Gitter vorm Fenster, der Stoff auf der Kapuze, das flache Gewächs auf dem Boden etc.

.Sentinel. schrieb:
Der Draw Stream Binning Rasterizer stößt spätestend mit RTRT an seine Grenzen...
Dafür gibt es dann ja den InfinityCache. Weißt du zufällig, ob RTRT eine hohe Replikationsrate im L1-Cache hat? Ich vermute ja.
 
  • Gefällt mir
Reaktionen: Mcr-King
Krautmaster schrieb:
die 3070 kann genau dasselbe Schicksal haben wie die 3080, einfach weil sie einen kleineren Chip hat der dann wieder ziemlich hoch geprügelt werden muss.
Der technische Forstschritt wird durch "Prügelei" dessen definiert. Schon armseelig, dass man das nur noch durch Kratzen an den Limits erreicht!!

ComputerJunge schrieb:
@MiaSanMiaaa
Ich halte es beispielsweise auch für sinnfrei, einen Fernseher ohne Zuseher laufen zu lassen.
Kennst Du die Doku-Soap "Die Fußbroichs" angefangen in den 70'ern bis 2000 irgendwas auf WDR?!?

Da lief der Fernseher den ganzen Tag und es gab keinen Zuschauer. Das schimpfte sich "Hintergrundakrobatik" für die Kamera!! :D

KlaasKersting schrieb:
Fazit: Karten gehen raus an den Schnellsten oder Meistbietenden, fertig.

Der Film "Mr. und Mrs. Bot" ist einfach nur ungerecht!!
 
Hallo zusammen,

@ Bright0001
Bright0001 schrieb:
Da hat er eine 1080Ti die real fast 300W schluckt
Er hat nicht einfach nur irgendeine 1080 Ti. Ich habe selbst die ein oder andere verbaut in Rechnern für Bekannte / Freunde. Die überwiegende Mehrheit der 1080 Ti Modelle zieht um die ca. 250 - 260 Watt. Und ich weiß auch nicht, wie du auf 300 Watt kommst. Das kommt hinten und vorne nicht hin.

250 - 260 Watt sind eben noch keine 330 - 350 Watt, die überwiegende Mehrheit der Custom 1080 Ti Modelle zieht eben maximal 250 - 260 Watt. Das ist schon ein Unterschied, der sich auch in der Abführbarkeit und vor allem in Punkto Kosten für Netzteile zum Ausdruck bringt. Bei manchen Gehäusen dann noch in zusätzlichen Lüftern zum Ausdruck kommt. Alles in allem kann bei einem solchen Verhältnis schon noch einiges dazu kommen an zusätzlichen Kosten.

@ Wadenbeisser
Wadenbeisser schrieb:
Bei den OC Modellen hat man im Ampere Lager ja schon die 400W Marke in Angriff genommen.
Genauso ist es. In mehreren anderen Threads zu den Ampere-Teilen hatte ich ja schon anklingen lassen, daß mich das Ganze in Punkto Stromverbrauch an "Vega" erinnert, mit dem Unterschied, daß genau diejenigen welche dieselben seinerzeit so dafür kritisierten, jetzt plötzlich mehr als kleinlaut agieren.

So long...
 
  • Gefällt mir
Reaktionen: Unnu und Mcr-King
Blade0479 schrieb:
würde ich trotzdem auf eine RTX Karte setzen wenn ich müsste, dafür ist DLSS einfach zu genial.
Ja taugt. Geile Technik. Aber dafür ein Vendor-LockIn? NEVER!
Proprietäre Scheisse dürfen die sich gepflegt in den Hintern schieben!
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: modena.ch
Unnu schrieb:
Ja taugt. Geile Technik. Aber dafür ein Vendor-LockIn? NEVER!
Proprietäre Scheisse dürfen die dich gepflegt in den Hintern schieben!
Das Vendor Lock in gehst du als User ja nicht ein, da es keine Alternative gibt. Du hast die Wahl: Entweder DLSS, dann Nvidia oder kein DLSS, dann AMD. Im Prinzip kannst du also, bei ähnlichem P/L Verhältnis nur gewinnen, wenn du DLSS hast.
Den Lock-In geht erstmal der Entwickler ein. Das einzige, was dir passieren kann, ist ein lock-out. Nämlich mit AMD oder (bald) Intel.

Der Großteil der Gaming Szene basiert auf "proprietärer Scheisse" namens DirectX (runtime). Frag mal nen Linux oder macOS User. Was glaubst du wie abgefuckt wir Ende der 90er/Anfang der 2000er waren, dass Microsoft mit Direct3d ankam und die Entwickler auch noch größtenteils darauf aufgesprungen sind, anstatt den offenen OpenGL Standard zu nehmen. Immerhin kamen die besten Ego Shooter damals von ID und da fiel die Wahl auf OpenGL
 
  • Gefällt mir
Reaktionen: Blade0479, Unnu, Mcr-King und 3 andere
Luxmanl525 schrieb:
In mehreren anderen Threads zu den Ampere-Teilen hatte ich ja schon anklingen lassen, daß mich das Ganze in Punkto Stromverbrauch an "Vega" erinnert, mit dem Unterschied, daß genau diejenigen welche dieselben seinerzeit so dafür kritisierten, jetzt plötzlich mehr als kleinlaut agieren.
Solange AMD im November keine RDNA2 GPU zeigt mit der Leistung einer 3080 bei unter 200W, ist der Vergleich mit Vega auch absolut nicht angebracht. Kritisiert wurde Vega nicht wegen des hohen Verbrauchs ansich, sondern wegen der mieserablen Effizienz.
Denn auch wenn die 1080Ti offiziell bei 250-260W lag(Die Asus Strix im Vega Launch Test lag bereits bei 270W), viele haben sie um die 300W laufen lassen und konnten Vega trotzdem kritisieren, weil deren 1080Ti eben mit den gleichen 300W 50% schneller war.
 
  • Gefällt mir
Reaktionen: ETI1120, Cpt.Willard, stevefrogs und eine weitere Person
Hallo zusammen,

@ Taxxor
Taxxor schrieb:
Solange AMD im November keine RDNA2 GPU zeigt mit der Leistung einer 3080 bei unter 200W, ist der Vergleich mit Vega auch absolut nicht angebracht.
Von der Seite im Bezug auf die Effizienz betrachtet, mag das sein, unzweifelhaft ja. Es ändert aber nichts daran, daß das Zeug aus dem Gehäuse muß und nun einmal in vielen Fällen noch Zusatzkosten entstehen für NT`s oder Gehäuselüfter. Und da sind wir wieder bei dem, wie es bei "Vega" in nicht wenigen Fällen war und wofür Vega teils harsch kritisiert wurde, auch nicht zu Unrecht. Die Forenthreads lügen nun einmal nicht.

So long...
 
  • Gefällt mir
Reaktionen: Mcr-King
Die künftigen Reviews der 6000'er-Reihe Radeon werden zeigen, wie sehr DLSS Nvidia besser macht. Jeder hat seine Vorzüge und nach diesen wird bekannterweise gekauft.

Ich würde AMD gerne eine Chance geben, bin aber in der Tat in der Zwickmühle, was DLSS betrifft.

Hätte ich eine 3080/3090 würde ich AMD sehr wahrscheinlich gar kein Augenmerk schenken.
 
  • Gefällt mir
Reaktionen: evilhunter und foo_1337
Zurück
Oben