News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Che-Tah schrieb:
Was gibt es besseres als 4K, Oled, 120 Hz, Freesync/GSync, HDR und 10/12 Bit bei 4:4:4/RGB ? (LG 48CX)
Mit HDMI 2.1 der neuen Karten ist das nun möglich.

....da nimmt man die 48" halt in Kauf und rutscht mit dem Sessel etwas weiter nach hinten.
was legst du denn dafür auf die ladentheke. wenn mal fragen darf?
 
  • Gefällt mir
Reaktionen: Unnu
Im 3dC hat Einer recherchiert, worauf sich die +50%Perf./Watt bei AMD beziehen:
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
(Division 2 @ WQHD Ultra)

Da könnte man tatsächlich die RX5700XT Nitro+ 225W P-Bios vs. RX 6800XL ca. 220-225W TGP vergleichen.
wobei
Das wäre net ganz fair, weil die olle Nitro zu sehr über Sweetspot läuft. Besser wäre Beide@200W TGP.
Die Nitro hat ja ein 200W A-Bios. Bei der XL halt ca. PL-10..-12,5%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Mcr-King
zeedy schrieb:
Was hat denn AMD gehypt? Da kam bis auf die 3 Zahlen vom Ryzen Evebt absolut gar nichts von AMD zu Big Navi. Währenddessen redete Nvidia vom größten Leistungssprung aller Zeiten und machte Leute mit dem 21 tägigen ultimativen Countdown auf Ampere heiß. Heraus kam die stromhungrugste Nvidia Generation mit einem verhältnismäßig schwachen Leistungssprung.

Immer wieder lustig zu sehen, wie AMD hater die Realität verdrehen.

^^bleibt aber dabei, dass der Artikel völlig absurd ist, weil er specs "Lorbeeren"
also einen Verdienst zuschreibt.

Erreicht hat die Karte nix, bis auf die drei Benches aus dem AMD event, Punkt.
 
  • Gefällt mir
Reaktionen: gesperrter_User
KlaraElfer schrieb:
Warum fällt dir dann die Flimmerorgie bei den Radeon Karten nicht auf?
Du bist einfach nur voreingenommen, eine wirkliche Bewertung nimmst du gar nicht vor.


also bei meiner 1080Ti flimmert nix... und bei der RX580 auch nicht...
 
  • Gefällt mir
Reaktionen: derSafran, Piep00, Otsy und 4 andere
MasterAK schrieb:
Wer ist "sie"?
AMD? Nein. AMD hat ne Karte gezeigt, die in Reichweite der 3080 ist. Dann noch nen Chart, dass sie die Effizienz um 50% zu Navi steigern wollen. Mehr nicht.
Wenn du mit "sie" die Forumuser meinst, dann gebe ich dir recht. Die Hochrechnungen sind z.T. völlig unrealistisch.

nö, Forumuser, sind nicht gemeint, Computerbase selber, und die, die diese Infos überhaupt an
die Twitter-Typen durchgesteckt haben.

Wenn Computerbase den Karten "große Vorschußlorbeeren" wegen techn. specs verteilt,
dann messe ich die Karten auch an dieser Bezeichnung.
Aktuell gibt es nur drei Benchmarks, und in diesen ist die Karte ein Verlierer.

Wenn es so bleibt in den Tests bleibt auch die Karte ein Verlierer,
also das genaue Gegenteil von der "Lorbeerkranz" tragenden Grafikkarte.
Das wird amüsant, diesen Begriff nach dem Test nochmal einzubringen. Das werde ich genüsslich
zitieren.
 
  • Gefällt mir
Reaktionen: gesperrter_User
KlaraElfer schrieb:
Warum fällt dir dann die Flimmerorgie bei den Radeon Karten nicht auf?
Du bist einfach nur voreingenommen, eine wirkliche Bewertung nimmst du gar nicht vor.

Dir aber schon klar, dass bei Apple zum Beispiel AMD Radeons verbaut sind. Bei AMD flimmert überhaupt nichts. Gott ist das lächerlich^^
 
  • Gefällt mir
Reaktionen: derSafran, Otsy und ActionNews
Wolwend_the_Orc schrieb:
Dir aber schon klar, dass bei Apple zum Beispiel AMD Radeons verbaut sind. Bei AMD flimmert überhaupt nichts. Gott ist das lächerlich^^
Es geht um Fidelity FX (CAS).
 
  • Gefällt mir
Reaktionen: KlaraElfer und Mcr-King
engineer123 schrieb:
^^bleibt aber dabei, dass der Artikel völlig absurd ist, weil er specs "Lorbeeren"
also einen Verdienst zuschreibt.

Erreicht hat die Karte nix, bis auf die drei Benches aus dem AMD event, Punkt.

Und was willst du uns sagen? Dass dich Gerüchte nicht interessieren?
Ergänzung ()

foo_1337 schrieb:
Es geht um Fidelity FX (CAS).

Ah ok, sorry mein Fehler. Zu dem kann ich nichts sagen. Da ich immer das bestmögliche Bild möchte kommt für mich nur Nativ in Frage. Dssl ist wohl langsam brauchbar. Für mich aber immer noch nicht wirklich interessant.
 
Wadenbeisser schrieb:
Warum werden der Geforce dann nur 7W für die 2 Lüfter zugestanden? ;)
Wenn ich das richtig sehe dann sind die Lüfter der VII kleiner und drehen vor allem verdammt hoch um gegen die Hotspot Temperatur (nicht Chip Temperatur) irgendwie anzukommen.
Weil ich auch die auf der Titan RTX mal gemessen hatte (und Nvidia die selbst exakt so in den Konstruktionsunterlagen der RTX 3090 so einpreist). Ist eine Preisfrage. Glaubst Du wirklich ich rate hier mit Taschenrechner und Rotwein? Ich kann halt nur nicht alles so schreiben, wie ich gern möchte. :D

Selbst wenn es 10 Watt wären, so what? 5 Watt hoch oder runter sind Peanuts. Dafür werden die 7 Phasen mehr verbrutzeln. ;)
 
  • Gefällt mir
Reaktionen: Strubbel99, dohderbert, derSafran und 15 andere
engineer123 schrieb:
...
Wenn Computerbase den Karten "große Vorschußlorbeeren" wegen techn. specs verteilt,
dann messe ich die Karten auch an dieser Bezeichnung.
...
Aktuell ist die Karte markttechnisch nicht existent und für die "Vorschußlobeeren" von CB kann die Karte auch nichts. Sie (die Karte) also danach zu bewerten ist daneben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Nächste Woche wissen wir mehr, bis dahin muss mich der Thread hier unterhalten :D
 
  • Gefällt mir
Reaktionen: Unnu, Colindo, Mcr-King und 5 andere
engineer123 schrieb:
nö, Forumuser, sind nicht gemeint, Computerbase selber, und die, die diese Infos überhaupt an
die Twitter-Typen durchgesteckt haben.

Wenn Computerbase den Karten "große Vorschußlorbeeren" wegen techn. specs verteilt,
dann messe ich die Karten auch an dieser Bezeichnung.
Aktuell gibt es nur drei Benchmarks, und in diesen ist die Karte ein Verlierer.

Wenn es so bleibt in den Tests bleibt auch die Karte ein Verlierer,
also das genaue Gegenteil von der "Lorbeerkranz" tragenden Grafikkarte.
Das wird amüsant, diesen Begriff nach dem Test nochmal einzubringen. Das werde ich genüsslich
zitieren.
Wie im Kindergarten hier.
Aber bitte, wennst so leicht zu erheitern bist, es sei dir vergönnt. 😘
 
  • Gefällt mir
Reaktionen: alne24 und zeedy
engineer123 schrieb:
^^bleibt aber dabei, dass der Artikel völlig absurd ist, weil er specs "Lorbeeren"
also einen Verdienst zuschreibt.

Erreicht hat die Karte nix, bis auf die drei Benches aus dem AMD event, Punkt.



Wenn man sich anguckt, wo AMD herkommt, dann kann man schon mal Lorbeeren verteilen. Hier wird immer noch teilweise behauptet, AMD würde auf Jahre nicht an nVidia rankommen, manche schreiben von maximal 3070-Leistung, seit Jahren wird behauptet, AMD könne rein gar nichts... jetzt hat man aller Voraussicht nach ein Produkt, das in etwa mit der schnellsten Gaming-Grafikkarte von nVidia mithalten kann (die 3090 nehm ich bei dem absurden Preissprung als quasi-Titan mal raus), bei weniger Features aber womöglich besserer Effizienz, und hat gleichzeitig nVidia dazu gezwungen, deutlich zu früh zu releasen, mit Karten, die nVidia offensichtlich an der Kotzgrenze betreiben muss.
Für mich sieht alles danach aus, als ob AMD +- auf Augenhöhe ist, was vor Navi noch völlig undenkbar und auch danach nicht unbedingt garantiert war.
 
  • Gefällt mir
Reaktionen: ActionNews, zeedy, Olimos und 2 andere
leipziger1979 schrieb:
Oje, da können die AMD Fans nur hoffen das Igor sich irrt.
Denn das wäre schon peinlich für AMD nachdem man den Mund bisher so voll genommen hat.

Aber schon blöd wenn die Realität das Marketing überholt.

Also das ist jetzt nicht das erste mal, dass man von dir so einen Mist lesen muss. Schaffst du es wirklich nicht zwischen offiziellen Informationen von AMD und "Informationen" von irgendwelchen dahergelaufenen zu unterscheiden? Falls nicht wuerde ich dir ernsthaft empfehlen zu lernen wie das geht.

fairlight schrieb:
Wieso sollte ein 1000 Watt-Netzteil per se effizienter sein, als ein 500W Netzteil?

Naeher am Sweetspot bei Auslastung des Rechners = weniger Energie zum Fenster rausgeschmissen.

fairlight schrieb:
Wieso sollte es per se länger halten?

Weniger Abnutzung der Bauteile, da sie nicht am Limit betrieben werden.

fairlight schrieb:
Und wieso sind mehr Anschlüsse besser als wenige?

Bessere Aufruestbarkeit.

fairlight schrieb:
Wieso sollte "ein groß dimensioniertes Netzteil" ruhiger laufen als ein vermeintlich klein dimensioniertes?

Nicht am Limit betreiben = weniger Hitze = langsamerer Luefter = ruhiger.

RaptorTP schrieb:
Nun gut - ich hab vielen gesagt mit 550W kommste auf alle Fälle klar.

Reicht absolut dicke !

und dann kommt sowas.

Mein System läuft UV und ist auch nicht "knapp" vom Netzteil her bemessen.

550W sind schon seit langem Mittelklasse und eben sehr wohl knapp bemessen. Anders gesagt, dein Netzteil ist knapp bemessen. Es passt gerade so auf deine Beduerfnisse und mehr nicht.

RaptorTP schrieb:
Es geht hier einfach mal so um 100-150W mehr für die Graka !

Das ist dann kein Pappenstil mehr und auch nicht verwunderlich das eben so viele dann samt Netzteil aufrüsten müssen.

Klar, wenn man sein Netzteil gerade so auf das ausrichtet was man braucht, dann ist das nicht verwunderlich. Man hatte von vornherein keine Reserven. Warum wunderst du dich da?

RaptorTP schrieb:
Wir reden ja auch von Markengeräten ;)

be quiet SP11 550W Gold - 91€
be quiet SP11 750W Gold - 129€
be quiet SP11 850W Gold - 156€
be quiet SP11 1000W Gold - 180€

uff ! sag ich da nur. Es sind halt gleich mal 38€ - aber ja, da ich Graka in ein System wechsle das dann ebenfalls ein stärkeres NT bräuchte - kann ich sowieso beides neu holen.

Meine Empfehlung: Kauf dir eine Grafikkarte die zu deinem Netzteil passt. Da sparst du sogar noch viel mehr. Wenn man immer gerade so auf seine Beduerfnisse kauft ohne Reserve zu haben, dann ja, dann zahlt man mehrmals. Das ist aber eine individuelle Entscheidung die man trifft und fuer die man dann eben die Konsequenzen tragen muss. Anstatt 38 Euro mehr bist du jetzt halt bei 230 Euro weil du zweimal ein Netzteil gekauft hast. Hat es sich gelohnt?

xexex schrieb:
So schön solche Spekulationen auch sind, solche Roadmaps sollte man jedoch grundsätzlich als anvisiertes Ziel und nicht gegeben ansehen, schon bei der 5700XT (Navi 10) wurden sie nicht erreicht.

Genau hier liegt der Hund aber nun begraben, effizient werden vermutlich nur die Mitteklassekarten sein, an der Spitze werden beide Hersteller die Karten soweit geprügelt haben wie es nun geht. Was dabei letztlich herumgekommen ist, erfahren wir in der kommenden Woche.

Auch wenn es nicht moeglich scheint, empfehle ich die Basis zu aendern. Du nimmst wohl das schlechtmoeglichste um zu sagen ist nicht so.

5700XT -> Vega 56 = 33%
5700XT -> Vega 64 = 56%

5700 -> Vega 56 = 56%
5700 -> Vega 64 = 81%

Aber klar, man kann sich immer rauspicken was man will.

Joker (AC) schrieb:
Sry, hier wird immer von 75 Watt auf PCIe geredet und immer wieder wiederholt.
Es ist ein 5,5 Ampere' Slot. 5,5 Ampere' bei 12 Volt sind 66 Watt. Die dazu gedichteten ~ 10 Watt sind 3,3 Volt/3A
Da kann die GraKa aber nix mit tun. Also bleiben runde 65 Watt für die GraKa bei 12 Volt.

Nicht ganz. 66W sind offiziell, ja, aber offiziell gibt es auch eine Toleranz die bis zu 75W geht. Alles darueber ist ausserhalb des Standards. Das passiert in der Regel nicht, aber beide Hersteller hatten da schon Probleme. Nvidia war in dem Fall der letzte mit den Ampere Karten.
 
  • Gefällt mir
Reaktionen: Otsy und stevefrogs
duskstalker schrieb:
ist schon brutal, wie der soziale druck hier im forum user, aus angst geächtet zu werden, zu wiederholten fehlkäufen zwingt.

öhhh ... also der "soziale Druck" ist mir eigentlich komplett Wurst xD
Aber ich war selbst komplett überzeugt das eben die 550 Watt locker für alles an Single-GPU Systemen reichen wird. :(

Wir werden sehen.

Ich will auch kein Ryzen 5 mit einer 1080 Ti mit einem 400W Netzteil betreiben.
Von daher kann ich das als Ausrede nehmen ;) das eben mein 550W Netzteil mit in den HTPC wandert.

Echt schade das AMD nichts effizienteres rausbringt.
Wobei, bisher ist es nur eine Annahme.

@Kacha
nope - da ist nix knapp bemessen.
Hatte zuvor ein 480W Netzteil und hab dann ein 550 Watt gekauft.

Das 480W war knapp - lief alles 1A.

Es war einfach an der Zeit mal was neues ins System zu packen.
550W sollten für einen Gaming OC eigentlich vollends ausreichen.

Ich brauch ein wenig Leistung für kommende Games bei 3440x1440@75Hz

Eine Leistungssteigerung mit dem gleichen Stromverbrauch meiner jetzigen Karte hätte ich eigentlich als Minimum gesehen. Naja und dann eben mindestens 10-12GB VRAM
 
Es gab auch überhaupt keinen Grund davon auszugehen, das 320W+ Grafikkarten plötzlich normal werden.
Ich werde mir aber sicher kein neues NT kaufen, nicht solange es nicht ausgeht beim zocken^^
Die 6900XT ist soweit sicher, solange es nicht jenseists der 900€ geht.
Das Problem der 3080 sind ja nicht unbedingt die 320W, sondern die "Spikes" zu 430W, wo sie zu ~60% der Zeit verweilt, bis sie durch eine 75W drossel auf "320W" Durchschnitt verdonnert wird.
https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/12/
 
  • Gefällt mir
Reaktionen: Piep00 und RaptorTP
Wadenbeisser schrieb:
Du hast also geraten und gehst einfach so davon aus, alles klar.

Du darfst auch gerne zwischen den Zeilen lesen.
Ich kann halt nur nicht alles so schreiben, wie ich gern möchte.

Ich gehe einfach mal davon aus, Igor könnte uns auch einfach die Zahlen niederschreiben, wie sie in kommender Woche präsentiert werden. Dann würde er aber zum letzten mal was schreiben, also gibt es Zahlen im Spekulatiuskeks verpackt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter, Cpt.Willard und McFritte
Zurück
Oben