News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

^^Quelle???

Glaube Du verwechselst da was, AMD Karten können die G-Sync Module nicht verwenden. Punkt.

Du kannst eine AMD Karte mit nem G-Sync Monitor laufen lassen, aber es wird immer Tearing geben, weil
das G-Sync Modul gesperrt ist für AMD Chips.
 
Holindarn schrieb:
ich bin ja dafür einen neuen Monitor zu kaufen XD

Naja. Wie in einem anderen Beitrag geschrieben, bin ich derzeit sowieso nicht auf der Suche nach einer neuen Grafikkarte. Die RTX 2080 wird es noch eine Weile tun. 😁

Wie die Grafikkartenwelt in 2-3 Jahren aussieht, werden wir sehen. Vielleicht sind die GPUs dann alle so schnell, dass mein UWQHD-Monitor sowieso immer nur konstant im 120FPS-Anschlag läuft und ich gar keine variablen Refreshraten mehr brauche. Dann hat sich das Problem von selbst erledigt. 😉
 
  • Gefällt mir
Reaktionen: stevefrogs und Holindarn
TopKak schrieb:
Mag sein, dass das bei einigen gängige Praxis ist, gutheißen muss ich das deswegen aber noch lange nicht.
Habe ich auch nie behauptet. Ich finde das auch immer total daneben. Aber auch der Inhalt generiert Klicks. Sobald das Fanboy/Hater findet wird er das direkt irgendwo anprangern und jeder klick nochmal drauf. :D
 
  • Gefällt mir
Reaktionen: TopKak und Mcr-King
Ist eigentlich bekannt, in wie weit die neuen Karten VRR per HDMI unterstützen? Das wäre ja auch ein herstellerunabhängiger Standard für variable Wiederholraten.
 
Krautmaster schrieb:
Vllt kann RDNA2 ja Primitive Shader. Macht AMD eigentlich zwischenzeitlich Tiled Rendering?
Tiled Rendering wurde doch beim Vega-Launch vorgestellt und die Bandbreiteneinsparungen, die das brachte.
Primitive Shaders wurden dann für Navi angekündigt, seitdem habe ich aber nichts mehr davon gehört. Ich denke es funktioniert einfach und alle sind glücklich.

Edit: Zu TBR hattest du ja noch etwas geschrieben. Sehr interessant, dass es schrittweise umgesetzt wurde.
 
  • Gefällt mir
Reaktionen: NMA
Die Karte mit den drei Lüftern gefällt mir schon einmal sehr gut, wenn die Lautstärke passt und etwas weniger ist als bei der 5700xt Ref. Wird es auf jeden Fall auch das Ref. Design, es sei den es kommt was feines von Power Color...

Ich weiß nicht ob ich nochmal die Grafikkarte mit Wakü ausstatten soll...
 
Mcr-King schrieb:
Nee habe die infos vom Igor und der hat schon durch blicken lassen dass 600Watt NTs ganz schön am Limit waren.

Naja, 3080 kann sich 320W gönnen. 3090 kann sich 350W gönnen. Wenn noch eine CPU, die über 200W sich gönnt dazu kommt, wird es für ein Netzteil mit 600W sehr schnell eng. Allerdings muss man auch sagen, dass bei Games - egal ob Intel oder AMD - die CPUs mit geringerer Leistungsaufnahme arbeiten.

Daher sehe ich eigentlich kaum ein Problem, dass es hier für ein 600W Netzteil eng wird.
 
  • Gefällt mir
Reaktionen: estros und p4z1f1st
t3chn0 schrieb:
Die Karte sieht sehr interessant aus. Ich bleibe dennoch bei Nvidia. Alleine schon der Monitor macht es unmöglich was anderes zu nehmen. Das ist für mich aber total ok.
Geht mir genauso.. So gerne ich auch mal wieder eine AMD drin haben möchte, fällt mir der Wechsel schwer. Auch ich habe eine Gsync Monitor, drei Shields und nutze den Inhome Stream schon recht häufig.
Ergänzung ()

mibbio schrieb:
Ist eigentlich bekannt, in wie weit die neuen Karten VRR per HDMI unterstützen? Das wäre ja auch ein herstellerunabhängiger Standard für variable Wiederholraten.
Klar, demnächst sogar bei den RTX 2000 und GTX 1600 über HDMI 2.0
 
  • Gefällt mir
Reaktionen: t3chn0
mibbio schrieb:
Nvidia hat sich bisher eigentlich noch nie mit offenen Standards hervorgetan. Vor Gsync und RTX war es PhysX
bevor du mit solchen Behauptungen um dich wirfst solltest du nochmal überlegen was das für eine Situation war:
PhysX hat nicht Nvidia erfunden, das war die Firma Ageia, die separate Beschleuniger verkaufte. Nvidia hat die mitsamt der Schnittstelle übernommen.

G-Sync ist auch so eine Situation, bei dem AMD Fanboys die Situation gerne verdrehen.
G-Sync Monitore waren auf dem Markt bevor HDMI sich nur ansatzweise irgendetwas im Standard bezüglich variabler Wiederholrate definiert hatte. Die ersten Freesync Monitore die auf dem Markt kamen hatten keinen Scaler der vom HDMI Standard oder AMD vorgegeben war, sondern eine Lösung dort zwar von AMD angesprochen werden konnte aber war so bescheiden umgesetzt, dass es gut zwei Jahre gedauert hatte bis Freesync eine ernsthafte Alternative zu G-Sync war. Ohne die strikte Vorgabe des Scalers wären wir heute nicht so weit mit variablen Wiederholraten.
Inxession schrieb:
0,0 vergleichbar.
Sagen wir mal Intel will RT auch in dessen dedizierten GPUs implementieren. Können Sie entweder auch was eigenes bauen, oder den offenen Standard nutzen den AMD sehr wahrscheinlich nutzen wird. Wobei das hier noch nicht gänzlich geklärt ist.

Was aber sicher ist ... RTX mit Tensor Cores ist nVidia only und Intel müsste es bei nVidia lizensieren, was nicht passieren wird.
Doch ist es. Nvidias technische Lösung für Raytracing wird genau über Microsofts DXR angesprochen und genau darauf haben auch AMD und Intel Zugriff. Wie die beiden diese Befehle in ihrem Silizium umsetzen und ob sie genauso wie Nvidia extra ALUs unterbringen und dem einen Marketingnamen wie "RTX" geben hat damit gar nichts zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75, NMA, abduladarula und 5 andere
@mibbio Generell sind die neuen HDMI Features nicht zwingend nur bei 2.1 aufzufinden. Das ist ja auch das Problem bzw. ein großen Durcheinander. Ich hab hier dazu schonmal was geschrieben:
https://www.computerbase.de/forum/t...iver-in-halber-bauhoehe.1960632/post-24452791 Alle Features sind auch bei 2.0 möglich
denon.jpg

MARANTZ.jpg
 
  • Gefällt mir
Reaktionen: simosh, NMA, K169 und eine weitere Person
engineer123 schrieb:
^^Quelle???

Glaube Du verwechselst da was, AMD Karten können die G-Sync Module nicht verwenden. Punkt.

Du kannst eine AMD Karte mit nem G-Sync Monitor laufen lassen, aber es wird immer Tearing geben, weil
das G-Sync Modul gesperrt ist für AMD Chips.

Mittlerweile gibt es auch Monitore mit G-Sync-Modulen, die von AMD-Grafikkarten genutzt werden können. Sind allerdings noch relativ rar gesät.
 
Novasun schrieb:
Beide Karten wissen zu gefallen - rein optisch. Nur bitte - wenn das die 6900XT sein soll, dann lass die Leistung auch gut genug sein...
Bei 2x 8 Pin (150W pro Anschluss +75W über den PCIe Slot) wäre der Strombedarf im Limit bei
einem Wert zwischen 225-375W. Wäre schon gut, wenn die Rechenleistung dazu passen würde
(3070->220W). Leise und kühl wirds wahrscheinlich genausowenig wie bei der 3080/3090 sein.
 
mibbio schrieb:
Eher andersrum, FreeSync bzw. allgemein Adaptive Sync kann man mittlerweile auch mit Nvidia nutzen. Nennt sich dort "Gsync compatible" und übersetzt im Hintergrund die Gsync Signale in Adaptive Sync Signale. Funktioniert nur nicht mit jedem Monitor zu 100%.
Nicht wirklich, das sind einfach nur Monitore für die der Treiber den Vesa Standard zuläßt.
 
Inxession schrieb:
0,0 vergleichbar.
Sagen wir mal Intel will RT auch in dessen dedizierten GPUs implementieren. Können Sie entweder auch was eigenes bauen, oder den offenen Standard nutzen den AMD sehr wahrscheinlich nutzen wird. Wobei das hier noch nicht gänzlich geklärt ist.

Was aber sicher ist ... RTX mit Tensor Cores ist nVidia only und Intel müsste es bei nVidia lizensieren, was nicht passieren wird.

Das ist zu 100% vergleichbar.

AMD, Intel und nVidia MÜSSEN was eigenes für ihre GPUs entwickeln. Da jede GPU anders ist, anders arbeitet, andere Stärken und Schwächen hat, ist das unausweichlich. Wenn alle den DXR-Standard nutzen, können aber alle das gleiche Funktionsset anbieten. Frei nach dem Motto: Viele Wege führen nach Rom.

Wenn nVidia sich dazu entscheidet extra RT-Cores zu verwenden und AMD sich entscheidet die Berechnungen über ihre TMU-Einheiten zu machen, beide aber DXR bedienen, dann ist das genau das was offene Schnittstellen bezwecken sollen. Ein einheitliches Featureset zur Verfügung stellen, egal wie es in Hardware realisiert wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adnigcx, Muuhh, NMA und 10 andere
Fighter1993 schrieb:
Es geht drum Leute zu erreichen, und 350mio sind ne ganze Menge.
Wenn zb. battlefield 5 300mio Spieler hätte dann hätten sie es da gemacht.
Hättest du dann gesagt oh gut bf steht für gute Grafik top?!
Ich hätte es ehrlich gesagt in gar keinem Spiel gerne gesehen. Bf ist für mich auch nicht unbedingt Referenz. Fortnite wie gesagt braucht einfach keine Leistung. Warum Leute erreichen die so oder so eher die Einsteiger Karten und Mittelklasse kaufen? Ja okay das ist der größte Marktanteil aber das könnte man so sehen das es eben nichts gibt gegen eine 3080. Ich würde auch einmal 700 taken ausgeben wenn's was gescheites gibt und die 1060 in Rente schicken aber so macht das mir keine Hoffnung außer die 3080
 
Serpentras schrieb:
Ich würde auch einmal 700 taken ausgeben wenn's was gescheites gibt und die 1060 in Rente schicken aber so macht das mir keine Hoffnung außer die 3080

Wobei Du aber berücksichten musst, dass, wenn Du einmal in dieser Leistungsklasse angekommen bist, eine solche Investition dann alle 2-3 Jahre fällig ist.
Das muss man einfach sehen und sich im Vorfeld überlegen, ob man das grundsätzlich finanzieren will/kann
 
  • Gefällt mir
Reaktionen: Fighter1993
AMD scheint hier auch eine optimierte Flowvariante zu nutzen. Wenn ich mir das Bild so anschaue, wird die Luft nach Oben hin, also zur Gehäusewand, rausgepresst. Sonst war ja bei jeder Karte dort eigtl immer ein Schriftzug, Logo oder andere Abdeckung.
 
Zurück
Oben