News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

DisOrcus schrieb:
Das ist doch einfach, sorry, absoluter Scheiß...
Die Chiptemperatur ist doch schon seit Jahren fast immer unkritisch. VRAM und VRMs sind die viel wichtigerne Temperaturen. Vor allem jetzt bei Ampere mit GDDR6x und allem.

???
VRMs sind wumpe pack eine aluplatte auf die PCB, dimensionire die versonrung großzügig und du wirst nie 120°C sehen, sind auch leicht zu tauschen.

GDDR6 kann man im worst case von der PCB pellen und von ner spenderkarte drauflöten.

Der GPU Flipchip hingegen ist schrott wenn das Balling unterm silizium degenriert und das tut es mit jedem Delta°C!
Umso großer die DIE umso schneller, nicht umsonst ist die 2080Ti verreckt am anfang. :rolleyes:

Willste eine karte die lange lebt sorg für ein nidriegen delta auf Core und Ram.
Wobei das nichtal mehr mit Wakü möglich ist bei 7nm, eine VII hat einen Junktiondelta von 30°C eher 50 wenn man nicht den kühler x mal abpellen will bis die WLP perfekt sitzt.
 
hamju63 schrieb:
Wobei Du aber berücksichten musst, dass, wenn Du einmal in dieser Leistungsklasse angekommen bist, eine solche Investition dann alle 2-3 Jahre fällig ist.

Blödsinn. Hab meine 2 Jahre alte 2080 (non S!) noch 2 Stunden vor der Präsentation um 500€ losbekommen. Ich zahl jetzt original 219€ Aufpreis zur 3080. Wenn man's klug anstellt dann kriegt man die Karten noch um Ordentlich Geld weg und hat dann nur mehr geringe Aufpreise... Zieh das jetzt seit Pascal durch. (vorher hauptsächlich AMD Karten gehabt - und da ging meine Rechnung nie auf).
 
  • Gefällt mir
Reaktionen: cruse
mibbio schrieb:
Ich würde mich im Zweifelsfall für die Variante entscheiden, wo ich mich nicht an ein bestimmtes Geräte oder einen Hersteller binden muss.
In 2015 war es allerdings so, dass Freesync AMD only war...
 
Tzk schrieb:
Der GDDR6X auf der 3090 ist ja ein echter Stromfresser (man munkelt 60W), wenn man Igor glauben mag.
Dafür geht der halt auch richtig ab und ist ein Alleinstellungsmerkmal. Schon allein dieser Umstand wird es AMD schwer machen mit nur GDDR6 gegen eine 3090 anzukommen. Und HBM2 ... kostet halt immer noch richtig viel.
Hier mal eine interessante Analyse der Trade-Offs.
 
SavageSkull schrieb:
In 2015 war es allerdings so, dass Freesync AMD only war...

FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.

Keine Ahnung wie man da versuchen kann, AMD den schwarzen Peter zuzuschieben. nVidia ist doch derjenige, der ein Modul entwickelt hat um die Konkurrenz auszuschließen. Und es hat die Preise der Monitore unnötig in die höhe schießen lassen.

Oh, erinnert sich noch wer an den tollen ASUS Monitor der sogar gekühlt werden musste, weil das G-Sync Modul so heiß lief? :volllol:
 
  • Gefällt mir
Reaktionen: Ernie75, fLo547, NMA und 4 andere
was gibts denn aktuell brauchbares an der Monitor
engineer123 schrieb:
Bei Nvidia hast Du halt die Sicherheit, dass es immer ab 1 Hz losgeht und damit auch der Bereich 30-50 Hz abgedeckt ist. 30-50Hz, relativ unwichtig für 1080p und 2560x1440p, weil die meisten Grakas mehr FPS
liefern.
Ab 3440x1440 UWQHD und vor allem UHD dann wiederum sehr wichtig, weil selbst High-End Grakas in diesen Auflösungen bei sehr anspruchsvollen Titeln in die 30er Zone fallen.
Bei FreeSync Monitoren muss man sich also genau die Hz-Spanne anschauen, und die Auflösung mit
der eigenen Graka in Relation setzen.
Soweit meine Marktkenntnis geht gibt es aktuell nur einzelne FreeSync-Monitore, die in die 30er runterkommen.
Viele beginnen bei 48 Hz oder drüber.
genau dieses Problem habe ich auch, Bei vielen Titeln also sowas wie Anno usw sind 30-50 FPS oft mehr als ausreichend, ich will also einen Monitor der am besten bis in diese Region runter kommt auch wenn er oben 120-144 in der Spitze hat.
Das geht ja bei diesem, aktuell in meiner Auswahl, leider nicht oder
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de
 
Unnu schrieb:
Dafür geht der halt auch richtig ab und ist ein Alleinstellungsmerkmal. Schon allein dieser Umstand wird es AMD schwer machen mit nur GDDR6 gegen eine 3090 anzukommen. Und HBM2 ... kostet halt immer noch richtig viel.
Hier mal eine interessante Analyse der Trade-Offs.


warum auch die 3090? das ist doch die vormalige Titan, die liegt preislich eh jenseits dem was ein normalo ausgeben würde, macht also 0 Sinn...
 
  • Gefällt mir
Reaktionen: KurzGedacht und cruse
SavageSkull schrieb:
In 2015 war es allerdings so, dass Freesync AMD only war...
Mit dem Unterschied, dass es auch allen anderen Herstellern frei stand, auf dem Adaptive Sync Standard aufzubauen (was anderes ist das bei AMD nicht). Nvidia hat sich aber zu einen eigenen Technik entschieden, ohne die Möglichkeit, dass andere Hersteller das nutzen können selbst wenn sie gewollt hätten.
 
  • Gefällt mir
Reaktionen: Tzk
aldaric schrieb:
FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.
Adaptiv Sync kam nach Freesync und G-Sync. Deswegen ist die Situation heute so wie sie ist.
VRR in HDMI kam noch wesentlich später.
Ich will nicht AMD und schlechte Licht rücken, ich kann nur diese verdrehen Halbwahrheiten nicht mehr hören.
 
Krautmaster schrieb:
Das geht ja bei diesem, aktuell in meiner Auswahl, leider nicht oder
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de

leider nein, der beginnt bei 48 Hz bzw. FPS mit FreeSync oder G-Sync Compatible.

Adaptive Sync, AMD FreeSync Premium Pro (48-144Hz via DisplayPort, 48-75Hz via HDMI, mit LFC-Support, mit HDR), NVIDIA G-Sync Compatible (48-144Hz via DisplayPort)

zudem liegt der Monitor nochmal höher als UWQHD, denn er hat 3840x1600p Auflösung,
heißt glaub ich QHD+ Auflösung.
 
Krautmaster schrieb:
was gibts denn aktuell brauchbares an der Monitor

genau dieses Problem habe ich auch, Bei vielen Titeln also sowas wie Anno usw sind 30-50 FPS oft mehr als ausreichend, ich will also einen Monitor der am besten bis in diese Region runter kommt auch wenn er oben 120-144 in der Spitze hat.
Das geht ja bei diesem, aktuell in meiner Auswahl, leider nicht oder
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de
Unter der Minimalfrequenz werden die Frames mittels LFC gedoppelt, sodass man bis 24 runter kommt bzw. kann, oder übersehe ich da etwas? Natürlich nicht so gut, als wenn man nativ so weit runter kommt, aber allemal ausreichend AFAIK.
 
  • Gefällt mir
Reaktionen: NMA, HolySkillet und dr. lele
engineer123 schrieb:
Soweit meine Marktkenntnis geht gibt es aktuell nur einzelne FreeSync-Monitore, die in die 30er runterkommen.
Viele beginnen bei 48 Hz oder drüber.
Alle FreeSync-Monitore, die als untere Range 48Hz haben und nach oben hin 120Hz+ haben, bieten auch unterhalb von 48Hz VRR. Ich wundere mich langsam wirklich, dass selbst in Nerd-Foren derart viele nichts von LFC wissen.
 
  • Gefällt mir
Reaktionen: Ernie75, NMA, HolySkillet und 3 andere
SavageSkull schrieb:
Ich will nicht AMD und schlechte Licht rücken, ich kann nur diese verdrehen Halbwahrheiten nicht mehr hören.

Aber du verdrehst hier doch alles.

FreeSync ist eine Bezeichnung, nicht mehr nicht weniger. Der Standard steht jedem offen.
 
  • Gefällt mir
Reaktionen: Ernie75, NMA, HolySkillet und 5 andere
bad_sign schrieb:
Man kann den Clown auch nicht ernst nehmen^^
Aus der YT Szene kommt noch der beste Content von GamersNexus und "Harbourboxed"

Es kommt drauf an, was man von den jeweiligen Youtubern erwartet.

Jay ist sicher kein Tech-Nerd mit engen Kontakten in der Industrie, wie z.B. Steve von Gamers Nexus, aber er ist ein sehr kreativer und geschickter Case-Modder und generell "Builder" und ab und zu macht er auch sehr interessante, ungewöhnliche (und nicht unbedingt sehr wissenschaftliche) Tests, z.B. wieviel Druck kann man auf eine Custom-Wasserkühlung geben, bis etwas auseinander fliegt :evillol:.
 
  • Gefällt mir
Reaktionen: NMA und Unnu
SavageSkull schrieb:
Adaptiv Sync kam nach Freesync und G-Sync. Deswegen ist die Situation heute so wie sie ist. Ich will nicht AMD und schlechte Licht rücken, ich kann nur diese verdrehen Halbwahrheiten nicht mehr hören.
Adaptiv Sync war für embeded displayPort schon vorher 2014 standardisiert. AMD hat wohl nur beschleunigt, dass es auch in den normalen dp Standard 1.2a kommt. Und den kunden als freesync angepriesen.
 
  • Gefällt mir
Reaktionen: Ernie75 und Tzk
Linmoum schrieb:
Alle FreeSync-Monitore, die als untere Range 48Hz haben und nach oben hin 120Hz+ haben, bieten auch unterhalb von 48Hz VRR. Ich wundere mich langsam wirklich, dass selbst in Nerd-Foren derart viele nichts von LFC wissen.
ok klingt gut Herr Experte, und das funzt auch wenn man nen vermeidlich nur Gsync Kompatiblen Monitor mit ner 3080 betreibt oder muss es dann ne AMD Karte sein?
 
SavageSkull schrieb:
Adaptiv Sync kam nach Freesync und G-Sync. Deswegen ist die Situation heute so wie sie ist.
VRR in HDMI kam noch wesentlich später.
Ich will nicht AMD und schlechte Licht rücken, ich kann nur diese verdrehen Halbwahrheiten nicht mehr hören.
Der Zeitpunkt ist eigentlich auch nicht der springende Punkt, sondern der Unterschied, dass G-Sync von keinem außer Nvidia genutzt werden kann und die anderen Technik als freier Standard entworfen wurde, den jeder gebührenfrei umsetzen kann. Nvidia hätte ja auch jederzeit die Möglichkeit gehabt, jederzeit auf den freien Standard zu wechseln und sich mit den G-Sync Erfahrungen aktiv an der Weiterentwicklung von Adaptive Sync zu beteiligen.

DocWindows schrieb:
Und in 2020 ist es so dass Freesync2 AMD-only ist. Oder hat sich das mittlerweile geändert?
Das liegt aber weniger an AMD, sondern daran dass bisher unterstützt. Es steht aber jedem Hersteller frei, das auch zu unterstützen, weil es ein gebührenfreier, offener Standard ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben