Notiz Radeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an

Ist Nvidia im selben Technikdschungel wie Intel? Weil die 3000er Karten begeistern nicht. Kaum verfügbar, 10 GB Problem, Extremer Verbrauch, Spannungsschwankung die Netzteile raushauen, BTD, Abstürze zum Desktop ab bestimmten Frequenzen.

AMD soll trotzdem mal den Mund halten.
 
@mannefix
Nvidia hat zumindest ein sehr ähnliches Grundproblem wie Intel.
Sie hätten Ampere gerne auf der modernen 7nm Fertigung gebaut, aber haben nur die Samsung Fertigungstechnik bekommen.

In der urspünglichen Planung wäre Ampere wohl wesentlich effizienter gewesen.
 
  • Gefällt mir
Reaktionen: mannefix
Hylou schrieb:
Wo habe ich sie denn totgesagt?
Nur wars die letzten Jahre so, dass AMD über den Preis Punkten konnte und bei der Leistung etwas hinten dran waren

Mit den CPUs ist das nicht vergleichbar. Dort ist viele Jahre einfach gar nichts passiert seitens AMD und sie haben Intel kampflos das Feld überlassen.

Sorry war vielleicht nicht ersichtlich aber mein Quote sollte eher das "War nicht immer so!" betonen!
Da AMD durchaus mal vor Nvidia war, wenn es auch länger her ist!

Ich glaube AMD hat sich einfach den Markt angesehen und geschaut wo die Masse einkauft.
Die Navi Reihe fand ich persönlich sehr gut und wenn RDNA2 da einen drauf legt kann es nur gut für den Markt werden.
 
  • Gefällt mir
Reaktionen: Hylou
HAse_ONE schrieb:
Aber Wehe AMD macht auch nur einmal den Mund auf.
Dann macht Volker Rißka eine fragwürdige News draus.

Wobei, wie du schon sagst, AMD eigentlich kaum was gesagt hat. Ein bisschen nebensächliches Twitter-Geschnatter, das Übliche halt.
 
  • Gefällt mir
Reaktionen: WolledasKnäul und Novasun
Weil die 3000er Karten begeistern nicht.
...mich begeistert die neue Serie bisher!
Ich halte 10 GB für angemessen, insbesondere da ich mir keinesfalls den Flaschenhals 4K-Gaming mit 100+ fps antue.
Verbrauch ist hoch - aber angemessen bei der Leistung. Man sieht es ja im fps-Vergleich zu der RX5700XT.

Sollte AMD etwas liefern, was auch nur in die Nähe der RTX3080 kommt, wäre das schon eine sehr große Überraschung für mich. Nicht vergessen, die reine Rohleistung ohne RTX-Features wird schon schwer zu erreichen sein, mit dem AMD-Äquivalent halte ich es für nahezu unmöglich. Aber wir werden sehen, vielleicht werde ich nach 20 Jahren ohne große Überraschung ja doch mal überrascht!?!
 
Laphonso schrieb:
Nvidia hat AMD Tonnen an Vorlagen geliefert:

3080 twice as fast as 2080 stimmt so nicht (lol)

Das hat Huang einmal gesagt, da stimmt, nichtsdestotrotz haben die Folien die Nvidia Karte korrekt platziert.
Zur Verteidigung darf angemerkt werden, dass die Karte gerade unter RT Workloads doppelt so schnell performen kann, wenn gleich die Aussage blamabel war, weil die restliche Präsentation ja eher +75% offerierte.

Laphonso schrieb:
3090 = 8K gaming stimmt so nicht (DLSS via 1440p und handverlesene potatoe taugliche Games mit reduzierten Settings)

Die Image Qualität ist aber höher als natives 4K, zumindest sagen das die Tests.
Weiterhin ist auch ganz interessant:
https://www.golem.de/news/gaming-warum-dlss-das-bessere-8k-ist-2009-150620.html

Laphonso schrieb:
3090 = Titan Class stimmt so nicht (sie ist kastriert, an zig Ecken und Enden)

Abgesehen von den fehlenden Pro Treibern, die aber weniger relevant sind und der zwei SMs, entspricht die Karte der vorherigen Titan Klasse, 24GB GDDR6x sind nicht ohne und wenn ich raten würde, ziemlich teuer.

Laphonso schrieb:
Und dass die 3070 schneller sei als die 2080Ti wird ggf. der nächste Marketing Gag.

Dann weißt du da bereits mehr als ich. Aber man kann sich doch ausdenken wo die Karte liegen wird.
Mit DXR leicht drüber, ohne DXR in etwa auf Augenhöhe, bisher haben alle Angaben der Folie gestimmt, insofern ist nicht davon auszuegehn, dass es anders sein sollte.

Laphonso schrieb:
Die Verbrauchssituation, die Hitzesituation, die crash-to-desktop Situation, die Verfügbarkeitssituation und
die Tatsache, dass Ampere aufgrund minimaler oc Korridore messbar Abstand verliert....

Ich würde das eigentlich auf die Probleme mit den Abstürzen der Customs reduzieren, denn wer erwartet von AMD schon einen wesentlich geringeren Stromverbrauch?
 
Kacha schrieb:
Ueberschrift: "AMD heizt die Stimmung in Richtung Nvidia an"
Inhalt: Drei Tweets von einem AMD Mitarbeiter, die die Ueberschrift nicht nur null rechtfertigen sondern gleich negativ unendlich.
Autor: Volker, ah, ok, deswegen...

Ja richtig schönes Clickbait, ist mir leider auch direkt aufgefallen. Sensationelle Überschrift, leerer Artikel.
 
Summerbreeze schrieb:
Radeon Boost und Image Sharpening. Beides zusammen erledigt den gleichen bzw. ähnlichen Job.

Das ist wohl ein Witz. Eine reduzierte Auflösung bei Bewegung plus Schärfefilter hat nichts mit DLSS zu tun und ist auch keine Alternative dazu.

Summerbreeze schrieb:
Was habt ihr eigentlich alle mit DLSS?

Es ist in der Theorie eine großartige Technik um Rechenleistung einzusparten. Erste DLSS 2 Spiele liefern auch das ab, was versprochen wurde. Gleiche bzw. teils bessere Bildqualität im vergleich zur natibenn Auflösung für deutlich weniger Rechenaufwand bzw. mit deutlich mehr FPS, wodurch Themen wie Echtzeitraytracing in höheren Auflösungen erst richtig spannend wird. Man kann von Nvidia halten was man will. Aber mir ihrem KI upsampling leisten sie mittlerweile verdammt gute Arbeit. Nicht nur in Spielen.

KurzGedacht schrieb:
Nvidia hat zumindest ein sehr ähnliches Grundproblem wie Intel.
Sie hätten Ampere gerne auf der modernen 7nm Fertigung gebaut, aber haben nur die Samsung Fertigungstechnik bekommen.

Jein. Intel ist am die eigene Fertigung gebunden und kann seine Massen auch nicht so ohne weiteres an jemand anderes auslagern. Ihr Fortschritt ist in allen Bereichen an ihre Halbleiterfertigung gebunden.

Das Problem hat Nvidia nicht. Sie können sich frei am Markt entscheiden. Hier limitieren nur Menge und Investitionsbereitschaft. Nvidia hat die finanziellen Mittel, dass man mittelfristig immer die beste Fertigung einkaufen kann. Mit Ampere at man sich verzockt, da man TSMC zu niedrigeren Preisen zwingen wollte. Dafür zahlt man mit den kleinen Ampere Ablegern nun den Preis. Aber wie es aussieht, hat sich Nvidia reichlich 5nm Kapazitäten gesichert und kann jeder zeit schwenken. Nvidia ist in der finanziellen Lage hier bei der Vergabe eine gute Position einzunehmen, wenn man rechtzeitig vorausplant.

Nvidia hat nicht das gleiche Problem wie Intel. Die kleinen Ampereableger haben das Problem. Nvidia hat sich verzockt und muss nun Lehrgeld zahlen. Aber man steht nicht vor der Mammutaufgabe eine zu TSMC halbwegs gleichwertige Halbleiterfertigung aufstellen zu müssen.

Das ist aber gleichzeitig eine riesen Chance für AMD. Wenn Sie gut aufgestellt sind, können sie Boden gut machen. Innerhalb der nächsten 18 Monate wird Nvidia wohl nicht aus dieser Zwickmühle kommen.
 
MaLow17 schrieb:
Ist das nicht falsches Englisch vom Marketing-Chef? Korrekt wäre doch: "I look forward to take your $10."
Puscha schrieb:
"To look forward to taking" ist korrekt, auch wenn es sich nicht so liest 😁
To look forward to + Verb + ing-Forn
Aber müsste dann nicht noch eine Form von "to be" mit rein (oder das "to" weg)? "to taking" passt irgendwie nicht in der Kombination.

"I take" oder "I am taking"
"I look forward" oder "I am looking"

Also
"I look forward taking your money" oder
"I look forward to be taking your money" oder
"I look forward to take your money" oder
"I'm looking forward taking your money" oder
"I'm looking forward to take your money"

Aber nicht
"I look forward to taking your money" oder
"I'm looking forward to taking your money".

Mein Favorit wäre ja "I'm looking forward to take your money", da das "looking" eine andauernde Tätigkeit ist, das anschließende "taking" aber innerhalb einer Sekunde erledigt sein sollte. ;-)
 
Lars_SHG schrieb:
Verbrauch ist hoch - aber angemessen bei der Leistung.
Insgesamt richtig, wenn man sich aber die skalierung von ampere ansieht, dann merkt man das bereits bei 5% weniger leistung der 3080 enorm viel effizienz gewonnen wird. Hätte nvidia die karte nicht so dermaßen ans limit gebracht, dann wäre die effizienz deutlich besser. So it empfinde ich den verbrauch als nicht komplett angemessen für die leistung.

-5% leistung bei -15% power sollten grob +12% effizienz sein. Damit wäre man statt bei +10% gesamteffizienz zu turing bei +23%.
 
Wie hier einige Steil gehen... Die 10 Dollar Wette wär ich auch eingegangen..
Und der Witz mit den 8k bezogen auf die 4k Performance der 3090 - fand ich gut.
Aber ich habe ihn auch verstanden.
 
  • Gefällt mir
Reaktionen: jemandanders, eyedexe und Tzk
Lars_SHG schrieb:
...mich begeistert die neue Serie bisher!
Ich halte 10 GB für angemessen, insbesondere da ich mir keinesfalls den Flaschenhals 4K-Gaming mit 100+ fps antue.
Verbrauch ist hoch - aber angemessen bei der Leistung. Man sieht es ja im fps-Vergleich zu der RX5700XT.
Angemessen? Mieseste Effizienzsteigerung bei Nvidia seit über 10 Jahren...

10GB angemessen? Ha, auf ner 800€ Karte. Da hat Nvidia selbst mit der 1080Ti vor 3 Jahren schon mehr geboten. AMD ist in dem Preisbereich schon mit 16GB aufgefahren.

Aber gut, manchen Leuten kann man halt jede noch so lauwarme Suppe als Festmahl verkaufen.
 
  • Gefällt mir
Reaktionen: Tzk
Inxession schrieb:
Diesmal steht und fällt alles mit Verbrauch/Lautstärke und Verfügbarkeit.

Die Karten die laut sind und viel verbrauchen sind doch

Inxession schrieb:
... die perfekte Bastel-Karte...

Sehe das Problem nicht. Aber mal ohne Späßchen.
Es ist ja nicht ohne Grund so, dass Nvidia die 3080 und die 3090 höher getaktet ausliefert.
Insofern wird AMD zumindest bei der reinen Rasterleistung schon mithalten können, würde ich vermuten, zumindest mit 3070 und 3080.
 
Was heizt er denn an? :freak:

Er sagt ja nur das sie ihr Bestes geben, dass sie nicht auch solche Schwierigkeiten haben wie NVIDIA.
Total legitim.

Wie die Leute gleich alle AMD Bashen dafür. :lol:
Werdet erwachsen.
 
  • Gefällt mir
Reaktionen: Holgmann75 und Alpha.Male
KlaraElfer schrieb:
24GB GDDR6x sind nicht ohne und wenn ich raten würde, ziemlich teuer.
Den scheinbar verwendeten MT61K256M32JE-19 hab ich auf die schnelle nirgends gefunden, aber:
MT61K256M32JE-14:A dafür. Das scheint aber normaler GDDR6 zu sein, kein "x". Unit Price: $9.11468 für ein 8GB Modul?!
40$ für 32GB GDDR6. Als Endkunde bist für den kompletten Riegel dann wohl bei 250$.
Überseh ich was? Ist das echt so billig?

Micron gibt den GDDR6X übrigens mit max. 95° an. Wie viel hat Igor doch gleich am Hotspot gemessen?
 
  • Gefällt mir
Reaktionen: Alpha.Male
Lars_SHG schrieb:
Ich halte 10 GB für angemessen, insbesondere da ich mir keinesfalls den Flaschenhals 4K-Gaming mit 100+ fps antue.
Verbrauch ist hoch - aber angemessen bei der Leistung. Man sieht es ja im fps-Vergleich zu der RX5700XT.

Also angemessen finde ich 10GB bei einer High End Karte Ende 2020 nicht.... 8GB sind seit Ewigkeiten in der Mittelklasse angekommen.

Keine Ahnung was alle immer mit 4K haben, aber der Einfluss auf den Vram ist hierdurch noch halbwegs überschaubar, wenn man in FHD / WQHD trotzdem alles auf Max stehen hat. Denn dann steigt hierdurch hauptsächlich nur der Framebuffer an. Wenn 10GB in UHD nicht reichen, sind sie auch in WQHD meist zu kanpp.

Richtig ist, dass stand heute 10GB noch kein limitierender Faktor sind. Ob das jetzt einer Oberklasse Karte angemessen ist... muss jeder selbst wissen.

Bedenken sollte man aber auch, dass eine neue Generation an Spielen ansteht und man mit 10GB Vram nicht wirklich mehr als die Konsolen in den Ring werfen kann.

Ich hätte bei der 3080 gerne 12GB an einem vollen 384 Bit Interface gesehen. 12GB sind schon ein nettes Plus und zumindest kein Downgrade gegenüber der 1080Ti ud 2080Ti. Zum anderen hätte man bei gleicher bandbreite den Speicher etwas niedriger takten können und könnte hier die Temperaturen etwas senken.
 
KlaraElfer schrieb:
Dann weißt du da bereits mehr als ich. Aber man kann sich doch ausdenken wo die Karte liegen wird.
Mit DXR leicht drüber, ohne DXR in etwa auf Augenhöhe, bisher haben alle Angaben der Folie gestimmt, insofern ist nicht davon auszuegehn, dass es anders sein sollte.
Da wäre ich mir nicht so sicher denn rein rechnerischt hat die 3070 ca. 32% weniger Shader und minimal mehr Takt als die 3080FE, welche ihrerseits im Test nur ca. 31% schneller als die 2080Ti FE war und bei den Hybriden RT Titeln konnte Ampere auch noch kaum besser als Turing skalieren. Mehr war im grunde genommen nur bei den reinen RT Umsetzungen drin. Dazu noch der VRAM Bedarf für RT an sich in Kombination mit dem kleineren VRAM beim 8 GB Modell.
Es ist also gut möglich das beide ca. gleich auf sind aber der 3070 mit 8 GB ausgerechnet bei RT Spielen eher der Speicher ausgeht und sie deshab vorzeitig einbricht.
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben