Notiz Radeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an

Aus meiner Sicht eine ziemlich dumme und unüberlegte Aktion. Unabhängig davon ob AMD höhere Stückzahlen einer Grafikkarte mit ungefähr gleicher Leistungsfähigkeit wie die der 3080 liefern kann: Im schlimmsten Fall fallen solche Aussagen einem aus unterschiedlichen Gründen noch kräftig auf die eigenen Füße und im besten Fall wirkt es einfach arrogant bzw. kindisch. Von jemandem auf solch einem Posten sollte man eigentlich eine andere Art der Kommunikationsfähigkeit erwarten können.
 
  • Gefällt mir
Reaktionen: engineer123, Alpha.Male und noxon
Mich würde es freuen wenn AMD zwischen 2080ti und 3080 stechen kann, und dort mit mehr Vram und einem günstigeren Preis, die Schwächen wie fehlendes DLSS ausgleichen kann.

Im Idealfall auf Augenhöhe mit der 3080, mit mehr Vram, evtl. etwas weniger Stromhunger, und lieferbaren Custom Karten für 700-800 Eur.

MfG
 
@Cohen:
I am looking forward to hearing from you.
I am looking forward to seeing you.

Es heißt zusammenhängend "looking forward to" und dann gefolgt von dem Verb in ing-Form.

Du kannst natürlich auch sowas sagen wie "I am looking forward to the concert". Bei Verben muss allerdings immer die ing-Form genutzt werden.

Für uns Deutschsprechenden hört es sich falsch an, ist aber grammatikalisch korrekt und m.E. auch die einzig richtige Form.

Edit: Hier noch ein Link zu Cambridge.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und t0mic
  • Gefällt mir
Reaktionen: jemandanders, Otsy, Krautmaster und eine weitere Person
Am ende bin ich heil froh das man hier nicht aus einem Elefanten eine Mücke macht....entspannte Menschen hier, alle schon Feierabend? Da bin ich aber neidisch.

BTT:
Etwas sticheln wird erlaubt sein, wenn AMD liefert was sie versprochen haben und das war bisher nur +50 perf/watt, ist doch alles easy. Alles weitere sind Spekulationen also bleibt mal locker viele hier sind echt etwas zu salty ohne grund.
 
KlaraElfer schrieb:
Es ist ja nicht ohne Grund so, dass Nvidia die 3080 und die 3090 höher getaktet ausliefert.
Insofern wird AMD zumindest bei der reinen Rasterleistung schon mithalten können, würde ich vermuten, zumindest mit 3070 und 3080.


Ich bin gespannt. Davon ist man auch bei der 980Ti ausgegangen, die nach wenigen Wochen die Titan X für Spieler obsolet gemacht hat und kur vor der Fury X kam oder bei der 1080Ti, wo Nvidia kurz vor Vega die 1080 kräftig im Preis gesenkt hat und durch die 1080Ti für das gleiche Geld ersetzt hat.

Mal sehen. Ich bin mir nicht so sicher, was Nvidia wirklich weiß und was nicht. Sie werden anhand der als sicher geltenden Specs aber sicherlich ihre Schlüsse gezogen haben. Wenn AMD es nicht ganz vermasselt, wird man mit den Specs zumindest relativ nahe kommen und davon wird Nvidia sicherlich auch ausgehen. Ob es AMD dann wirklich gelingt... mal schauen.

Ich denke aber auch, dass Nvidia die Karten wegen der eigenen Konkurrenz so ausgequetscht hat. Das Todesurteil der 2080 (super) war am ende, dass sie halt nur minimal besser als die 1080Ti bei weniger Speicher war.

Bei 5-10 % weniger Leistung wäre eine Custom 2080Ti nicht so weit weg gewesen, wie sich Nvidia das sicherlich wünscht. Besonders unter 1440p. Sie wollten die 3080 als neues Gaming Aushängeschild vermarkten und da musste man sich deutlicher von der alten Generation abheben.

Timesless schrieb:
Mich würde es freuen wenn AMD zwischen 2080ti und 3080 stechen kann, und dort mit mehr Vram und einem günstigeren Preis, die Schwächen wie fehlendes DLSS ausgleichen kann.

Dürfte ein realistisches Ziel werden.

Timesless schrieb:
Im Idealfall auf Augenhöhe mit der 3080, mit mehr Vram, evtl. etwas weniger Stromhunger, und lieferbaren Custom Karten für 700-800 Eur.


Nur bei der Verfügbarkeit der Customs mache ich mir Sorgen. Mal schauen, wie lange es diese Generation dauert. In dem Punkt hat Nvidia die Nase vorne. Aber mal sehen. Ende des Jahres oder Q1 2021 dürften bei halbwegs gut verfügbar sein und sollten auch als Customversion lieferbar sein. Beim Preis bin ich gespannt.
 
  • Gefällt mir
Reaktionen: Laphonso
Affenzahn schrieb:
Den scheinbar verwendeten MT61K256M32JE-19 hab ich auf die schnelle nirgends gefunden, aber:
MT61K256M32JE-14:A dafür. Das scheint aber normaler GDDR6 zu sein, kein "x". Unit Price: $9.11468 für ein 8GB Modul?!
40$ für 32GB GDDR6. Als Endkunde bist für den kompletten Riegel dann wohl bei 250$.
Überseh ich was? Ist das echt so billig?

Den Preis gibts bei einer Abnahme ab 1200 Stück. Und ja... Das ist so "billig".
Nach oben hin, wirds aber leider immer gleich unverhältnismäßig teurer.
Zumal GDDR6x ein custom- Chip ist.

Zudem kommt dann noch der wirklich unangenehme Kostentreiber drauf. Die Bitbreite des Speicherinterfaces und dessen Aufbau (Signallaufwege) um die Signalflanken bei den hohen Taktraten sauber zu halten.
Zudem muss die Thermik passen.
 
  • Gefällt mir
Reaktionen: noxon und Affenzahn
Shoryuken94 schrieb:
Bei 5-10 % weniger Leistung wäre eine Custom 2080Ti nicht so weit weg gewesen, wie sich Nvidia das sicherlich wünscht. Besonders unter 1440p. Sie wollten die 3080 als neues Gaming Aushängeschild vermarkten und da musste man sich deutlicher von der alten Generation abheben.

Die KOnsolen sind sicherlich auch noch ein Faktor, Corona eventuell auch.
 
  • Gefällt mir
Reaktionen: Shoryuken94
KlaraElfer schrieb:
Ich würde das eigentlich auf die Probleme mit den Abstürzen der Customs reduzieren, denn wer erwartet von AMD schon einen wesentlich geringeren Stromverbrauch?
Erinnert man sich noch an Hot-Clock von Fermi. Da war die Idee, dass die Shader auch wesentlich höher Takten um an Fläche und Shader-Anzahl zu sparen und die Auslastung zu erhöhen, da weniger Shader belastet werden müssen. Klingt von der Idee großartig, leider war nur der Verbrauch dann auch exponentiell hoch. Deshalb was Nachfolger dann so "effizient", weil man das Feature gestrichen hat und neue Fläche für mehr Shader verwendet hat.
Jetzt hat Ampere das neue 64 FP, 64 Int oder 128 FP. Es muss sich erst zeigen wie sich das Entwickelt und wenn man Ampere mit Turning vergleicht, dann merkt man schon eine Effizienzsteigerung, die kommt aber mehr durch die bessere Fertigung plus, je Anwendung, wie gut die Shader skalieren. Es wird hier vornehmlich Samsung der schwarze Peter zugeschoben, ohne zu wissen, wie Ampere eigentlich ist. Das werden die paar Tests aktuell noch nicht zeigen, sondern zukünftige Games.

Kurz, NV kann sich auch verfahren, es ist nicht unmöglich, immerhin ist die Entscheidung zur Umsetzung der Hardware nicht gestern, sondern vor Jahren passiert.
AMD hingegen sieht man RDNA 2 hoffentlich Lösungen von Problemen die man mit GCN hatte. Viele Shader, die teils im Leerlauf waren, und nicht optimal ausgelastet. Kann also sein, dass AMD noch weitere Optimierungen zur Auslastung hat. DualCU hat die Effizienz gegenüber GCN bereits stark gestiegen und auch 32 Bit Wavefronts statt 64, und so , wie es NV aktuell macht.

Ehrlich gesagt, sehe ich mit der 3090 paar Analogien zu Hawaii nur wesentlich schöner verpackt. Die war nämlich in hohen Auflösungen auch schneller, super in Anwendungen und mehr Performance durch mehr Verbrauch.
Aber man hat gemerkt, dass wenn es um Auslastung geht, man da mit GCN anscheinend an eine Grenze kam.
Deshalb würde mich nicht überraschen, wenn die 3070 die beste Karte von allen Drei wird. Auf die bin ich sehr gespannt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Abwarten und Tee trinken. Was zählt ist auf´m Platz. Und wenn die RX6000 im Vollausbau in Nähe der 3070/3080 rauskommen sollte hat AMD für meine Begriffe dann einen sehr, sehr guten Job gemacht. Der Preis, na ja, AMD hat auch nix zu verschenken. Ich möchte mich einfach nur nicht über den Tisch gezogen fühlen. Wer erwartet das AMD jetzt den Preisbrecher spielt wird sicher enttäuscht sein (und hat dann wahrscheinlich auch schon vergessen wer die Preise getrieben hat).
 
Puscha schrieb:
Du kannst natürlich auch sowas sagen wie "I am looking forward to the concert". Bei Verben muss allerdings immer die ing-Form genutzt werden.
Was andeutet das es bei der -ing Form sich wohl um die Substantivierung und nicht die Verlaufsform handelt.
 
  • Gefällt mir
Reaktionen: Colindo und Puscha
Nur blabla was keinen weiter bringt. Einfach den Launch abwarten.
 
95° Betriebstemperatur!
Tmax sind 105° - trotzdem noch auweia.
 
Affenzahn schrieb:
Den scheinbar verwendeten MT61K256M32JE-19 hab ich auf die schnelle nirgends gefunden, aber:
MT61K256M32JE-14:A dafür. Das scheint aber normaler GDDR6 zu sein, kein "x". Unit Price: $9.11468 für ein 8GB Modul?!
40$ für 32GB GDDR6. Als Endkunde bist für den kompletten Riegel dann wohl bei 250$.
Überseh ich was? Ist das echt so billig?

Ja, bzw. nein. Das von dir verlinkte Modul hat nicht 8GB sondern 8 Gb - ein kleines b bedeutet bit nicht Byte ;-)
das ist im übrigen auch die Standardangabengröße bei Speicherchips aller Art


edit: @.Sentinel. nein, so "billig" ist er auch wieder nicht...
 
  • Gefällt mir
Reaktionen: Affenzahn
Affenzahn schrieb:
Micron gibt den GDDR6X übrigens mit max. 95° an. Wie viel hat Igor doch gleich am Hotspot gemessen?

Aus dem Datenblatt:
Operating temperature (0°C ≤ TC ≤ +95°C)

95° Case Temperature. Igor hat die Silizium Temperatur gemessen. Das ist ein großer Unterschied.
 
  • Gefällt mir
Reaktionen: Affenzahn
AMD hat nichts, deshalb Fail.

Casillas schrieb:
Das erinnert mich irgendwie an "Intels massive Hochfrequenzkerne"

k.A. wie Du zu speedy oder wie der Kollege heißt da ne Verbindung herstellst, "Intels Hochfrequenzkerne"
bringen ja per se keinen signifikanten Boost gegenüber den 3000er von AMD, sind also Marketing BlaBla.

Bei Control steigt demgegenüber die Framerate um bis zu Faktor 2 verglichen ohne DLSS.
Die Technik entscheidet also ob ein Spiel mit 30 fps oder sehr flüssig gespielt werden kann
oder ob ein Spiel überhaupt flüssig gespielt werden kann.

Im Gegensatz zu "Intel-Kernen" macht das Feature also einen Tag- und Nachtunterschied aus.
Das ist signifikant und kann mit gutem Grund einen Kaufgrund darstellen.
 
Marcel55 schrieb:
Und da ist das Problem. Die einen Spieleentwickler arbeiten nur mit NVidia zusammen und damit ist DLSS exklusiv. Andere bieten vielleicht was von Microsoft an was man dann mit AMD und wahrscheinlich auch NVidia Karten nutzen können wird. Aber mit AMD Karte schaut man bei Spielen die nur DLSS können in die Röhre.
Da DLSS ja in Zukunft mit jedem Spiel funktionieren soll, welches bereits TAA bietet, glaube ich nicht, dass da so viel Aufwand nötig wäre, damit AMD genau da ebenfalls ansetzen kann.

Trotzdem bin ich kein Freund von der Vorstellung, dass in Zukunft in den Optionsmenüs haufenweise Punkte ausgegraut sind, weil man nicht Karte X oder Y hat, obwohl die Punkte dann am Ende teilweise das gleiche machen.
 
  • Gefällt mir
Reaktionen: noxon und .Sentinel.
SothaSil schrieb:
Und man sollte vermeiden, sich an gefühlten Tatsachen messen zu lassen. Deswegen wäre Ich da an seiner Stelle vorsichtiger gewesen.

ja, die Aussage war nicht nur nicht klug, sie war evtl. sogar....
 
Zurück
Oben