Notiz Radeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an

Xaardas schrieb:
ob ich mir nicht doch wieder eine Karte von Nvidia kaufe. Da laufen die Treiber im Gegensatz nunmal deutlich besser

Genau 90Watt beim Video Schauen und zurzeit sieht es bei NV und der RTX30er nicht wirklich rosig aus.

Auch GSync und Hdmi 2.1 geht zurzeit nicht.

Alle kochen nur mit Wasser und meine Saphire hat bis jetzt keine Probleme gemacht. 😉
 
@Xaardas als von dem 16 5700 (xt) nutzt nur eine Person 1 Monitor Setup! Alle Anderen 2 oder (seltener) 3, auch mit Ryzen 3xxx und Intel CPUs funktioniert alles 1A. Waren alles Saphire!
 
  • Gefällt mir
Reaktionen: Beneee und Mcr-King
AMD sollte lieber aufpassen, in der Vergangenheit hatten sie auch schon Paperlaunches.
Wer kann schon sagen ob es diesmal anders wird, denn der Marketing Chef ist nur für eines da, das hat mit der realität meistens nicht viel zu tun.
Denn sie müssen auch Chips für die beiden Konsolen, für ihre neuen CPUs und neuen GPUs fertigen lassen, das sind extrem viele Chips, ich wäre da nicht so selbstsicher seitens AMD.
 
Precide schrieb:
Ist das der gleiche Typ von dem "Poor Volta" stammt? :lol:
Wobei ich wirklich hoffe, dass der von AMD längst gefeuert wurde.
Der damalige Werbeverantwortliche idt mit Raja zu Intel gewechselt, aber Anfang des Jahres hat er Intel verlassen. Die meisten die von AMD zu Intel gegangen sind, sind wieder weg.
Der Typ hier hat Alienware mitaufgezogen und ich sehe ihm auch als Grund, wieso AMD wesentlich besser in Notebooks vertreten ist.

Und er deutet wenn drauf hin, dass man nicht wie NV ein Teaser geben wird (hoffen wir es) der das Bild nicht ganz entspricht. Denn das 8K ist scheinbar Werbung. Oder ist wer anderer Meinung ?
Somit auch die Aussage, 16K werbung werden sie nicht machen. Die Frage ist nur bei der Aussage, wie sieht es mit 8K aus. Aber das lässt er völlig offen. Er sagt im Endeffekt nur, wir werden nichts sagen um nichts unrealistisches zu schüren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WolledasKnäul, Holgmann75 und Mcr-King
Wadenbeisser schrieb:
Da frage ich mich aber immer warum.
@Kacha
Die Leute, die jetzt die Ampere Karten von Nvidia als "enttäuschend" bewerten, fragten sich bei der Radeon VII warum die Karte in den Tests schlecht weg kam. Hm ja, ergibt eigentlich Sinn.
Messen mit zweierlei Maß und so.^^
 
Affenzahn schrieb:
Schade dass 16K Gaming abgesagt wurde, dann kann ich jetzt wohl 3 von den 4K Glotzen zurückschicken
4x 4K Glotzen entsprechen der Auflösung einer 8K Glotze. ;)
 
  • Gefällt mir
Reaktionen: Colindo, Palatas, Holgmann75 und 3 andere
Leider vermute ich hinter der Person Raja2.0

Lisa wird ihm noch für diese Twitts eine gelbe Karte zeigen!
 
Kacha schrieb:
Mit DLSS wird es allerdings nicht kompatibel sein da das eben proprietaer ist. Koennte hoechstens sein, dass Nvidia irgendwann wie bei Gsync umschwenkt.
Und da ist das Problem. Die einen Spieleentwickler arbeiten nur mit NVidia zusammen und damit ist DLSS exklusiv. Andere bieten vielleicht was von Microsoft an was man dann mit AMD und wahrscheinlich auch NVidia Karten nutzen können wird. Aber mit AMD Karte schaut man bei Spielen die nur DLSS können in die Röhre.
 
  • Gefällt mir
Reaktionen: Mcr-King
DocWindows schrieb:
Wenn es so laufen würde wie bei G-Sync, dann unterstützt nVidia lediglich eine zusätzliche neue Upsampling-Technik, ohne jedoch DLSS für andere Zugänglich zu machen. Ich bin mir nicht sicher ob das wünschenswert wäre.

Ich bezweifle, dass Nvidia DLSS fuer irgendwen jemals zugaenglich macht. Das ist IP, so einfach gibt man das nicht her. Aber Nvidia koennte sehr wohl gezwungen sein es kompatibel zu DirectML zu machen auf Druck von Microsoft. Mehr passt nicht in deren Strategie.

Affenzahn schrieb:
Schade dass 16K Gaming abgesagt wurde, dann kann ich jetzt wohl 3 von den 4K Glotzen zurückschicken :(

Der Tweet war eh nicht ganz ernst gemeint. ;)

Affenzahn schrieb:
So in etwa kann ich mir das auch vorstellen.
nV hat den Vorteil dass DLSS schon erprobt ist, aber ein Standard, der von MS durchgedrückt wird, hat gute Chancen sich zu etablieren.

Wuerde am meisten Sinn machen, da Microsoft wohl auch daran interessiert ist. Und die haben die Marktmacht das durchzudruecken.
Die Frage ist ob ihnen der Vorteil gross was bringt oder wieviel es wirklich ist. Wenn AMD und Microsoft da zusammenarbeiten, dann koennte der Vorsprung sehr schnell weg sein. Waere es AMD alleine, dann klar, dann waere Nvidia locker vorne. Aber Microsoft ist halt eine andere Hausnummer.

@KlaraElfer Wer fragt sich das? Die VII war eine Computekarte auf die man "Gaming" geklebt hat um den Gamern irgendwas vorzuwerfen. Mehr war die von Anfang an nicht.

Edit:

@Marcel55 Das wuerde sich aber regeln. Wenn das fuer Entwickler im Direct Komplettpaket ist und ueberall funktioniert, was glaubst du ist verlockender? Zumal das ganze so oder so auf der Xbox schon zum Einsatz kommen wird und dort auch nicht ersetzt werden kann. Kommt alles darauf an wie Microsoft das umsetzt.
 
  • Gefällt mir
Reaktionen: Holgmann75
@KlaraElfer

Der Knackpunkt ist wohl eher warum man von den vorgestellten Produkten enttäuscht ist.
Bei den bisherigen Modellen wurde ganz einfach zu viel versprochen und das obwohl man auf den Verbrauch und die Effizienz gepfiffen hat. Dazu noch einige schön Rechnereien in den Präsentationen und die Nummer war für mich durch.
Bei den Radeons sind die Leute eher enttäuscht weil überzogene Erwartungshaltungen durch Spekulationen nicht erfüllt wurden.
Aber ja, messen mit zweierlei Maß. Die Frage ist allerdings von wem.
 
  • Gefällt mir
Reaktionen: s0UL1
Marcel55 schrieb:
Ich muss sagen was mich tatsächlich etwas mürbe macht ist DLSS bzw. dass das bei AMD einfach fehlt.
Was habt ihr eigentlich alle mit DLSS?
Bei AMD gibts doch auch etwas ähnliches, nur scheint das niemand zu merken?

Radeon Boost und Image Sharpening. Beides zusammen erledigt den gleichen bzw. ähnlichen Job.
Nur müssen dafür wohl keine Rechnerfarmen bemüht werden.
Was die Bildschärfe angeht wurde die Schärfefunktion doch letztes Jahr noch oft als besser als DLSS 1 bewertet.
Ich glaube auch nicht, das AMD das jetzt schlechter gemacht hätte.
Boost funktioniert zwar nicht mit jedem Spiel, das tut DLSS aber auch nicht.
Von daher würde ich mir zunächst mal keine allzu grauen Haare wachsen lassen.

Persönlich hätte ich es aber schon gern gesehen, wenn es für den FS 2020 mal Unterstützung geben würde.
Gerade dort würde es ja was bringen.


Wadenbeisser schrieb:
Bei den Radeons sind die Leute eher enttäuscht weil überzogene Erwartungshaltungen durch Spekulationen nicht erfüllt wurden.
Von daher opimale Bedingungen für AMD. Nur die wenigsten erwarten eine zu NV vergleichbare Leistung.
Kein Vergleich zum Vega Hype.
 
Zuletzt bearbeitet: (Ergänzt)
  • Gefällt mir
Reaktionen: Colindo
Wadenbeisser schrieb:
4x 4K Glotzen entsprechen der Auflösung einer 8K Glotze. ;)
Oh, ups. Stimmt. Schadne (Chutney?!? mmmm, chutney...) über mein Haupt!
Na dann kann ich die ja.. :D

Xaardas schrieb:
Ob das an meinem drei Monitopr Setup liegt oder weis der Geier ist mir egal. Mein Ergebnis ist, dass AMD es in einem ganzen Jahr nicht geschafft hat, die Treiber stabil zu bekommen

Schon mal mit Microsoft Hardware zu tun gehabt?

3 Monitor Setups funktionieren überall mal mehr oder weniger gut. Die einzigen Karten die das bislang durch die Bank gewuppt bekommen haben, waren Quadros.
 
Zuletzt bearbeitet:
Holgmann75 schrieb:
Das war nicht immer so... AMD wurde schon öfter Tot gesagt und sieh wo sie mit Ryzen stehen?

Wo habe ich sie denn totgesagt?
Nur wars die letzten Jahre so, dass AMD über den Preis Punkten konnte und bei der Leistung etwas hinten dran waren

Mit den CPUs ist das nicht vergleichbar. Dort ist viele Jahre einfach gar nichts passiert seitens AMD und sie haben Intel kampflos das Feld überlassen.
 
  • Gefällt mir
Reaktionen: Holgmann75
Summerbreeze schrieb:
Von daher opimale Bedingungen für AMD. Nur die wenigsten erwarten eine zu NV vergleichbare Leistung.
Kein Vergleich zum Vega Hype.
Na ja, vieles beruhte ja auch auf der Hoffnung das die Skalierungsprobleme gelöst werden könnten aber daraus wurde ja leider nichts, es ging am Ende fast nur über die Taktfrequenz und die typischen DX11 Multicore Gurken Spiele hatten unten rum auch noch mangels DX11 Multicore Workaround (nvidia) auch noch mit ihrem CPU Limit zu kämpfen. Ser viel von den überzogenen Erwartungen beruhten aber auf der Hoffnung zum ersten Punkt.
 
  • Gefällt mir
Reaktionen: jemandanders
uiii, scheinen noch ziemlich viele Intel/nVidia-Besitzer schulfrei zu haben....^^

@ Topic:
Bin gespannt was Lisa Su uns nächsten Monat so auftischt.
Ende des Jahres steht ein Neubau an, Da hab ich dann Zeit zum basteln und die "Altteile" in den Tower von einem Freund zu verfrachtren.
Wäre nice wenn bis dahin auch die Mittelklasse-Karten raus sind.
Mehr geb ich einfach nicht mehr aus - daddeln ist mir nicht mehr so wichtig, bzw. meine Prioritäten haben sich die letzten 10-15 Jahre verschoben. :)
RTX3060 dürfte auch nicht vor November zu erwarten sein, gibts ja noch nicht mal ein Datum zur Vorstellung, und die 3070 ist auch erst ab Mitte Oktober kaufbar, sofern es dann von der genügend und leise Customs gibt.
highwind01 schrieb:
Leistungsplus der stärksten Nvidia GPU (RTX 3090) gegenüber der stärksten AMD GPU (RX 5700 XT) => In etwa 100%(!)
Hockerlord schrieb:
Ich vergleiche auch immer die aktuelle Generation, gegen eine alte Generation. Sehr sinnvoll ;)
Joa, und vor allem noch Highend-Chip vs Midrange... ^^
Krautmaster schrieb:
ggf auch nach wie vor Corona Auswirkungen. Und eben hohe Nachfrage.
Also wenn Corona ein Grund wäre,. dann hätte man auch wie viele andere Firmen die Karten verschieben können.
Man wollte aber wohl unbedingt noch vor BigNavi rauskommen; immerhin ist seit einer halben Ewigkeit bekannt dass AMD die Karten "late 2020" bzw.Q4 bringt. Im Oktober beginnt Q4.
Das mit der Nachfrage kann man auch etwas relativieren, wenn so wie auch hier im Forum die Leute 3-5 verschiedene Karten (bzw. eine und die bei jeweils verschiedenen Händlern) bestellen um irgendwann mal eine zu bekommen..
Da sind wir bei 3 potentiellen Käufern gleich mal so um 10-12 Karten.
 
Zuletzt bearbeitet:
Kacha schrieb:
Ich tippe darauf, dass das ganze einfach ueber DirectML laufen wird und damit standardisiert ist. Zum einen weil DirectML von Microsoft kommt, zum anderen weil es in Microsofts Strategie passen wuerde. Mit DLSS wird es allerdings nicht kompatibel sein da das eben proprietaer ist. Koennte hoechstens sein, dass Nvidia irgendwann wie bei Gsync umschwenkt.
DLSS an sich ist grundsätzlich keine Nvidia spezifische Technologie, die speziell an ihre Hardware gebunden ist.
Das kannst du vergleichen mit einem Antialias-Verfahren. Es ist nur ein Algorithmus, den Spieleentwickler zum Beispiel auch selbst entwickeln könnten. Das ist nichts, was wirklich standardisiert werden muss/sollte. Genau so wenig, wie die ganzen verschiedenen Antialias-Verfahren standardisiert sind.

Nvidia bietet hier lediglich eine Bibliothek an, die Entwickler nutzen können um einen DLSS-Algorithmus mit Unterstützung der Tensor Cores durchführen zu können. Was fehlt ist eigentlich eine API für den standardisierten Zugriff auf diese KI-Cores.
Dies wird irgendwann mal DirectML sein, aber ich denke momentan ist das noch nicht wirklich ausgereift genug.
Nvidia Developer Doku schrieb:
There is no switch or button labeled Use Tensor Cores and there are certain constraints by which the model and input data must abide.
DirectML versucht also selbst zu bestimmen, wo die Sachen zu berechnen sind und ich kann mir gut Vorstellen, dass man damit nicht die optimale Performance hinbekommt, als wenn man es manuell über CUDA macht.
Deswegen wird Nvidia auch kein DirectML nutzen, sondern geht über ihre eigenen Schnittstellen. Ist einfach performanter und man hat mehr Kontrolle.

Ein besser ausgereiftes DirectML könnte aber in Zukunft die Schnittstelle sein über die auch AMD ihren DLSS Algorithmus berechnen wird. So ist dann jeder in der Lage eine hardwarebeschleunigte DLSS-Implementation zu schreiben. Davon gäbe es dann wahrscheinlich genau so viele Variationen wie Antialias-Verfahren heute und sie würden alle auf jeder Hardware laufen.

Soweit ist AMD aber noch nicht und da stellt sich die Frage, was sie momentan ohne dedizierte KI-Hardware tun können. Sie können zwar eine Bibliothek anbieten die den DLSS-Algorithmus auf den Shader-Cores berechnet, aber da stellt sich natürlich die Frage, ob das überhaupt Leistungsvorteile mit sich bringt. Schließlich nutzt es kostbare Shaderleistung, die man auch gleich zum Rendern der höheren Auflösung hätte verwenden können. Außerdem sind Shader bis zu 90% langsamer als potenzielle KI-Cores beim maschinellen lernen. Eine DLSS Lösung ohne dedizierte Hardware wird also wenig Sinn machen.

@Summerbreeze
DLSS 1.0 war absolut unzureichend und genau das sind AMDs verfahren auch. Warum das so ist und warum DLSS 2.0 deutlich besser ist erfährst du hier.

Kurz gesagt. DLSS 1 und RIS versuchen Anhand eines einzelnen Bildes zu "erraten", wie das größere Bild auszusehen hat. DLSS 2 aggregiert tatsächlich zuvor gerenderte Daten aus mehreren Bildern um das hochskalierte Bild zu generieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232
@gustlegga

klar wollte man das. Ist ja auch verständlich. Und es schadet ja auch keinem hier. Es hätte auch keinem was gebracht wenn die Karte erst eine Woche vor Big Navi rausgekommen wäre - zumal man auch nicht weiß ob AMD Big Navi erstmal zeigt und wie viel Zeit dann bis zum Handel vergeht. Vielleicht zeigt man nur die Technik, who knows.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
KlaraElfer schrieb:
Die Leute, die jetzt die Ampere Karten von Nvidia als "enttäuschend" bewerten, fragten sich bei der Radeon VII warum die Karte in den Tests schlecht weg kam.

Interessant was Du immer alles weißt.
 
Zurück
Oben