News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

mylight schrieb:
Es führt gar kein Weg an Raytracing vorbei, das weiß jeder der sich mit 3D auskennt. Was hat AMD da eigentlich zu bieten? Würde mich wundern, wenn AMD kein "RTX" und kein DLSS bietet, das sind eigentlich die 2 wichtigsten Features der nächsten Jahre.

kein großer Aufwand RTX - Effekte reinzukloppen, daher sehe ich den Untergang von RTX absolut nicht, ganz im Gegenteil der Spass fängt jetzt erst an :)

AMD hinkt in diesen Bereichen wohl hinterher...

erstebs Sie werden RT bieten, zweitens RT an sich wird nicht untergehen und „wichtig“ ist relativ für eine ordentliche RT umsetzung ist auch die 3000ender Siere zu schwach auf der Brust, das dauert noch einige Gens bis es tatsächlich soweit ist, ob man jetzt mitziehen muss? Wenn man SP spielt ja kann man machen für MP ist es uninteressant 🤷🏻‍♂️

Untergehen wird eine proprietäre Lösung siehe physiks od. Gsync das immer mehr durch den Vesa Standard verdrängt wird. Auf lange sicht gesehen wird das mit RT von NV auch passieren das es vereits eine standard Api gibt mit DX 12 Ultimate somit für Entwickler einfacher zu implementieren. Darauf wird es hinauslaufen.
 
  • Gefällt mir
Reaktionen: Rockstar85, Colindo und mylight
mylight schrieb:
Selbst für Indiestudios ist es kein großer Aufwand RTX - Effekte reinzukloppen, daher sehe ich den Untergang von RTX absolut nicht, ganz im Gegenteil der Spass fängt jetzt erst an :)
Nur das es wohl eher nicht unter dem Kürzel RTX kommen wird, sondern einfach nur als Raytracing, weils in den APIs nativ mit drin ist. Ich vermute das RTX irgendwann wieder verschwindet, aber Raytracing wird bleiben.
 
  • Gefällt mir
Reaktionen: Kodak, Otsy, Benji18 und eine weitere Person
BlackRain85 schrieb:
Währenddessen überlege ich mal, was mit Einführungen neuer GPU´s bahnbrechend für die allgemeine Performance war... ich meine jetzt nicht irgendwas wie T&L etc. sondern Features die sich auf alles ausgewirkt haben.

1998 - S3TC (heute DXTC)
1998 - 3dfx SLI
1999 - DDR RAM (Geforce 256)
2001 - Tilebased Deferred Renderer (heute HSR)
Die ersten mir bekannten TBDR Karten waren die PowerVR Karten die gegen die gegen den Voodoo Graphics chip antraten und bereits 1996 auf den Markt kamen.
https://de.wikipedia.org/wiki/NEC_PowerVR_PCX
 
patrickschur schrieb:
Warum so negativ eingestellt? Ich habe euch nichts getan und nach Likes betteln tue ich auch nicht. Ich habe lediglich das wiedergegeben was mir eine AMD nahe Quelle zugeflüstert hat.

Ja, ich auch ;)

Mir ist es im Grunde egal was Leute auf Twitter schreiben oder Leaken oder was auch immer.
Man sollte es sich halt als Magazin 2x überlegen ob man das als News/Artikel/Meldung/whatever bringt.
Computerbase hat mal in einem anderen Fall eine News verweigert. Wenn ich ein besseres Gedächtnis hätte, wüsste ich auch noch worum es ging.

patrickschur schrieb:
Wenn du dir andere Leaker anschaust, findest du auch keine Quellen bzw. wird dort auch öfters von internen Quellen geredet.

Ach, na das ändert natürlich alles. Dann ist meine Prognose übrigens auch echt. Erwartest doch nicht dass ich meine Quellen nenne, oder? Wenns nicht zutrifft ist übrigens meine Quelle schuld. Ich bin immer noch vollkommen integer und poste auch weiterhin "Informationen" aus "Quellen".

patrickschur schrieb:
Dann kann ich auch gleich aufhören Informationen über AMD Hardware zu posten.

Informationen oder unbelegte Spekulationen?
 
Benji18 schrieb:
Untergehen wird eine proprietäre Lösung siehe physiks od. Gsync das immer mehr durch den Vesa Standard verdrängt wird.
Und gerade bei Physiks ist das an sich für uns Spieler ärgerlich. Also das es verschwindet - denn Physiks konnte man zu echtem Mehrwert in Spielen bringen... Aber um Physik Effekte ist es generell sehr ruhig geworden...
Gibt es da ein offenes Pendant dazu?
 
.Sentinel. schrieb:
Das stimmt so nicht- Deliver us the moon+ Wolfenstein youngblood haben diese Bewegungsartefakte z.B. nicht.

dafür dann nen überschärftes bild... sry, solange DLSS(2.0) keine qualität wie nativ abliefert isses für mich -der immer alles auf rechts stellt, wegen maximaler BQ- absolut nutzlos...
 
  • Gefällt mir
Reaktionen: manfredham
.Sentinel. schrieb:
Kommt auf die Workload an. IPC heisst ja auch nicht pro Takt, sondern per Cycle.
Und der kann sich je nach Architektur und Rechenoperation auch auf mehrere Takte erstrecken.

na fast.

Die Maßeinheit Instructions per Cycle (IPC; deutsch Instruktionen pro Zyklus[1]) bezeichnet die Anzahl der von einem Prozessor in einem Taktzyklus ausgeführten Befehle.

Der IPC-Wert (der durch ein arithmetische Mittel gebildet wurde) mal der Taktfrequenz gerechnet ergibt die Anzahl der ausgeführten Befehle pro Sekunde.

Zu beachten ist, dass einige Hersteller mit einem „Cycle“ oder „Taktzyklus“ nicht die Periodendauer des Taktsignals, sondern ein Vielfaches davon meinen (siehe Double Data Rate).
https://de.wikipedia.org/wiki/Instructions_per_Cycle

Was du meintest war vermutlich eher die CPI (cycles per instruction).
 
  • Gefällt mir
Reaktionen: Bright0001, Cpt.Willard und Wichelmanni
Wo kann man die " Navi 21 XE " leistungstechnisch einordnen?
 
Summerbreeze schrieb:
Ganz ehrlich? 2.4 GHz Durchschnittstakt glaube ich nun wirklich nicht. Als Boost, vielleicht....
Ohne Hypen zu wollen, Gaming-Takt und Boost sagt auch nichts aus. Es kann genauso sein, dass Gaming Takt jetzt deutlich höher ausfällt und einfach nahe dem Boost Takt ist.
Die PS5 taktet bei 2,23 GHZ und soll laut Sony den Takt halten! Das spricht dafür, dass der Chips selbst wesentlich mehr schaffen müsste.
https://www.xboxdynasty.de/news/xbox-series-x/stromverbrauch-geringer-als-bei-xbox-one-x/
Und wenn man das hier glaubt, verbraucht die XBOX X Series 165 Watt und ähnlich viel wie der Vorgänger, wobei das auch daran liegen könnte, dass da noch keine "next Gen Games getestet wurden".

Die ersten Leaks über den Apple Treiber, hatten auch hingedeutet, dass die Taktraten nicht eindeutig als Turbo zu verstehen sind. Aber natürlich ist es "sicherer", konservativer vorzugehen.
Ich würde die Zahlen einfach mal als Zahlen abtun. Denn selbst wenn es Base Takt wäre, oder Gaming-Takt, sagt das am Ende noch nichts über die Performance aus.

XTR³M³ schrieb:
dafür dann nen überschärftes bild... sry, solange DLSS(2.0) keine qualität wie nativ abliefert isses für mich -der immer alles auf rechts stellt, wegen maximaler BQ- absolut nutzlos...
https://www.pcgameshardware.de/Wiss...ersampling-DLSS-Alternative-Facebook-1359762/
Erste Konkurrenz kommt ja schon und wie gesagt, ich erwarte mir, dass MS selbst früher oder später auch etwas vorstellen wird, bzw das bei Konsolen durchaus etwas geben wird.
 
  • Gefällt mir
Reaktionen: XTR³M³, czmaddin und Cpt.Willard
Novasun schrieb:
Und gerade bei Physiks ist das an sich für uns Spieler ärgerlich. Also das es verschwindet - denn Physiks konnte man zu echtem Mehrwert in Spielen bringen... Aber um Physik Effekte ist es generell sehr ruhig geworden...
Gibt es da ein offenes Pendant dazu?

Das Thema ist schlicht, Nvidia hätte was daraus machen können statt dessen hat man nur einen proparitären SW Müll konstruiert anstatt daraus einen Offenen API Standard zu entwickeln. Damit war es nur eine Frage der Zeit bis dieser vom Markt verschwindet. Genau das selbe mit Gsync od. den RT effekten (wobei gott sei dank MS da eingegriffen hat um einen offenen API Standard zu entwickeln)
 
  • Gefällt mir
Reaktionen: cbmik und Rockstar85
GerryB schrieb:
Erst wenn DLSS 2.0 unabhängig vom Game nur per Treiber und auch überall in Ultrawide sauber funzt, ist Dies ne abrechenbare Technologie.(gerade für 3440x1440)
Noch eleganter gehts anscheinend demnächst für die Oculus Rift:
Neuronales Supersampling: DLSS-Alternative von Facebook

Nach m.E. eine sinnvolle Lösung "ohne" Tensorcores. Da kann man die freiwerdende Chipfläche anderweitig nutzen. Und man kommt weg von propertitären Lösungen.
Wir brauchen nen vernünftigen Ersatz für TAA(x) und einfach nur im Treiber ON, für olle Games dann am Besten
auch wirksam.

(x) Mit der neuen Hardware wie Ampere und BN kann man ja mal am WQHD-Moni ein olles Game in 5k@TAA off anschauen. Da hat man auch ohne DLSS gleich ein Bild vom anderen Stern.(ohne verwaschene Texturen)
weil
Ich glaube net, das viele olle Games im Nachgang DLSS 2.0 erhalten.(4k@DLSS1.0 sah ja nur aus wie 1800p)

btw.
RIS zum Nachschärfen der Texturen ist schon ne feine Sache. (und wurde als nichtpropertitäre Lösungen allen Gamern zugänglich gemacht in den entspr. Games)
Das Manche(Taxxor) darauf verzichten wollen ist mir unverständlich. Ob nun Deathstranding so eine tolle Grafikreferenz ist, das man sich Darüber streiten müsste ist soundso zweifelhaft.
(PS4-Konsolenport hat halt seine Grenzen; So ein Müll gehört auch net in den Benchmarkparcour, wo jetzt wohl sogar 2x Games mit der selben Engine sind=DS+HZD= überbewertet; stattdessen net mal mehr im Parcour BF V, why? Ist die Frostbite-Engine dem Redakteur net so wichtig wie der PS4-Kram. Da könnte man sich demnächst Consolenbase nennen.)

Deswegen ist für ältere AMD-Hardware weiterhin RIS+CAS (bzw. Trixxboost) ne feine Sache.() spart viel W.

edit:
Weil ich mich über olle Games echauffiert habe:
https://www.techpowerup.com/273527/ubisoft-brings-a-collection-of-older-titles-to-google-stadia
Da bin ich ja mal gespannt, ob Die dann Alle mit Vulkan laufen.
(Es ist einfach unglaublich wie lang Es dauert bis VLK in ausreichendem Maße bei den Studios umgesetzt wird.
Da braucht man sich auch net über Hardware streiten, wenn aus Bequemlichkeit immer noch DX11-Crap in Größenordnungen produziert wird. Bei der Hardware alle 2 Jahre NEUES wollen aber bei der Software wird 10 Jahre Stillstand hingenommen = unverständlich.)

Der größte Humbug ist für mich Crysis Remastered. Damit RT(+DLSS demnächst) halbwegs funzt wird auf bewegte Blätter und Grashalme verzichtet. Das ist ggü. FC1 ein echter Rückschritt. Dort war übrigens die Beleuchtung auch net schlecht.
edit: Patch v.1.2.0 scheint RT bei der Vegetation nochmals verringert zu haben.(errinnert an BF V)
siehe Anhang (die Angabe der 5% ist evtl. sinnvoll für die Spielbarkeit, wäre net schlecht auch bei CB-Reviews)

RX 6000, zwecks Verfügbarkeit scheint ein AMD-Leaker sehr optimistisch zu sein:
 

Anhänge

  • BN packed at boxes.jpg
    BN packed at boxes.jpg
    154,4 KB · Aufrufe: 383
  • CRv120.jpg
    CRv120.jpg
    183,8 KB · Aufrufe: 335
Zuletzt bearbeitet:
d0xs schrieb:
Ich frage mich, ob der Onkel und seine Neffin, bei Familientreffen über ihre Produkte reden.
(NVIDIA + AMD)
Das Wort heißt Nichte ;)
 
  • Gefällt mir
Reaktionen: Kodak, cbmik, ChrisM und 10 andere
Sephiroth51 schrieb:
Igor der Graue oder schon der Weiße? 😂
Der Prophet schlechthin, alles nur Erfahrungen und am Ende zusammengetragene Gerüchte die man sich selbst auch zusammenreimen kann und tut.
Er lag ebenfalls oftmals falsch, daher auch interessant, dass er immer öfter als Beweis erscheint.

Man wird sehen, die Indizien sprechen für sich bzgl. der 3070 wegen der Verfügbarkeit.

Bei AMD ist man wiederum pessimistisch. Würde mich aber nicht überraschen, wenn AMD da besser Punkten kann, der 7nm Prozess sollte nicht mehr die Probleme machen, auch wenn es eine neue Maske ist.
Man wird sehen möglich das man die Preise auch von vornherein etwas anhebt um die Nachfrage etwas zu begrenzen.

Da haste recht, ich bin zu großen Teilen auch deiner Meinung nur ist es sehr wahrscheinlich das die 3070 lieferbar sein wird, deshalb würde sie ja verschoben und die ausbeute wird auch besser sein.
 
Ich frage mich, wie diese Specs technisch gehen sollen. Kaum höheren Stromverbrauch, dabei doppelte Chipgröße und ein Mördertakt von 2,4ghz + , der alles zum Kochen bringt? Halte ich für unwahrscheinlich. Klingt nach clickbaitfake.
Bin gespannt, was letztlich tatsächlich möglich ist.
 
Neuer Monitor ist unterwegs. Jetzt fehlt nur noch die passende Grafikkarte mit entsprechendem Preis, TGP etc.
 
  • Gefällt mir
Reaktionen: Ray Donovan
Selber schrieb:
Nur das es wohl eher nicht unter dem Kürzel RTX kommen wird, sondern einfach nur als Raytracing, weils in den APIs nativ mit drin ist. Ich vermute das RTX irgendwann wieder verschwindet, aber Raytracing wird bleiben.
Ich wäre mir da nicht so sicher, denn das Wort Ipad hat das Wort tablet ja auch verdrängt.
So sagen viele Leute hast du ein Ipad ja eins von Samsung.
Und nicht nein ich habe kein Ipad sondern ein Tablet von Samsung.

Und so wird es bei Nvidia auch sein.
RTX als Bezeichnung dafür wird bleiben aber die Technologie dahinter wird sich verändern.
 
Krautmaster schrieb:
Hat AMD zwischenzeitlich einen Auto Treiber Updater oder sowas? Bei Nvidia lass ich seit Jahren den Treiber Auto Updaten.
Ja. Kannst aussuchen was er installieren soll. Stable, Beta oder nichts.
foo_1337 schrieb:
Dazu kommt, dass es nahezu unmöglich ist, an eine x86 Lizenz zu kommen, außer AMD, Intel, oder VIA zu kaufen. Und selbst wenn z.B. AMD gekauft werden würde, müsste der Name beibehalten werden. Die Lizenz ist ziemlich restriktiv.
Hättest Du da mal Informationen, wo man das nachlesen könnte? Interessiert mich schon länger.
pipip schrieb:
Die PS5 taktet bei 2,23 GHZ und soll laut Sony den Takt halten! Das spricht dafür, dass der Chips selbst wesentlich mehr schaffen müsste.
Der Chip ist aber auch ein gutes Stück kleiner als der angebliche BN. So einen angedachten Brummer muss man auch erst einmal auf die Drehzahl bekommen.
Oder, dieses Bild ist doch keine komplette Spinnerei? :D Das hab ich vor Wochen von Twitter gespeichert
.Navi_21_Prinzipskizze.jpg
pipip schrieb:
https://www.pcgameshardware.de/Wiss...ersampling-DLSS-Alternative-Facebook-1359762/
Erste Konkurrenz kommt ja schon und wie gesagt, ich erwarte mir, dass MS selbst früher oder später auch etwas vorstellen wird, bzw das bei Konsolen durchaus etwas geben wird.
Ganz sicher. Ist wohl bisher oft übersehen worden?
ML xbox_2.jpg
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Benji18, pipip und eine weitere Person
@Summerbreeze
dein Ansatz schaut gut aus, RDNA 3 soll doch schon ein Chiplet Design sein wenn ich mich an die AMD Folien zurückerrinnere, könnte durchaus was drann sein an dem ganzen. Das wäre dann aber Vorrausgesetzt wenn die Leistung stimmt schon ein ordentlicher Schlag weil es die Produktionskosten massive reduziert und damit auch einen ordentlichen Preiskampf zulassen würde.
 
Benji18 schrieb:
Soweit bekannt ist hat AMD mit Sony und Microsoft an einer Technik gearbeitet Bandbreite zu Sparen um die Leistung eines großen Interfaces rauszubekommen. Wer weis was da wirklich rausgekommen ist, aber wenn AMD da was abliefert das mit NV mithalten kann und dabei weniger Strom verbraucht why not?
Würde mich freuen.. aber es gab schon ähnliche Anstrengungen seitens AMD, die leider nichts gebtacht haben. Vielleicht klappt es ja diesmal. Blöd wäre halt, wenn die Technik nur bei angepassten Titeln funktioniert. NV, hat ja gerade massiv die Bandbreite erhöht, was zuletzt immer eine Domäne von AMD war. Warten wir mal ab, bisher sind es ja alles nur Gerüchte.
 
  • Gefällt mir
Reaktionen: Benji18
Zurück
Oben