Du weißt schon das nicht alle Chinesen die gleiche Sprache haben. Han und Ming ist dir ein Begriff?xexex schrieb:Das betrifft mit Sicherheit einige Cafés in Indien und anderen asiatischen Ländern, nur eben nicht in China was hier immer wieder genannt wird. Es gibt dort strikte Vorgaben an die sich legale "Internet Cafés" zu halten haben und man kann dort nicht mal eben installieren wonach man lustig ist.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten
- Ersteller SVΞN
- Erstellt am
- Zur News: GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten
Der Nachbar
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 7.061
@GHad
Das ist halt der Bonus und Ruf, den ein Unternehmen unter seinen Nutzern aufbaut und hat.
Wer als ATi Nutzer mit einer R300 in die 3D Welt einstieg, wird es ähnlich sehen und ich kenne noch die ATi RAGE Karten, die manchmal gar keinen Spaß machten und die nvidia FX ging auch an mir vorüber.
Mit dem AMD und Duron habe ich ja auch das bessere Potenzial erlebt und bin lange bei AMD dabei. Aber die Produkte waren nichts für unerfahrene Selberbauer und ich hätte auch nicht alles blind gekauft, was ich auch bei der ersten ZEN Generation nicht tat.
Mit der Vega 56 stehe ich heute selber auf dem Kriegspfad und die CGN 5 Architektur ist wirklich schlecht gealtert. Dabei habe ich die VEGA lange nach der Einführung für etwas bessere Videobearbeitung gekauft und habe gleich beim damals aktuellen Treiber nach dem Kauf in eine grüne Videovorschau geschaut. Gab es leider auch bei der VII.
Die Vega Treiber sind bis heute an verschiedenen Stellen kaputt. Der Mehrwert war zu enttsäuschend um Freude am Basteln zu haben. An der ATi Radeon 9600 habe ich aber gerne mal gebastelt und wäre es glaube ich eine Radeon 9500 geworden, hätte ich sicher die PS/VS freigeschaltet.
Aber ich bin nicht auf Hersteller fixiert, wenn das Produkt die versprochene Leistung liefert und momentan rennt mir der Kauf nicht davon, wenn nvidia Karten nicht wirklich im Regal liegen und ich die Entwicklung weiter betrachte. Trotzdem, die RTX3080 würde ich jederzeit gegenüber einer Vega bevorzugen, weil es im Vergleich nicht schlimmer enden kann und die VEGA selbst auf dem UV Bios läuft. Ob die RTX dann bei 1900Mhz bei der Leistung abschließt würde mich nicht stören, wenn ich genügend treiberseitige Bluescreens mit der VEGA hatte um das Produkt als Totalschaden zu deklarieren. Der neueste AMD Enterprisepro Treiber als letzter Versuch lässt das ZEN+ System nicht sauber runter fahren, was auf die letzten Adrenalin 2020 auch zu traf und da gab es auch zwischendurch einen Treiber, der Anwendungen mit abschmieren lies. Vielleicht liegt es aber auch im Wechselspiel mit der älteren Windows Version und den ZEN Treibern und das ist mir momentan zu viel "Versuch und Fehler" Bastlerei.
Das ist halt der Bonus und Ruf, den ein Unternehmen unter seinen Nutzern aufbaut und hat.
Wer als ATi Nutzer mit einer R300 in die 3D Welt einstieg, wird es ähnlich sehen und ich kenne noch die ATi RAGE Karten, die manchmal gar keinen Spaß machten und die nvidia FX ging auch an mir vorüber.
Mit dem AMD und Duron habe ich ja auch das bessere Potenzial erlebt und bin lange bei AMD dabei. Aber die Produkte waren nichts für unerfahrene Selberbauer und ich hätte auch nicht alles blind gekauft, was ich auch bei der ersten ZEN Generation nicht tat.
Mit der Vega 56 stehe ich heute selber auf dem Kriegspfad und die CGN 5 Architektur ist wirklich schlecht gealtert. Dabei habe ich die VEGA lange nach der Einführung für etwas bessere Videobearbeitung gekauft und habe gleich beim damals aktuellen Treiber nach dem Kauf in eine grüne Videovorschau geschaut. Gab es leider auch bei der VII.
Die Vega Treiber sind bis heute an verschiedenen Stellen kaputt. Der Mehrwert war zu enttsäuschend um Freude am Basteln zu haben. An der ATi Radeon 9600 habe ich aber gerne mal gebastelt und wäre es glaube ich eine Radeon 9500 geworden, hätte ich sicher die PS/VS freigeschaltet.
Aber ich bin nicht auf Hersteller fixiert, wenn das Produkt die versprochene Leistung liefert und momentan rennt mir der Kauf nicht davon, wenn nvidia Karten nicht wirklich im Regal liegen und ich die Entwicklung weiter betrachte. Trotzdem, die RTX3080 würde ich jederzeit gegenüber einer Vega bevorzugen, weil es im Vergleich nicht schlimmer enden kann und die VEGA selbst auf dem UV Bios läuft. Ob die RTX dann bei 1900Mhz bei der Leistung abschließt würde mich nicht stören, wenn ich genügend treiberseitige Bluescreens mit der VEGA hatte um das Produkt als Totalschaden zu deklarieren. Der neueste AMD Enterprisepro Treiber als letzter Versuch lässt das ZEN+ System nicht sauber runter fahren, was auf die letzten Adrenalin 2020 auch zu traf und da gab es auch zwischendurch einen Treiber, der Anwendungen mit abschmieren lies. Vielleicht liegt es aber auch im Wechselspiel mit der älteren Windows Version und den ZEN Treibern und das ist mir momentan zu viel "Versuch und Fehler" Bastlerei.
W
Wadenbeisser
Gast
Das wird genauso enden wie GPU PhysX, G-Sync und Co..Sentinel. schrieb:Henne- Ei. Zeig mir die neue Technologie im Grafiksektor, die ab Tag 1 des Erscheinens eine massenweise Verbreitung erfahren haben.
Ich hoffen dennoch, dass nvidia DLSS für AMD öffnet, um die Verbreitung weiter voranzutreiben und die Akzeptanz bei den Entwicklern zu steigern.
Solange es nicht Herstellerübergreifend nutzbar ist wird es irgendwann in der Versenkung verschwinden oder als Nieschenprodukt enden denn die Hersteller haben kein Interesse daran für diese one man show zu zahlen und nvidia irgendwann kein Interesse mehr daran es zu subventionieren. Da DLSS auch noch auf die Tensor Cores angewiesen ist kann man das mit dem Öffnen wohl auch knicken und am Ende setzt sich eine andere, herstellerübergreifende Technologie durch.
Zuletzt bearbeitet von einem Moderator:
yummycandy
Commodore
- Registriert
- März 2005
- Beiträge
- 4.372
Ja und nein. Ich tippe mal drauf, daß für die Konsolenchips schon immer ein eigenes Kontingent vorgesehen war. Und man munkelt ja immer noch, daß AMD den Anteil von HiSilicon bekam, die nicht mehr bei TSMC produzieren dürfen. Apple ist auf N5 gegangen. Auch tippe ich, daß AMD den ganzen Launch verschoben hätte, wenn sie keine Kapazitäten von TSMC bekommen hätten.IBISXI schrieb:Die AMD 7nm Kapazitäten bei TSMC sind halt ausgebucht im Moment:
Renoir, Konsolenchips, Ryzen 3000, EPYC.
Bei den ersten beiden sind Lieferengpässe schon bestätigt worden.
Da gehen auch Stückzahlen über die Theke. (Weihnachtsgeschäft)
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.647
RIS hat mit DLSS kaum etwas gemein...Balikon schrieb:Es gibt wohl eine ähnliche Technik auch bei AMD.
Müssen sie auch nicht. Tensorcores sind nur Einheiten, die bestimmte Rechenoperationen, die in Sachen KI massenweise durchgeführt werden, hardwaretechnisch nochmal mit einem Arschtritt versehen.Der Nachbar schrieb:@.Sentinel.
nvdia wird sicher nicht die Tensorcores für AMD öffnen
Siehe hier den Abschnitt "Spezialisten für Matrixmanipulation
https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/
Das kann AMD genauso, wenn sie entsprechende Schaltungen liefern.
@Entschleuniger2 wieviel luft ist denn da noch zwischen der 5700 nitro und dem boden? genug für ne 2.7 slot karte? die nitro ist ja glaube ich 2.2 pi mal daumen oder?
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.647
Es gibt da einen ganz großen Unterschied. Im Gegensatz zu den von Dir genannten Techniken, greift DLSS Kernprobleme des Rasterns auf, welche auch Kernelemente bzw. einen Hauptkaufgrund für GPUs widerspiegelt:Bildqualität/Performance.Wadenbeisser schrieb:Das wird genauso enden wie GPU PhysX, G-Sync und Co.
Nenne mir nur einen einzigen, der entgegen der Lösungen von PhysX oder G-Sync sagt, dass er nicht gerne mehr und fast "kostenlose" höhere Bildqualität bei teils deutlich erhöhter Performance hätte.
Insofern kann man das nicht vergleichen.
Der Markt wird sich sehr genau überlegen, ob er DLSS nicht als Checkbox- Feature integriert.Solange es nicht Herstellerübergreifend nutzbar ist wird es irgendwann in der Versenkung verschwinden oder als Nieschenprodukt enden denn die Hersteller haben kein Interesse daran für diese one man show zu zahlen und nvidia irgendwann kein Interesse mehr daran es zu subventionieren.
Wenn nicht durch die Engine- Integrationen diese Funktion sowieso nicht schon nativ zur Verfügung gestellt wird.
Der Mehraufwand für eine Integration mit einem Spiel welches von Anfang an mit DLSS geplant wurde, ist minimalst. Und derjenige der nativ spielen will, hat überhaupt keinen Nachteil dadurch, dass DLSS irgendwo integriert ist.
Wie gesagt- Ich hoffe, dass nvidia die Bibliothek und den Inferencing Datensatz für AMD öffnet. Allerdings haben die inzwischen tatsächlich so viel know how öffentlich gestellt, auch was RTRT, Denoising &co anbelangt, dass man auch verstehen könnte, dass es dann irgendwann auch mal genug ist.
Es ist nicht auf Tensor- Cores angewiesen. Es läuft darauf einfach nur besonders schnell.Da DLSS auch noch auf die Tensor Cores angewiesen ist kann man das mit dem Öffnen wohl auch knicken und am Ende setzt sich eine andere, herstellerübergreifende Technologie durch.
Die Tensor Cores führen einfach besonders schnell Matrixmultiplikationen durch und aggregieren diese (siehe auch mein Link weiter oben).
Das kann jede AMD GPU auch. Die Frage ist nur, wie schnell sie das kann.
yummycandy schrieb:Auch tippe ich, daß AMD den ganzen Launch verschoben hätte, wenn sie keine Kapazitäten von TSMC bekommen hätten.
Es existieren schon lange Gerüchte, dass es dieses Jahr von AMD nur das Referenzdesign geben wird. Es existieren auch Gerüchte, wonach Sony viele der Chips wegen nicht erreichten Taktraten nicht benutzen kann und auch die gecancelten Vorbestellungen auf die PS5 sprechen nichts gutes.
Nvidia verdient gutes Geld mit ihren professionellen Lösungen die allesamt bei TSMC hergestellt werden,, da wäre für die Gamingchips vermutlich nicht mehr viel zu holen, unendlich sind die Kapazitäten bei TSMC bei weitem nicht und da wird wie überall auch viel nach Außen beschönigt.
@.Sentinel.
Da hast Du recht. RIS allein hat nichts mit DLSS zu tun. Mein Fehler.
Kombiniert mit Upscaling, das, was @GerryB als "TRiXX-Boost" bezeichnet, macht RIS aber so ziemlich dasselbe, wie DLSS, weshalb Igor Upscaling + RIS schon im letzten Jahr mit DLSS verglichen hat.
Da hast Du recht. RIS allein hat nichts mit DLSS zu tun. Mein Fehler.
Kombiniert mit Upscaling, das, was @GerryB als "TRiXX-Boost" bezeichnet, macht RIS aber so ziemlich dasselbe, wie DLSS, weshalb Igor Upscaling + RIS schon im letzten Jahr mit DLSS verglichen hat.
M
matty2580
Gast
Bisher klingen die Gerüchte sehr gut zu Big Navi.
Da AMD eine deutlich bessere Fertigung bei TSMC nutzt, als Nvidia mit 8nm bei Samsung, was auch nur ein verbesserter 10nm Prozess von Samsung ist, ist AMD selbst bei einer leicht schlechteren Architektur gleich auf mit Nvidias Ampere.
Trotzdem ist der Bereich von Navi 14 viel wichtiger für AMD. Denn hier hat man massiv Marktanteile an Nvidia verloren. Und Nvidia verdient sich nach wie vor mit einer 1650 oder 1660ti dumm und dämlich, wie man bei Steam gut sehen kann. Das ist das Brot,- und Buttergeschäft für Nvidia, wo der Konzern mit massiven Volumen GPUs verkauft.
Wenn AMD in diesen großen Markt nicht rein kommt, werden sie weiter Marktanteile an Nvidia verlieren......
Da AMD eine deutlich bessere Fertigung bei TSMC nutzt, als Nvidia mit 8nm bei Samsung, was auch nur ein verbesserter 10nm Prozess von Samsung ist, ist AMD selbst bei einer leicht schlechteren Architektur gleich auf mit Nvidias Ampere.
Trotzdem ist der Bereich von Navi 14 viel wichtiger für AMD. Denn hier hat man massiv Marktanteile an Nvidia verloren. Und Nvidia verdient sich nach wie vor mit einer 1650 oder 1660ti dumm und dämlich, wie man bei Steam gut sehen kann. Das ist das Brot,- und Buttergeschäft für Nvidia, wo der Konzern mit massiven Volumen GPUs verkauft.
Wenn AMD in diesen großen Markt nicht rein kommt, werden sie weiter Marktanteile an Nvidia verlieren......
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
@Der Nachbar
Man muss ja auch ehrlich sein und NVidia zu gestehen, dass sie mit ihrem Marketing ja auch erfolgreich sind und über weite Strecken auch zurecht. Nur wenn dann Leute wirklich alles ausblenden hört es bei mir halt auf... Fan kommt von Fanatismus, aber letzter geht imho einfach zu weit.
Was ich meine? Lest mal den Thread nebenan mit den "kaputten" NVidia Karten. Da kommen Leute an und fragen ernsthaft nach, welche NVidia Karte von welchem Hersteller sie kaufen sollen...
Wenn man sich das mal durch den Kopf gehen lässt:
Wie kann dann ein normaler vernünftiger Mensch dem Unternehmen XY noch das Geld hinterherwerfen, sogar in einem Fachforum im Probleme Thread nachfragen, welche Variante vom Glücksspiel er besser ausprobieren soll?
Wie soll man da nicht zum Zyniker werden bitte...
Man muss ja auch ehrlich sein und NVidia zu gestehen, dass sie mit ihrem Marketing ja auch erfolgreich sind und über weite Strecken auch zurecht. Nur wenn dann Leute wirklich alles ausblenden hört es bei mir halt auf... Fan kommt von Fanatismus, aber letzter geht imho einfach zu weit.
Was ich meine? Lest mal den Thread nebenan mit den "kaputten" NVidia Karten. Da kommen Leute an und fragen ernsthaft nach, welche NVidia Karte von welchem Hersteller sie kaufen sollen...
Wenn man sich das mal durch den Kopf gehen lässt:
- Hersteller XY bring ein Produkt auf den Markt
- Ein paar Tage später merken erste Kunden, dass das Produkt Fehler aufweist
- Nach und nach kommen immer mehr Bestätigungen herein
- Der Hersteller XY hat wohl Probleme mit der Qualität
- Kauf des Produktes wird zum Glückspiel
- Produkt kann jahrelang fehlerfrei arbeiten oder sofort ausfallen oder nach ein paar Monaten, wenn Bestandteile altern
- Ein anderer Hersteller ZA hat ein ähnliches Produkt angekündigt, dass ein paar Monate später auf den Markt kommt
Wie kann dann ein normaler vernünftiger Mensch dem Unternehmen XY noch das Geld hinterherwerfen, sogar in einem Fachforum im Probleme Thread nachfragen, welche Variante vom Glücksspiel er besser ausprobieren soll?
Wie soll man da nicht zum Zyniker werden bitte...
E
Entschleuniger2
Gast
Destyran schrieb:@Entschleuniger2 wieviel luft ist denn da noch zwischen der 5700 nitro und dem boden? genug für ne 2.7 slot karte? die nitro ist ja glaube ich 2.2 pi mal daumen oder?
Angegeben ist sie als 2,5 glaub ich und es ist noch ein guter cm Platz. Unten ist auch offen, sodass es da keine Probleme geben dürfte.
Edit: Laut InWin darf eine Karte 55mm dick sein.
- Registriert
- Mai 2011
- Beiträge
- 21.320
Balikon schrieb:Da hast Du recht. RIS allein hat nichts mit DLSS zu tun. Mein Fehler.
Kombiniert mit Upscaling, das, was @GerryB als Trixxboost bezeichnet, macht RIS aber so ziemlich dasselbe, wie DLSS, weshalb Igor Upscaling + RIS schon im letzten Jahr mit DLSS verglichen hat.
DLSS 2.0 ist etwas völlig anderes als RIS + Upscaling und die Unterschiede wurden nun auch schon in genug Threads auseinandergepflückt.
Vergleichen kann man die beiden natürlich in ihrem Ergebnis, dabei wird DLSS 2.0 aber immer besser assehen, eben weil es komplett anders funktioniert.
Ergänzung ()
Auf der anderen Seite sieht es aber doch auch nicht großartig anders aus, da werden auch alle möglichen Fehlerbehebungsanleitungen durchforstet, nach Rat von Custom Karten gefragt die bisher am wenigsten Probleme machen, teilweise ganze CPU+RAM OC Konfigurationen über den Haufen geworfen, nur damit die AMD Karte funktioniert, anstatt sich einfach ne Nvidia zu kaufen.GHad schrieb:Wie kann dann ein normaler vernünftiger Mensch dem Unternehmen XY noch das Geld hinterherwerfen, sogar in einem Fachforum im Probleme Thread nachfragen, welche Variante vom Glücksspiel er besser ausprobieren soll?
Ergänzung ()
HBM2e würde mich übrigens tatsächlich fürs Topmodell freuen, aber nicht weil ich nicht an die Wirksamkeit eines guten Cache Systems glaube, sondern aus dem einfachen Grund, dass ich zwei Monitore betreibe und gerne wieder 5W Idle Verbrauch auf der GPU hätte statt 35W
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
@.Sentinel.
Es ändert aber nichts daran das der Hersteller Geld investieren müßte um ein Feature zu integrieren das nur für einen Teil der Kundschaft nutzbar wäre und was passiert wohl wenn es statt über die Tensor Cores über die normalen Shader laufen würde? Schon kostet es wieder Leistung...
Die Alternative zu DLSS ist übrigens eine reguläre GPU Skalierung die auf keine Zusatzarbeiten seitens des Spiele Herstellers angewiesen ist.
Es ändert aber nichts daran das der Hersteller Geld investieren müßte um ein Feature zu integrieren das nur für einen Teil der Kundschaft nutzbar wäre und was passiert wohl wenn es statt über die Tensor Cores über die normalen Shader laufen würde? Schon kostet es wieder Leistung...
Die Alternative zu DLSS ist übrigens eine reguläre GPU Skalierung die auf keine Zusatzarbeiten seitens des Spiele Herstellers angewiesen ist.
- Registriert
- Mai 2011
- Beiträge
- 21.320
Das ist bei RT ja auch nichts anderes, selbst wenn es bald auch mit AMD Karten funktioniert, ist der Anteil der Spieler die es nutzen können werden in den nächsten Jahren erst mal gering.Wadenbeisser schrieb:Es ändert aber nichts daran das der Hersteller Geld investieren müßte um ein Feature zu integrieren das nur für einen Teil der Kundschaft nutzbar wäre
Man könnte auch genauso gut sagen, dass sie unnötig Geld investieren für 4K Texturen und Ultra-Effekte, da diese auch nur von einem geringen Teil der Kundschaft genutzt werden.
W
Wadenbeisser
Gast
@Taxxor
Falsch denn das ist derzeit nur bei einem Hersteller nutzbar weil es nur einer unterstützt aber prinzipiell wäre es für jeden nutzbar. Das Gleiche gilt natürlich auch für deine anderen Beispiele die alle herstellerübergreifend nutzbar sind.
Genau das ist der entscheidene Unterschied zu GPU PhysX, G-Sync, DLSS und Co.
Falsch denn das ist derzeit nur bei einem Hersteller nutzbar weil es nur einer unterstützt aber prinzipiell wäre es für jeden nutzbar. Das Gleiche gilt natürlich auch für deine anderen Beispiele die alle herstellerübergreifend nutzbar sind.
Genau das ist der entscheidene Unterschied zu GPU PhysX, G-Sync, DLSS und Co.
- Registriert
- Mai 2011
- Beiträge
- 21.320
Es ist kein Upscaling Prozess, es ist ein Upsampling Prozess, Da wird nichts hochskaliert und dann aufgehübscht, und es muss auch nichts für die Spiele speziell trainiert werden, das war bei DLSS 1.0 so.Balikon schrieb:@Taxxor DLSS 2.0 ist nicht völlig anders. Es ist weiterhin ein Upscaling-Prozess, der mit einem Algorhythmus aufgehübscht wird. In Spielen, die im RZ trainiert wurden, wird dem Algorhythmus zwar beigebracht, wie er die Szene besonders gut aufhübschen kann. Das ist alles.
Hast du hierfür ein Quelle?xexex schrieb:Es existieren schon lange Gerüchte, dass es dieses Jahr von AMD nur das Referenzdesign geben wird. Es existieren auch Gerüchte, wonach Sony viele der Chips wegen nicht erreichten Taktraten nicht benutzen kann und auch die gecancelten Vorbestellungen auf die PS5 sprechen nichts gutes.
..
Ähnliche Themen
- Antworten
- 502
- Aufrufe
- 33.739
- Antworten
- 125
- Aufrufe
- 25.427
- Antworten
- 136
- Aufrufe
- 18.938
X
- Antworten
- 31
- Aufrufe
- 6.096
- Antworten
- 80
- Aufrufe
- 14.338