News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

@Baal Netbeck
Ich kann dich verstehen. Langsam schaukelt sich die Erwartung einiger Richtung 3090.
Deshalb meinte ich auch, die Treiber zeigen Taktrate, geben aber höchstens eine Orientierung und Takt alleine sagt auch nicht unbedingt etwas aus.
IPC ist unbekannt. Einzig 50% performance/Watt ist bekannt.
Der Vergleich zur 3070 wiederum verstehe ich nicht. Bisher gibt es eigentlich keinen Test und die 3080 ist auch nicht konsistent in jedem Spiel deutlich schneller als eine 2080 Ti (OC).
Im Allgemein würde ich einen vergleich deshalb zur 2080Ti OC vorziehen und da gab es bei OpenVr bei einer Messe genau einen Leak. Vermutlich unabsichtlich. Im selben Zeitfenster kam aber auch das Gerücht des 505 mm^2 chips. 17% schneller als eine 2080ti OC und das ist mehr oder weniger Nahe der 3080.

Mein Tipp, durch die DualCu wird die Auslastung besser als bei GCN und auch Treiber soll es ja dann die Umstellung auf RDNA geben (32 thread Wavefront). Aber ja Erfahrungswerte mit RDNA1 fehlen.
Trotzdem meine ich dass dir RDNA2 GPU im Mittel weniger Schwankungen in den Titeln haben wird, als es aktuell bei Ampere der Fall ist und sich mehr wie Turning verhält.
Am Ende bedeutet das, in einigen Titel erreicht man die 3080 nicht, in anderen aber schon. Auch RDNA hatte bereits Vorteile gegenüber Turning, besonders bei den mininal fps. Bei der 3070 halte ich eine bessere Auslastung der Shader für möglich. Wer weiß vllt ist sie in worst Case Szenario gegenüber der 3080 nicht wesentlich langsamer.

Die 3070 könnte am Ende sogar die beste Ampere GPU werden.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Taxxor schrieb:
Aus meiner Sicht ist die CU Skalierung der einzige Knackpunkt, der entscheidet, ob man über die 3080 kommt oder nicht.
Speicherbandbreite ist auch wichtig.....
Eventuell machen sie das mit mehr Cache oder besserer Steuerung wieder wett, aber wenn doppelt so viele FPS gerendert werden sollen, müssen auch die Datenmengen schneller bereit gestellt werden....eventuell nicht doppelt so schnell, aber selbst die Radeon VII mit 1TB/s zeigt noch gute Leistungssteigerungen wenn man den HBM2 weiter übertaktet(Meiner ist leider entäuschend).

......und die Energieeffizienz.... denn wenn die nicht deutlich besser wird, haben doppelt so viele CUs mit höherem Takt, auch einen mehr als doppelt so hohen Verbrauch....ich gehe davon aus, dass sie besser wird...wie auch die IPC deutlich besser werden wird....aber wie viel kann doch keiner von uns sagen und es sind unbekannte Knackpunkte, die das Ergebnis stark beeinflussen können

Versteh mich nicht falsch.....ich freue mich, wenn die 3080 geschlagen wird...und dass AMDs Spitzenmodell nur die 3070 erreicht, ist extrem tief gepokert.....aber ich sehe hier halt wieder die gleichen Anzeichen wie vor dem Vega Start....und dann vor dem Navi Start.

Beide Male wurde im Vorfeld die Rohleistung diskutiert und sich vorgestellt, wie eine 1080 TI bzw. 2080 Ti geschlagen wird, aber dann kehrte die Ernüchterung ein....

Das beide Produkte am Ende über den Preis ihre Kunden gefunden haben und insgesamt nicht schlecht waren, ist nicht das, was in Erinnerung bleibt.

In Erinnerung bleibt die Entäuschung, weil sich viele aus den Gerüchten nur das mitgenommen haben, dass sie sehen wollten und daraus eine übertriebene Erwartungshaltung aufgebaut haben.
Ergänzung ()

pipip schrieb:
Einzig 50% performance/Watt ist bekannt.
Das ist in der Vergangenheit schon öfter Teil von AMDs Angaben gewesen und auch nie gelogen.

Aber da der Verbrauch von CPUs und GPUs grob quadratisch mit der Spannung läuft, kann man sich das fast beliebig hinbiegen.
Man vergleicht die performance/Watt von Chip A am ineffizienten Maximum und nimmt von Chip B die gemäßigten Taktraten, die mit weniger Spannung und viel effizienter laufen.

...Das kann auch in der Praxis stimmen, aber wenn Chip B dann selbst am Limit läuft, muss es nicht mehr stimmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979
Baal Netbeck schrieb:
Der anliegende Takt hängt stark vom Spiel ab....
Darum ist es ja auch eine max. Boost Abgabe. :D
Die gesenkte TDP und Boosttakt deuten für mich eher darauf hin das die Junction Temperatur die höhere Angabe ohnehin einkassiert hatte. Hotspots dürften das große Problem sein. Gab es schon etwas vergleichbares zum orginalen Pad zu kaufen? Das schien mir gerade im bezug auf die Hotspot Problematik einen besseren Job als Paste gemacht zu haben.

Des weiteren ging es um die Skalierung der Hardware, dafür dürfte der Treiber kaum eine Rolle spielen.

Warum sollte es ach so unrealistisch sein wenn man sich auf AMDs Aussage von "50% mehr FPS pro Watt" beziegt und vom derzeitigen Top Modell ausgeht das seitens der Taktfrequenz schon nicht mehr im sweet spot sitzt? Einen Teil der Steigerung könnte man bereits mit einer besseren Taktbarkeit erzielen, ein Teil kommt von Verbesserungen am Fertigungsprozess und ein Teil würde natürlich auch von IPC Verbesserungen kommen. Selbst wenn man die Hotspot Problematik lösen könnte würde das mit Sicherheit was bringen (geringere Temperaturen, geringerer Strombedarf) aber das zähle ich zur Taktbarkeit.

Ich messe AMD ausschließlich anhand ihrer Aussagen die sie bei den letzten Releases ja recht gut eingehalten oder gar übertroffen hatten. Mit Berechnungen zur Einheitenskalierung beziehe ich mich auf die erste Navi Generation weil die Architektur noch am nächsten dran sein müßte.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Baal Netbeck
Wadenbeisser schrieb:
Darum ist es ja auch eine max. Boost Abgabe.
Ja...das hält einige hier in den Kommentaren nicht davon ab, Rohleistungen mit 2050-2500MHz als Basis zu berechnen, und diese mit Nvidia zu vergleichen.
Wadenbeisser schrieb:
Die gesenkte TDP und Boosttakt deuten für mich eher darauf hin das die Junction Temperatur die höhere Angabe ohnehin einkassiert hatte.
Jain ....der Takt ist auch vorher schon Temperaturabhängig, aber erst ab 109°C TJunction throttled die Karte richtig.
Das ist Stock nicht ganz erreicht worden, aber mein Chip ist von der eingepflegten Stock Spannung so "mittelschlecht" gewesen....1134mV max(wenn ich mich recht erinnere...könnten auch 1082mV gewesen sein).
Es gibt auch schlechtere Karten, die bestimmt schon Stock throttlen(oder in schlecht belüfteten Gehäusen sitzen), aber auch einige die besser sind als meine und teilweise 50-100mV weniger anlegen.
Meine konnte ich auf 994mV undervolten.....und ich habe sie wegen den lauten Lüftern auf Waku umgebaut.

Das die TDP gesenkt wurde, nehme ich ihnen nicht grundsätzlich übel....Ich stimme dir zu, dass die Karte Stock zu heiß lief und man zumindest die schlechteren Chips so in absehbarer Zeit "verloren" hätte.
Ich finde es nur schade, dass es nicht kommuniziert wurde und ich es erst gemerkt habe, als ich ein paar Messungen Stock und OC nachholen wollte und der Takt nicht stabil war....selbst mit +20%TDP war nur noch 1850MHz stabil zu bekommen, wo die Karte am Anfang um die 2GHz erreicht hat.
Ich musste mir so ein Tool von Igor runter laden und die alte TDP wieder einstellen um dann wieder das alte OC fahren zu können.

Da ich sie im Alltag undervoted beteibe habe ich auch kein schlechtes Gewissen, sie ab und zu für Tests ans Limit zu bringen.;)

Wadenbeisser schrieb:
Ich messe AMD ausschließlich anhand ihrer Aussagen die sie bei den letzten Releases ja recht gut eingehalten oder gar übertroffen hatten.
Das stimmt....AMD ist da sehr konkret wenn es um Versprechungen geht :daumen: .....wenn man auch manchmal genau ins Kleingedruckte gucken muss.;)
Aber sie zeigen numal auch tendenziell den best case.... wie den 3700X mit 65W gegen den 9900K in Cinebench.
Ebenbürtig bei viel weniger Verbrauch(alles wahr) und die Gerüchteküche hier bei CB hat sich überschlagen und gemutmaßt, was dann erst das 105W Modell erreichen wird....und in der Praxis ist der 3800X kaum schneller und nicht zu empfehlen......5GHz waren "confirmed" usw.

Wir werden da wohl nicht zur gleichen Einschätzung kommen....meine sind in der Regel recht pessimistisch. ;)
Aber schön, dass man mit dir gesittet Diskutieren kann. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrNejo
Baal Netbeck schrieb:
Ja...das hält einige hier in den Kommentaren nicht davon ab, Rohleistungen mit 2050-2500MHz als Basis zu berechnen, und diese mit Nvidia zu vergleichen.
Darum beschränke ich mich auch nur auf die Benchmarks der Referenz 5700XT im Verhältnis zur Shader Verdoppelung und angegebene Effizienzsteigerung und setze das ins Verhältnis zum möglichen Konkurrenzprodukt. :freaky:
Die Boost Taktraten sind bei allen Variabel weshalb man das ohnehin nicht als fixen Faktor sehen kann, recht sicher dürfte aber sein das die neuen Modelle höher takten als die erste Generation. Weshalb ich das weitestgehend ignoriere? Das kann bereits Teil der 50% Rechnung sein also schön den Ball flach halten.

Zum Thema VII, die GPUs hatten scheinbar eine recht große Streuung was z.B. den Verbrauch anging und deshalb wäre ich eher vorsichtig was Werte aus Tests angeht die ohnehin hart an der Grenze waren. Die Specs müssen schließlich den ganzen Tolleranzbereich abdecken. Aber selbst wenn der Verbrauch der Karte gleich war, eine minimal schlechtere Wärmeverteilung im Chip und schon drosselt die Karte weil die Junction Temperatur in die Obergrenze rauschte. Hier war die VII wohl eher eine Gradwanderung.

Vond er Senkung der Werte hatte ich übrigens garnichts mitbekommen, da war mir die Geschichte um die anfangs fehlende UEFI Unterstützung und die entgegen der bis dahin kommunizierten Angaben bei Release verdoppelte DP Leistung dann doch deutlich wichtiger. OC hatte mich wegen der ohnehin schon grenzwertigen Junction Temperatur ohnehin nicht interessiert. Da hatte ich lieber mit dem auto UV vom Treiber rumgespielt und den Turbo den Rest machen lassen.
Das war eben eine Karte die mit der ganz heissen Nadel gestrickt wurde und mit Sicherheit nicht von Anfang an eingeplant war. Spass hatte ich damit dennoch. :D

Beim 3800X konnte man leider recht gut sehen das der schon zu weit aus dem sweetspot raus war und für die höheren Taktraten zu viel Spannung benötigte. Da ist dann auch klar warum die Verlustleistung explodiert. An eine "5 GHz confirmed" Aussage seitens AMD kann ich mich wiederum nicht erinnern. 🤔
Ergänzung ()

Auf die Schnelle habe ich zu dem 5 GHz Thema bei Zen 2 nur das gefunden:
https://www.gamestar.de/artikel/amd...balfoundries-erwartet-5-ghz-takt,3326890.html

Das wäre aber weder eine Aussage von AMD noch vom entsprechenden Auftragsfertiger denn der ist für die Chiplets mit den Kernen TSMC. Den eigenen 7nm Prozess hatte man ja eingestampft.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wadenbeisser schrieb:
Das war eben eine Karte die mit der ganz heissen Nadel gestrickt wurde und mit Sicherheit nicht von Anfang an eingeplant war. Spass hatte ich damit dennoch. :D
Ich hatte auch Spaß.... Ich konnte auch die teils verdoppelten fps/Watt im Vergleich zu meiner vega64LC nachstellen.
Aber sie war halt aus der Not geboren, im Gespräch zu bleiben bis Navi endlich gekommen ist.

Wadenbeisser schrieb:
An eine "5 GHz confirmed" Aussage seitens AMD kann ich mich wiederum nicht erinnern. 🤔
So war das auch nicht gemeint.
AMD hat nur den 3700X gezeigt und nichts zu den Taktraten verraten.
Dass der 3800X mit 105W viel besser sei, und irgendwer geheime Nachrichten mit angeblichen 5GHz versteckt haben soll, ist allein aus der Fantasie der Gerüchteküche entstanden.

Wie im Grunde doch auch alles was zu big navi bekannt ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
Baal Netbeck schrieb:
Darüber, dass ich es trotz (hoffentlich) verbesserter (Spiele)IPC, für unrealistisch halte, dass AMD mal eben die Leistung einer 5700XT verdoppelt....und das ohne eine 400W Karte daraus zu machen.
Kommt darauf an, wovon wir genau sprechen und welche Parameter man anlegt. Es ist nicht unrealistisch, dass AMD mit BigNavi die Leistung verdoppelt, es kommt aber auf die Szenarios an und da gibt es welche, bei denen es eher zutreffen kann und es gibt Szenarios wo es nicht zu treffen kann.

Man muss hier beachten, dass ein Workload nicht nur von der Engine als ganzes abhängt oder dem Treiber, sondern dass auch andere Faktoren wie Auflösung, Detailfülle und Co mit reinspielen und darüber auch bestimmen wie viele Daten wie anfallen.

Ob sich die »Leistung« verdoppelt - dank Takt, mehr CU und IPC-Steigerung - hängt von vielen Faktoren ab und es wird sich von Spiel zu Spiel unterscheiden und genau das ist hier mit ein Problem bei vielen Mutmaßungen, auch auf Twitter und Co.

Baal Netbeck schrieb:
Aber Rechenleistung muss irgendwo her kommen....und da sehe ich das Ziel(Erwartung der meisten Kommentare hier) die RTX 3080 zu schlagen nur als möglich an, wenn wirklich alles super läuft für AMD:
Du solltest dich in dem Fall nicht zu sehr auf die Rechenleistung »fixieren«. Theoretisch müsste eine RTX 3080 um die RTX 2080 Ti Kreise ziehen, wenn man nur nackt auf die Rechenleistung schaut, tut sie aber nicht.

Warum habe ich bereits ein paar mal, auch hier bereits erläutert und das hat nicht nur etwas damit zu tun, dass Ampere bei »Turing-Workloads« sich nicht wirklich absetzten kann, sondern auch damit, dass man selbst in FP lastigen Workloads seine SM nicht so ausgelastet bekommt, wie man denkt. Man siehe sich hier die Benchmarks von Doom: Eternal an, dass als FP »lastig« gilt. Thereotisch müsste hier die 3080 statt im Mittel 20 - 30% vor der 2080 Ti ganze 100 % liegen, tut sie aber nicht und warum? Genug »Threads« kommen auf der SM an, dass man die beiden 64er Blöcke »nutzt«, aber es kommen nicht genug Daten pro Block an. Die Daten, die pro Block ankommen, hängen vom eigentlichen Bild und dessen Auflösung ab und in welchen Bereichen welche Shader gefordert werden. Es kommen eben - selbst bei FP lastigen Workloads - nicht immer pro Block 64 Werte zusammen, sondern immer eine Summe 1 - 64. Früher bei Kepler kamen auch nicht immer 192 Werte pro »SM« zusammen und bei Maxwell nicht 128 Werte pro SM. Deswegen hat ja Maxwell trotz nominell weniger Shader mit Kepler den Boden gewischt. Immer dran denken: Je breiter ich pro »Befehl« werten muss, um so komplizierte wird es den Befehl wirklich auszulasten.

Mich würde es ehrlich gesagt nicht wundern, wenn wir bei NVIDIA in der nächsten Generation entweder eine etwas feinere Granulierung der Cuda Cores innerhalb der SM sehen, sprich statt 2 * 64 eben 4 * 32 oder kleinere SM mit 2 * 32 und dafür mehr SM.

Baal Netbeck schrieb:
Da ich nicht glaube, dass AMD alles hinbekommt, wird entweder die Leistung nur mit der 3070 konkurrieren oder es gibt andere Gründe, warum es nicht das erträumte "Super-Angebot" sein wird.
Auch hier kommt es drauf an. Die 3070 ist alleine von Anzahl der ALUs her für AMD kein wirkliches Problem. Hier stehen 4888 gegenüber 5120. Beide Grafikkarten brauchen für eine »optimale« Auslastung 2 Befehle pro SM/CU, da sind wir bei gleichen Bedienungen.

Aber ja, es wird Spiele geben, bei denen die 3070 mit BigNavi durchaus den Boden wischt, die gab es aber schon immer, im Großen und Ganzen ist die 3070 jedoch kein wirklicher Gegner für Big Navi.

pipip schrieb:
Ich kann dich verstehen. Langsam schaukelt sich die Erwartung einiger Richtung 3090.
Was aber auch primär durch die Community hier erfolgt, oder irgendwelche Hardware-Youtuber, die nicht wirklich Ahnung haben.

Das realistische Ziel für BigNavi ist die RTX 3080. Die 6900 XT wird zwischen der 3070 und der 3080 landen und je nach Spiel und Auflösung mal näher bei der 3070 und mal näher bei der 3080. Es wird dabei Ausreißer nach Oben geben und nach unten.



pipip schrieb:
Mein Tipp, durch die DualCu wird die Auslastung besser als bei GCN und auch Treiber soll es ja dann die Umstellung auf RDNA geben (32 thread Wavefront). Aber ja Erfahrungswerte mit RDNA1 fehlen.
Die DualCU oder "Working Group Processor" WGP ist ein Puzzleteil der Auslastung, das andere Puzzelteil ist die Umstellung auf Vec32 gewesen, sodass man nur noch zwei unabhängige Befehle pro CU hat.

Ich hab letztens mit Polaris als auch Vega gespielt in OpenCL und mir die Wave16 , 4 Befehle pro CU, Wave32, 2 Befehle pro CU und die Wave64, 1 Befehl pro CU, noch mal gesehen und weder Polaris noch Vega mögen die Wave32 noch die Wave64 wirklich, es scheint so, dass diese Befehle immer nur auf einer der Vec16-Alus ausgeführt werden, statt auf allen 4, wie man vermuten könnte. Ich hab da den Verdacht - auch in der »Gerüchteküche« zu finden - dass da auch die »Hardware« ein »Knacks« hat, da die größeren Befehle immer länger brauchten, als wenn ich die Daten auf den 16er-Befehl verteilt haben.

Geht man über die »Wave16«, braucht man massig »Befehle« für die CU und das wird ja auch überall beschrieben, dass man für eine optimale Auslastung bei Vega mit 64 CU eben 256 Threads brauchte um sie wirklich auszulasten. Bei RDNA sind es dank der Vec32 nur noch 2 Befehle und damit »2« Threads. Müsste auch malö schauen, ob Wave64 bei RDNA nun wie erwartet auf beiden Vec32 ausgeführt wird, oder der Knacks immer noch da ist.

Mit der WGP muss ich auch mal genauer schauen, wie die sich auswirkt. Ah wieder soviel experimentieren und sowenig Zeit.

pipip schrieb:
Trotzdem meine ich dass dir RDNA2 GPU im Mittel weniger Schwankungen in den Titeln haben wird, als es aktuell bei Ampere der Fall ist und sich mehr wie Turning verhält.
Wird auch so sein, da man nur 32 Werte pro Befehl pro CU als auch WGP zusammen bekommen muss und RDNA2 damit auch wesentlich flexibler auf gemischte Workloads reagieren kann.

Nehmen wir mal jetzt die WGP und die SM - beide 128 ALUs - dann ergibt sich bei einer 3/4 FP-Berechnung und 1/4 INT-Berechnung bei der WGP der Vorteil, dass man hier threotisch in einem »Takt« alle Werte abgeknuspert bekommt, während Ampere hier 2 Takte braucht, weil sich das 1/4 INT-Berechnung 50 % der ALUs schnappt.

Ansonsten gilt auch hier: Pro Befehl 32 Werte zusammenzubekommen ist einfacher als 64 Werte. ;)

pipip schrieb:
Am Ende bedeutet das, in einigen Titel erreicht man die 3080 nicht, in anderen aber schon.
Realistische Einschätzung, wobei ich denke, dass es auch von der Auflösung abhängen wird.

pipip schrieb:
Bei der 3070 halte ich eine bessere Auslastung der Shader für möglich. Wer weiß vllt ist sie in worst Case Szenario gegenüber der 3080 nicht wesentlich langsame.
Man muss hier etwas unterscheiden. AMD hatte mit GCN das Problem genug Befehle für die CUs zusammen zu bekommen, es waren aber genug Werte da. NVIDIA hat bei Ampere genau das andere Problem: Es kommen zwar genug Befehle, aber nicht genug Werte zusammen.

pipip schrieb:
Die 3070 könnte am Ende sogar die beste Ampere GPU werden.
Da stimme ich dir aber absolut zu.
 
  • Gefällt mir
Reaktionen: Wichelmanni, LukS, Taxxor und 5 andere
Für mich steht und fällt der Erfolg mit einer Antwort auf DLSS.
Fällt AMD dazu nichts ein ist für mich die Wahl klar. DLSS ermöglicht mir hohe FPS und eine niedrige Latenz, das mir persönlich sehr wichtig ist. Ob die tatsächliche Leistung nun 5 Prozent über oder unter der 3080 liegt ist dabei irrelevant. DLSS 2.0 ist ein großer Gamechanger und für mich auf meinen 165HZ, bzw. 240HZ Gsync/Freesync Bildschirmen der entscheidende Faktor. Unter 120 FPS ist für mich einfach nicht "flüssig". Bei 1440p komme ich da jedoch je nach Game ohne DLSS nicht hin. AMD braucht nicht nur eine Antwort, es muss auch von den Engines implementiert werden. Ideal wäre natürlich, wenn man dazu kompatibel wäre.
Ergänzung ()

ampre schrieb:

Flüge weniger, es wird ja vor dem Checkout noch geprüft.
Hotels werden absichtlich "überbucht" weil die Hoteliers Angst vor zu niedriger Auslasungen haben. Zumindest auf Fuerteventura ist es so, das die Hotels Verträge bzw. Absprachen mit Hotels in der Umgebung haben um ggf. die Gäste zu verlegen. Man kann eine Bestellung schon gegen Verfügbarkeit prüfen, ist kein Hexenwerk.
Aber ja, der Ansturm auf Reisen ist nicht so hoch wie auf GPUs zu Release. Reisen sind dafür sehr viel komplexer. Transfer, Zug-Ticket, Mietwagen, Flug, Zimmer und Verpflegung.
 
Verbrauch:
selbst wenn RDNA2 im Verbrauch nur leicht unter 30xx bleibt, dafür aber die extremen Lastspitzen der 30xx vermeidet, brächte das für die Netzteil-Anfoderung einiges

DLLS:
kann nicht verstehen warum hier einige so drauf abfahren. Für mich total überhyped und ich denke nach der Vorstellung einiger ausgewählter (von NVidia bezahlten) Games wird das Thema wieder in der Nische verschwinden wie bisher auch.

Verfügbarkeit:
bei so vielen neuen Produkten (CPUs, GPUs, Konsolen) die nahezu gleichzeitig eingeführt werden und - nach aktueller Gerüchtelage - alle deutlich besser als die Vorgängergenerationen werden, muss die Nachfrage das Angebot zwangsläufig übersteigen. Schätze das wird sich erst nach dem Weihnachtsgeschäft bessern.
 
Visionmaster schrieb:
DLLS:
kann nicht verstehen warum hier einige so drauf abfahren. Für mich total überhyped und ich denke nach der Vorstellung einiger ausgewählter (von NVidia bezahlten) Games wird das Thema wieder in der Nische verschwinden wie bisher auch.
Du denkst also ein Feature, welches >50% Performance bringen kann ohne die Bildqualität zu verschlechtern bzw. teilweise sogar zu verbessern, verschwindet in einer Nische.:D Naja mal schauen wie diese Sichtweise die Zeit überdauern wird, in meinem Bekanntenkreis jedenfalls wird es entweder schon benutzt (um von 4K Medium mit 40FPS auf 4K fast Maximum mit 60FPS zu kommen bspw) oder es ist ein sehr wichtiges Kriterium bei der Auswahl der zukünftigen GPU. Es ist nicht das Einzige, aber ein wichtiges nichtsdestotrotz und sicherlich nichts was in einer Nische verschwinden wird und AMD wird sicher in Zugzwang kommen zumindest etwas ähnliches vorzustellen.
 
Für DLLS wird von AMD zu angemessener Zeit ein Counterpart kommen und RTX scheint stärker als bei Turing auszufallen, ergo wohl, wenn überhaupt kaum schwächer als bei der 3080, da muss man sich keine Sorgen machen.
Wenn es nur um den optischen Eindruck ohne das die Bildqualität dabei verschlechtert wird geht, gibt es schon jetzt intelligente Alleinstellungsmerkmale wie z.B.: Radeon Boost das eigentlich viel zu wenig Beachtung findet.
Allerdings wird es ebenso wie DLLS zur Zeit nur von zwei Handvoll an Titeln unterstützt.
Radeon boost.png
 
  • Gefällt mir
Reaktionen: jemandanders
ArrakisSand schrieb:
Wenn es nur um den optischen Eindruck ohne das die Bildqualität dabei verschlechtert wird geht, gibt es schon jetzt intelligente Alleinstellungsmerkmale wie z.B.: Radeon Boost das eigentlich viel zu wenig Beachtung findet.
Boost hat den Fehler, das hat offiziell nichts mit Künstlicher Intelligenz zu tun. DLSS ist zwar auch nicht wirklich Intelligent, es scheint aber eh niemanden zu stören, das es nur um (von Programmierern) mehr oder weniger intelligent implementierte Algorithmen handelt. ;)

Wenn Du Erfolgreich sein willst, sag einfach deine Arbeit beruht auf KI / AI. Dann wird dir alles abgekauft.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Radeon Boost ist einfach nur dynamic resolution scaling mit nem etwas anderem Algorithmus. Das hat absolut 0 in nem Vergleich mit DLSS zu suchen.

Zum einen ist DLSS statisch, zum anderen ist der Sinn hinter DLSS die Bildqualität zu erhalten und dabei mehr fps zu bekommen.
Der Sinn hinter Radeon Boost ist mehr fps zu bekommen, wenn die Reduzierung der Bildqualität am wenigsten auffällt.

Radeon Boost ist viel eher vergleichbar mit Variable Rate Shading. Hier wird ebenfalls die objektive Qualiät an Stellen reduziert, welche subjektiv nicht so sehr auffallen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@TheDarkness Und das Ergebnis ist am Ende des Tages min. ähnlich.
Schalte ich noch die "Radeon Bildschärfen" Funktion zu, muss ich mir echt Mühe geben da noch größere Unterschiede zu finden.
Ich hab mir mal ein paar Vergleiche angeschaut und muss sagen, DLSS (2) bringt Details teilweise wirklich besser hervor. Ja.
Es ist aber eigentlich nicht so, das ich das auf den ersten Blick sehen würde sondern eher wenn ich das Bild anhalte und nach Unterschieden suche.
DLSS allein wäre für mich bis jetzt jetzt nicht der Grund weswegen ich jetzt unbedingt eine Ampere Karte haben müsste.
Nebenbei, mal abwarten, was bei der Präsentation am Mittwoch gesagt / gezeigt wird. Die Karten werden ja eh ganz neu gemischt. Die Konsolen werden auch mit irgendetwas zum erhöhen der Bildrate arbeiten. Würde mich wundern, wenn AMD da komplett außen vor stände. Schließlich ist der AMD Ansatz bisher immer so angelegt gewesen, das sie nicht wie Nvidia ihr eigenes Süppchen kochen, sondern ihre Arbeit eigentlich immer der breiten Masse verfügbar machen.
 
@Summerbreeze
Min. ähnlich? Bei beiden hat man mehr fps, wow so ähnlich. Sagst wahrscheinlich auch ne 1080 und 3080 sind ähnlich schnell, wenn beide gleich viel fps liefern, während die 3080@can it run crysis und die 1080@high läuft. Den Unterschied sieht man ja nur im Standbild.
Sowohl Umsetzung als auch Resultat sind gänzlich verschieden.

Beinahe jedes Konsolenspiel läuft mit dyn. res. Und ein paar billige Filter übers Bild zu legen ist in keinster Weise vergleichbar. DirectML wird nicht umsonst entwickelt. Aber deiner Meinung nach ist das ja das gleiche wie die Auflösung zu reduzieren und nen Filter drüber zu legen.

Wenn man keine Ahnung hat sollte man nicht 2 grundverschiedene Technologien aufs selbe Level stellen und meinen der einzige Unterschied wäre Marketing.
 
Summerbreeze schrieb:
Boost hat den Fehler, das hat offiziell nichts mit Künstlicher Intelligenz zu tun. DLSS ist zwar auch nicht wirklich Intelligent, es scheint aber eh niemanden zu stören, das es nur um (von Programmierern) mehr oder weniger intelligent implementierte Algorithmen handelt. ;)

Wenn Du Erfolgreich sein willst, sag einfach deine Arbeit beruht auf KI / AI. Dann wird dir alles abgekauft.

Informiere Dich mal etwas wie diese Algorithmen entstehen. Diese erstellt nämlich eben die besagte KI in den Nvidia Rechenzentren.
Mag KI in der Vergangenheit ja viel Marketing blah blah gewesen sein, ist es heute wirklich phänomenal, was KI berechnen kann.
Wer sich dafür interessiert, dem empfehle ich den channel "two Minute paper" auf Youtube.
 
ArrakisSand schrieb:
Für DLLS wird von AMD zu angemessener Zeit ein Counterpart kommen...

Aha. Jetzt behaupte ich auf der gleichen Quellenlage wie du: Für DLLS wird von AMD in absehbarer Zeit kein Counterpart kommen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
TheDarkness schrieb:
Beinahe jedes Konsolenspiel läuft mit dyn. res. Und ein paar billige Filter übers Bild zu legen ist in keinster Weise vergleichbar.
Das ist schon klar, das es zwei verschiedene Ansätze sind. Und?
Deshalb musst ja nicht gleich Pampig werden, nur weil bei AMDs Ansatz keine Rechenzentren im Hintergrund bemüht werden.
Das Ergebnis ist und bleibt für mich min. ähnlich.
Die FPS werden in eine Spielbaren Bereich geliftet und die Details verbessert / hervorgehoben. Evtl. spucken die Nvidia Karten etwas höhere FPS aus. Kann ich aber nicht beurteilen, weil ich da noch nicht drauf geachtet habe. Ist mir aber eigentlich auch Egal solange mich meine Bildschirmausgabe soweit zufrieden stellt.
Wenn ich unbedingt auf einem 4K Bildschirm 144+x FPS möglichst mit RT haben muss, dann wird wohl in den nächsten paar Wochen kein Weg an Nvidia vorbei führen. Alles andere wird man sehen.
Ich schaue auf den Bildschirm und nicht in den Rechner oder in die Nvidia / AMD Whitepapers und geile mich an der verwendeten Technik auf.
Scheinbar ist für viele hier aber ohnehin der Weg das Ziel. ;)
 
Zurück
Oben