News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Mcr-King schrieb:
Zu den Spiegelungen sorry gab es in HL2 schon ohne DXR.
Naja, DXR funktioniert schon ganz anders als screen space reflections.
Es gibt viele Beispiele richtig schöner Reflektionen in Spielen, das ist klar. Aber wenn DXR richtig funktioniert, ist das Ergebnis schon durchaus ein anders. Screen space ist halt vorberechnet, heisst, du findest in der Regel keinerlei Charaktere oder gar Partikeleffekte etc. die sich darin reflektieren. Das ist eigentlich einer der auffälligsten Unterschiede gegenüber DXR.

Ich nutze es mangels RTX Karte auch nicht und bin bislang auch nicht daran interessiert, aber sollte sich die Technik durchsetzen und verbreiten, wären damit richtig geile optische Spielereien möglich. Bislang hat mir das Feature aber nie gefehlt.
 
Chismon schrieb:
Das ist schon klar, dass die Karte minimal beschnitten ist, aber eben auch fast der Vollausbau, was mit der Fertigungsausbeute zusammen haengen duerfte.

die Radeon VII ist eine 1:1 umgelablte MI50, welche beide 60 CUs aktiviert haben. Es gibt noch die MI60, welche die vollen 64 CUs aktiviert hat.

Jetzt ist die Frage, bleibt die Radeon VII eine Einzel-Karte oder kommt noch analog zu Vega 64/56 ein Cutdown mit vielleicht 52 aktiven CUs. Oder kommt noch eine Version mit vollen 64 CUs.

Ich bin enttäuscht, dass AMD zum ersten mal nicht einen Vollausbau anbietet. Und das für den Schnapper-Preis von $700. Nvidia hats ja vorgemacht, die 2080 ist auch zum ersten mal nur ein Cutdown des TU104.
 
Cool Master schrieb:
Stimmt nicht... Nutzt doch einfach mal Google für 10 Sekunden statt alles zu wiederholen was man liest.
Nicht gleich beißen, das geht auch höflicher... genau das habe ich gemacht und einige Suchergebnisse auf Page 1 geben genau den Sachverhalt (nicht ganz zutreffend als Onkel/Nichte) so wieder. Aber du hast Recht, es war nicht richtig. Der von dir zitierte Artikel hat allerdings genau die gleiche falsche Angabe in der Einleitung...
 
Einhörnchen schrieb:
Nicht gleich beißen, das geht auch höflicher...

Bei so etwas muss man den Ton einfach verschärfen damit sich der Unsinn nicht noch weiter verbreitet.

Einhörnchen schrieb:
genau das habe ich gemacht und einige Suchergebnisse auf Page 1 geben genau den Sachverhalt (nicht ganz zutreffend als Onkel/Nichte) so wieder.

Und genau deswegen sucht man nach mehrere Quellen, wie bei Reviews auch. Das Problem ist halt, dass viele Seiten aus einer Quelle abschreiben bzw. die Infos bekommen. Bedeutet also wenn das falsch ist hat es nicht nur eine Seite falsch sondern zig weitere.

Dazu kommt was würde wohl die Börsenaufsicht dazu sagen wenn das Onkel und Nichte wäre? Die würde das denke ich nicht so locker sehen und würde da einige Auflagen aufstellen damit es da zu keinen Problemen kommt. Also bei so etwas einfach mal etwas kritisch hinterfragen.

Einhörnchen schrieb:
Der von dir zitierte Artikel hat allerdings genau die gleiche falsche Angabe in der Einleitung...

Nennt man Clickbait... Genau deswegen ließt man alles und nicht nur die Einleitung, das war bei mir halt der 1. Artikel in der Google suche.

Hier ist auch noch ein Artikel, in dem es Dr. Lisa Su sogar bestreitet:

https://web.archive.org/web/2019011...e/data/html_dir/2018/08/31/2018083101687.html

Quelle: https://en.wikipedia.org/wiki/Lisa_Su#cite_note-36
 
bei mindfactory gibt es grad für 590 € ne gainward 2080 im mindstar. schade amd
 
ZeroZerp schrieb:
...
Als dann aber die ersten Entwickler begriffen haben, was für ein Werkzeug sie da in den Händen halten und wie man die neuen Möglichkeiten nutzt, hat sich das Blatt schnell gewendet.

...

Gelacht nicht wirklich, es war das Totschlagargent für den Grafikkarten kauf!
Aber, es war nicht das Killerfeature schlechthin.
Ergänzung ()

T&L - das nicht eingelöste Versprechen
 
Zuletzt bearbeitet:
andi_sco schrieb:
Gelacht nicht wirklich, es war das Totschlagargent für den Grafikkarten kauf!
Aber, es war nicht das Killerfeature schlechthin.
Ergänzung ()

T&L - das nicht eingelöste Versprechen

Ja- Schau mal von wann der von mir verlinkte (und von Dir nochmal gepostete) Artikel ist.

Wir wissen ja, dass T&L im Nachgang nicht nur das Versprechen eingelöst hat, sondern zum de Facto Standard avanciert ist, weil deutlich überlegen.
 
Hä?
T&L war schon durch DX8 schnell abgelöst, da viel zu unflexibel. Oder war die Kyro durch das fehlende T&L so ein Rohrkrepierer? Eher der fehlende Markenname war das Problem.
Wo war das ein defakto Standard?
Vllt bei Spielen mit der Quake 3 Engine, aber sonst?
 
Reset90 schrieb:
ich will das die jetzt auch vorgestellt werden und im februar zu kaufen gibt
Immer diese Ungeduld, immer will man alles gleich haben heutzutage... Was machen schon 4, 5 Monate aus? ;)
 
Floppy5885 schrieb:
8GB für 1080TI leistung ist zu wenig und die RTX2080 wurde meiner meinung als Speicherkrüppel released.
Jedoch glaube ich nicht das die PS5 oder XBOX „TWO“ 16 GB Vram haben werden.
Die PS4 PRO hat 8GB DDR5 und 1 GB DDR3
Ich denke das die PS5 vermutlich aus einer ähnlichen Kombi bestehen wird 12GB DDR5/X/6 mit 2GB DDR3/4. Aber auf keinen Fall für 499€ 16 GB DDR5/X/6.
Zudem können Spiele auf der PS4 Pro max 5,5GB des 8GB großen Speicher nutzen da der Rest für das System reserviert wird. Somit hat sie PS4 Pro für mich 5,5GB VRam

Schonmal was von Tellerrand gehört??
Die Xbox One X hat jetzt schon 12GB RAM. 16GB RAM wären für die nächsten Konsolen meiner Meinung nach ein zu kleiner Schritt. Ich rechne eher mit 20, daher sind die 16GB der Vega II auf keinen Fall zu wenig
Ergänzung ()

abenteuR schrieb:
1080Ti kann man immer noch kaufen :rolleyes:

Hast du dir mal die Preise angeschaut?? :rolleyes:
 
Zuletzt bearbeitet:
acc schrieb:
du weisst aber schon, dass diese aussage grundsätzlich falsch ist oder?

Hättest du weiter gelesen, dann wäre dir aufgefallen dass das ironisch gemeint war
 
DrFreaK666 schrieb:
Schonmal was von Tellerrand gehört??
Die Xbox One X hat jetzt schon 12GB RAM. 16GB RAM wären für die nächsten Konsolen meiner Meinung nach ein zu kleiner Schritt. Ich rechne eher mit 20, daher sind die 16GB der Vega II auf keinen Fall zu wenig
Ergänzung ()



Hast du dir mal die Preise angeschaut?? :rolleyes:

Die momentan 12GB RAM der XBox One X teilen sich aber für Spiele/System. Spiele nutzen 8GB, den Rest das System selbst. Bei 20GB wären es immerhin 12GB/8GB in Kombination mit stärkerer CPU die hier momentan eh der Flaschenhals ist. Dazu ist die Bandbreite noch "relativ" gering mit 326GB/s. Da wird die nächste Generation schon ne Schippe drauf legen egal ob Sony oder Microsoft.

An einen PC kommt das natürlich trotzdem nicht ran da dort die Leistungsaufnahme völlig egal ist, bei einer Konsole nicht. Das wichtige ist aber generell der Fortschritt sowohl bei den Konsolen als auch dem PC selbst.

Die Radeon VII ist ja eher ein Zwischenschritt bis Navi, möglich gemacht durch Nvidia's Preispolitik.
 
DrFreaK666 schrieb:
Schonmal was von Tellerrand gehört??
Die Xbox One X hat jetzt schon 12GB RAM. 16GB RAM wären für die nächsten Konsolen meiner Meinung nach ein zu kleiner Schritt. Ich rechne eher mit 20, daher sind die 16GB der Vega II auf keinen Fall zu wenig
Ergänzung ()


Ja das ist mir bewusst aber wie wahrscheinlich hälst du es das weiter der deutliche günstigere DDR5 speicher verwendet wird. Ich denke mal das die neue Konsolengeneration auf GDDR6 oder mindestens GDDR5X setzt. Und dafür halte ich 20GB absolut unrealistisch. Das Teil darf und wird nicht mehr als 500€ bis max 600€ kosten und mit einem Ryzen und 20GB GDDR6 wird das den Rahmen sprengen.
Und wie ich bereits in meinem anderen Kommentaren schrieb, wird es vermutlich eine Kombination aus Normalen Ram und VRam werden. D.h. zb. 12 GB GDDR6 und 4GB DDR4 für das System.
 
Stand heute kann die XBox sogar 9 GB für Spiele verwenden. Bleiben also effektiv vermutlich 4 bis höchstens 6 GB als "normaler" Grafikspeicher übrig.

Wenn sie das Design mit dem Shared Memory behalten wollen, wird die nächste Gen höchstens 16GB davon verbaut haben. Davon werden 12-13 GB für Spiele reserviert sein. Und das sind wohlgemerkt RAM + VRAM. Nichts, was ein aktueller PC nicht überbieten könnte (mit natürlich langsameren RAM). Ich kann mir also schwer vorstellen, dass mehr als 8GB für Texturen usw. draufgehen werden.

Aber wer weiß, vielleicht trennen sie den Speicher wieder oder die Preise sinken noch drastisch.
Was würden stand heute 16GB GDDR6 für Unternehmen wie Microsoft/Sony kosten?
 
Hört sich doch ganz gut an, nach nur noch ca. einem halben jahr an der 80er dran.
Vieleicht gibet ja später eine abgespeckte 8GB version.
 
Noegge schrieb:
Hört sich doch ganz gut an, nach nur noch ca. einem halben jahr an der 80er dran.
Vieleicht gibet ja später eine abgespeckte 8GB version.

Das stimmt so nicht. Die 2080er ist im Prinzip auf gleichem Performanceniveau wie einst die 1080 Ti, je nach Titel auch marginal schneller. Die 1080 Ti gibt bzw. gab es aber bereits vor fast 2 Jahren auf dem Markt. Das heißt im Umkehrschluss, dass eine auf 7nm geshrinkte Vega gerade einmal das Performanceniveau einer 1080 Ti in 16nm +- ein paar Prozent erreichen wird.

Dass einzige, was die Karte halbwegs interessant macht sind die 16GB VRAM. Als reine Gamingkarte jedoch ist die Karte nicht wirklich interessant.

RTX2080:

DLSS Support
RT Support
Mesh Shading Support
Effizienter
Ist mittlerweile günstiger als die angepeilte MSRP der Radeon VII

Nachteil: 8GB VRAM statt 16.

Radeon VII:

Kein DLSS Support
Kein RT Support
Kein Mesh Shading Support
wird mehr Energie benötigen / Performance pro Watt ist bei Vega alles andere als gelungen

Vorteil: 16GB VRAM

Wenn ich also vor der Wahl stünde eine RTX2080 für 599€ oder eine Radeon VII für > 700€ nehmen zu wollen als Gamer, dann würde ich mit der 2080 wahrscheinlich besser fahren.
 
Zuletzt bearbeitet:
Zurück
Oben