News AMD Vega: Primitive Shader müssen vom Spiel unterstützt werden

warum werden die karten überhaupt noch verkauft? -.- soll amd sie doch behalten und selber minen...
 
Vielleicht findet sich ja eine Kryptowährung, die von Primitive Shadern profitieren kann (oder es gibt schon eine?), dann haben die Miner auch was von ihren Vegas. :freak:
 
Tjo, brauch man sich nicht wundern das die 480mm² brauchen um mit GP104 314mm² mithalten zu können, wenn gefühlt 1/3 der DIE denn Rest nur "anfeuert".

Mit allen Features wäre das ding wohl bei der 1080Ti @2,1GHz.
Aba das wird man nie sehen, da PS von keinem einzigen game verwendet wird in 2-3 Jahren.

Da hätte ich boch lieber ein Biosupdate das alle Transitoren für PS deaktiviert.:freak:(falls das überhaupt geht lol)
 
Zuletzt bearbeitet von einem Moderator:
Shrimpy schrieb:
Tjo, brauch man sich nicht wundern das die 480mm² brauchen um mit GP104 314mm² mithalten zu können, wenn gefühlt 1/3 der DIE denn Rest nur "anfeuert":freak:

Dabei muss man noch bedenken das HBM Speichercontroller und Bus deutlich kleiner als beim GDDR5x äquivalent sind.
Um Vergleichbarkeit Herzustellen müsste man nochmal um die 40mm2 bei Vega dazu addieren.
 
Shrimpy schrieb:
Tjo, brauch man sich nicht wundern das die 480mm² brauchen um mit 314mm² mithalten zu können, wenn gefühlt 1/3 der DIE denn Rest nur "anfeuert":freak:

Vieles ist noch inaktiv oder nicht Supportet, sicherlich ist das traurig aber da kommen locker noch 20% mehr Leistung mit der Zeit, siehe Release von älteren AMD/ATi Karten vs Nvidia jeweils deren Starttreiber und wo sie Heute stehen, quasi überall ist eine alte AMD Ihren ehemaligen direkten Konkurenten mit der Leistung davon gefahren... wie ich weiter oben schon geschrieben habe!

NV hat nunmal in jedem bekannten Gamestudio oder Engine einen Fuß in der Tür.

Ich wette drauf das die Vega64 in Zukunft eine 1080Ti in 75% aller Spiele versägt!
 
Retro-3dfx-User schrieb:
Ich wette drauf das die Vega64 in Zukunft eine 1080Ti in 75% aller Spiele versägt!

Vielleicht, das einzige was sicher ist das es zu lang dauern wird, bis es so weit ist das die nCU-Funktionen gebraucht werden, @ Mobile APUs, seitens der Defs ist Vega10 altes Eisen sowie die 1080Ti.
 
Zuletzt bearbeitet von einem Moderator:
Shrimpy schrieb:
Vielleicht, das einzige was sicher ist das es zu lang dauern wird, bis es so weit ist das die nCU-Funktionen gebraucht werden @ APUs bei Mobile seitens der Defs ist Vega10 altes Eisen sowie die 1080Ti.

Hardware hält immer länger. Da sind Features wie HBCC Gold wert. Ohnehin uninteressant für Nvidia, die bauen lieber Speicherkrüppel.

Kleiner Funfact: In Wolfenstein 2 überholt eine 280x mit 6GB eine GTX980 mit 4GB bei geschmeidigen 62fps in Ultra Settings in FullHD!

http://www.pcgameshardware.de/Wolfe...us-im-Technik-Test-Benchmarks-Vulkan-1242138/

Schraubst du die Grafik nur von Ultra auf Hoch kann man noch jedes Spiel problemlos spielen. Und das meist ohne spürbaren Qualitätsverlust.

Die 7970 ist 6 Jahre alt.
 
psYcho-edgE schrieb:
Es wurde auf keiner Seite von Nvidia korrigiert. Offiziell ist sie immer überall mit 256bit SI angegeben. Und die Angaben von ROP und Cache, wenn die je gemacht wurden außerhalb von Pressematerial, sind wahrscheinlich auch unkorrigiert.

Ich meinte damit nicht das Nvidia über die 970 spricht, sondern das Nvidia diese technische Lösung schon früher so umgesetzt hat ohne falsche Informationen vorher zu erzählen: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-660-ti-test.1860/
Damals war es kein Problem und als ich mit der 970 Schatten über Mordor probiert habe, war das alles andere als unspielbar.

Zurück zum Thema
Ich kann mir noch nicht so richtig vorstellen, das eine Vereinfachung der Geometrie Berechnung, Spiele spürbar schneller macht.
Das Hauptproblem wurde aber schon angesprochen. Die Verbreitung von aktuellen AMD Grafikkarten bei Leuten die Spiele spielen ist so gering, das die neue Technik wohl kaum in neue Spiele integriert wird.
 
Retro-3dfx-User schrieb:
Vieles ist noch inaktiv oder nicht Supportet, sicherlich ist das traurig aber da kommen locker noch 20% mehr Leistung mit der Zeit, siehe Release von älteren AMD/ATi Karten vs Nvidia jeweils deren Starttreiber und wo sie Heute stehen, quasi überall ist eine alte AMD Ihren ehemaligen direkten Konkurenten mit der Leistung davon gefahren...

Sowas nennt man heutzutage "Alternative Fakten".
Die Tatsachen kann zum Glück jeder nachlesen:

Damals:
https://www.computerbase.de/artikel...-r7-370-test.50177/seite-3#abschnitt_leistung

Heute:
https://www.computerbase.de/artikel...marks_in_1920__1080_2560__1440_und_3840__2160

Der geneigte Leser vergleiche einmal z.B. GTX 970 mit R9 390 oder GTX 960 mit R9 380
Ergänzung ()

G3cko schrieb:
Kleiner Funfact: .

Ist das verwunderlich, wenn der einen Karte der Speicher ausgeht?
Da kannst du noch viel mehr Funfacts in dem Test finden.
 
Umso mehr wunderst mich das sich Kepler so gut verkauft hat gegen GCN 1 und 2...:rolleyes:
Die 970 ist 9 Monate jünger als Hawaii...
Tonga war naja, konnte von Anfang an nicht überzeugen, da war Tahiti sogar besser, trotz verbrauch imho.
 
Zuletzt bearbeitet von einem Moderator:
@kisser, du vergleichst die falschen Karten. Nimm die HD2900XT und vergleich sie mit der Geforce 8800 GTS 640. Oder die HD3870 vs. Geforce 8800 GTX 512. Durch das moderne Featureset der HD Reihe sieht die alte Garde von Nvidia in neueren Spielen kein Land mehr. Vom G80 RAM Bug, der den RAM vollaufen ließ und längere Spielesessions quasi unmöglich machte will ich gar nicht reden. Dank DX10.1 kannst du die HD3870 sogar noch für DX11 Spiele samt deren Effekte wie Tesselation nutzen, obwohl es die Karte damals unter DX10 noch gar nicht konnte. Und genauso wird es sich mit den Vega Karten verhalten. Wirst schon sehen, deren Funktionsumfang wird Standard werden. Dafür wird Intel schon sorgen...
 
Einfach nur falsch, eine HD3870 hat viel viel schlechter gealtert, als eine 8800GT, was der damalige Gegenspieler war, von einer 8800GTX waren alle damaligen Karten weit entfernt. Ich hatte eine HD3870...
 
G3cko schrieb:
c&c2 lief auf meinem 486sx25 damals auch ...
wieso packt hier jeder jedesmal den wolfenstein2 test von pcgh aus
spielen wir jetzt die nächsten 20 jahre alle wolfenstein ?
die games sind ausnahmen, weil die jungs wissen wie man programmiert. leider...
Retro-3dfx-User schrieb:
Ich wette drauf das die Vega64 in Zukunft eine 1080Ti in 75% aller Spiele versägt!
ich wette dagegen!
 
Für AMD Hardware muss man viel Entwickler-Voodoo betreiben damit sie performant ist.
Darum tut es auch keiner. AMD muss schon kompatibel zum Marktführer sein, anstatt ständig mit Eigenentwicklungen zu kommen. Sie müssen performant auf Basis des Mainstreams sein. Statt dessen beschneiden sie den Support, weil nicht genug Geld reinkommt - oder weil sie es als unnötige Investition sehen.

Diesen Unfug hört man die ganze Zeit. Wenn Windows dies und das supporten würde, dann wären die CPUs schneller, wir haben echte Cores und keine zusammengepappten wie Intel, wenn dies dann das, hätte hätte Fahradkette :D Wenn die Welt so funktionieren würde, hätten wir schon 3 Galaxien besiedelt.

Uns selbst liefern sie nicht einen Grafik Bomber der mal die Features demonstriert. Genug Geld hätten die...
 
Zuletzt bearbeitet von einem Moderator:
Bei AMD gabs immer mehr Leistung, Features oder VRAM bei gleichem Preispunkt. Nun durch das Mining schaun nun alle in die Röhre, aber dann kann man sich ja schon einmal dran gewöhnen. Denn gebracht hat AMD das so gut wie nichts. Der Fanboy sorgt nunmal für keinen Wettbewerb, dann braucht er sich auch nicht über zu hohe Preise beschweren. So einfach ist das.
 
hmmm jetzt ist die Frage, wie Nvidia von Primitve Shader profitiert. Wenn kaum bis gar nicht werden die ganzen Spiele in die ich Nvidia eingeschmiert hat, Primitve Shader nie und nimmer unterstützen, da das ja mehr FPS für andere bringen könnte. Und dann müsste man ja wieder mehr Bremsen einprogrammieren lassen.
 
Zurück
Oben