News 3DMark 11: Potentielle Radeon RX Vega mit 8 GB und 1.630 MHz

pio! schrieb:
ja es ist wünschenswert, dass Funktionen bewusst zurück gehalten werden.
Ich selbst hoffe das und möchte bei passender P/L auf Vega umsteigen.

Wir alle hoffentlich das, mit 40 Jahren auf dem Bucket ist mir aber kein Beispiel geläufig bei dem vorab leaks eine durchwachsene performance gezeigt hätten die bei release dann stark war.
 
Hejo schrieb:
Meiner Meinung nach ist GCN am Ende, ist wie bei Bulldozer, AMD braucht jetzt noch etwas Zeit
den "Ryzen der GPU´s" zu entwickeln.
Ich denke das weiß AMD auch.
Vega wird über den Preis gehen, ich hoffe es bleibt dabei trotz HBM noch was übrig für AMD.

genau das hat man doch bei Vega versucht und deswegen kommt sie so spät. Deswegen nennt sich das Design auch "NCU" und vermutlich bricht die Karte auch mit GCN.
Die Frage ist ob das neue Design noch brauchbar wird oder mit passendem Treiber bereits ist.

Architekturänderungen können auch nach hinten losgehen - siehe Bulldozer.

@ Skylake X

Gehört hier zwar nicht her aber die Gewinnmarge dürfte auch bei Skylake X enorm hoch sein. Ich mein hier erwarten viele ne 500mm² GPU mit teurem HBM, Interposer, aufwendigem PCB und Kühler für 400€.

Jetzt kann man sich leicht ausmalen dass selbst ein Skylake X 18 Kerner in der Produktion dagegen ein Witz ist was Selbstkosten angeht. Vermutlich kostet der keine 100€ in der Fertigung, eher weniger.

Das jetzt bezogen darauf dass immer wieder argumentiert wird dass Intel bei Skylake X nicht übern Preis gehen kann. Können sie durchaus, da gibts sicher noch massiv Spielraum. Intel hält das aber sicher nicht für nötig.
 
Zuletzt bearbeitet:
was haben die AMD Jünger erwartet? das AMD wie Phönix aus der Asche aufersteht und die 1080ti in grund und boden stampft?? bitte etwas realitätssinn ist gefragt.

ja die karte klingt auf dem papier toll ( das war die x2900XT damals auch mit 512bit speicherinterface, aber die 8800gtx hat den boden mit der aufgewischt), aber abgerechnet wird erst wenn sie auf den markt kommt. und wer glaubt, dass ein treiberoptimierung an der endpahse der entwicklung 80% mehr leistung bringt lebt in einer märchenwelt ...
 
Chesterfield schrieb:
was haben die AMD Jünger erwartet? das AMD wie Phönix aus der Asche aufersteht und die 1080ti in grund und boden stampft?? bitte etwas realitätssinn ist gefragt.

wieso nicht? Das Teil ist > doppelt so groß wie Polaris und größer als GP102 und setzt auf HBM. Natürlich erwartet man da eine Konkurrenz zur GTX 1080 TI die auch noch teilaktiv ist. Dazu fast 600 Mhz mehr als Fiji.

Der "Realitätssinn" spricht für Leistung > GTX 1080 TI Niveau.

Die 2900 XT war kleiner als der Nvidia Counterpart. Ihr Problem war vor allem das total überdimensionierte SI.
 
Ich hoffe einfach sie ist schneller als die GTX 1080 und ich wäre schon Glücklich.

Das man die GTX1080ti nicht so einfach schlägt war ja klar und wenn dann nur mit DX12/Vulkan.
 
Chesterfield schrieb:
was haben die AMD Jünger erwartet? das AMD wie Phönix aus der Asche aufersteht und die 1080ti in grund und boden stampft?? bitte etwas realitätssinn ist gefragt.

Hat doch mit Ryzen auch geklappt?
Performance quasi aufgeholt und über den Preis wird auch genug abgesetzt.
Da war es der erste Schritt und Zen 2 / Pinnacle Ridge werden dann zeigen wohin die Reise tatsächlich geht.

Genauso mit Raven Ridge dann im mobilen / APU-Sektor.

Und das gleiche kann man ja beim Vega "hoffen" - wenn es am Ende GTX1080-Performance wird auch nicht schlimm.
Dann muss halt seitens AMD hier und da etwas auf Optimierung in den Treibern / Spielen "gepusht" werden und vielleicht ordnet man sich dann zwischen 1080 und 1080 Ti ein.
 
DenMCX schrieb:
Hat doch mit Ryzen auch geklappt?
Performance quasi aufgeholt und über den Preis wird auch genug abgesetzt...

Und das gleiche kann man ja beim Vega "hoffen" - wenn es am Ende GTX1080-Performance wird auch nicht schlimm.
Dann muss halt seitens AMD hier und da etwas auf Optimierung in den Treibern / Spielen "gepusht" werden und vielleicht ordnet man sich dann zwischen 1080 und 1080 Ti ein.


AMD ryzen hat "aufgeschlossen" aber die schnelleren produkte liefert immer noch intel ( wenn auch mit x299 desatster und sicher keine kaufempfehlung)...

denke eher das sich vega in richtung 1080 als gegner auserkoren lässt als die 1080ti, und dann müsste amd unter die 500€ der 1080 gehen. ob dieses mit so einer "dicken Die" und HBM2 gehen kann rechnerisch muss man abwarten.

ich sage nur es wird alles net so heiss gegessen wie es gekocht wird, und amd Vega kocht gewaltig die gerüchte küche und bleibt abzuwarten was dran ist...

erwartungen an vega war meines wissens die "schnellste gamerkarte" auf den markt zu bringen ( bzw hoffnungen der amd Jünger), bleibt aber eben abzuwarten... rational wird es wohl, wenn was wahres an den bisherigen ergebnissen sein sollte, eher schwierig ,
Ergänzung ()

Krautmaster schrieb:
wieso nicht? Das Teil ist > doppelt so groß wie Polaris und größer als GP102 und setzt auf HBM. Natürlich erwartet man da eine Konkurrenz zur GTX 1080 TI die auch noch teilaktiv ist. Dazu fast 600 Mhz mehr als Fiji.

du sagst es doch gerade, ja es klingt gut ( papiertiger), aber die realität ( wenn was wahres dran ist an den benchmarks) sieht wohl eher anders aus leider
 
Krautmaster schrieb:
genau das hat man doch bei Vega versucht und deswegen kommt sie so spät. Deswegen nennt sich das Design auch "NCU" und vermutlich bricht die Karte auch mit GCN.
Die Frage ist ob das neue Design noch brauchbar wird oder mit passendem Treiber bereits ist.

In Anbetracht dessen, dass Vega AMDs erste InfinityFabric GPU darstellt, bei der die Softwareentwicklung an Komplexität weiter zugenommen hat - Koduri selbst hat sich auf Reddit zu dem Softwareaufwand bei GPUs geäußert und als einen Grund genannt warum es so wenige Unternehmen gibt, die GPUs entwickeln - würde ich die Erwartungen an einen RX Gaming Treiber, der Wunder wirken soll, nicht allzu hoch schrauben. Wie sagen einige so schön:"AMDs GPUs reifen mit der Zeit." Wird bei Vega mit Sicherheit nicht anders sein.
 
Im Zweifel geht es weniger um 200 vs. 210 FPS als vielmehr um 15 vs 25 FPS (bspw. Massenschlachten in MMOs). Da ist dann ein Thread auf 100% und die anderen 15 langweilen sich. Für jemanden der hauptsächlich Guild Wars 2 o.ä. spielt ist Intel nach wie vor die beste Wahl.
200 vs. 210FPS ist der Unterschied 5%
Bei 25FPS für einen Intel hätte der AMD ~23,75 FPS. Ryzen hat eine gute IPC, selbst in CPU-Limits ist intel maximal 5-10% vorne wie man schön an den CB-Tests sehen kann. Ryzen ist sicherlich noch minimal hinter intel von der IPC und etwas vom Takt her. Letzteres (Takt) haben nur die teuren Intel (ab 7700K, oder neue 2066 Platform) ordentlich (i5K OC mal ausgeschlossen).
So, genug OT ;)

Ich denke Vega wird schon gut werden. Die gammelige FuryX konnte in 4K ja schon mit der 1070 mithalten. Das Problem war die Auslastung in geringen Auflösungen, und genau da wird man mit Vega ansetzten. Ich denke es kommen wieder 2-3 Modelle. Eins wohl so um 1070 bis 1080. Eine unter der Ti, und eine ggfs. darüber mit 16GB. Wobei die sich noch was verzögern könnte wegen dem HBM "Problem".
in 3 Wochen wissen wir mehr :)
 
Ziemlich nichtssagende Benchmarks.

Mal auf die richtigen Benches warten (mit frischem Treiber)

Denke allerdings nicht, dass Vega die 1080 Ti schlagen wird (sofern nicht ein größerer Chip kommt als dieser hier aus dem Artikel)
 
Selbst wenn AMD "nur" nen 1080 konkurrenten hinstellt für weniger Geld ist das das beste was uns passieren kann:
Das drückt nämlich endlich mal die Mondpreise, die Nvidia für Mittelklassechips der 1070 und 1080 verlangt (selbst ohne den Mining-Hype).
 
Kann ich mir nicht vorstellen, dass AMD Vega mit HBM deutlich günstiger wird als ne 1080 (bei ähnlicher Leistung): HBM + großer Chip
 
@PR3D4TOR

Danke dir, meine Rede. und zu dem "aufwand" nur mit einem mittelklasse chip 1080 NV zu konkurrierenist kein "echter erfolg" wenn man mal den leistungshunger der VEGA im Pro bereich ansieht !!
 
Mal sehen, ob meine Schätzung mit der Leistung knapp unter der 1080TI doch noch klappt, da der Gaming Treiber erst später erscheint und aktuell vielleicht noch nicht genutzt wurde. Hoffnung besteht aktuell noch :)
 
Rohleistung liegt scheinbar auf 1080 Niveau, mit Treiber Optimierungen ist sicher 1080Ti Level oder ein wenig drunter realistisch. Des Weiteren hat AMD auch noch die Möglichkeit weitere Optimierungen in bestimmte Games einfliessen zu lassen, hier sehe ich auch gute Chancen der 1080Ti weiter das Wasser abzugraben.
 
Zuletzt bearbeitet:
3DMARK 11 ist eine alte Version und dazu nur der Performance Test in 720p Auflösung:lol:
 
Zuletzt bearbeitet:
@ Skylake X

Gehört hier zwar nicht her aber die Gewinnmarge dürfte auch bei Skylake X enorm hoch sein. Ich mein hier erwarten viele ne 500mm² GPU mit teurem HBM, Interposer, aufwendigem PCB und Kühler für 400€.

Jetzt kann man sich leicht ausmalen dass selbst ein Skylake X 18 Kerner in der Produktion dagegen ein Witz ist was Selbstkosten angeht. Vermutlich kostet der keine 100€ in der Fertigung, eher weniger.

Das jetzt bezogen darauf dass immer wieder argumentiert wird dass Intel bei Skylake X nicht übern Preis gehen kann. Können sie durchaus, da gibts sicher noch massiv Spielraum. Intel hält das aber sicher nicht für nötig.

Krautmaster

und wieder ein völlig an den Haaren herbeigezogener Beitrag von dir, der sich nicht mal im geringsten mit der Materie beschäftig. Es ist bekannt dass AMDs Yield bei den 1800x CPUs bei über 80% liegt und dabei kosten von ca 80Dollar per Die verursacht und dabei gerade mal 189mm2 gross ist. AMDs TR 16c ist doppelt so gross (378mm2), und da bei IF die CPUs zusammengeschalten werden sind die kosten auch doppelt so hoch da ebenso für den TR die selbe Yield gilt. Ergibt ca 160 Dollar kosten für eine 16c TR CPU
Skylake X 18c ist 484mm2 gross, also nochmal 28% grösser als 16c Threadripper, ausserdem ists ne native CPU, muss also am Stück gefertig werden. Die Yield bei dieser Die Grösse liegt vermutungen nach bei ca 40% also kostet es doppelt soviel die CPU herzustellen da ein Ausfall kompensiert werden muss. Sind wir schätzungsweise schon bei ca 400$ wenn man mit den Kosten/per mm2 von GF rechnet plus den 28% grösseren Die als TR dazurechnet. Dazu kommen noch die Fabkosten die auch sicherlich nochmal ordentlich draufschlagen. Klar ist es nicht genau, Milchmädchenrechnung doch wenigstens ein kleiner Anhaltspunkt.
Du hingegen wirfst irgendwelche Zahlen raus ohne nur im geringsten mal nachzuprüfen was du da plaberst.
Hauptsache mal wieder deine blauen Freunde verteidigt. :rolleyes::rolleyes: :lol:
Das geht echt dermassen auf den Keks. :freak:
 
Zuletzt bearbeitet:
Tilidin schrieb:
@Shrimpy,

die explizite Unterstützung wird nur dann nötig, wenn mehr Leistung erzielt werden will, das geht aus den AMA Recap hervor.

Das Freut mich als LGA2011 User.
Hat dann sogar mehr bandbreite aufn RAM als die 512MB einer 970!:lol:
Grade bei Spielen Wie KSP kann mir der "Vram" garnicht mehr aus gehen.
 
DeadEternity schrieb:
Was hier alle hierbei anscheinend unter den Tisch kehren und bei solchen Kommentaren (die allerdings schon leider größtenteils korrrekt sind), sind die Konsolen. Die AMD Jaguar Plattformen in PS4 und Xbox. Eigentlich ein cleverer Zug von AMD damals in die Konsolenwelt vorzudringen und unabhänging von irgendwelchen Komplettsystem und Laptops in den "DAU-Markt" vorzustoßen.

Keine Sau interessiert sich, ob AMD die Chips designt hat. Da heißt es "Sony/MS hat echt ne tolle Konsole gebaut" - that's it.
Mir ist auch erst nach drei Jahren aufgefallen, dass meine Wii eine ATI-Grafiklösung eingebaut hatte.
 
Zurück
Oben